Rapport de recherche sur l'écosystème AI Layer1 : à la recherche d'un sol fertile pour DeAI off-chain
Aperçu
Ces dernières années, des entreprises technologiques de premier plan telles qu'OpenAI, Anthropic, Google et Meta ont continuellement poussé au développement rapide des modèles de langage de grande taille (LLM). Les LLM montrent des capacités sans précédent dans divers secteurs, élargissant considérablement l'espace d'imagination humaine et montrant même, dans certains cas, un potentiel pour remplacer le travail humain. Cependant, le cœur de ces technologies est fermement contrôlé par quelques géants technologiques centralisés. Grâce à un capital solide et à un contrôle des ressources de calcul coûteuses, ces entreprises ont établi des barrières difficilement surmontables, rendant la concurrence inaccessible pour la grande majorité des développeurs et des équipes d'innovation.
En même temps, au début de l'évolution rapide de l'IA, l'opinion publique se concentrait souvent sur les percées et les commodités apportées par la technologie, tandis que l'attention portée à des problèmes clés tels que la protection de la vie privée, la transparence et la sécurité était relativement insuffisante. À long terme, ces problèmes auront un impact profond sur le développement sain de l'industrie de l'IA et son acceptation par la société. Si ces questions ne sont pas résolues de manière appropriée, le débat sur le fait que l'IA soit "bienveillante" ou "malveillante" deviendra de plus en plus prononcé, tandis que les géants centralisés, poussés par leur instinct de profit, manquent souvent de motivation suffisante pour relever ces défis de manière proactive.
La technologie blockchain, grâce à ses caractéristiques de décentralisation, de transparence et de résistance à la censure, offre de nouvelles possibilités pour le développement durable de l'industrie de l'IA. Actuellement, de nombreuses applications "Web3 AI" ont déjà émergé sur certaines blockchains majeures. Cependant, une analyse approfondie révèle que ces projets présentent encore de nombreux problèmes : d'une part, le degré de décentralisation est limité, les étapes clés et les infrastructures dépendent encore des services cloud centralisés, ce qui rend difficile le soutien d'un écosystème véritablement ouvert ; d'autre part, par rapport aux produits d'IA du monde Web2, l'IA on-chain présente encore des limites en termes de capacité des modèles, d'utilisation des données et de scénarios d'application, et la profondeur et l'ampleur de l'innovation doivent être améliorées.
Pour réaliser la vision d'une IA véritablement décentralisée, permettant à la blockchain de supporter des applications AI à grande échelle de manière sécurisée, efficace et démocratique, tout en rivalisant en performance avec les solutions centralisées, nous devons concevoir une blockchain Layer1 spécialement conçue pour l'IA. Cela fournira une base solide pour l'innovation ouverte, la démocratie de gouvernance et la sécurité des données de l'IA, favorisant le développement prospère de l'écosystème de l'IA décentralisée.
Les caractéristiques clés de AI Layer 1
AI Layer 1, en tant que blockchain spécialement conçue pour les applications d'IA, a son architecture sous-jacente et sa conception de performance étroitement centrées sur les exigences des tâches d'IA, visant à soutenir efficacement le développement durable et la prospérité de l'écosystème d'IA off-chain. Plus précisément, AI Layer 1 doit posséder les capacités centrales suivantes :
Mécanisme de consensus décentralisé et d'incitation efficace
Le cœur de AI Layer 1 réside dans la construction d'un réseau partagé de ressources telles que la puissance de calcul et le stockage. Contrairement aux nœuds de blockchain traditionnels qui se concentrent principalement sur la tenue de livres, les nœuds de AI Layer 1 doivent assumer des tâches plus complexes, non seulement fournir de la puissance de calcul, compléter l'entraînement et l'inférence des modèles d'IA, mais aussi contribuer à des ressources diversifiées telles que le stockage, les données et la bande passante, afin de briser le monopole des géants centralisés sur l'infrastructure de l'IA. Cela pose des exigences plus élevées en matière de consensus de base et de mécanismes d'incitation : AI Layer 1 doit être capable d'évaluer, d'inciter et de vérifier avec précision la contribution réelle des nœuds dans les tâches d'inférence et d'entraînement de l'IA, réalisant ainsi la sécurité du réseau et une allocation efficace des ressources. Ce n'est qu'ainsi que l'on peut garantir la stabilité et la prospérité du réseau, tout en réduisant efficacement le coût global de la puissance de calcul.
Excellente performance et capacité de support des tâches hétérogènes
Les tâches d'IA, en particulier l'entraînement et l'inférence des LLM, exigent des performances de calcul et des capacités de traitement parallèle très élevées. De plus, l'écosystème d'IA off-chain doit souvent prendre en charge des types de tâches diversifiés et hétérogènes, y compris différentes structures de modèles, traitement des données, inférence, stockage et d'autres scénarios variés. La couche AI Layer 1 doit être profondément optimisée au niveau de l'architecture sous-jacente pour répondre aux exigences de haute capacité de traitement, de faible latence et de parallélisme flexible, tout en prévoyant une prise en charge native des ressources de calcul hétérogènes, afin de garantir que toutes les tâches d'IA puissent fonctionner efficacement et de permettre l'expansion fluide de "tâches uniques" à "écosystèmes complexes et diversifiés".
Vérifiabilité et garantie de sortie fiable
L'IA Layer 1 ne doit pas seulement prévenir les abus des modèles, la falsification des données et autres risques de sécurité, mais elle doit également garantir la vérifiabilité et l'alignement des résultats de l'IA au niveau des mécanismes sous-jacents. En intégrant des technologies de pointe telles que les environnements d'exécution de confiance (TEE), les preuves à divulgation nulle de connaissance (ZK) et le calcul sécurisé multipartite (MPC), la plateforme permet que chaque inférence de modèle, chaque entraînement et chaque processus de traitement des données puissent être vérifiés de manière indépendante, assurant ainsi l'équité et la transparence du système IA. De plus, cette vérifiabilité peut aider les utilisateurs à comprendre la logique et les bases des résultats de l'IA, réalisant ainsi "ce que l'on obtient est ce que l'on souhaite", renforçant la confiance et la satisfaction des utilisateurs envers les produits IA.
Protection de la vie privée des données
Les applications d'IA impliquent souvent des données sensibles des utilisateurs, et dans des domaines tels que la finance, la santé et les réseaux sociaux, la protection de la vie privée des données est particulièrement cruciale. L'IA Layer 1 doit garantir la vérifiabilité tout en adoptant des techniques de traitement des données basées sur le chiffrement, des protocoles de calcul de la vie privée et des mesures de gestion des droits d'accès aux données, afin d'assurer la sécurité des données tout au long du processus d'inférence, d'entraînement et de stockage, prévenant ainsi efficacement les fuites et les abus de données, et éliminant les inquiétudes des utilisateurs concernant la sécurité des données.
Capacité puissante d'hébergement et de support au développement de l'écosystème
En tant qu'infrastructure de Layer 1 natif à l'IA, la plateforme doit non seulement posséder une avance technologique, mais aussi fournir aux développeurs, opérateurs de nœuds, fournisseurs de services d'IA et autres participants de l'écosystème des outils de développement complets, des SDK intégrés, un support opérationnel et des mécanismes d'incitation. En optimisant continuellement la disponibilité de la plateforme et l'expérience des développeurs, nous favorisons le déploiement d'applications IA natives riches et variées, réalisant ainsi une prospérité continue de l'écosystème IA décentralisé.
Sur la base de ce contexte et de ces attentes, cet article présentera en détail six projets représentatifs de l'IA Layer1, y compris Sentient, Sahara AI, Ritual, Gensyn, Bittensor et 0G, en systématisant les dernières avancées du secteur, en analysant l'état actuel des projets et en explorant les tendances futures.
Sentient : Construire des modèles d'IA décentralisés open source et fidèles
Aperçu du projet
Sentient est une plateforme de protocole open source qui construit une blockchain AI Layer1. La phase initiale est Layer 2, puis elle sera migrée vers Layer 1(. En combinant AI Pipeline et la technologie blockchain, elle construit une économie d'intelligence artificielle décentralisée. Son objectif principal est de résoudre les problèmes de propriété des modèles, de suivi des appels et de répartition de la valeur dans le marché LLM centralisé grâce au cadre "OML" (ouvert, rentable, loyal), permettant aux modèles d'IA d'implémenter une structure de propriété on-chain, une transparence des appels et une répartition de la valeur. La vision de Sentient est de permettre à quiconque de construire, collaborer, posséder et monétiser des produits d'IA, propulsant ainsi un écosystème de réseau d'agents d'IA équitable et ouvert.
L'équipe de Sentient Foundation rassemble des experts académiques de premier plan, des entrepreneurs en blockchain et des ingénieurs du monde entier, s'efforçant de construire une plateforme AGI communautaire, open source et vérifiable. Les membres clés comprennent le professeur Pramod Viswanath de l'université de Princeton et le professeur Himanshu Tyagi de l'institut indien de science, responsables respectivement de la sécurité de l'IA et de la protection de la vie privée, tandis que Sandeep Nailwal, cofondateur de Polygon, dirige la stratégie blockchain et l'écosystème. Les membres de l'équipe ont des antécédents variés dans des entreprises renommées telles que Meta, Coinbase, Polygon et des universités prestigieuses comme l'université de Princeton et l'institut indien de technologie, couvrant des domaines tels que l'IA/ML, le NLP, la vision par ordinateur, et collaborent pour faire avancer le projet.
En tant que projet de deuxième entreprise de Sandeep Nailwal, co-fondateur de Polygon, Sentient a dès le départ bénéficié d'une aura, avec des ressources, des contacts et une reconnaissance sur le marché riches, offrant un puissant soutien au développement du projet. Au milieu de l'année 2024, Sentient a réalisé un financement de 85 millions de dollars lors de son tour de table de semences, dirigé par Founders Fund, Pantera et Framework Ventures, avec d'autres investisseurs tels que Delphi, Hashkey et Spartan, parmi des dizaines de VC renommés.
![Biteye et PANews publient conjointement un rapport de recherche sur l'IA Layer1 : à la recherche de terres fertiles pour DeAI off-chain])https://img-cdn.gateio.im/webp-social/moments-f4a64f13105f67371db1a93a52948756.webp(
) architecture de conception et couche d'application
Couche d'infrastructure
Architecture principale
L'architecture centrale de Sentient est composée de deux parties : le pipeline d'IA (AI Pipeline) et le système de blockchain.
Les pipelines d'IA sont la base du développement et de l'entraînement des artefacts "IA loyale", comprenant deux processus clés :
Planification des données (Data Curation) : processus de sélection des données piloté par la communauté, utilisé pour l'alignement des modèles.
Formation à la fidélité (Loyalty Training) : garantir que le modèle maintienne un processus d'entraînement cohérent avec l'intention de la communauté.
Le système blockchain offre transparence et contrôle décentralisé aux protocoles, garantissant la propriété des artefacts d'IA, le suivi de leur utilisation, la répartition des revenus et une gouvernance équitable. L'architecture spécifique est divisée en quatre couches :
Couche de stockage : stockage des poids du modèle et des informations d'enregistrement des empreintes digitales ;
Couche de distribution : le contrat d'autorisation contrôle le point d'entrée de l'appel du modèle ;
Couche d'accès : Vérifie si l'utilisateur est autorisé via une preuve d'autorisation ;
Couche d'incitation : le contrat de routage des revenus attribue un paiement à chaque appel aux formateurs, aux déployeurs et aux validateurs.
Cadre de Modèle OML
Le cadre OML (Ouvert Open, Monétisable Monetizable, Loyal Loyal) est le concept central proposé par Sentient, visant à fournir une protection claire de la propriété et des mécanismes d'incitation économique pour les modèles d'IA open source. En combinant la technologie off-chain et la cryptographie native à l'IA, il présente les caractéristiques suivantes :
Ouverture : le modèle doit être open source, le code et la structure des données doivent être transparents, permettant à la communauté de reproduire, auditer et améliorer.
Monétisation : Chaque appel de modèle déclenche un flux de revenus, le contrat off-chain répartit les revenus entre les formateurs, les déployeurs et les vérificateurs.
Fidélité : le modèle appartient à la communauté des contributeurs, la direction des mises à jour et la gouvernance sont décidées par le DAO, et l'utilisation et la modification sont contrôlées par un mécanisme cryptographique.
![Biteye et PANews publient conjointement un rapport de recherche sur l'AI Layer1 : à la recherche de terres fertiles pour DeAI off-chain]###https://img-cdn.gateio.im/webp-social/moments-a70b0aca9250ab65193d0094fa9b5641.webp(
Cryptographie native à l'IA (AI-native Cryptography)
L'cryptographie native à l'IA utilise la continuité des modèles d'IA, la structure de variété à faible dimension et les caractéristiques de différentiabilité des modèles pour développer un mécanisme de sécurité léger "vérifiable mais non amovible". Sa technologie clé est :
Empreinte digitale intégrée : insérer un ensemble de paires clé-valeur query-response cachées lors de l'entraînement pour former une signature unique du modèle ;
Protocole de vérification de propriété : Vérification de la conservation des empreintes digitales par un détecteur tiers (Prover) sous forme de requête.
Mécanisme d'appel autorisé : avant d'appeler, il est nécessaire d'obtenir un "certificat d'autorisation" délivré par le propriétaire du modèle, puis le système autorise le modèle à décoder cette entrée et à renvoyer la réponse exacte.
Cette méthode permet d'implémenter "l'appel autorisé basé sur le comportement + la vérification de l'appartenance" sans coût de recryptage.
Cadre de reconnaissance des modèles et d'exécution sécurisée
Sentient utilise actuellement la sécurité mixte Melange : combinaison de la vérification par empreinte digitale, de l'exécution TEE et de la répartition des bénéfices des contrats off-chain. La méthode par empreinte digitale est mise en œuvre par OML 1.0 en tant que ligne principale, soulignant la pensée de "sécurité optimiste (Optimistic Security)", c'est-à-dire par défaut conforme, avec détection et sanction en cas de non-conformité.
Le mécanisme d'empreinte digitale est une mise en œuvre clé d'OML, qui permet au modèle de générer une signature unique pendant la phase d'entraînement en intégrant des paires de "questions-réponses" spécifiques. Grâce à ces signatures, le propriétaire du modèle peut vérifier la propriété, empêchant ainsi la copie et la commercialisation non autorisées. Ce mécanisme protège non seulement les droits des développeurs de modèles, mais fournit également un enregistrement traçable des comportements d'utilisation du modèle.
De plus, Sentient a lancé le cadre de calcul Enclave TEE, utilisant des environnements d'exécution de confiance (comme AWS Nitro Enclaves) pour garantir que le modèle ne répond qu'aux demandes autorisées, empêchant ainsi tout accès et utilisation non autorisés. Bien que le TEE repose sur du matériel et présente certains risques de sécurité, sa haute performance et
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
8 J'aime
Récompense
8
4
Partager
Commentaire
0/400
ZenZKPlayer
· Il y a 12h
Tu rêves encore, n'est-ce pas ? Cela peut-il rivaliser avec les géants de l'industrie ?
Voir l'originalRépondre0
BlockchainArchaeologist
· Il y a 12h
Ne regardez pas sans dire le prix ! Quel jeton écologique, envoyez-en un !
Voir l'originalRépondre0
ForkPrince
· Il y a 12h
C'est trop centralisé, il faut lutter contre le monopole.
Voir l'originalRépondre0
ChainDetective
· Il y a 12h
Il est vraiment difficile de faire s'effondrer les géants de la technologie qui contrôlent l'IA.
Recherche sur l'écosystème AI Layer1 : six projets pour le déploiement de l'avenir DeAI off-chain.
Rapport de recherche sur l'écosystème AI Layer1 : à la recherche d'un sol fertile pour DeAI off-chain
Aperçu
Ces dernières années, des entreprises technologiques de premier plan telles qu'OpenAI, Anthropic, Google et Meta ont continuellement poussé au développement rapide des modèles de langage de grande taille (LLM). Les LLM montrent des capacités sans précédent dans divers secteurs, élargissant considérablement l'espace d'imagination humaine et montrant même, dans certains cas, un potentiel pour remplacer le travail humain. Cependant, le cœur de ces technologies est fermement contrôlé par quelques géants technologiques centralisés. Grâce à un capital solide et à un contrôle des ressources de calcul coûteuses, ces entreprises ont établi des barrières difficilement surmontables, rendant la concurrence inaccessible pour la grande majorité des développeurs et des équipes d'innovation.
En même temps, au début de l'évolution rapide de l'IA, l'opinion publique se concentrait souvent sur les percées et les commodités apportées par la technologie, tandis que l'attention portée à des problèmes clés tels que la protection de la vie privée, la transparence et la sécurité était relativement insuffisante. À long terme, ces problèmes auront un impact profond sur le développement sain de l'industrie de l'IA et son acceptation par la société. Si ces questions ne sont pas résolues de manière appropriée, le débat sur le fait que l'IA soit "bienveillante" ou "malveillante" deviendra de plus en plus prononcé, tandis que les géants centralisés, poussés par leur instinct de profit, manquent souvent de motivation suffisante pour relever ces défis de manière proactive.
La technologie blockchain, grâce à ses caractéristiques de décentralisation, de transparence et de résistance à la censure, offre de nouvelles possibilités pour le développement durable de l'industrie de l'IA. Actuellement, de nombreuses applications "Web3 AI" ont déjà émergé sur certaines blockchains majeures. Cependant, une analyse approfondie révèle que ces projets présentent encore de nombreux problèmes : d'une part, le degré de décentralisation est limité, les étapes clés et les infrastructures dépendent encore des services cloud centralisés, ce qui rend difficile le soutien d'un écosystème véritablement ouvert ; d'autre part, par rapport aux produits d'IA du monde Web2, l'IA on-chain présente encore des limites en termes de capacité des modèles, d'utilisation des données et de scénarios d'application, et la profondeur et l'ampleur de l'innovation doivent être améliorées.
Pour réaliser la vision d'une IA véritablement décentralisée, permettant à la blockchain de supporter des applications AI à grande échelle de manière sécurisée, efficace et démocratique, tout en rivalisant en performance avec les solutions centralisées, nous devons concevoir une blockchain Layer1 spécialement conçue pour l'IA. Cela fournira une base solide pour l'innovation ouverte, la démocratie de gouvernance et la sécurité des données de l'IA, favorisant le développement prospère de l'écosystème de l'IA décentralisée.
Les caractéristiques clés de AI Layer 1
AI Layer 1, en tant que blockchain spécialement conçue pour les applications d'IA, a son architecture sous-jacente et sa conception de performance étroitement centrées sur les exigences des tâches d'IA, visant à soutenir efficacement le développement durable et la prospérité de l'écosystème d'IA off-chain. Plus précisément, AI Layer 1 doit posséder les capacités centrales suivantes :
Mécanisme de consensus décentralisé et d'incitation efficace Le cœur de AI Layer 1 réside dans la construction d'un réseau partagé de ressources telles que la puissance de calcul et le stockage. Contrairement aux nœuds de blockchain traditionnels qui se concentrent principalement sur la tenue de livres, les nœuds de AI Layer 1 doivent assumer des tâches plus complexes, non seulement fournir de la puissance de calcul, compléter l'entraînement et l'inférence des modèles d'IA, mais aussi contribuer à des ressources diversifiées telles que le stockage, les données et la bande passante, afin de briser le monopole des géants centralisés sur l'infrastructure de l'IA. Cela pose des exigences plus élevées en matière de consensus de base et de mécanismes d'incitation : AI Layer 1 doit être capable d'évaluer, d'inciter et de vérifier avec précision la contribution réelle des nœuds dans les tâches d'inférence et d'entraînement de l'IA, réalisant ainsi la sécurité du réseau et une allocation efficace des ressources. Ce n'est qu'ainsi que l'on peut garantir la stabilité et la prospérité du réseau, tout en réduisant efficacement le coût global de la puissance de calcul.
Excellente performance et capacité de support des tâches hétérogènes Les tâches d'IA, en particulier l'entraînement et l'inférence des LLM, exigent des performances de calcul et des capacités de traitement parallèle très élevées. De plus, l'écosystème d'IA off-chain doit souvent prendre en charge des types de tâches diversifiés et hétérogènes, y compris différentes structures de modèles, traitement des données, inférence, stockage et d'autres scénarios variés. La couche AI Layer 1 doit être profondément optimisée au niveau de l'architecture sous-jacente pour répondre aux exigences de haute capacité de traitement, de faible latence et de parallélisme flexible, tout en prévoyant une prise en charge native des ressources de calcul hétérogènes, afin de garantir que toutes les tâches d'IA puissent fonctionner efficacement et de permettre l'expansion fluide de "tâches uniques" à "écosystèmes complexes et diversifiés".
Vérifiabilité et garantie de sortie fiable L'IA Layer 1 ne doit pas seulement prévenir les abus des modèles, la falsification des données et autres risques de sécurité, mais elle doit également garantir la vérifiabilité et l'alignement des résultats de l'IA au niveau des mécanismes sous-jacents. En intégrant des technologies de pointe telles que les environnements d'exécution de confiance (TEE), les preuves à divulgation nulle de connaissance (ZK) et le calcul sécurisé multipartite (MPC), la plateforme permet que chaque inférence de modèle, chaque entraînement et chaque processus de traitement des données puissent être vérifiés de manière indépendante, assurant ainsi l'équité et la transparence du système IA. De plus, cette vérifiabilité peut aider les utilisateurs à comprendre la logique et les bases des résultats de l'IA, réalisant ainsi "ce que l'on obtient est ce que l'on souhaite", renforçant la confiance et la satisfaction des utilisateurs envers les produits IA.
Protection de la vie privée des données Les applications d'IA impliquent souvent des données sensibles des utilisateurs, et dans des domaines tels que la finance, la santé et les réseaux sociaux, la protection de la vie privée des données est particulièrement cruciale. L'IA Layer 1 doit garantir la vérifiabilité tout en adoptant des techniques de traitement des données basées sur le chiffrement, des protocoles de calcul de la vie privée et des mesures de gestion des droits d'accès aux données, afin d'assurer la sécurité des données tout au long du processus d'inférence, d'entraînement et de stockage, prévenant ainsi efficacement les fuites et les abus de données, et éliminant les inquiétudes des utilisateurs concernant la sécurité des données.
Capacité puissante d'hébergement et de support au développement de l'écosystème En tant qu'infrastructure de Layer 1 natif à l'IA, la plateforme doit non seulement posséder une avance technologique, mais aussi fournir aux développeurs, opérateurs de nœuds, fournisseurs de services d'IA et autres participants de l'écosystème des outils de développement complets, des SDK intégrés, un support opérationnel et des mécanismes d'incitation. En optimisant continuellement la disponibilité de la plateforme et l'expérience des développeurs, nous favorisons le déploiement d'applications IA natives riches et variées, réalisant ainsi une prospérité continue de l'écosystème IA décentralisé.
Sur la base de ce contexte et de ces attentes, cet article présentera en détail six projets représentatifs de l'IA Layer1, y compris Sentient, Sahara AI, Ritual, Gensyn, Bittensor et 0G, en systématisant les dernières avancées du secteur, en analysant l'état actuel des projets et en explorant les tendances futures.
Sentient : Construire des modèles d'IA décentralisés open source et fidèles
Aperçu du projet
Sentient est une plateforme de protocole open source qui construit une blockchain AI Layer1. La phase initiale est Layer 2, puis elle sera migrée vers Layer 1(. En combinant AI Pipeline et la technologie blockchain, elle construit une économie d'intelligence artificielle décentralisée. Son objectif principal est de résoudre les problèmes de propriété des modèles, de suivi des appels et de répartition de la valeur dans le marché LLM centralisé grâce au cadre "OML" (ouvert, rentable, loyal), permettant aux modèles d'IA d'implémenter une structure de propriété on-chain, une transparence des appels et une répartition de la valeur. La vision de Sentient est de permettre à quiconque de construire, collaborer, posséder et monétiser des produits d'IA, propulsant ainsi un écosystème de réseau d'agents d'IA équitable et ouvert.
L'équipe de Sentient Foundation rassemble des experts académiques de premier plan, des entrepreneurs en blockchain et des ingénieurs du monde entier, s'efforçant de construire une plateforme AGI communautaire, open source et vérifiable. Les membres clés comprennent le professeur Pramod Viswanath de l'université de Princeton et le professeur Himanshu Tyagi de l'institut indien de science, responsables respectivement de la sécurité de l'IA et de la protection de la vie privée, tandis que Sandeep Nailwal, cofondateur de Polygon, dirige la stratégie blockchain et l'écosystème. Les membres de l'équipe ont des antécédents variés dans des entreprises renommées telles que Meta, Coinbase, Polygon et des universités prestigieuses comme l'université de Princeton et l'institut indien de technologie, couvrant des domaines tels que l'IA/ML, le NLP, la vision par ordinateur, et collaborent pour faire avancer le projet.
En tant que projet de deuxième entreprise de Sandeep Nailwal, co-fondateur de Polygon, Sentient a dès le départ bénéficié d'une aura, avec des ressources, des contacts et une reconnaissance sur le marché riches, offrant un puissant soutien au développement du projet. Au milieu de l'année 2024, Sentient a réalisé un financement de 85 millions de dollars lors de son tour de table de semences, dirigé par Founders Fund, Pantera et Framework Ventures, avec d'autres investisseurs tels que Delphi, Hashkey et Spartan, parmi des dizaines de VC renommés.
![Biteye et PANews publient conjointement un rapport de recherche sur l'IA Layer1 : à la recherche de terres fertiles pour DeAI off-chain])https://img-cdn.gateio.im/webp-social/moments-f4a64f13105f67371db1a93a52948756.webp(
) architecture de conception et couche d'application
Couche d'infrastructure
Architecture principale
L'architecture centrale de Sentient est composée de deux parties : le pipeline d'IA (AI Pipeline) et le système de blockchain.
Les pipelines d'IA sont la base du développement et de l'entraînement des artefacts "IA loyale", comprenant deux processus clés :
Le système blockchain offre transparence et contrôle décentralisé aux protocoles, garantissant la propriété des artefacts d'IA, le suivi de leur utilisation, la répartition des revenus et une gouvernance équitable. L'architecture spécifique est divisée en quatre couches :
Cadre de Modèle OML
Le cadre OML (Ouvert Open, Monétisable Monetizable, Loyal Loyal) est le concept central proposé par Sentient, visant à fournir une protection claire de la propriété et des mécanismes d'incitation économique pour les modèles d'IA open source. En combinant la technologie off-chain et la cryptographie native à l'IA, il présente les caractéristiques suivantes :
![Biteye et PANews publient conjointement un rapport de recherche sur l'AI Layer1 : à la recherche de terres fertiles pour DeAI off-chain]###https://img-cdn.gateio.im/webp-social/moments-a70b0aca9250ab65193d0094fa9b5641.webp(
Cryptographie native à l'IA (AI-native Cryptography)
L'cryptographie native à l'IA utilise la continuité des modèles d'IA, la structure de variété à faible dimension et les caractéristiques de différentiabilité des modèles pour développer un mécanisme de sécurité léger "vérifiable mais non amovible". Sa technologie clé est :
Cette méthode permet d'implémenter "l'appel autorisé basé sur le comportement + la vérification de l'appartenance" sans coût de recryptage.
Cadre de reconnaissance des modèles et d'exécution sécurisée
Sentient utilise actuellement la sécurité mixte Melange : combinaison de la vérification par empreinte digitale, de l'exécution TEE et de la répartition des bénéfices des contrats off-chain. La méthode par empreinte digitale est mise en œuvre par OML 1.0 en tant que ligne principale, soulignant la pensée de "sécurité optimiste (Optimistic Security)", c'est-à-dire par défaut conforme, avec détection et sanction en cas de non-conformité.
Le mécanisme d'empreinte digitale est une mise en œuvre clé d'OML, qui permet au modèle de générer une signature unique pendant la phase d'entraînement en intégrant des paires de "questions-réponses" spécifiques. Grâce à ces signatures, le propriétaire du modèle peut vérifier la propriété, empêchant ainsi la copie et la commercialisation non autorisées. Ce mécanisme protège non seulement les droits des développeurs de modèles, mais fournit également un enregistrement traçable des comportements d'utilisation du modèle.
De plus, Sentient a lancé le cadre de calcul Enclave TEE, utilisant des environnements d'exécution de confiance (comme AWS Nitro Enclaves) pour garantir que le modèle ne répond qu'aux demandes autorisées, empêchant ainsi tout accès et utilisation non autorisés. Bien que le TEE repose sur du matériel et présente certains risques de sécurité, sa haute performance et