Rapport de recherche Layer1 AI : à la recherche d'un terreau DeAI off-chain
Aperçu
Ces dernières années, des entreprises technologiques de premier plan telles qu'OpenAI, Anthropic, Google et Meta ont continuellement propulsé le développement rapide des modèles de langage de grande taille (LLM). Les LLM montrent des capacités sans précédent dans divers secteurs, élargissant considérablement l'espace d'imagination humaine et même démontrant, dans certains cas, un potentiel de substitution du travail humain. Cependant, le cœur de ces technologies reste fermement entre les mains d'un petit nombre de géants technologiques centralisés. Grâce à un capital solide et à un contrôle des ressources de calcul coûteuses, ces entreprises ont établi des barrières difficiles à franchir, rendant difficile pour la grande majorité des développeurs et des équipes d'innovation de rivaliser.
Au début de l'évolution rapide de l'IA, l'opinion publique se concentre souvent sur les percées et les commodités apportées par la technologie, tandis que l'attention accordée à des questions centrales telles que la protection de la vie privée, la transparence et la sécurité est relativement insuffisante. À long terme, ces problèmes auront un impact profond sur le développement sain de l'industrie de l'IA et son acceptation par la société. Si ces questions ne sont pas résolues de manière appropriée, le débat sur la "bienveillance" ou la "malveillance" de l'IA deviendra de plus en plus prononcé, tandis que les géants centralisés, poussés par leur instinct de profit, manquent souvent de motivation suffisante pour relever ces défis de manière proactive.
La technologie blockchain, grâce à ses caractéristiques de décentralisation, de transparence et de résistance à la censure, offre de nouvelles possibilités pour le développement durable de l'industrie de l'IA. Actuellement, de nombreuses applications "Web3 AI" ont émergé sur certaines blockchains majeures. Cependant, une analyse approfondie révèle que ces projets présentent encore de nombreux problèmes : d'une part, le degré de décentralisation est limité, les maillons clés et l'infrastructure dépendent encore des services cloud centralisés, ce qui rend difficile le soutien d'un écosystème véritablement ouvert ; d'autre part, par rapport aux produits d'IA du monde Web2, l'IA on-chain présente encore des limitations en termes de capacité des modèles, d'utilisation des données et de scénarios d'application, et la profondeur et l'ampleur de l'innovation doivent être améliorées.
Pour réaliser véritablement la vision d'une IA décentralisée, permettant à la blockchain d'héberger des applications IA à grande échelle de manière sécurisée, efficace et démocratique, et de rivaliser en performance avec des solutions centralisées, nous devons concevoir une blockchain Layer1 spécialement adaptée à l'IA. Cela fournira une base solide pour l'innovation ouverte en IA, la démocratie de gouvernance et la sécurité des données, favorisant le développement prospère d'un écosystème d'IA décentralisé.
Les caractéristiques clés de AI Layer 1
AI Layer 1, en tant que blockchain spécialement conçue pour les applications d'IA, a une architecture sous-jacente et un design de performance étroitement liés aux besoins des tâches d'IA, visant à soutenir efficacement le développement durable et la prospérité de l'écosystème d'IA hors chaîne. Plus précisément, AI Layer 1 devrait posséder les capacités centrales suivantes :
Mécanisme de consensus décentralisé et d'incitation efficace Le cœur de AI Layer 1 réside dans la construction d'un réseau partagé ouvert de ressources telles que la puissance de calcul et le stockage. Contrairement aux nœuds de blockchain traditionnels qui se concentrent principalement sur la comptabilité des livres, les nœuds de AI Layer 1 doivent assumer des tâches plus complexes, non seulement fournir de la puissance de calcul, réaliser l'entraînement et l'inférence des modèles AI, mais aussi contribuer à des ressources diversifiées telles que le stockage, les données et la bande passante, afin de briser le monopole des géants centralisés sur l'infrastructure AI. Cela impose des exigences plus élevées en matière de consensus de base et de mécanisme d'incitation : AI Layer 1 doit être capable d'évaluer avec précision, d'inciter et de vérifier la contribution réelle des nœuds dans des tâches telles que l'inférence et l'entraînement AI, réalisant ainsi la sécurité du réseau et la répartition efficace des ressources. Ce n'est qu'ainsi que l'on peut garantir la stabilité et la prospérité du réseau, tout en réduisant efficacement le coût global de la puissance de calcul.
Excellente performance élevée et capacité de support des tâches hétérogènes Les tâches AI, en particulier l'entraînement et l'inférence des LLM, posent des exigences extrêmement élevées en matière de performance de calcul et de capacité de traitement parallèle. De plus, l'écosystème AI off-chain doit souvent prendre en charge une diversité de types de tâches hétérogènes, y compris différentes structures de modèles, traitement des données, inférence, stockage et autres scénarios variés. La couche AI Layer 1 doit être profondément optimisée au niveau de l'architecture sous-jacente pour répondre aux besoins de haut débit, de faible latence et de parallélisme élastique, tout en prévoyant une prise en charge native des ressources de calcul hétérogènes, garantissant ainsi que diverses tâches AI puissent fonctionner efficacement et réaliser une expansion fluide de "tâches uniques" à "écosystèmes complexes et variés".
Vérifiabilité et garantie de sortie fiable La couche AI Layer 1 doit non seulement prévenir les méfaits des modèles et les risques de falsification des données, mais aussi assurer la vérifiabilité et l'alignement des résultats de sortie de l'IA au niveau de la mécanique de base. En intégrant des technologies de pointe telles que l'environnement d'exécution de confiance (TEE), la preuve à divulgation nulle de connaissance (ZK) et le calcul sécurisé multi-parties (MPC), la plateforme permet à chaque processus d'inférence de modèle, de formation et de traitement de données d'être vérifié indépendamment, garantissant ainsi l'équité et la transparence des systèmes d'IA. En même temps, cette vérifiabilité peut également aider les utilisateurs à clarifier la logique et les bases des sorties de l'IA, réalisant "ce qui est obtenu est ce qui est souhaité", augmentant ainsi la confiance et la satisfaction des utilisateurs envers les produits d'IA.
Protection de la vie privée des données Les applications d'IA impliquent souvent des données sensibles des utilisateurs, et dans les domaines de la finance, de la santé et des réseaux sociaux, la protection de la vie privée des données est particulièrement cruciale. AI Layer 1 devrait, tout en garantissant la vérifiabilité, adopter des technologies de traitement des données basées sur le cryptage, des protocoles de calcul confidentiel et des moyens de gestion des droits des données, pour assurer la sécurité des données tout au long du processus d'inférence, d'entraînement et de stockage, afin de prévenir efficacement les fuites et les abus de données, et d'éliminer les inquiétudes des utilisateurs concernant la sécurité des données.
Capacité puissante de support et de développement de l'écosystème En tant qu'infrastructure de base de Layer 1 née de l'IA, la plateforme doit non seulement posséder un avantage technologique, mais également fournir aux développeurs, opérateurs de nœuds, fournisseurs de services d'IA et autres participants de l'écosystème des outils de développement complets, des SDK intégrés, un support opérationnel et des mécanismes d'incitation. En optimisant continuellement la disponibilité de la plateforme et l'expérience des développeurs, elle favorise la mise en œuvre d'applications IA variées et riches, réalisant ainsi une prospérité continue de l'écosystème décentralisé de l'IA.
Sur la base du contexte et des attentes ci-dessus, cet article présentera en détail six projets représentatifs d'AI Layer1, y compris Sentient, Sahara AI, Ritual, Gensyn, Bittensor et 0G, en systématisant les dernières avancées du secteur, en analysant l'état de développement des projets et en explorant les tendances futures.
Sentient : construire un modèle d'IA décentralisé open source fidèle
Aperçu du projet
Sentient est une plateforme de protocole open source qui est en train de créer une blockchain AI Layer1 (. La phase initiale sera Layer 2, puis elle migrera vers Layer 1). En combinant l'AI Pipeline et la technologie blockchain, elle construit une économie d'intelligence artificielle décentralisée. Son objectif principal est de résoudre les problèmes d'appartenance des modèles, de traçabilité des appels et de distribution de la valeur sur le marché LLM centralisé grâce au cadre "OML" (ouvert, rentable, loyal), permettant aux modèles AI de réaliser une structure de propriété on-chain, une transparence des appels et une distribution de valeur. La vision de Sentient est de permettre à quiconque de construire, collaborer, posséder et monétiser des produits AI, favorisant ainsi un écosystème de réseau d'agents AI juste et ouvert.
L'équipe de Sentient Foundation réunit des experts académiques de premier plan, des entrepreneurs en blockchain et des ingénieurs du monde entier, s'engageant à construire une plateforme AGI communautaire, open source et vérifiable. Les membres clés comprennent le professeur Pramod Viswanath de l'université de Princeton et le professeur Himanshu Tyagi de l'Institut indien de science, responsables respectivement de la sécurité et de la protection de la vie privée de l'IA, tandis que Sandeep Nailwal, co-fondateur de Polygon, dirige la stratégie blockchain et l'écosystème. Les membres de l'équipe ont des antécédents dans des entreprises renommées telles que Meta, Coinbase, Polygon, ainsi que dans des institutions de premier plan comme l'université de Princeton et l'Institut indien de technologie, couvrant des domaines tels que l'IA/ML, le NLP, et la vision par ordinateur, pour promouvoir la mise en œuvre du projet.
En tant que projet de deuxième entreprise de Sandeep Nailwal, co-fondateur de Polygon, Sentient a dès le départ bénéficié d'une aura, disposant de ressources, de contacts et d'une reconnaissance sur le marché, offrant un fort soutien au développement du projet. À la mi-2024, Sentient a finalisé un financement de 85 millions de dollars lors de sa ronde de financement initiale, dirigée par Founders Fund, Pantera et Framework Ventures, d'autres investisseurs incluent Delphi, Hashkey et Spartan, parmi des dizaines de VC renommés.
Architecture de conception et couche d'application
Infrastructure Layer
Architecture de base
L'architecture centrale de Sentient est composée de deux parties : un pipeline AI (AI Pipeline) et un système de blockchain.
Le pipeline d'IA est la base du développement et de l'entraînement des artefacts "IA fidèle", comprenant deux processus clés :
Planification des données (Data Curation) : processus de sélection des données piloté par la communauté, utilisé pour l'alignement des modèles.
Entraînement à la fidélité (Loyalty Training) : s'assurer que le modèle maintienne un processus d'entraînement cohérent avec les intentions de la communauté.
Les systèmes de blockchain offrent transparence et contrôle décentralisé aux protocoles, garantissant la propriété des artefacts d'IA, le suivi de leur utilisation, la répartition des revenus et une gouvernance équitable. L'architecture spécifique est divisée en quatre couches :
Couche de stockage : stocker les poids du modèle et les informations d'enregistrement des empreintes digitales ;
Couche de distribution : le contrat d'autorisation contrôle le point d'entrée de l'appel du modèle ;
Couche d'accès : Vérifie si l'utilisateur est autorisé par une preuve d'autorisation ;
Couche d'incitation : Le contrat de routage des revenus attribue à chaque appel des paiements aux formateurs, déployeurs et validateurs.
Cadre de modèle OML
Le cadre OML (Open, Monetizable, Loyal) est le concept central proposé par Sentient, visant à fournir une protection claire des droits de propriété et des mécanismes d'incitation économique pour les modèles d'IA open-source. En combinant la technologie off-chain et la cryptographie native de l'IA, il présente les caractéristiques suivantes :
Ouvert : Le modèle doit être open source, avec un code et une structure de données transparents, permettant à la communauté de reproduire, d'auditer et d'améliorer.
Monétisation : Chaque appel de modèle déclenche un flux de revenus, le contrat off-chain répartit les revenus entre les formateurs, les déployeurs et les validateurs.
Loyauté : Le modèle appartient à la communauté des contributeurs, la direction des mises à jour et la gouvernance sont décidées par le DAO, l'utilisation et la modification sont contrôlées par des mécanismes cryptographiques.
Cryptographie native à l'IA (AI-native Cryptography)
La cryptographie native à l'IA utilise la continuité des modèles d'IA, la structure de variétés de faible dimension et les caractéristiques de différentiabilité des modèles pour développer un mécanisme de sécurité léger "vérifiable mais non amovible". Sa technologie centrale est :
Intégration d'empreintes digitales : insérer un ensemble de paires clé-valeur query-response cachées pendant l'entraînement pour former la signature unique du modèle ;
Protocole de vérification de propriété : Vérifier si l'empreinte est conservée sous forme de requête via un détecteur tiers (Prover) ;
Mécanisme d'appel autorisé : Avant d'appeler, il est nécessaire d'obtenir le "certificat d'autorisation" délivré par le propriétaire du modèle, le système autorise ensuite le modèle à décoder cette entrée et à renvoyer la réponse précise.
Cette méthode permet de réaliser "l'appel autorisé basé sur le comportement + la vérification de l'appartenance" sans coût de réécriture.
Modèle de reconnaissance des droits et cadre d'exécution sécurisée
Sentient utilise actuellement la sécurité hybride Melange : combinaison de la vérification par empreinte digitale, de l'exécution TEE et du partage des profits des contrats off-chain. La méthode par empreinte digitale est réalisée par OML 1.0, mettant l'accent sur la pensée "Sécurité Optimiste (Optimistic Security)", c'est-à-dire conformité par défaut, avec détection et sanction en cas de non-conformité.
Le mécanisme d'empreinte digitale est une mise en œuvre clé d'OML. Il permet, grâce à l'intégration de paires "question-réponse" spécifiques, de générer des signatures uniques pendant la phase d'entraînement. Grâce à ces signatures, le propriétaire du modèle peut vérifier la propriété, empêchant ainsi la reproduction et la commercialisation non autorisées. Ce mécanisme protège non seulement les droits des développeurs de modèles, mais fournit également un enregistrement traçable des comportements d'utilisation du modèle.
De plus, Sentient a lancé le cadre de calcul Enclave TEE, utilisant des environnements d'exécution de confiance (comme AWS Nitro Enclaves) pour garantir que le modèle ne répond qu'aux demandes autorisées, empêchant ainsi l'accès et l'utilisation non autorisés. Bien que le TEE dépende du matériel et présente certains risques de sécurité, ses avantages en termes de haute performance et de réactivité en font un noyau pour le déploiement de modèles actuels.
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
11 J'aime
Récompense
11
5
Partager
Commentaire
0/400
ProofOfNothing
· Il y a 7h
Les capitalistes contrôlent l'IA, ça fait un peu peur.
Voir l'originalRépondre0
NoodlesOrTokens
· Il y a 7h
Ne laissez pas ces grandes entreprises avaler l'IA !
Voir l'originalRépondre0
Anon4461
· Il y a 7h
Une autre vague de pièges d'IA pour se faire prendre pour des cons est arrivée.
Voir l'originalRépondre0
OPsychology
· Il y a 7h
Qui peut s'unir pour briser le monopole des géants ? C'est vraiment inquiétant.
Voir l'originalRépondre0
MetaEggplant
· Il y a 7h
Ces grandes entreprises ont presque tout monopolisé.
AI Layer1 nouvelle compétition : analyse de Sentient et six autres projets construisant un écosystème IA décentralisé
Rapport de recherche Layer1 AI : à la recherche d'un terreau DeAI off-chain
Aperçu
Ces dernières années, des entreprises technologiques de premier plan telles qu'OpenAI, Anthropic, Google et Meta ont continuellement propulsé le développement rapide des modèles de langage de grande taille (LLM). Les LLM montrent des capacités sans précédent dans divers secteurs, élargissant considérablement l'espace d'imagination humaine et même démontrant, dans certains cas, un potentiel de substitution du travail humain. Cependant, le cœur de ces technologies reste fermement entre les mains d'un petit nombre de géants technologiques centralisés. Grâce à un capital solide et à un contrôle des ressources de calcul coûteuses, ces entreprises ont établi des barrières difficiles à franchir, rendant difficile pour la grande majorité des développeurs et des équipes d'innovation de rivaliser.
Au début de l'évolution rapide de l'IA, l'opinion publique se concentre souvent sur les percées et les commodités apportées par la technologie, tandis que l'attention accordée à des questions centrales telles que la protection de la vie privée, la transparence et la sécurité est relativement insuffisante. À long terme, ces problèmes auront un impact profond sur le développement sain de l'industrie de l'IA et son acceptation par la société. Si ces questions ne sont pas résolues de manière appropriée, le débat sur la "bienveillance" ou la "malveillance" de l'IA deviendra de plus en plus prononcé, tandis que les géants centralisés, poussés par leur instinct de profit, manquent souvent de motivation suffisante pour relever ces défis de manière proactive.
La technologie blockchain, grâce à ses caractéristiques de décentralisation, de transparence et de résistance à la censure, offre de nouvelles possibilités pour le développement durable de l'industrie de l'IA. Actuellement, de nombreuses applications "Web3 AI" ont émergé sur certaines blockchains majeures. Cependant, une analyse approfondie révèle que ces projets présentent encore de nombreux problèmes : d'une part, le degré de décentralisation est limité, les maillons clés et l'infrastructure dépendent encore des services cloud centralisés, ce qui rend difficile le soutien d'un écosystème véritablement ouvert ; d'autre part, par rapport aux produits d'IA du monde Web2, l'IA on-chain présente encore des limitations en termes de capacité des modèles, d'utilisation des données et de scénarios d'application, et la profondeur et l'ampleur de l'innovation doivent être améliorées.
Pour réaliser véritablement la vision d'une IA décentralisée, permettant à la blockchain d'héberger des applications IA à grande échelle de manière sécurisée, efficace et démocratique, et de rivaliser en performance avec des solutions centralisées, nous devons concevoir une blockchain Layer1 spécialement adaptée à l'IA. Cela fournira une base solide pour l'innovation ouverte en IA, la démocratie de gouvernance et la sécurité des données, favorisant le développement prospère d'un écosystème d'IA décentralisé.
Les caractéristiques clés de AI Layer 1
AI Layer 1, en tant que blockchain spécialement conçue pour les applications d'IA, a une architecture sous-jacente et un design de performance étroitement liés aux besoins des tâches d'IA, visant à soutenir efficacement le développement durable et la prospérité de l'écosystème d'IA hors chaîne. Plus précisément, AI Layer 1 devrait posséder les capacités centrales suivantes :
Mécanisme de consensus décentralisé et d'incitation efficace Le cœur de AI Layer 1 réside dans la construction d'un réseau partagé ouvert de ressources telles que la puissance de calcul et le stockage. Contrairement aux nœuds de blockchain traditionnels qui se concentrent principalement sur la comptabilité des livres, les nœuds de AI Layer 1 doivent assumer des tâches plus complexes, non seulement fournir de la puissance de calcul, réaliser l'entraînement et l'inférence des modèles AI, mais aussi contribuer à des ressources diversifiées telles que le stockage, les données et la bande passante, afin de briser le monopole des géants centralisés sur l'infrastructure AI. Cela impose des exigences plus élevées en matière de consensus de base et de mécanisme d'incitation : AI Layer 1 doit être capable d'évaluer avec précision, d'inciter et de vérifier la contribution réelle des nœuds dans des tâches telles que l'inférence et l'entraînement AI, réalisant ainsi la sécurité du réseau et la répartition efficace des ressources. Ce n'est qu'ainsi que l'on peut garantir la stabilité et la prospérité du réseau, tout en réduisant efficacement le coût global de la puissance de calcul.
Excellente performance élevée et capacité de support des tâches hétérogènes Les tâches AI, en particulier l'entraînement et l'inférence des LLM, posent des exigences extrêmement élevées en matière de performance de calcul et de capacité de traitement parallèle. De plus, l'écosystème AI off-chain doit souvent prendre en charge une diversité de types de tâches hétérogènes, y compris différentes structures de modèles, traitement des données, inférence, stockage et autres scénarios variés. La couche AI Layer 1 doit être profondément optimisée au niveau de l'architecture sous-jacente pour répondre aux besoins de haut débit, de faible latence et de parallélisme élastique, tout en prévoyant une prise en charge native des ressources de calcul hétérogènes, garantissant ainsi que diverses tâches AI puissent fonctionner efficacement et réaliser une expansion fluide de "tâches uniques" à "écosystèmes complexes et variés".
Vérifiabilité et garantie de sortie fiable La couche AI Layer 1 doit non seulement prévenir les méfaits des modèles et les risques de falsification des données, mais aussi assurer la vérifiabilité et l'alignement des résultats de sortie de l'IA au niveau de la mécanique de base. En intégrant des technologies de pointe telles que l'environnement d'exécution de confiance (TEE), la preuve à divulgation nulle de connaissance (ZK) et le calcul sécurisé multi-parties (MPC), la plateforme permet à chaque processus d'inférence de modèle, de formation et de traitement de données d'être vérifié indépendamment, garantissant ainsi l'équité et la transparence des systèmes d'IA. En même temps, cette vérifiabilité peut également aider les utilisateurs à clarifier la logique et les bases des sorties de l'IA, réalisant "ce qui est obtenu est ce qui est souhaité", augmentant ainsi la confiance et la satisfaction des utilisateurs envers les produits d'IA.
Protection de la vie privée des données Les applications d'IA impliquent souvent des données sensibles des utilisateurs, et dans les domaines de la finance, de la santé et des réseaux sociaux, la protection de la vie privée des données est particulièrement cruciale. AI Layer 1 devrait, tout en garantissant la vérifiabilité, adopter des technologies de traitement des données basées sur le cryptage, des protocoles de calcul confidentiel et des moyens de gestion des droits des données, pour assurer la sécurité des données tout au long du processus d'inférence, d'entraînement et de stockage, afin de prévenir efficacement les fuites et les abus de données, et d'éliminer les inquiétudes des utilisateurs concernant la sécurité des données.
Capacité puissante de support et de développement de l'écosystème En tant qu'infrastructure de base de Layer 1 née de l'IA, la plateforme doit non seulement posséder un avantage technologique, mais également fournir aux développeurs, opérateurs de nœuds, fournisseurs de services d'IA et autres participants de l'écosystème des outils de développement complets, des SDK intégrés, un support opérationnel et des mécanismes d'incitation. En optimisant continuellement la disponibilité de la plateforme et l'expérience des développeurs, elle favorise la mise en œuvre d'applications IA variées et riches, réalisant ainsi une prospérité continue de l'écosystème décentralisé de l'IA.
Sur la base du contexte et des attentes ci-dessus, cet article présentera en détail six projets représentatifs d'AI Layer1, y compris Sentient, Sahara AI, Ritual, Gensyn, Bittensor et 0G, en systématisant les dernières avancées du secteur, en analysant l'état de développement des projets et en explorant les tendances futures.
Sentient : construire un modèle d'IA décentralisé open source fidèle
Aperçu du projet
Sentient est une plateforme de protocole open source qui est en train de créer une blockchain AI Layer1 (. La phase initiale sera Layer 2, puis elle migrera vers Layer 1). En combinant l'AI Pipeline et la technologie blockchain, elle construit une économie d'intelligence artificielle décentralisée. Son objectif principal est de résoudre les problèmes d'appartenance des modèles, de traçabilité des appels et de distribution de la valeur sur le marché LLM centralisé grâce au cadre "OML" (ouvert, rentable, loyal), permettant aux modèles AI de réaliser une structure de propriété on-chain, une transparence des appels et une distribution de valeur. La vision de Sentient est de permettre à quiconque de construire, collaborer, posséder et monétiser des produits AI, favorisant ainsi un écosystème de réseau d'agents AI juste et ouvert.
L'équipe de Sentient Foundation réunit des experts académiques de premier plan, des entrepreneurs en blockchain et des ingénieurs du monde entier, s'engageant à construire une plateforme AGI communautaire, open source et vérifiable. Les membres clés comprennent le professeur Pramod Viswanath de l'université de Princeton et le professeur Himanshu Tyagi de l'Institut indien de science, responsables respectivement de la sécurité et de la protection de la vie privée de l'IA, tandis que Sandeep Nailwal, co-fondateur de Polygon, dirige la stratégie blockchain et l'écosystème. Les membres de l'équipe ont des antécédents dans des entreprises renommées telles que Meta, Coinbase, Polygon, ainsi que dans des institutions de premier plan comme l'université de Princeton et l'Institut indien de technologie, couvrant des domaines tels que l'IA/ML, le NLP, et la vision par ordinateur, pour promouvoir la mise en œuvre du projet.
En tant que projet de deuxième entreprise de Sandeep Nailwal, co-fondateur de Polygon, Sentient a dès le départ bénéficié d'une aura, disposant de ressources, de contacts et d'une reconnaissance sur le marché, offrant un fort soutien au développement du projet. À la mi-2024, Sentient a finalisé un financement de 85 millions de dollars lors de sa ronde de financement initiale, dirigée par Founders Fund, Pantera et Framework Ventures, d'autres investisseurs incluent Delphi, Hashkey et Spartan, parmi des dizaines de VC renommés.
Architecture de conception et couche d'application
Infrastructure Layer
Architecture de base
L'architecture centrale de Sentient est composée de deux parties : un pipeline AI (AI Pipeline) et un système de blockchain.
Le pipeline d'IA est la base du développement et de l'entraînement des artefacts "IA fidèle", comprenant deux processus clés :
Les systèmes de blockchain offrent transparence et contrôle décentralisé aux protocoles, garantissant la propriété des artefacts d'IA, le suivi de leur utilisation, la répartition des revenus et une gouvernance équitable. L'architecture spécifique est divisée en quatre couches :
Cadre de modèle OML
Le cadre OML (Open, Monetizable, Loyal) est le concept central proposé par Sentient, visant à fournir une protection claire des droits de propriété et des mécanismes d'incitation économique pour les modèles d'IA open-source. En combinant la technologie off-chain et la cryptographie native de l'IA, il présente les caractéristiques suivantes :
Cryptographie native à l'IA (AI-native Cryptography)
La cryptographie native à l'IA utilise la continuité des modèles d'IA, la structure de variétés de faible dimension et les caractéristiques de différentiabilité des modèles pour développer un mécanisme de sécurité léger "vérifiable mais non amovible". Sa technologie centrale est :
Cette méthode permet de réaliser "l'appel autorisé basé sur le comportement + la vérification de l'appartenance" sans coût de réécriture.
Modèle de reconnaissance des droits et cadre d'exécution sécurisée
Sentient utilise actuellement la sécurité hybride Melange : combinaison de la vérification par empreinte digitale, de l'exécution TEE et du partage des profits des contrats off-chain. La méthode par empreinte digitale est réalisée par OML 1.0, mettant l'accent sur la pensée "Sécurité Optimiste (Optimistic Security)", c'est-à-dire conformité par défaut, avec détection et sanction en cas de non-conformité.
Le mécanisme d'empreinte digitale est une mise en œuvre clé d'OML. Il permet, grâce à l'intégration de paires "question-réponse" spécifiques, de générer des signatures uniques pendant la phase d'entraînement. Grâce à ces signatures, le propriétaire du modèle peut vérifier la propriété, empêchant ainsi la reproduction et la commercialisation non autorisées. Ce mécanisme protège non seulement les droits des développeurs de modèles, mais fournit également un enregistrement traçable des comportements d'utilisation du modèle.
De plus, Sentient a lancé le cadre de calcul Enclave TEE, utilisant des environnements d'exécution de confiance (comme AWS Nitro Enclaves) pour garantir que le modèle ne répond qu'aux demandes autorisées, empêchant ainsi l'accès et l'utilisation non autorisés. Bien que le TEE dépende du matériel et présente certains risques de sécurité, ses avantages en termes de haute performance et de réactivité en font un noyau pour le déploiement de modèles actuels.