OpenLedger Depth Rapport de recherche : Construire une économie d'agents intelligents basée sur OP Stack + EigenDA, axée sur les données et les modèles combinables.
I. Introduction | La transition de la couche de modèle de Crypto AI
Les données, les modèles et la puissance de calcul sont les trois éléments clés de l'infrastructure de l'IA, analogues au carburant (données), au moteur (modèles) et à l'énergie (puissance de calcul), tous indispensables. De manière similaire à l'évolution de l'infrastructure de l'industrie traditionnelle de l'IA, le domaine de la Crypto AI a également traversé des phases similaires. Au début de 2024, le marché a été dominé par des projets de GPU décentralisés, mettant en avant une logique de croissance extensive axée sur la « puissance de calcul ». Cependant, à partir de 2025, l'attention de l'industrie s'est progressivement déplacée vers les couches de modèles et de données, marquant la transition de la Crypto AI d'une compétition pour les ressources de base à une construction de niveau intermédiaire plus durable et ayant une valeur d'application.
Modèle général (LLM) vs Modèle spécialisé (SLM)
Les modèles de langage traditionnels (LLM) dépendent fortement de grands ensembles de données et d'architectures distribuées complexes, avec des tailles de paramètres allant de 70B à 500B, et le coût d'une seule formation peut atteindre plusieurs millions de dollars. En revanche, le SLM (Modèle de Langage Spécialisé), en tant que paradigme de réglage fin léger basé sur un modèle de base réutilisable, est généralement fondé sur des modèles open source, combinant un petit nombre de données professionnelles de haute qualité et des technologies telles que LoRA, permettant de construire rapidement des modèles d'experts dotés de connaissances spécifiques à un domaine, réduisant ainsi considérablement les coûts de formation et les barrières techniques.
Il est important de noter que SLM ne sera pas intégré dans les poids LLM, mais fonctionnera en collaboration avec LLM par le biais d'architectures d'agent, de routage dynamique via un système de plugins, de l'échange à chaud des modules LoRA, et de RAG (génération améliorée par récupération). Cette architecture préserve la capacité de couverture étendue de LLM tout en renforçant les performances spécialisées grâce à des modules de perfectionnement, formant ainsi un système intelligent modulaire hautement flexible.
La valeur et les limites de l'IA Crypto au niveau du modèle
Les projets de Crypto AI ont essentiellement du mal à améliorer directement les capacités fondamentales des modèles de langage de grande taille (LLM), la raison principale étant que
Barrière technique trop élevée : l'échelle des données, des ressources informatiques et des capacités d'ingénierie nécessaires pour former un modèle fondamental est extrêmement vaste, et seuls des géants technologiques comme les États-Unis et la Chine disposent actuellement des capacités correspondantes.
Limites de l'écosystème open source : Bien que les principaux modèles de base soient open source, la clé pour faire progresser réellement les modèles reste concentrée sur les institutions de recherche et les systèmes d'ingénierie fermés, l'espace de participation des projets sur la chaîne au niveau des modèles de base est limité.
Cependant, sur la base des modèles open source, les projets Crypto AI peuvent encore réaliser une extension de valeur en ajustant des modèles de langage spécialisés (SLM) et en combinant la vérifiabilité et les mécanismes d'incitation de Web3. En tant que « couche d'interface périphérique » de la chaîne industrielle de l'IA, cela se manifeste dans deux directions principales :
Couche de vérification fiable : renforce la traçabilité et la résistance à la falsification des sorties d'IA en enregistrant sur la chaîne le chemin de génération du modèle, les contributions de données et les cas d'utilisation.
Mécanisme d'incitation : Grâce au Token natif, utilisé pour inciter le téléchargement de données, l'appel de modèles, l'exécution d'agents, etc., construire un cycle positif de formation et de service des modèles.
Classification des types de modèles AI et analyse de l'applicabilité de la blockchain
Il en ressort que les points de chute viables des projets de type Crypto AI sont principalement concentrés sur l'ajustement léger des SLM de petite taille, l'intégration et la validation des données en chaîne dans l'architecture RAG, ainsi que le déploiement local et l'incitation des modèles Edge. En combinant la vérifiabilité de la blockchain et le mécanisme des tokens, Crypto peut offrir une valeur unique pour ces scénarios de modèles à ressources moyennes et faibles, créant ainsi une valeur différenciée pour la "couche d'interface" de l'IA.
La chaîne AI basée sur des données et des modèles de blockchain peut enregistrer de manière claire et immuable la source de contribution de chaque donnée et modèle sur la chaîne, améliorant ainsi considérablement la crédibilité des données et la traçabilité de l'entraînement des modèles. De plus, grâce au mécanisme des contrats intelligents, des récompenses sont automatiquement déclenchées lors de l'appel de données ou de modèles, transformant le comportement AI en valeur tokenisée mesurable et échangeable, et construisant un système d'incitation durable. En outre, les utilisateurs de la communauté peuvent également évaluer les performances des modèles par le biais de votes avec des tokens, participer à l'élaboration et à l'itération des règles, et améliorer l'architecture de gouvernance décentralisée.
Deux, Aperçu du projet | La vision de la chaîne AI d'OpenLedger
OpenLedger est l'un des rares projets d'IA blockchain sur le marché actuel à se concentrer sur les incitations basées sur les données et les modèles. Il a été le premier à proposer le concept de « Payable AI », visant à construire un environnement d'exécution d'IA équitable, transparent et modulaire, incitant les contributeurs de données, les développeurs de modèles et les constructeurs d'applications IA à collaborer sur la même plateforme et à obtenir des revenus sur la chaîne en fonction de leurs contributions réelles.
OpenLedger fournit une boucle fermée complète allant de « la fourniture de données » à « le déploiement de modèles » puis à « l'appel de la répartition des bénéfices », ses modules principaux comprennent :
Modèle d'usine : pas besoin de programmation, vous pouvez utiliser LoRA pour l'ajustement fin et le déploiement de modèles personnalisés basés sur LLM open source ;
OpenLoRA : prend en charge la coexistence de milliers de modèles, charge dynamique à la demande, réduisant considérablement les coûts de déploiement ;
PoA (Proof of Attribution) : mesure de contribution et distribution des récompenses via des enregistrements d'appels sur la chaîne ;
Datanets : Réseaux de données structurées destinés aux scénarios verticaux, construits et vérifiés par la collaboration communautaire ;
Plateforme de proposition de modèles (Model Proposal Platform) : marché de modèles en chaîne, modulable, appelable et payant.
Grâce aux modules ci-dessus, OpenLedger a construit une « infrastructure économique des agents » basée sur des données et des modèles combinables, favorisant la blockchain de la chaîne de valeur de l'IA.
Et dans l'adoption de la technologie blockchain, OpenLedger utilise OP Stack + EigenDA comme base pour construire un environnement d'exécution de données et de contrats à haute performance, à faible coût et vérifiable pour les modèles d'IA.
Construit sur OP Stack : Basé sur la pile technologique Optimism, prenant en charge un haut débit et une exécution à faible coût ;
Règlement sur le réseau principal Ethereum : Assurer la sécurité des transactions et l'intégrité des actifs ;
Compatible EVM : Permet aux développeurs de déployer et d'étendre rapidement sur la base de Solidity ;
EigenDA fournit un support de disponibilité des données : réduit considérablement les coûts de stockage et garantit la vérifiabilité des données.
Comparé à NEAR, qui est une blockchain plus axée sur le niveau inférieur, mettant l'accent sur la souveraineté des données et l'architecture « AI Agents on BOS », OpenLedger se concentre davantage sur la construction de chaînes de blocs dédiées à l'IA orientées vers l'incitation des données et des modèles. Elle vise à permettre le développement et l'appel de modèles sur la chaîne pour réaliser un cycle de valeur traçable, combinable et durable. C'est une infrastructure d'incitation de modèles dans le monde du Web3, combinant l'hébergement de modèles à la manière de HuggingFace, la facturation à l'utilisation à la manière de Stripe et des interfaces combinables sur la chaîne à la manière d'Infura, afin de promouvoir la réalisation de « modèles en tant qu'actifs ».
Trois, les composants clés et l'architecture technique d'OpenLedger
3.1 Modèle d'usine, pas besoin de code modèle d'usine
ModelFactory est une plateforme de fine-tuning de grands modèles de langage (LLM) au sein de l'écosystème OpenLedger. Contrairement aux cadres de fine-tuning traditionnels, ModelFactory offre une interface graphique entièrement opérationnelle, sans besoin d'outils en ligne de commande ou d'intégration API. Les utilisateurs peuvent affiner le modèle sur la base des ensembles de données autorisés et vérifiés complétés sur OpenLedger. Cela réalise un flux de travail intégré pour l'autorisation des données, l'entraînement des modèles et le déploiement, dont les principales étapes comprennent :
Contrôle d'accès aux données : L'utilisateur soumet une demande de données, le fournisseur examine et approuve, les données sont automatiquement intégrées à l'interface d'entraînement du modèle.
Sélection et configuration du modèle : Prend en charge les LLM principaux, configuration des hyperparamètres via l'interface graphique.
Ajustement léger : moteur LoRA / QLoRA intégré, affichage en temps réel des progrès de l'entraînement.
Évaluation et déploiement des modèles : outils d'évaluation intégrés, support pour l'exportation de déploiement ou l'appel partagé dans l'écosystème.
Interface de vérification interactive : Fournit une interface de type chat, facilitant le test direct des capacités de questions-réponses du modèle.
Génération de traçabilité RAG : Répondre avec des références de source, renforçant la confiance et l'auditabilité.
L'architecture du système Model Factory comprend six grands modules, couvrant l'authentification des identités, les droits d'accès aux données, le réglage fin des modèles, le déploiement des évaluations et la traçabilité RAG, créant une plateforme de service de modèle intégrée, sécurisée, contrôlable, interactive en temps réel et durablement monétisable.
Le tableau ci-dessous résume les capacités des grands modèles de langage actuellement pris en charge par ModelFactory :
LLaMA série : écosystème le plus large, communauté active, performances générales solides, c'est l'un des modèles de base open source les plus courants actuellement.
Mistral : architecture efficace, performances d'inférence exceptionnelles, adapté aux scénarios de déploiement flexible et aux ressources limitées.
Qwen : Compétence globale forte, idéal pour les développeurs nationaux.
ChatGLM : Excellente performance de dialogue en chinois, adapté aux services client spécialisés et aux scénarios de localisation.
Deepseek : excelle dans la génération de code et le raisonnement mathématique, adapté aux outils d'assistance au développement intelligent.
Gemma : un modèle léger lancé par Google, avec une structure claire, facile à prendre en main et à expérimenter.
Falcon : Anciennement une référence en performance, adapté à la recherche fondamentale ou aux tests comparatifs, mais l'activité de la communauté a diminué.
BLOOM : Prise en charge multilingue relativement forte, mais performance d'inférence relativement faible, adaptée à la recherche sur la couverture linguistique.
GPT-2 : modèle classique des débuts, uniquement adapté à des fins d'enseignement et de validation, non recommandé pour une utilisation en déploiement réel.
Bien que la combinaison de modèles d'OpenLedger n'inclue pas les derniers modèles MoE haute performance ou multimatériaux, sa stratégie n'est pas démodée, mais plutôt configurée selon des contraintes réalistes de déploiement en chaîne (coût d'inférence, adaptation RAG, compatibilité LoRA, environnement EVM) dans une approche « priorité à l'utile ».
Model Factory en tant qu'outil sans code, tous les modèles intègrent un mécanisme de preuve de contribution, garantissant les droits des contributeurs de données et des développeurs de modèles, avec des avantages de faible barrière, de monétisation et de combinabilité, par rapport aux outils de développement de modèles traditionnels :
Pour les développeurs : fournir un chemin complet pour l'incubation, la distribution et les revenus des modèles ;
Pour la plateforme : former un écosystème de circulation et de combinaison des actifs modélisés ;
Pour les utilisateurs : vous pouvez combiner les modèles ou les agents comme si vous appeliez une API.
3.2 OpenLoRA, la tokenisation des actifs on-chain du modèle de fine-tuning
LoRA (Low-Rank Adaptation) est une méthode d'ajustement des paramètres efficace qui apprend de nouvelles tâches en insérant une « matrice de faible rang » dans un grand modèle pré-entraîné, sans modifier les paramètres du modèle d'origine, réduisant ainsi considérablement les coûts d'entraînement et les besoins de stockage. Les grands modèles de langage traditionnels possèdent généralement des milliards, voire des centaines de milliards de paramètres. Pour les utiliser pour des tâches spécifiques, un ajustement fin (fine-tuning) est nécessaire. La stratégie clé de LoRA est : « geler les paramètres du grand modèle d'origine, ne former que la nouvelle matrice de paramètres insérée. », ce qui en fait une méthode d'ajustement des paramètres efficace, rapide à entraîner et flexible à déployer, et qui est actuellement la méthode dominante la plus adaptée au déploiement et à l'appel combiné des modèles Web3.
OpenLoRA est un cadre d'inférence léger conçu par OpenLedger, spécialement destiné au déploiement multi-modèles et au partage des ressources. Son objectif principal est de résoudre les problèmes courants du déploiement des modèles AI, tels que les coûts élevés, la faible réutilisation et le gaspillage des ressources GPU, tout en promouvant l'exécution de l'"AI payable" (Payable AI).
Composants clés de l'architecture système OpenLoRA, basés sur un design modulaire, couvrant le stockage de modèles, l'exécution d'inférences, le routage des requêtes et d'autres étapes clés, permettant un déploiement et un appel de plusieurs modèles de manière efficace et à faible coût :
Module de stockage LoRA Adapter : l'adaptateur LoRA affiné est hébergé sur OpenLedger, permettant un chargement à la demande, évitant de précharger tous les modèles dans la mémoire vidéo, économisant ainsi des ressources.
Hébergement de modèle et couche de fusion dynamique : tous les modèles de réglage fin partagent un grand modèle de base, lors de l'inférence, l'adaptateur LoRA est fusionné dynamiquement, prenant en charge plusieurs inférences d'adaptateur conjointes (ensemble), améliorant les performances.
Moteur d'inférence : intégration de Flash-Attention, Paged-Attention, optimisation SGMV et plusieurs autres optimisations CUDA.
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
9 J'aime
Récompense
9
8
Partager
Commentaire
0/400
OneCoinForTheWorld
· Il y a 7h
快 entrer dans une position !🚗
Voir l'originalRépondre0
OneCoinForTheWorld
· Il y a 7h
Déterminé HODL💎
Voir l'originalRépondre0
OneCoinForTheWorld
· Il y a 7h
快 entrer dans une position !🚗
Voir l'originalRépondre0
SignatureDenied
· Il y a 7h
Il parle encore de web3 et joue avec l'IA.
Voir l'originalRépondre0
LidoStakeAddict
· Il y a 7h
Amuse-toi, je vais d'abord passer trois commandes.
Voir l'originalRépondre0
CrashHotline
· Il y a 7h
Saisir une opportunité de devenir riche, on y va ou pas ?
Voir l'originalRépondre0
ChainBrain
· Il y a 7h
C'est vraiment trop compétitif.
Voir l'originalRépondre0
ser_ngmi
· Il y a 7h
Combien de projets sont morts en cours de route, hein ?
OpenLedger crée un écosystème IA off-chain : OP Stack + EigenDA construisent un nouveau paradigme économique des agents.
OpenLedger Depth Rapport de recherche : Construire une économie d'agents intelligents basée sur OP Stack + EigenDA, axée sur les données et les modèles combinables.
I. Introduction | La transition de la couche de modèle de Crypto AI
Les données, les modèles et la puissance de calcul sont les trois éléments clés de l'infrastructure de l'IA, analogues au carburant (données), au moteur (modèles) et à l'énergie (puissance de calcul), tous indispensables. De manière similaire à l'évolution de l'infrastructure de l'industrie traditionnelle de l'IA, le domaine de la Crypto AI a également traversé des phases similaires. Au début de 2024, le marché a été dominé par des projets de GPU décentralisés, mettant en avant une logique de croissance extensive axée sur la « puissance de calcul ». Cependant, à partir de 2025, l'attention de l'industrie s'est progressivement déplacée vers les couches de modèles et de données, marquant la transition de la Crypto AI d'une compétition pour les ressources de base à une construction de niveau intermédiaire plus durable et ayant une valeur d'application.
Modèle général (LLM) vs Modèle spécialisé (SLM)
Les modèles de langage traditionnels (LLM) dépendent fortement de grands ensembles de données et d'architectures distribuées complexes, avec des tailles de paramètres allant de 70B à 500B, et le coût d'une seule formation peut atteindre plusieurs millions de dollars. En revanche, le SLM (Modèle de Langage Spécialisé), en tant que paradigme de réglage fin léger basé sur un modèle de base réutilisable, est généralement fondé sur des modèles open source, combinant un petit nombre de données professionnelles de haute qualité et des technologies telles que LoRA, permettant de construire rapidement des modèles d'experts dotés de connaissances spécifiques à un domaine, réduisant ainsi considérablement les coûts de formation et les barrières techniques.
Il est important de noter que SLM ne sera pas intégré dans les poids LLM, mais fonctionnera en collaboration avec LLM par le biais d'architectures d'agent, de routage dynamique via un système de plugins, de l'échange à chaud des modules LoRA, et de RAG (génération améliorée par récupération). Cette architecture préserve la capacité de couverture étendue de LLM tout en renforçant les performances spécialisées grâce à des modules de perfectionnement, formant ainsi un système intelligent modulaire hautement flexible.
La valeur et les limites de l'IA Crypto au niveau du modèle
Les projets de Crypto AI ont essentiellement du mal à améliorer directement les capacités fondamentales des modèles de langage de grande taille (LLM), la raison principale étant que
Cependant, sur la base des modèles open source, les projets Crypto AI peuvent encore réaliser une extension de valeur en ajustant des modèles de langage spécialisés (SLM) et en combinant la vérifiabilité et les mécanismes d'incitation de Web3. En tant que « couche d'interface périphérique » de la chaîne industrielle de l'IA, cela se manifeste dans deux directions principales :
Classification des types de modèles AI et analyse de l'applicabilité de la blockchain
Il en ressort que les points de chute viables des projets de type Crypto AI sont principalement concentrés sur l'ajustement léger des SLM de petite taille, l'intégration et la validation des données en chaîne dans l'architecture RAG, ainsi que le déploiement local et l'incitation des modèles Edge. En combinant la vérifiabilité de la blockchain et le mécanisme des tokens, Crypto peut offrir une valeur unique pour ces scénarios de modèles à ressources moyennes et faibles, créant ainsi une valeur différenciée pour la "couche d'interface" de l'IA.
La chaîne AI basée sur des données et des modèles de blockchain peut enregistrer de manière claire et immuable la source de contribution de chaque donnée et modèle sur la chaîne, améliorant ainsi considérablement la crédibilité des données et la traçabilité de l'entraînement des modèles. De plus, grâce au mécanisme des contrats intelligents, des récompenses sont automatiquement déclenchées lors de l'appel de données ou de modèles, transformant le comportement AI en valeur tokenisée mesurable et échangeable, et construisant un système d'incitation durable. En outre, les utilisateurs de la communauté peuvent également évaluer les performances des modèles par le biais de votes avec des tokens, participer à l'élaboration et à l'itération des règles, et améliorer l'architecture de gouvernance décentralisée.
Deux, Aperçu du projet | La vision de la chaîne AI d'OpenLedger
OpenLedger est l'un des rares projets d'IA blockchain sur le marché actuel à se concentrer sur les incitations basées sur les données et les modèles. Il a été le premier à proposer le concept de « Payable AI », visant à construire un environnement d'exécution d'IA équitable, transparent et modulaire, incitant les contributeurs de données, les développeurs de modèles et les constructeurs d'applications IA à collaborer sur la même plateforme et à obtenir des revenus sur la chaîne en fonction de leurs contributions réelles.
OpenLedger fournit une boucle fermée complète allant de « la fourniture de données » à « le déploiement de modèles » puis à « l'appel de la répartition des bénéfices », ses modules principaux comprennent :
Grâce aux modules ci-dessus, OpenLedger a construit une « infrastructure économique des agents » basée sur des données et des modèles combinables, favorisant la blockchain de la chaîne de valeur de l'IA.
Et dans l'adoption de la technologie blockchain, OpenLedger utilise OP Stack + EigenDA comme base pour construire un environnement d'exécution de données et de contrats à haute performance, à faible coût et vérifiable pour les modèles d'IA.
Comparé à NEAR, qui est une blockchain plus axée sur le niveau inférieur, mettant l'accent sur la souveraineté des données et l'architecture « AI Agents on BOS », OpenLedger se concentre davantage sur la construction de chaînes de blocs dédiées à l'IA orientées vers l'incitation des données et des modèles. Elle vise à permettre le développement et l'appel de modèles sur la chaîne pour réaliser un cycle de valeur traçable, combinable et durable. C'est une infrastructure d'incitation de modèles dans le monde du Web3, combinant l'hébergement de modèles à la manière de HuggingFace, la facturation à l'utilisation à la manière de Stripe et des interfaces combinables sur la chaîne à la manière d'Infura, afin de promouvoir la réalisation de « modèles en tant qu'actifs ».
Trois, les composants clés et l'architecture technique d'OpenLedger
3.1 Modèle d'usine, pas besoin de code modèle d'usine
ModelFactory est une plateforme de fine-tuning de grands modèles de langage (LLM) au sein de l'écosystème OpenLedger. Contrairement aux cadres de fine-tuning traditionnels, ModelFactory offre une interface graphique entièrement opérationnelle, sans besoin d'outils en ligne de commande ou d'intégration API. Les utilisateurs peuvent affiner le modèle sur la base des ensembles de données autorisés et vérifiés complétés sur OpenLedger. Cela réalise un flux de travail intégré pour l'autorisation des données, l'entraînement des modèles et le déploiement, dont les principales étapes comprennent :
L'architecture du système Model Factory comprend six grands modules, couvrant l'authentification des identités, les droits d'accès aux données, le réglage fin des modèles, le déploiement des évaluations et la traçabilité RAG, créant une plateforme de service de modèle intégrée, sécurisée, contrôlable, interactive en temps réel et durablement monétisable.
Le tableau ci-dessous résume les capacités des grands modèles de langage actuellement pris en charge par ModelFactory :
Bien que la combinaison de modèles d'OpenLedger n'inclue pas les derniers modèles MoE haute performance ou multimatériaux, sa stratégie n'est pas démodée, mais plutôt configurée selon des contraintes réalistes de déploiement en chaîne (coût d'inférence, adaptation RAG, compatibilité LoRA, environnement EVM) dans une approche « priorité à l'utile ».
Model Factory en tant qu'outil sans code, tous les modèles intègrent un mécanisme de preuve de contribution, garantissant les droits des contributeurs de données et des développeurs de modèles, avec des avantages de faible barrière, de monétisation et de combinabilité, par rapport aux outils de développement de modèles traditionnels :
3.2 OpenLoRA, la tokenisation des actifs on-chain du modèle de fine-tuning
LoRA (Low-Rank Adaptation) est une méthode d'ajustement des paramètres efficace qui apprend de nouvelles tâches en insérant une « matrice de faible rang » dans un grand modèle pré-entraîné, sans modifier les paramètres du modèle d'origine, réduisant ainsi considérablement les coûts d'entraînement et les besoins de stockage. Les grands modèles de langage traditionnels possèdent généralement des milliards, voire des centaines de milliards de paramètres. Pour les utiliser pour des tâches spécifiques, un ajustement fin (fine-tuning) est nécessaire. La stratégie clé de LoRA est : « geler les paramètres du grand modèle d'origine, ne former que la nouvelle matrice de paramètres insérée. », ce qui en fait une méthode d'ajustement des paramètres efficace, rapide à entraîner et flexible à déployer, et qui est actuellement la méthode dominante la plus adaptée au déploiement et à l'appel combiné des modèles Web3.
OpenLoRA est un cadre d'inférence léger conçu par OpenLedger, spécialement destiné au déploiement multi-modèles et au partage des ressources. Son objectif principal est de résoudre les problèmes courants du déploiement des modèles AI, tels que les coûts élevés, la faible réutilisation et le gaspillage des ressources GPU, tout en promouvant l'exécution de l'"AI payable" (Payable AI).
Composants clés de l'architecture système OpenLoRA, basés sur un design modulaire, couvrant le stockage de modèles, l'exécution d'inférences, le routage des requêtes et d'autres étapes clés, permettant un déploiement et un appel de plusieurs modèles de manière efficace et à faible coût :