DeepSeek fait éclater la dernière bulle sur la piste des agents, DeFAI pourrait donner naissance à une nouvelle vie, et la méthode de financement de l’industrie inaugurera une transformation. Cet article a été écrit par Kevin, chercheur chez BlockBooster et reproduit par Foresight News. Binance Report : Comment DeFAI réinvente-t-il l’expérience interactive de la finance décentralisée ? TLDR : L’émergence de DeepSeek a fait voler en éclats le fossé de la Puissance de calcul, et l’optimisation de la Puissance de calcul menée par le modèle Open Source est devenue une nouvelle direction ; La couche modèle et la couche applicative en amont et en aval de l’industrie DeepSeek Information positive ont un impact négatif sur la puissance de protocole dans l’infrastructure. L’information positive de DeepSeek fait éclater par inadvertance la dernière bulle sur la piste de l’agent, et DeFAI est le plus susceptible de donner naissance à une nouvelle vie ; Le jeu à somme nulle du financement de projets devrait prendre fin, et de nouvelles méthodes de financement de lancement communautaire + petit nombre de VCs pourraient devenir la norme. L’impact causé par DeepSeek aura un impact profond sur l’amont et l’aval de l’industrie de l’IA cette année, et DeepSeek a permis avec succès aux cartes graphiques grand public d’effectuer les tâches d’entraînement de grands modèles qui ne peuvent être entreprises que par un grand nombre de GPU haut de gamme. Le premier fossé autour de l’IA, la Puissance de calcul, a commencé à s’effriter, et lorsque l’efficacité des algorithmes a atteint 68 % par an, et que les performances matérielles ont suivi la loi de Moore pour grimper linéairement, les modèles d’évaluation enracinés au cours des trois dernières années ne s’appliquaient plus, et le prochain chapitre de l’IA sera ouvert par le modèle Open Source. Bien que le protocole d’IA du Web3 soit complètement différent de celui du Web2, il est également inévitable qu’il soit affecté par DeepSeek, ce qui conduira à des cas d’utilisation entièrement nouveaux pour l’IA Web3 en amont et en aval : couche d’infrastructure, couche logicielle intermédiaire, couche de modèle et couche d’application. À travers l’analyse de l’architecture technique, du positionnement fonctionnel et des cas d’usage réels, je divise l’ensemble de l’écosystème en : couche infrastructure, couche logicielle intermédiaire, couche modèle, couche applicative, et trie leurs dépendances : Couche d’infrastructure La couche infrastructure fournit les ressources sous-jacentes de la Décentralisation (Puissance de calcul, stockage, L1), Parmi eux, Puissance de calculprotocole comprend : Render, Akash, io.net, etc. ; Les protocoles de stockage incluent : Arweave, Filecoin, Storj, etc. L1 a : NEAR, Olas, Fetch.ai, etc. Puissance de calcul layer protocoleprend en charge l’entraînement, l’inférence et l’exécution de modèles ; Le protocole de stockage stocke les données d’entraînement, les arguments de modèle et les enregistrements d’interaction hors chaîne ; L1 optimise l’efficacité du transfert de données grâce à un Nœud dédié, Gouttelatence. La couche logicielle intermédiaire est un pont entre l’infrastructure en ligne et les applications de la couche supérieure, fournissant des outils de développement de cadres, des services de données et de protection de la vie privée, parmi lesquels le protocole d’étiquetage des données comprend : Grass, Masa, Vana, etc. Le protocole des cadres de développement comprend : Eliza, ARC, Swarms, etc. Les protocoles informatiques de protection de la vie privée comprennent : Phala et d’autres. La couche de service de données fournit du carburant pour l’entraînement du modèle, le cadre de développement s’appuie sur la puissance de calcul et de stockage de la couche d’infrastructure, et la couche de calcul de confidentialité protège la sécurité des données dans l’entraînement/l’inférence. La couche de modèle est utilisée pour le développement, l’entraînement et la distribution de modèles, avec la plate-forme d’entraînement de modèles Open Source : Bittensor. La couche modèle s’appuie sur les données des couches logicielles Puissance de calcul et intermédiaire de la couche infrastructure ; Le modèle est déployé hors chaîne par le biais du cadre de développement ; La place de marché du modèle transmet les résultats de l’entraînement à la couche d’application. Application Layer Application Layer est un produit d’IA destiné aux utilisateurs finaux, parmi lesquels les agents suivants : GOAT, AIXBT, etc. Les protocoles DeFAI incluent : Griffain, Buzz, etc. La couche d’application appelle le modèle pré-entraîné de la couche de modèle ; L’informatique de confidentialité qui s’appuie sur la couche logicielle intermédiaire ; Les applications complexes nécessitent une puissance de calcul en temps réel au niveau de la couche infrastructure. DeepSeek peut avoir un impact négatif sur la décentralisationPuissance de calcul Selon une enquête par sondage, environ 70 % des projets d’IA Web3 appellent en fait OpenAI ou des plateformes cloud centralisées, seuls 15 % utilisent des GPU de décentralisation (comme le modèle de sous-réseau Bittensor), et les 15 % restants sont des architectures hybrides (traitement local de données sensibles, tâches à usage général vers le cloud). L’utilisation réelle du protocole Décentralisation Puissance de calcul a été beaucoup plus faible que prévu et ne correspondait pas à sa capitalisation boursière réelle. Il y a trois raisons à cette faible utilisation : les développeurs Web2 utilisent la chaîne d’outils d’origine lors de la migration vers le Web3 ; La plate-forme GPU de décentralisation n’a pas encore obtenu d’avantages en termes de prix ; Certains projets contournent la censure de Conformité sous le nom de « Décentralisation », et la Puissance de calcul actuelle repose toujours sur un cloud centralisé. AWS/GCP détient une part de marché de 90%+ de AI Puissance de calcul, par rapport à l’équivalent d’Akash qui ne représente que 0,2% d’AWS. Les avantages des plates-formes cloud centralisées sont les suivants : la gestion des clusters, le réseau haut débit RDMA et la mise à l’échelle élastique ; La plate-forme cloud de décentralisation dispose d’une version améliorée web3 de la technologie ci-dessus, mais les lacunes qui ne peuvent pas être perfectionnées sont les suivantes : problème de latence : la latence de communication Nœud distribué est 6 fois supérieure à celle du cloud centralisé ; Fragmentation de la chaîne d’outils : PyTorch/TensorFlow ne prend pas en charge nativement la planification de la décentralisation. DeepSeek réduit la consommation de puissance de calcul de 50 % grâce à l’apprentissage parcimonieux, et l’élagage dynamique des modèles permet l’entraînement GPU grand public de dizaines de milliards de modèles d’arguments. La demande de GPU haut de gamme à court terme a été considérablement réduite, et le potentiel de marché de l’Informatique de pointe a été réévalué. Comme vous pouvez le voir dans le graphique ci-dessus, avant l’avènement de DeepSeek, la plupart des protocoles et des applications de l’industrie utilisaient des plates-formes telles qu’AWS, et seuls quelques cas d’utilisation étaient déployés dans les réseaux GPU de décentralisation, qui ont vu l’avantage de prix de ces derniers en termes de puissance de calcul grand public et n’ont pas eu l’impact de la suivilatence. Cette situation pourrait s’aggraver avec l’avènement de DeepSeek. DeepSeek a libéré les limites des développeurs à longue traîne, les modèles d’inférence à faible coût et efficaces seront popularisés à une vitesse sans précédent, en fait, la plate-forme cloud centralisée mentionnée ci-dessus et de nombreux pays ont commencé à déployer DeepSeek, le coût d’inférence élevé Goutte engendrera un grand nombre d’applications front-end, ces applications ont une énorme demande de GPU grand public. Face à l’énorme marché à venir, les plates-formes cloud centralisées lanceront un nouveau cycle de concurrence entre les utilisateurs, non seulement avec les meilleures plates-formes, mais aussi avec d’innombrables petites plates-formes cloud centralisées. Le moyen le plus direct de rivaliser est de réduire les prix, et il est prévisible que le prix du 4090 sur les plateformes centralisées entraînera une réduction, ce qui est un désastre pour la plateforme Puissance de calcul du Web3. Lorsque le prix n’est pas le seul fossé pour ces derniers, et que la plateforme Puissance de calcul de l’industrie est obligée de baisser les prix, le résultat est que io.net, Render et Akash ne peuvent pas se le permettre. La guerre des prix va détruire le dernier plafond de valorisation de ce dernier, et la spirale de la mort due à la baisse du chiffre d’affaires et à l’attrition des utilisateurs pourrait permettre à DécentralisationPuissance de calcul de prendre une nouvelle direction. Comme le montre la figure, je pense que DeepSeek aura des impacts différents sur la couche d’infrastructure, la couche de modèle et la couche d’application, en termes d’effets positifs : la couche applicative bénéficiera de l’importante Goutte des coûts d’inférence, et davantage d’applications pourront utiliser le faible coût pour s’assurer que l’application de l’agent est en ligne pendant une longue période et effectue la tâche en temps réel ; ...
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
Analyse de Depth》L'impact de DeepSeek sur l'amont et l'aval du protocole Web3 AI
DeepSeek fait éclater la dernière bulle sur la piste des agents, DeFAI pourrait donner naissance à une nouvelle vie, et la méthode de financement de l’industrie inaugurera une transformation. Cet article a été écrit par Kevin, chercheur chez BlockBooster et reproduit par Foresight News. Binance Report : Comment DeFAI réinvente-t-il l’expérience interactive de la finance décentralisée ? TLDR : L’émergence de DeepSeek a fait voler en éclats le fossé de la Puissance de calcul, et l’optimisation de la Puissance de calcul menée par le modèle Open Source est devenue une nouvelle direction ; La couche modèle et la couche applicative en amont et en aval de l’industrie DeepSeek Information positive ont un impact négatif sur la puissance de protocole dans l’infrastructure. L’information positive de DeepSeek fait éclater par inadvertance la dernière bulle sur la piste de l’agent, et DeFAI est le plus susceptible de donner naissance à une nouvelle vie ; Le jeu à somme nulle du financement de projets devrait prendre fin, et de nouvelles méthodes de financement de lancement communautaire + petit nombre de VCs pourraient devenir la norme. L’impact causé par DeepSeek aura un impact profond sur l’amont et l’aval de l’industrie de l’IA cette année, et DeepSeek a permis avec succès aux cartes graphiques grand public d’effectuer les tâches d’entraînement de grands modèles qui ne peuvent être entreprises que par un grand nombre de GPU haut de gamme. Le premier fossé autour de l’IA, la Puissance de calcul, a commencé à s’effriter, et lorsque l’efficacité des algorithmes a atteint 68 % par an, et que les performances matérielles ont suivi la loi de Moore pour grimper linéairement, les modèles d’évaluation enracinés au cours des trois dernières années ne s’appliquaient plus, et le prochain chapitre de l’IA sera ouvert par le modèle Open Source. Bien que le protocole d’IA du Web3 soit complètement différent de celui du Web2, il est également inévitable qu’il soit affecté par DeepSeek, ce qui conduira à des cas d’utilisation entièrement nouveaux pour l’IA Web3 en amont et en aval : couche d’infrastructure, couche logicielle intermédiaire, couche de modèle et couche d’application. À travers l’analyse de l’architecture technique, du positionnement fonctionnel et des cas d’usage réels, je divise l’ensemble de l’écosystème en : couche infrastructure, couche logicielle intermédiaire, couche modèle, couche applicative, et trie leurs dépendances : Couche d’infrastructure La couche infrastructure fournit les ressources sous-jacentes de la Décentralisation (Puissance de calcul, stockage, L1), Parmi eux, Puissance de calculprotocole comprend : Render, Akash, io.net, etc. ; Les protocoles de stockage incluent : Arweave, Filecoin, Storj, etc. L1 a : NEAR, Olas, Fetch.ai, etc. Puissance de calcul layer protocoleprend en charge l’entraînement, l’inférence et l’exécution de modèles ; Le protocole de stockage stocke les données d’entraînement, les arguments de modèle et les enregistrements d’interaction hors chaîne ; L1 optimise l’efficacité du transfert de données grâce à un Nœud dédié, Gouttelatence. La couche logicielle intermédiaire est un pont entre l’infrastructure en ligne et les applications de la couche supérieure, fournissant des outils de développement de cadres, des services de données et de protection de la vie privée, parmi lesquels le protocole d’étiquetage des données comprend : Grass, Masa, Vana, etc. Le protocole des cadres de développement comprend : Eliza, ARC, Swarms, etc. Les protocoles informatiques de protection de la vie privée comprennent : Phala et d’autres. La couche de service de données fournit du carburant pour l’entraînement du modèle, le cadre de développement s’appuie sur la puissance de calcul et de stockage de la couche d’infrastructure, et la couche de calcul de confidentialité protège la sécurité des données dans l’entraînement/l’inférence. La couche de modèle est utilisée pour le développement, l’entraînement et la distribution de modèles, avec la plate-forme d’entraînement de modèles Open Source : Bittensor. La couche modèle s’appuie sur les données des couches logicielles Puissance de calcul et intermédiaire de la couche infrastructure ; Le modèle est déployé hors chaîne par le biais du cadre de développement ; La place de marché du modèle transmet les résultats de l’entraînement à la couche d’application. Application Layer Application Layer est un produit d’IA destiné aux utilisateurs finaux, parmi lesquels les agents suivants : GOAT, AIXBT, etc. Les protocoles DeFAI incluent : Griffain, Buzz, etc. La couche d’application appelle le modèle pré-entraîné de la couche de modèle ; L’informatique de confidentialité qui s’appuie sur la couche logicielle intermédiaire ; Les applications complexes nécessitent une puissance de calcul en temps réel au niveau de la couche infrastructure. DeepSeek peut avoir un impact négatif sur la décentralisationPuissance de calcul Selon une enquête par sondage, environ 70 % des projets d’IA Web3 appellent en fait OpenAI ou des plateformes cloud centralisées, seuls 15 % utilisent des GPU de décentralisation (comme le modèle de sous-réseau Bittensor), et les 15 % restants sont des architectures hybrides (traitement local de données sensibles, tâches à usage général vers le cloud). L’utilisation réelle du protocole Décentralisation Puissance de calcul a été beaucoup plus faible que prévu et ne correspondait pas à sa capitalisation boursière réelle. Il y a trois raisons à cette faible utilisation : les développeurs Web2 utilisent la chaîne d’outils d’origine lors de la migration vers le Web3 ; La plate-forme GPU de décentralisation n’a pas encore obtenu d’avantages en termes de prix ; Certains projets contournent la censure de Conformité sous le nom de « Décentralisation », et la Puissance de calcul actuelle repose toujours sur un cloud centralisé. AWS/GCP détient une part de marché de 90%+ de AI Puissance de calcul, par rapport à l’équivalent d’Akash qui ne représente que 0,2% d’AWS. Les avantages des plates-formes cloud centralisées sont les suivants : la gestion des clusters, le réseau haut débit RDMA et la mise à l’échelle élastique ; La plate-forme cloud de décentralisation dispose d’une version améliorée web3 de la technologie ci-dessus, mais les lacunes qui ne peuvent pas être perfectionnées sont les suivantes : problème de latence : la latence de communication Nœud distribué est 6 fois supérieure à celle du cloud centralisé ; Fragmentation de la chaîne d’outils : PyTorch/TensorFlow ne prend pas en charge nativement la planification de la décentralisation. DeepSeek réduit la consommation de puissance de calcul de 50 % grâce à l’apprentissage parcimonieux, et l’élagage dynamique des modèles permet l’entraînement GPU grand public de dizaines de milliards de modèles d’arguments. La demande de GPU haut de gamme à court terme a été considérablement réduite, et le potentiel de marché de l’Informatique de pointe a été réévalué. Comme vous pouvez le voir dans le graphique ci-dessus, avant l’avènement de DeepSeek, la plupart des protocoles et des applications de l’industrie utilisaient des plates-formes telles qu’AWS, et seuls quelques cas d’utilisation étaient déployés dans les réseaux GPU de décentralisation, qui ont vu l’avantage de prix de ces derniers en termes de puissance de calcul grand public et n’ont pas eu l’impact de la suivilatence. Cette situation pourrait s’aggraver avec l’avènement de DeepSeek. DeepSeek a libéré les limites des développeurs à longue traîne, les modèles d’inférence à faible coût et efficaces seront popularisés à une vitesse sans précédent, en fait, la plate-forme cloud centralisée mentionnée ci-dessus et de nombreux pays ont commencé à déployer DeepSeek, le coût d’inférence élevé Goutte engendrera un grand nombre d’applications front-end, ces applications ont une énorme demande de GPU grand public. Face à l’énorme marché à venir, les plates-formes cloud centralisées lanceront un nouveau cycle de concurrence entre les utilisateurs, non seulement avec les meilleures plates-formes, mais aussi avec d’innombrables petites plates-formes cloud centralisées. Le moyen le plus direct de rivaliser est de réduire les prix, et il est prévisible que le prix du 4090 sur les plateformes centralisées entraînera une réduction, ce qui est un désastre pour la plateforme Puissance de calcul du Web3. Lorsque le prix n’est pas le seul fossé pour ces derniers, et que la plateforme Puissance de calcul de l’industrie est obligée de baisser les prix, le résultat est que io.net, Render et Akash ne peuvent pas se le permettre. La guerre des prix va détruire le dernier plafond de valorisation de ce dernier, et la spirale de la mort due à la baisse du chiffre d’affaires et à l’attrition des utilisateurs pourrait permettre à DécentralisationPuissance de calcul de prendre une nouvelle direction. Comme le montre la figure, je pense que DeepSeek aura des impacts différents sur la couche d’infrastructure, la couche de modèle et la couche d’application, en termes d’effets positifs : la couche applicative bénéficiera de l’importante Goutte des coûts d’inférence, et davantage d’applications pourront utiliser le faible coût pour s’assurer que l’application de l’agent est en ligne pendant une longue période et effectue la tâche en temps réel ; ...