Contenu éditorial de confiance, examiné par des experts de l'industrie et des rédacteurs expérimentés. Divulgation publicitaire
Fluence construit ce que les clouds centralisés ne peuvent pas : une couche de calcul ouverte, à faible coût et de qualité entreprise qui est souveraine, transparente et ouverte à tous.
2025 a commencé de la même manière que 2024 s'est terminée avec des géants du cloud investissant de manière agressive pour dominer l'infrastructure IA. Microsoft dépense plus de 80 milliards de dollars pour de nouveaux centres de données, Google a lancé son Superordinateur IA, Oracle investit 25 milliards de dollars dans ses grappes StarGate AI et AWS donne la priorité aux services natifs de l'IA. Les acteurs spécialisés se développent également rapidement. CoreWeave a levé 1,5 milliard de dollars lors de son introduction en bourse en mars et vaut actuellement plus de 70 milliards de dollars.
Alors que l'IA devient une infrastructure critique, l'accès à la puissance de calcul sera l'une des batailles décisives de notre époque. Alors que les hyperscalers consolident et centralisent la puissance de calcul en construisant des centres de données exclusifs et en intégrant verticalement le silicium, des réseaux comme Fluence offrent une vision radicalement différente - une plateforme décentralisée, ouverte et neutre pour le calcul de l'IA, tokenisant le calcul pour répondre à la demande exponentielle de l'IA et ayant FLT comme un actif de calcul tokenisé RWA
Fluence collabore déjà avec les meilleurs réseaux d'infrastructure décentralisée à travers l'IA (Spheron, Aethir, IO.net) et le stockage (Filecoin, Arweave, Akave, IPFS) sur de multiples initiatives, renforçant ainsi sa position en tant que couche de données de calcul neutre. Pour concrétiser cette vision, la feuille de route pour 2025-2026 met l'accent sur la convergence de trois domaines d'action clés :
1. Lancement d'une couche de calcul mondiale alimentée par GPU
Fluence va bientôt prendre en charge les nœuds GPU à travers le monde, permettant aux fournisseurs de calcul de contribuer du matériel prêt pour l'IA au réseau. Ce nouveau maillage GPU va transformer la plateforme Fluence à partir d'une capacité basée sur CPU en une couche de calcul supplémentaire de qualité AI, conçue pour l'inférence, le peaufinage et le service de modèles. Fluence intégrera le support des conteneurs pour l'exécution sécurisée et portable des tâches GPU. La conteneurisation permet un service fiable des charges de travail ML et établit une infrastructure critique pour les futures applications d'inférence, de peaufinage et d'agentic à travers le réseau décentralisé.
Fluence explorera l'inférence préservant la confidentialité à travers l'informatique confidentielle pour les GPU, en gardant les données commerciales ou personnelles sensibles privées tout en aidant à réduire les coûts de l'inférence en IA. En utilisant des environnements d'exécution de confiance (TEE) et une mémoire chiffrée, cette initiative de R&D permet le traitement des charges de travail sensibles tout en maintenant la décentralisation et en soutenant le développement d'agents souverains.
Étapes clés:
Intégration du nœud GPU - T3 2025
Prise en charge en direct de l'exécution de conteneurs GPU - Q4 2025
Lancement de la piste de R&D en calcul GPU confidentiel - T4 2025
Exécution confidentielle du travail de pilote – T2 2026
2. Modèles AI hébergés et inférence unifiée
Fluence fournira des modèles de déploiement en un clic pour des modèles open source populaires, y compris LLMs, des cadres d'orchestration comme LangChain, des piles agentic et des serveurs MCP. La pile d'IA de la plateforme Fluence sera étendue avec une couche d'inférence intégrée pour les modèles et agents hébergés. Cela simplifie le déploiement de modèles d'IA tout en tirant parti des contributions de la communauté et du soutien au développement externe.
Modèle + modèles d'orchestration en direct - Q4 2025
Les points de terminaison d'inférence et l'infrastructure de routage sont opérationnels - Q2 2026
3. Activer un SLA vérifiable et piloté par la communauté
Fluence introduira une nouvelle approche de la confiance et de la résilience du réseau grâce aux Gardiens—acteurs individuels et institutionnels qui vérifient la disponibilité du calcul. Au lieu de s'appuyer sur des tableaux de bord fermés, les Gardiens surveillent l'infrastructure grâce à une télémétrie décentralisée et gagnent des récompenses FLT pour faire respecter les accords de niveau de service (SLAs).
Les Gardiens transforment un réseau d'infrastructure de qualité entreprise en quelque chose auquel n'importe qui peut participer—sans avoir besoin de posséder du matériel. Le programme Guardian est complété par le Programme Pointless, un système de réputation ludifié qui récompense les contributions de la communauté et conduit à l'éligibilité des Gardiens.
Étapes clés:
Première série du Gardien - T3 2025
Rollout complet des Gardiens et SLA programmatique – Q4 2025
4. Intégration de l'informatique AI avec une pile de données composable
L'IA ne se limite pas à calculer - c'est calcul + données. Fluence construit des intégrations profondes avec des réseaux de stockage décentralisés tels que Filecoin, Arweave, Akave et IPFS pour fournir aux développeurs l'accès à des ensembles de données vérifiables aux côtés des environnements d'exécution. Ces intégrations permettront aux utilisateurs de définir des tâches ayant accès à des données persistantes et distribuées et de s'exécuter sur des nœuds pris en charge par GPU - transformant Fluence en un backend IA complet orchestré via FLT
Pour soutenir cela, le réseau offrira des modèles composables et des modules SDK pré-construits pour connecter des tâches de calcul avec des compartiments de stockage ou des ensembles de données sur chaîne. Les développeurs construisant des agents d'IA, des outils d'inférence de LLM ou des applications scientifiques pourront traiter Fluence comme un pipeline d'IA modulaire, avec des données ouvertes, des calculs et une validation assemblés par la logique du protocole.
Étapes clés:
Sauvegardes de stockage décentralisées – Q1 2026
Accès intégré aux ensembles de données pour les charges de travail IA - T3 2026
De Cloudless Compute à Shared Intelligence
Avec une feuille de route axée sur l'intégration des GPU, l'exécution vérifiable et l'accès transparent aux données, Fluence pose les bases de la prochaine ère de l'IA - une ère qui ne sera pas contrôlée par une poignée d'hyperscalers, mais alimentée par une communauté mondiale de fournisseurs et de participants en calcul coopératif et décentralisé
L'infrastructure pour l'IA doit refléter les valeurs que nous voulons que l'IA serve : ouverture, collaboration, vérifiabilité et responsabilité. Fluence transforme ce principe en un protocole.
Rejoignez la mission:
Postuler en tant que fournisseur de GPU
Inscrivez-vous à la version bêta de Fluence pour des machines virtuelles sans cloud
Commencez à gravir le classement Pointless et gagnez votre statut de Gardien
Avertissement: Ceci est une publication payée. Les déclarations, points de vue et opinions exprimés dans cette colonne sont uniquement ceux du fournisseur de contenu et ne représentent pas nécessairement ceux de Bitcoinist. Bitcoinist ne garantit pas l'exactitude ou l'opportunité des informations disponibles dans un tel contenu. Faites vos recherches et investissez à vos propres risques.
Le processus éditorial de bitjetonist est axé sur la livraison de contenu minutieusement recherché, précis et impartial. Nous respectons des normes strictes en matière de sourçage, et chaque page est soumise à un examen diligent par notre équipe de meilleurs experts en technologie et éditeurs chevronnés. Ce processus garantit l'intégrité, la pertinence et la valeur de notre contenu pour nos lecteurs.
Le contenu est fourni à titre de référence uniquement, il ne s'agit pas d'une sollicitation ou d'une offre. Aucun conseil en investissement, fiscalité ou juridique n'est fourni. Consultez l'Avertissement pour plus de détails sur les risques.
Feuille de route de Fluence AI : Livraison d'une couche de calcul neutre pour l'avenir de l'intelligence avec FLT | Bitjetonist.com
2025 a commencé de la même manière que 2024 s'est terminée avec des géants du cloud investissant de manière agressive pour dominer l'infrastructure IA. Microsoft dépense plus de 80 milliards de dollars pour de nouveaux centres de données, Google a lancé son Superordinateur IA, Oracle investit 25 milliards de dollars dans ses grappes StarGate AI et AWS donne la priorité aux services natifs de l'IA. Les acteurs spécialisés se développent également rapidement. CoreWeave a levé 1,5 milliard de dollars lors de son introduction en bourse en mars et vaut actuellement plus de 70 milliards de dollars.
Alors que l'IA devient une infrastructure critique, l'accès à la puissance de calcul sera l'une des batailles décisives de notre époque. Alors que les hyperscalers consolident et centralisent la puissance de calcul en construisant des centres de données exclusifs et en intégrant verticalement le silicium, des réseaux comme Fluence offrent une vision radicalement différente - une plateforme décentralisée, ouverte et neutre pour le calcul de l'IA, tokenisant le calcul pour répondre à la demande exponentielle de l'IA et ayant FLT comme un actif de calcul tokenisé RWA
Fluence collabore déjà avec les meilleurs réseaux d'infrastructure décentralisée à travers l'IA (Spheron, Aethir, IO.net) et le stockage (Filecoin, Arweave, Akave, IPFS) sur de multiples initiatives, renforçant ainsi sa position en tant que couche de données de calcul neutre. Pour concrétiser cette vision, la feuille de route pour 2025-2026 met l'accent sur la convergence de trois domaines d'action clés :
1. Lancement d'une couche de calcul mondiale alimentée par GPU
Fluence va bientôt prendre en charge les nœuds GPU à travers le monde, permettant aux fournisseurs de calcul de contribuer du matériel prêt pour l'IA au réseau. Ce nouveau maillage GPU va transformer la plateforme Fluence à partir d'une capacité basée sur CPU en une couche de calcul supplémentaire de qualité AI, conçue pour l'inférence, le peaufinage et le service de modèles. Fluence intégrera le support des conteneurs pour l'exécution sécurisée et portable des tâches GPU. La conteneurisation permet un service fiable des charges de travail ML et établit une infrastructure critique pour les futures applications d'inférence, de peaufinage et d'agentic à travers le réseau décentralisé.
Fluence explorera l'inférence préservant la confidentialité à travers l'informatique confidentielle pour les GPU, en gardant les données commerciales ou personnelles sensibles privées tout en aidant à réduire les coûts de l'inférence en IA. En utilisant des environnements d'exécution de confiance (TEE) et une mémoire chiffrée, cette initiative de R&D permet le traitement des charges de travail sensibles tout en maintenant la décentralisation et en soutenant le développement d'agents souverains.
Étapes clés:
2. Modèles AI hébergés et inférence unifiée
Fluence fournira des modèles de déploiement en un clic pour des modèles open source populaires, y compris LLMs, des cadres d'orchestration comme LangChain, des piles agentic et des serveurs MCP. La pile d'IA de la plateforme Fluence sera étendue avec une couche d'inférence intégrée pour les modèles et agents hébergés. Cela simplifie le déploiement de modèles d'IA tout en tirant parti des contributions de la communauté et du soutien au développement externe.
3. Activer un SLA vérifiable et piloté par la communauté
Fluence introduira une nouvelle approche de la confiance et de la résilience du réseau grâce aux Gardiens—acteurs individuels et institutionnels qui vérifient la disponibilité du calcul. Au lieu de s'appuyer sur des tableaux de bord fermés, les Gardiens surveillent l'infrastructure grâce à une télémétrie décentralisée et gagnent des récompenses FLT pour faire respecter les accords de niveau de service (SLAs).
Les Gardiens transforment un réseau d'infrastructure de qualité entreprise en quelque chose auquel n'importe qui peut participer—sans avoir besoin de posséder du matériel. Le programme Guardian est complété par le Programme Pointless, un système de réputation ludifié qui récompense les contributions de la communauté et conduit à l'éligibilité des Gardiens.
Étapes clés:
4. Intégration de l'informatique AI avec une pile de données composable
L'IA ne se limite pas à calculer - c'est calcul + données. Fluence construit des intégrations profondes avec des réseaux de stockage décentralisés tels que Filecoin, Arweave, Akave et IPFS pour fournir aux développeurs l'accès à des ensembles de données vérifiables aux côtés des environnements d'exécution. Ces intégrations permettront aux utilisateurs de définir des tâches ayant accès à des données persistantes et distribuées et de s'exécuter sur des nœuds pris en charge par GPU - transformant Fluence en un backend IA complet orchestré via FLT
Pour soutenir cela, le réseau offrira des modèles composables et des modules SDK pré-construits pour connecter des tâches de calcul avec des compartiments de stockage ou des ensembles de données sur chaîne. Les développeurs construisant des agents d'IA, des outils d'inférence de LLM ou des applications scientifiques pourront traiter Fluence comme un pipeline d'IA modulaire, avec des données ouvertes, des calculs et une validation assemblés par la logique du protocole.
Étapes clés:
De Cloudless Compute à Shared Intelligence
Avec une feuille de route axée sur l'intégration des GPU, l'exécution vérifiable et l'accès transparent aux données, Fluence pose les bases de la prochaine ère de l'IA - une ère qui ne sera pas contrôlée par une poignée d'hyperscalers, mais alimentée par une communauté mondiale de fournisseurs et de participants en calcul coopératif et décentralisé
L'infrastructure pour l'IA doit refléter les valeurs que nous voulons que l'IA serve : ouverture, collaboration, vérifiabilité et responsabilité. Fluence transforme ce principe en un protocole.
Rejoignez la mission:
Commencez à gravir le classement Pointless et gagnez votre statut de Gardien
Avertissement: Ceci est une publication payée. Les déclarations, points de vue et opinions exprimés dans cette colonne sont uniquement ceux du fournisseur de contenu et ne représentent pas nécessairement ceux de Bitcoinist. Bitcoinist ne garantit pas l'exactitude ou l'opportunité des informations disponibles dans un tel contenu. Faites vos recherches et investissez à vos propres risques.