!
Доверенный редакционный контент, проверенный ведущими отраслевыми экспертами и опытными редакторами. Рекламное разглашение
Fluence строит то, чего не могут централизованные облака: открытый, недорогой и корпоративного уровня вычислительный слой, который является суверенным, прозрачным и открытым для всех.
2025 начался так же, как 2024 год закончился, с облачными гигантами, которые активно инвестируют, чтобы доминировать в сфере AI инфраструктуры. Microsoft тратит более $80 миллиардов на новые центры обработки данных, Google запустил свой ИИ-гиперкомпьютер, Oracle вкладывает $25 миллиардов в свои кластеры StarGate AI, а AWS приоритизирует службы нативного ИИ. Специализированные участники также быстро масштабируются. CoreWeave привлек $1,5 миллиарда в своем IPO в марте и в настоящее время стоит более $70 миллиардов
Поскольку искусственный интеллект становится критической инфраструктурой, доступ к вычислительной мощности станет одной из определяющих битв нашей эпохи. В то время как гипермасштабируемые компании консолидируют и централизуют вычислительную мощность, строя эксклюзивные центры данных и вертикально интегрируя кремний, сети, такие как Fluence, предлагают радикально другое видение - децентрализованную, открытую и нейтральную платформу для вычислений искусственного интеллекта, токенизируя вычисления для удовлетворения экспоненциального спроса на искусственный интеллект и имея FLT в качестве токенизированного актива вычислительной мощности RWA
Fluence уже сотрудничает с ведущими децентрализованными инфраструктурными сетями по ИИ (Spheron, Aethir, IO.net) и хранилищем (Filecoin, Arweave, Akave, IPFS) на нескольких инициативах, укрепляя свою позицию как нейтральный вычислительно-данный слой. Чтобы воплотить эту визию в жизнь, дорожная карта на 2025–2026 годы сосредотачивается на конвергенции трех ключевых областей действий:
1. Запуск глобального вычислительного слоя на основе GPU
Fluence скоро будет поддерживать GPU узлы по всему миру, позволяя поставщикам вычислительных ресурсов предоставлять готовое к использованию в сфере искусственного интеллекта оборудование для сети. Эта новая сеть GPU обновит платформу Fluence, переведя ее из CPU-ориентированной в дополнительный слой вычислений AI-класса, предназначенный для вывода, тонкой настройки и обслуживания моделей. Fluence интегрирует поддержку контейнеров для безопасного, портативного выполнения задач на GPU. Контейнеризация обеспечивает надежное обслуживание рабочей нагрузки ML и создает критическую инфраструктуру для будущих выводов, тонкой настройки и прикладных приложений по всей децентрализованной сети.
Fluence будет исследовать сохранение конфиденциальности вывода через конфиденциальные вычисления для графических процессоров, сохраняя конфиденциальность чувствительных бизнес- или личных данных и помогая снизить затраты на вывод искусственного интеллекта. Используя доверенные среды выполнения (TEE) и зашифрованную память, эта инициатива в области исследований и разработок позволяет обрабатывать чувствительные рабочие нагрузки, сохраняя децентрализацию и поддерживая развитие суверенных агентов.
Ключевые вехи:
Подключение узла GPU - Q3 2025
Поддержка живой работы контейнера GPU – Q4 2025
Запуск конфиденциального трека исследований и разработок ГПУ – Q4 2025
Конфиденциальное выполнение работ пилотов - Q2 2026
2. Хостинг моделей и единое заключение
Fluence предоставит шаблоны развертывания одним щелчком для популярных открытых моделей, включая LLMs, фреймворки оркестровки, такие как LangChain, агентные стеки и серверы MCP. Стек искусственного интеллекта платформы Fluence будет расширен интегрированным слоем вывода для размещенных моделей и агентов. Это упрощает развертывание моделей искусственного интеллекта, используя вклад сообщества и внешнюю поддержку разработки.
Модель + шаблоны оркестровки находятся в действии - Q4 2025
Конечные точки вывода и инфраструктура маршрутизации работают - Q2 2026
Fluence представит новый подход к доверию и устойчивости сети через Guardians—розничные и институциональные участники, которые проверяют доступность вычислений. Вместо использования закрытых информационных панелей, Guardians мониторят инфраструктуру через децентрализованную телеметрию и зарабатывают награды FLT за обеспечение уровня обслуживания (SLAs).
Сторожевые превращают корпоративную инфраструктурную сеть в нечто, во что может вступить любой человек — не обязательно владея оборудованием. Программа сторожевых дополняется программой Pointless, системой репутации в игровом стиле, которая поощряет вклад сообщества и приводит к квалификации сторожа.
Основные вехи:
Первая партия Guardian - Q3 2025
Полная реализация Guardians и программная SLA - Q4 2025
4. Интеграция вычислений искусственного интеллекта с композиционным стеком данных
ИИ - это не просто вычисления - это вычисления + данные. Fluence создает глубокие интеграции с децентрализованными сетями хранения, такими как Filecoin, Arweave, Akave и IPFS, чтобы предоставить разработчикам доступ к проверяемым наборам данных наряду с средами выполнения. Эти интеграции позволят пользователям определять задания, которые имеют доступ к постоянным распределенным данным и запускаться на узлах с поддержкой GPU - превращая Fluence в полноценный бэкэнд ИИ, который оркестрируется через FLT
Для поддержки этого сеть будет предлагать составные шаблоны и предварительно собранные модули SDK для подключения вычислительных задач с хранилищами данных или наборами данных on-chain. Разработчики, создающие искусственный интеллект, инструменты вывода LLM или приложения для науки, смогут рассматривать Fluence как модульный ИИ-конвейер — с открытыми данными, вычислениями и валидацией, собранными вместе с помощью логики протокола.
Интегрированный доступ к набору данных для рабочих нагрузок ИИ – Q3 2026
С облачных вычислений к общему интеллекту
С упором на интеграцию GPU, проверяемое выполнение и безпрепятственный доступ к данным в плане развития, Fluence заложила основы для следующей эры искусственного интеллекта — той, которая не будет контролироваться группой гипермасштабировщиков, а будет поддерживаться глобальным сообществом сотрудничающих и децентрализованных поставщиков и участников вычислений
Инфраструктура для искусственного интеллекта должна отражать ценности, которые мы хотим, чтобы искусственный интеллект служил: открытость, сотрудничество, верифицируемость и ответственность. Fluence превращает этот принцип в протокол.
Присоединяйтесь к миссии:
Применить в качестве поставщика GPU
Зарегистрируйтесь на бета-тестирование Fluence для Cloudless VMs
Начните подниматься на доску лидеров Pointless и заработайте статус Guardian
Disclaimer: Это платный выпуск. Заявления, взгляды и мнения, выраженные в этой колонке, являются исключительно мнениями предоставителя контента и не обязательно отражают точку зрения Bitcoinist. Bitcoinist не гарантирует точность или своевременность информации, представленной в таком контенте. Проведите свои исследования и инвестируйте на свой страх и риск.
! Редакционный процесс для биттокениста сосредоточен на предоставлении тщательно исследованного, точного и беспристрастного контента. Мы придерживаемся строгих стандартов источников, и каждая страница проходит тщательный обзор нашей командой лучших технологических экспертов и опытных редакторов. Этот процесс обеспечивает целостность, актуальность и ценность нашего контента для наших читателей.
Содержание носит исключительно справочный характер и не является предложением или офертой. Консультации по инвестициям, налогообложению или юридическим вопросам не предоставляются. Более подробную информацию о рисках см. в разделе «Дисклеймер».
Fluence AI Roadmap: Доставка Нейтрального Вычислительного Слоя для Будущего Интеллекта С FLT | Биткойнist.com
! Доверенный редакционный контент, проверенный ведущими отраслевыми экспертами и опытными редакторами. Рекламное разглашение Fluence строит то, чего не могут централизованные облака: открытый, недорогой и корпоративного уровня вычислительный слой, который является суверенным, прозрачным и открытым для всех.
2025 начался так же, как 2024 год закончился, с облачными гигантами, которые активно инвестируют, чтобы доминировать в сфере AI инфраструктуры. Microsoft тратит более $80 миллиардов на новые центры обработки данных, Google запустил свой ИИ-гиперкомпьютер, Oracle вкладывает $25 миллиардов в свои кластеры StarGate AI, а AWS приоритизирует службы нативного ИИ. Специализированные участники также быстро масштабируются. CoreWeave привлек $1,5 миллиарда в своем IPO в марте и в настоящее время стоит более $70 миллиардов
Поскольку искусственный интеллект становится критической инфраструктурой, доступ к вычислительной мощности станет одной из определяющих битв нашей эпохи. В то время как гипермасштабируемые компании консолидируют и централизуют вычислительную мощность, строя эксклюзивные центры данных и вертикально интегрируя кремний, сети, такие как Fluence, предлагают радикально другое видение - децентрализованную, открытую и нейтральную платформу для вычислений искусственного интеллекта, токенизируя вычисления для удовлетворения экспоненциального спроса на искусственный интеллект и имея FLT в качестве токенизированного актива вычислительной мощности RWA
Fluence уже сотрудничает с ведущими децентрализованными инфраструктурными сетями по ИИ (Spheron, Aethir, IO.net) и хранилищем (Filecoin, Arweave, Akave, IPFS) на нескольких инициативах, укрепляя свою позицию как нейтральный вычислительно-данный слой. Чтобы воплотить эту визию в жизнь, дорожная карта на 2025–2026 годы сосредотачивается на конвергенции трех ключевых областей действий:
1. Запуск глобального вычислительного слоя на основе GPU
Fluence скоро будет поддерживать GPU узлы по всему миру, позволяя поставщикам вычислительных ресурсов предоставлять готовое к использованию в сфере искусственного интеллекта оборудование для сети. Эта новая сеть GPU обновит платформу Fluence, переведя ее из CPU-ориентированной в дополнительный слой вычислений AI-класса, предназначенный для вывода, тонкой настройки и обслуживания моделей. Fluence интегрирует поддержку контейнеров для безопасного, портативного выполнения задач на GPU. Контейнеризация обеспечивает надежное обслуживание рабочей нагрузки ML и создает критическую инфраструктуру для будущих выводов, тонкой настройки и прикладных приложений по всей децентрализованной сети.
Fluence будет исследовать сохранение конфиденциальности вывода через конфиденциальные вычисления для графических процессоров, сохраняя конфиденциальность чувствительных бизнес- или личных данных и помогая снизить затраты на вывод искусственного интеллекта. Используя доверенные среды выполнения (TEE) и зашифрованную память, эта инициатива в области исследований и разработок позволяет обрабатывать чувствительные рабочие нагрузки, сохраняя децентрализацию и поддерживая развитие суверенных агентов.
Ключевые вехи:
2. Хостинг моделей и единое заключение
Fluence предоставит шаблоны развертывания одним щелчком для популярных открытых моделей, включая LLMs, фреймворки оркестровки, такие как LangChain, агентные стеки и серверы MCP. Стек искусственного интеллекта платформы Fluence будет расширен интегрированным слоем вывода для размещенных моделей и агентов. Это упрощает развертывание моделей искусственного интеллекта, используя вклад сообщества и внешнюю поддержку разработки.
3. Включение Проверяемого, Сообществом Управляемого SLA
Fluence представит новый подход к доверию и устойчивости сети через Guardians—розничные и институциональные участники, которые проверяют доступность вычислений. Вместо использования закрытых информационных панелей, Guardians мониторят инфраструктуру через децентрализованную телеметрию и зарабатывают награды FLT за обеспечение уровня обслуживания (SLAs).
Сторожевые превращают корпоративную инфраструктурную сеть в нечто, во что может вступить любой человек — не обязательно владея оборудованием. Программа сторожевых дополняется программой Pointless, системой репутации в игровом стиле, которая поощряет вклад сообщества и приводит к квалификации сторожа.
Основные вехи:
4. Интеграция вычислений искусственного интеллекта с композиционным стеком данных
ИИ - это не просто вычисления - это вычисления + данные. Fluence создает глубокие интеграции с децентрализованными сетями хранения, такими как Filecoin, Arweave, Akave и IPFS, чтобы предоставить разработчикам доступ к проверяемым наборам данных наряду с средами выполнения. Эти интеграции позволят пользователям определять задания, которые имеют доступ к постоянным распределенным данным и запускаться на узлах с поддержкой GPU - превращая Fluence в полноценный бэкэнд ИИ, который оркестрируется через FLT
Для поддержки этого сеть будет предлагать составные шаблоны и предварительно собранные модули SDK для подключения вычислительных задач с хранилищами данных или наборами данных on-chain. Разработчики, создающие искусственный интеллект, инструменты вывода LLM или приложения для науки, смогут рассматривать Fluence как модульный ИИ-конвейер — с открытыми данными, вычислениями и валидацией, собранными вместе с помощью логики протокола.
Ключевые вехи:
С облачных вычислений к общему интеллекту
С упором на интеграцию GPU, проверяемое выполнение и безпрепятственный доступ к данным в плане развития, Fluence заложила основы для следующей эры искусственного интеллекта — той, которая не будет контролироваться группой гипермасштабировщиков, а будет поддерживаться глобальным сообществом сотрудничающих и децентрализованных поставщиков и участников вычислений
Инфраструктура для искусственного интеллекта должна отражать ценности, которые мы хотим, чтобы искусственный интеллект служил: открытость, сотрудничество, верифицируемость и ответственность. Fluence превращает этот принцип в протокол.
Присоединяйтесь к миссии:
Начните подниматься на доску лидеров Pointless и заработайте статус Guardian
Disclaimer: Это платный выпуск. Заявления, взгляды и мнения, выраженные в этой колонке, являются исключительно мнениями предоставителя контента и не обязательно отражают точку зрения Bitcoinist. Bitcoinist не гарантирует точность или своевременность информации, представленной в таком контенте. Проведите свои исследования и инвестируйте на свой страх и риск.
! Редакционный процесс для биттокениста сосредоточен на предоставлении тщательно исследованного, точного и беспристрастного контента. Мы придерживаемся строгих стандартов источников, и каждая страница проходит тщательный обзор нашей командой лучших технологических экспертов и опытных редакторов. Этот процесс обеспечивает целостность, актуальность и ценность нашего контента для наших читателей.