!
Довірений редакційний вміст, переглянутий провідними фахівцями галузі та досвідченими редакторами. Рекламне розголошення
Fluence будує те, що централізовані хмари не можуть: відкритий, низькокостовий та корпоративний обчислювальний шар, який є суверенним, прозорим та доступним для всіх.
2025 розпочався так само, як завершився 2024 рік, з великих хмарних гігантів, що інвестують агресивно, щоб домінувати в галузі інфраструктури ШІ. Microsoft витрачає понад $80 мільярдів на нові центри обробки даних, Google запустила свій ШІ-гіперкомп'ютер, Oracle інвестує $25 мільярдів у свої кластери StarGate ШІ, а AWS пріоритизує штучні інтелектуальні сервіси. Спеціалізовані гравці також швидко масштабуються. CoreWeave залучив $1.5 мільярда на своєму березневому IPO та наразі вартує понад $70 мільярдів.
По мірі того, як штучний інтелект стає критичною інфраструктурою, доступ до обчислювальної потужності стане однією з визначальних битв нашої ери. У той час як гіпермасштабувальники консолідують та централізують обчислювальну потужність, будуючи ексклюзивні центри обробки даних та вертикально інтегруючи кремній, мережі, такі як Fluence, пропонують радикально відмінне візію - децентралізовану, відкриту та нейтральну платформу для обчислень з штучним інтелектом, токенізуючи обчислення для задоволення експоненційного попиту на штучний інтелект і маючи FLT як актив токенізованих обчислень RWA
Fluence вже співпрацює з провідними децентралізованими мережами інфраструктури в галузі штучного інтелекту GateSpheron, Aethir, IO.netGate та сховищем (Filecoin, Arweave, Akave, IPFS) на численних ініціативах, підсилюючи свою позицію як нейтральний обчислювально-даний шар. Щоб втілити цю візію в життя, дорожня карта на 2025–2026 роки фокусується на зближенні трьох ключових напрямів дій:
( 1. Запуск Глобального Обчислювального Шару На Базі GPU
Fluence незабаром підтримуватиме вузли GPU по всьому світу, що дозволить постачальникам обчислень внести готове до AI обладнання в мережу. Ця нова мережа GPU покращить платформу Fluence з CPU-орієнтованого рівня в додатковий шар обчислення AI-класу, призначений для інференції, налаштування та обслуговування моделей. Fluence інтегруватиме підтримку контейнерів для безпечного, портативного виконання завдань на GPU. Контейнеризація забезпечує надійне обслуговування робочих навантажень ML та встановлює критичну інфраструктуру для майбутніх застосувань інференції, налаштування та агентних додатків по всій децентралізованій мережі.
Fluence дослідить інференцію, зберігаючи конфіденційність через конфіденційне обчислення для GPU, тримаючи конфіденційні бізнес- або особисті дані в секреті, допомагаючи знизити витрати на ШШ інференцію. Використовуючи надійні середовища виконання )TEE### та зашифровану пам'ять, ця ініціатива з НДР дозволяє обробку чутливого навантаження, зберігаючи децентралізацію та підтримуючи розвиток суверенного агента.
Ключові віхи:
Долучення вузла GPU - Q3 2025
Підтримка GPU контейнерного середовища в реальному часі - Q4 2025
Старт секретної розробки ГПУ - Q4 2025
Виконання конфіденційної роботи пілотного проекту - Q2 2026
( 2. Хостовані моделі штучного інтелекту та єдина інференція
Fluence надасть шаблони розгортання одним кліком для популярних відкритих моделей, включаючи LLMs, оркестрові фреймворки, такі як LangChain, агентні стеки та сервери MCP. Стек штучного інтелекту платформи Fluence буде розширено інтегрованим рівнем інференції для розміщених моделей та агентів. Це спрощує розгортання моделей штучного інтелекту, використовуючи при цьому внесок спільноти та зовнішню підтримку розробки.
Модель + шаблони оркестрації живуть - Q4 2025
Кінцеві точки виведення та інфраструктура маршрутизації працюють - Q2 2026
Fluence введе новий підхід до довіри та стійкості мережі через Guardians—роздрібні та інституційні учасники, які перевіряють доступність обчислень. Замість того, щоб покладатися на закриті інформаційні панелі, Guardians моніторять інфраструктуру через децентралізовану телеметрію та отримують винагороду FLT за забезпечення рівня обслуговування угод ###SLAs###.
Охоронці перетворюють мережу інфраструктури класу підприємства у щось, в що може брати участь будь-хто—не потребуючи власного обладнання. Програма Охоронця доповнюється Програмою Безглуздя, гральною системою репутації, яка винагороджує внесок спільноти та призводить до відповідності критеріям Охоронця.
Ключові віхи:
Перший партнер Guardian – Q3 2025
Повне впровадження та програмний SLA сторожів - Q4 2025
( 4. Інтеграція обчислень штучного інтелекту з композиційним стеком даних
Штучний інтелект - це не просто обчислення - це обчислення + дані. Fluence розробляє глибокі інтеграції з децентралізованими мережами зберігання, такими як Filecoin, Arweave, Akave та IPFS, щоб надати розробникам доступ до перевірених наборів даних поряд з середовищами виконання. Ці інтеграції дозволять користувачам визначати завдання, які отримують доступ до постійних, розподілених даних і виконуються на вузлах з підтримкою GPU - перетворюючи Fluence в повнофункціональний бекенд для штучного інтелекту, який оркеструється через FLT
Для підтримки цього мережа запропонує компоновані шаблони та готові модулі SDK для підключення обчислювальних завдань до сховищ даних або наборів даних on-chain. Розробники, що будують AI-агентів, інструменти LLM-інференції або наукові застосування, можуть розглядати Fluence як модульний шлях для штучного інтелекту - з відкритими даними, обчисленням та валідацією, які зшиваються разом за допомогою логіки протоколу.
Ключові віхи:
Децентралізовані резервні копії сховищ – Q1 2026
Інтегрований доступ до набору даних для робочих навантажень з ШІ – Q3 2026
) Від обчислення без хмари до спільного інтелекту
За допомогою дорожньої карти, спрямованої на включення GPU, перевірку виконання і безперервний доступ до даних, Fluence закладає фундамент для наступної ери штучного інтелекту - ** тієї, яка не буде контролюватися кількома гіпермасштабувальниками, але працюватиме завдяки глобальній спільноті ** співпрацюючих та децентралізованих надавачів обчислень та учасників
Інфраструктура для штучного інтелекту повинна відображати цінності, які ми хочемо, щоб штучний інтелект служив: відкритість, співпраця, перевірка та відповідальність. Fluence перетворює цей принцип у протокол.
Приєднуйтесь до місії:
Застосувати як постачальника GPU
Зареєструйтеся на Бета-тестування Fluence для хмарних віртуальних машин без хмари
Почніть підніматися в таблиці лідерів Pointless та заробляйте шлях до статусу Guardian
*Відмова: Це платне розголошення. Твердження, погляди та думки, висловлені в цьому стовпці, належать виключно постачальнику вмісту і не обов'язково відображають ті Bitcoinist. Bitcoinist не гарантує точність або своєчасність інформації, що міститься в такому вмісті. Робіть своє дослідження та інвестуйте на свій страх і ризик.
! []###https://bitcoinist.com/wp-content/uploads/2025/02/safe.png###
Редакційний процес для bitмонетаist спрямований на надання досліджених, точних та безпристрастних матеріалів. Ми дотримуємося суворих стандартів джерел, і кожна сторінка проходить ретельний огляд нашою командою провідних технологічних експертів та досвідчених редакторів. Цей процес забезпечує цілісність, актуальність та цінність наших матеріалів для наших читачів.
Контент має виключно довідковий характер і не є запрошенням до участі або пропозицією. Інвестиційні, податкові чи юридичні консультації не надаються. Перегляньте Відмову від відповідальності , щоб дізнатися більше про ризики.
Fluence AI Roadmap: Доставка нейтрального обчислювального шару для майбутнього інтелекту з FLT | Біткойнist.com
! Довірений редакційний вміст, переглянутий провідними фахівцями галузі та досвідченими редакторами. Рекламне розголошення Fluence будує те, що централізовані хмари не можуть: відкритий, низькокостовий та корпоративний обчислювальний шар, який є суверенним, прозорим та доступним для всіх.
2025 розпочався так само, як завершився 2024 рік, з великих хмарних гігантів, що інвестують агресивно, щоб домінувати в галузі інфраструктури ШІ. Microsoft витрачає понад $80 мільярдів на нові центри обробки даних, Google запустила свій ШІ-гіперкомп'ютер, Oracle інвестує $25 мільярдів у свої кластери StarGate ШІ, а AWS пріоритизує штучні інтелектуальні сервіси. Спеціалізовані гравці також швидко масштабуються. CoreWeave залучив $1.5 мільярда на своєму березневому IPO та наразі вартує понад $70 мільярдів.
По мірі того, як штучний інтелект стає критичною інфраструктурою, доступ до обчислювальної потужності стане однією з визначальних битв нашої ери. У той час як гіпермасштабувальники консолідують та централізують обчислювальну потужність, будуючи ексклюзивні центри обробки даних та вертикально інтегруючи кремній, мережі, такі як Fluence, пропонують радикально відмінне візію - децентралізовану, відкриту та нейтральну платформу для обчислень з штучним інтелектом, токенізуючи обчислення для задоволення експоненційного попиту на штучний інтелект і маючи FLT як актив токенізованих обчислень RWA
Fluence вже співпрацює з провідними децентралізованими мережами інфраструктури в галузі штучного інтелекту GateSpheron, Aethir, IO.netGate та сховищем (Filecoin, Arweave, Akave, IPFS) на численних ініціативах, підсилюючи свою позицію як нейтральний обчислювально-даний шар. Щоб втілити цю візію в життя, дорожня карта на 2025–2026 роки фокусується на зближенні трьох ключових напрямів дій:
( 1. Запуск Глобального Обчислювального Шару На Базі GPU
Fluence незабаром підтримуватиме вузли GPU по всьому світу, що дозволить постачальникам обчислень внести готове до AI обладнання в мережу. Ця нова мережа GPU покращить платформу Fluence з CPU-орієнтованого рівня в додатковий шар обчислення AI-класу, призначений для інференції, налаштування та обслуговування моделей. Fluence інтегруватиме підтримку контейнерів для безпечного, портативного виконання завдань на GPU. Контейнеризація забезпечує надійне обслуговування робочих навантажень ML та встановлює критичну інфраструктуру для майбутніх застосувань інференції, налаштування та агентних додатків по всій децентралізованій мережі.
Fluence дослідить інференцію, зберігаючи конфіденційність через конфіденційне обчислення для GPU, тримаючи конфіденційні бізнес- або особисті дані в секреті, допомагаючи знизити витрати на ШШ інференцію. Використовуючи надійні середовища виконання )TEE### та зашифровану пам'ять, ця ініціатива з НДР дозволяє обробку чутливого навантаження, зберігаючи децентралізацію та підтримуючи розвиток суверенного агента.
Ключові віхи:
( 2. Хостовані моделі штучного інтелекту та єдина інференція
Fluence надасть шаблони розгортання одним кліком для популярних відкритих моделей, включаючи LLMs, оркестрові фреймворки, такі як LangChain, агентні стеки та сервери MCP. Стек штучного інтелекту платформи Fluence буде розширено інтегрованим рівнем інференції для розміщених моделей та агентів. Це спрощує розгортання моделей штучного інтелекту, використовуючи при цьому внесок спільноти та зовнішню підтримку розробки.
) 3. Увімкнення перевіреного, спільното-орієнтованого SLA
Fluence введе новий підхід до довіри та стійкості мережі через Guardians—роздрібні та інституційні учасники, які перевіряють доступність обчислень. Замість того, щоб покладатися на закриті інформаційні панелі, Guardians моніторять інфраструктуру через децентралізовану телеметрію та отримують винагороду FLT за забезпечення рівня обслуговування угод ###SLAs###.
Охоронці перетворюють мережу інфраструктури класу підприємства у щось, в що може брати участь будь-хто—не потребуючи власного обладнання. Програма Охоронця доповнюється Програмою Безглуздя, гральною системою репутації, яка винагороджує внесок спільноти та призводить до відповідності критеріям Охоронця.
Ключові віхи:
( 4. Інтеграція обчислень штучного інтелекту з композиційним стеком даних
Штучний інтелект - це не просто обчислення - це обчислення + дані. Fluence розробляє глибокі інтеграції з децентралізованими мережами зберігання, такими як Filecoin, Arweave, Akave та IPFS, щоб надати розробникам доступ до перевірених наборів даних поряд з середовищами виконання. Ці інтеграції дозволять користувачам визначати завдання, які отримують доступ до постійних, розподілених даних і виконуються на вузлах з підтримкою GPU - перетворюючи Fluence в повнофункціональний бекенд для штучного інтелекту, який оркеструється через FLT
Для підтримки цього мережа запропонує компоновані шаблони та готові модулі SDK для підключення обчислювальних завдань до сховищ даних або наборів даних on-chain. Розробники, що будують AI-агентів, інструменти LLM-інференції або наукові застосування, можуть розглядати Fluence як модульний шлях для штучного інтелекту - з відкритими даними, обчисленням та валідацією, які зшиваються разом за допомогою логіки протоколу.
Ключові віхи:
) Від обчислення без хмари до спільного інтелекту
За допомогою дорожньої карти, спрямованої на включення GPU, перевірку виконання і безперервний доступ до даних, Fluence закладає фундамент для наступної ери штучного інтелекту - ** тієї, яка не буде контролюватися кількома гіпермасштабувальниками, але працюватиме завдяки глобальній спільноті ** співпрацюючих та децентралізованих надавачів обчислень та учасників
Інфраструктура для штучного інтелекту повинна відображати цінності, які ми хочемо, щоб штучний інтелект служив: відкритість, співпраця, перевірка та відповідальність. Fluence перетворює цей принцип у протокол.
Приєднуйтесь до місії:
Почніть підніматися в таблиці лідерів Pointless та заробляйте шлях до статусу Guardian
*Відмова: Це платне розголошення. Твердження, погляди та думки, висловлені в цьому стовпці, належать виключно постачальнику вмісту і не обов'язково відображають ті Bitcoinist. Bitcoinist не гарантує точність або своєчасність інформації, що міститься в такому вмісті. Робіть своє дослідження та інвестуйте на свій страх і ризик.
! []###https://bitcoinist.com/wp-content/uploads/2025/02/safe.png### Редакційний процес для bitмонетаist спрямований на надання досліджених, точних та безпристрастних матеріалів. Ми дотримуємося суворих стандартів джерел, і кожна сторінка проходить ретельний огляд нашою командою провідних технологічних експертів та досвідчених редакторів. Цей процес забезпечує цілісність, актуальність та цінність наших матеріалів для наших читачів.