Детальний аналіз Aethir: гравець у децентралізованих хмарних обчисленнях з трьома треками
Розвиток і прогрес LLM великих моделей та штучного інтелекту є надзвичайно великим технологічним досягненням в історії людства, людство вступило в епоху штучного інтелекту, де в цьому новому світі "обчислювальна потужність" є найсуворішим ресурсом.
Тенденція розвитку обчислювальної потужності – це краєва обробка, цей метод обробки може ефективно зменшити фізичну затримку, ставши основою для розвитку таких індустрій, як метавсесвіт, що мають вимоги до низької затримки; децентралізовані розподілені хмарні обчислення мають переваги в гнучкості, низькій ціні та стійкості до цензури, їхні перспективи розвитку дуже широкі.
Aethir є децентралізованою платформою для реального рендерингу на мережі Arbitrum, яка надає підприємствам, таким як ігри, штучний інтелект тощо, послуги обчислювальної потужності рівня підприємства, об'єднуючи GPU з високою обчислювальною потужністю, такі як H100.
Aethir вже співпрацює з провідними проектами хмарних обчислень в індустрії, такими як io.net, Theta, а також з кількома провідними ігровими студіями та телекомунікаційними компаніями. Очікується, що в першому кварталі 2024 року річний регулярний дохід (ARR) перевищить 20 мільйонів доларів.
Aethir Edge значно знизив поріг для звичайних користувачів, щоб продавати надлишкову обчислювальну потужність, і значно розширив географічне покриття мережі Aethir.
Aethir через продаж нод NFT перевірки вже отримав 8 000 000 доларів США, що підтверджує привабливість його проектних перспектив та економічної моделі для широкого кола користувачів.
Вартість використання A100 мережі Aethir щогодини значно нижча за інших конкурентів, що надає їй очевидну конкурентну перевагу.
Історія Етір
Зміна процесу розвитку людського суспільства часто є результатом кількох надзвичайно великих наукових винаходів та досягнень. Кожен прорив у технологіях безпосередньо створює нову еру, яка є більш ефективною та процвітаючою.
Промислова революція, електрична революція та інформаційна революція є надзвичайно великими науково-технічними досягненнями в історії людства, які кардинально змінили обличчя людського суспільства, принесли безпрецедентні зміни в продуктивності праці та способі життя. Тепер ми вже не можемо повернутися до часу, коли освітлення здійснювалося за допомогою гасових ламп, а листи доставлялися кінними повозками. Разом з появою GPT людство вступило в нову велику еру.
LLM поетапно звільняє людський інтелект, дозволяючи людям спрямовувати свої обмежені зусилля та інтелект на більш креативне мислення та практику, в результаті чого люди потрапляють у більш ефективний світ.
Ми вважаємо GPT ще одним технологічним проривом, що змінює світ, не лише через величезний прогрес GPT у розумінні та генерації природної мови, а й тому, що людство в еволюції GPT зрозуміло закономірності зростання можливостей великих мовних моделей — а саме, що шляхом безперервного розширення параметрів моделі та навчальних даних можна досягти експоненціального зростання можливостей LLM, при достатній обчислювальній потужності цей процес поки що не має очевидних обмежень.
Використання великих мовних моделей не обмежується лише розумінням людської мови та діалогу, навпаки, це лише початок. Як тільки машини отримають здатність розуміти мову, це схоже на відкриття скриньки Пандори, що звільняє безмежний простір для уяви. Люди можуть використовувати цю здатність ШІ для розробки різноманітних руйнівних функцій.
Наразі в різних перехресних технологічних сферах моделі LLM вже демонструють свої можливості. Від відеовиробництва, художнього створення та інших гуманітарних областей до розробки ліків, біотехнологій та інших жорстких технологічних сфер, нас чекають кардинальні зміни.
У цю епоху обчислювальна потужність розглядається як дефіцитний ресурс, великі технологічні гіганти володіють багатими ресурсами, тоді як нові розробники стикаються з бар'єрами входу через нестачу обчислювальних ресурсів. У новій епосі AI обчислювальна потужність - це сила, а той, хто володіє обчислювальною потужністю, має здатність змінювати світ. GPU, як основа глибокого навчання та наукових обчислень, відіграє надзвичайно важливу роль.
У швидко розвивається сфері штучного інтелекту (ШІ) ми повинні усвідомлювати подвійний аспект розвитку: навчання моделей та міркування. Міркування стосується функціональності та виходу моделей ШІ, тоді як навчання включає складний процес, необхідний для створення розумних моделей, до якого входять алгоритми машинного навчання, набори даних та обчислювальні можливості.
Взяти за приклад GPT4, якщо ви хочете отримати високу якість міркування, розробникам необхідно отримати всебічний базовий набір даних та величезну обчислювальну потужність для навчання ефективних моделей ШІ. А ці ресурси в основному зосереджені в руках великих гравців галузі, таких як Nvidia, Google, Microsoft та певна хмарна обчислювальна платформа.
Високі витрати на обчислення та бар'єри для входу заважають більшій кількості розробників увійти в галузь, а також сприяють зміцненню позицій лідерів. Вони мають великі бази даних і значну обчислювальну потужність, здатні постійно збільшувати свої масштаби та знижувати витрати, що робить бар'єри в галузі ще міцнішими.
Але ми не можемо не задуматися, чи існує спосіб знизити витрати на обчислення та бар'єри входу в галузь, використовуючи технології блокчейн? Відповідь ствердна. Децентралізована розподілена хмарна обробка саме в такому контексті надає нам таке рішення.
Незважаючи на те, що в даний час обчислювальна потужність є дорогою та дефіцитною, GPU не використовується в повній мірі. Це в основному пов'язано з тим, що поки не з'явився готовий спосіб інтегрувати цю розподілену обчислювальну потужність і змусити її працювати в комерційному порядку. Ось типові цифри використання GPU для різних навантажень:
Більшість споживчих пристроїв з GPU належать до трьох перших категорій, тобто вільні (щойно запущені в операційну систему Windows):
Використання GPU становить: 0-2%;
Загальні виробничі завдання (написання, простий перегляд): 0-15%;
Відтворення відео: 15 - 35%.
Вищезгадані дані свідчать про те, що використання обчислювальних ресурсів є надзвичайно низьким, а в світі Web2 немає ефективних заходів для збору та інтеграції цих ресурсів. Але Crypto та блокчейн-економіка, можливо, є ідеальним ліками для вирішення цього виклику. Криптоекономіка створює надзвичайно ефективний глобальний ринок, завдяки унікальній токенізованій економіці, характеристикам безцентралізованої системи, ціноутворення ресурсів, їх обігу та відповідності попиту і пропозиції на ринку є надзвичайно ефективними.
Тренди розвитку хмарних обчислень
Розвиток ШІ впливає на майбутнє людства, а прогрес обчислювальної потужності визначає розвиток ШІ. З моменту винайдення першого комп'ютера в сорокових роках двадцятого століття обчислювальні моделі пережили кілька змін. Від громіздких великих комп'ютерів до легких ноутбуків, від централізованого придбання серверів до оренди обчислювальної потужності, бар'єри для отримання обчислювальної потужності поступово знижуються. До появи хмарних обчислень підприємствам доводилося самостійно закуповувати сервери та постійно оновлювати їх у міру вдосконалення технологій, але поява хмарних обчислень повністю змінила цю модель.
Основна концепція хмарних обчислень полягає в тому, що споживач орендує сервери, отримує віддалений доступ і оплачує в залежності від обсягу використання. Зараз традиційні підприємства зазнають революції через хмарні обчислення. У сфері хмарних обчислень технології віртуалізації є її основою. Віртуалізовані сервери можуть розділяти потужний сервер на дуже маленькі сервери для оренди і динамічно переміщати різні ресурси.
Ця модель кардинально змінила бізнес-ландшафт індустрії обчислювальної потужності. Раніше людям потрібно було купувати обладнання для обчислювальної потужності, щоб задовольнити свої потреби; але тепер достатньо сплатити оренду на сайті, щоб користуватися якісними послугами обчислювальної потужності. Майбутній напрямок розвитку хмарних обчислень — це обчислення на краю. Оскільки традиційні централізовані системи знаходяться занадто далеко від користувачів, це може призвести до певної затримки. Хоча затримку можна оптимізувати, але через обмеження швидкості світла, затримку завжди неможливо повністю подолати.
Однак нові галузі, такі як метасвіт, автономне керування та телемедицина, мають дуже низькі вимоги до затримки, тому необхідно перемістити сервери хмарних обчислень ближче до користувачів, внаслідок чого все більше малих дата-центрів розташовуються навколо користувачів, що і є крайніми обчисленнями.
На відміну від централізованих постачальників хмарних обчислень, переваги децентралізованих хмарних обчислень головним чином полягають у:
Доступність та гнучкість: отримати доступ до чіпів обчислювальної потужності на таких платформах, як певна хмарна служба, зазвичай займає кілька тижнів, а високопродуктивні моделі GPU, такі як A100, H100 тощо, часто відсутні. Крім того, для отримання обчислювальної потужності споживачі зазвичай повинні підписувати довгострокові, малогнучкі контракти з цими великими компаніями, що не лише призводить до втрати часу, але й ускладнює операції підприємств, позбавляючи їх певної гнучкості. На відміну від цього, дистрибутовані платформи обчислювальної потужності дозволяють отримувати потужність у будь-який час і пропонують гнучкий вибір апаратного забезпечення, забезпечуючи більшу доступність.
Нижча ціна: Завдяки використанню невикористовуваних чіпів та додатковим токенним субсидіям з боку мережевих протоколів для постачальників чіпів та обчислювальної потужності, розподілена мережа обчислювальної потужності може запропонувати більш дешеву обчислювальну потужність.
Опір цензурі: такі системи, як io.net, Aethir, не позиціонують себе як безліцензійні системи. На етапах запуску GPU, завантаження даних, обміну даними та обміну результатами були вирішені проблеми відповідності, такі як GDPR та HIPAA.
З розвитком штучного інтелекту та безперервним дисбалансом попиту та пропозиції на графічні процесори, все більше розробників переходить до децентралізованих хмарних обчислювальних платформ. Одночасно, під час бичачого ринку, через зростання цін на криптовалюти постачальники графічних процесорів отримають більше доходів, що стимулює більше постачальників графічних процесорів входити на цей ринок, формуючи позитивний ефект маховика.
Технічна проблема
1. Проблема паралелізації
Розподілена обчислювальна платформа зазвичай об'єднує довгий хвіст постачальників чіпів, що означає, що окремий постачальник чіпів майже не може в короткий час самостійно завершити складне навчання або інференцію AI моделей. Якщо хмарна обчислювальна платформа хоче бути конкурентоспроможною, вона повинна використовувати паралельні методи для розподілу завдань, щоб скоротити загальний час виконання та підвищити обчислювальну потужність платформи.
Однак під час паралелізації виникає ряд проблем, включаючи те, як розділити завдання (особливо для складних завдань глибокого навчання), залежність даних та додаткові витрати на зв'язок між пристроями.
2. Ризик заміни новими технологіями
Завдяки великому капіталу, що вкладається в дослідження ASIC (спеціалізованих інтегральних схем), а також у нові винаходи на кшталт тензорних процесорів (TPU), це може вплинути на GPU-кластери децентралізованих обчислювальних платформ.
Якщо ці ASIC можуть забезпечити хорошу продуктивність і при цьому зважити витрати, то нинішній ринок GPU, що монополізований великими AI-організаціями, може повернутися на ринок. Це призведе до збільшення постачання GPU, що вплине на екосистему децентралізованих хмарних обчислювальних платформ.
3. Регуляторний ризик
Оскільки децентралізовані системи хмарних обчислень працюють у кількох юрисдикціях і можуть підпадати під різні юридичні та регуляторні вимоги, можуть виникнути унікальні юридичні та регуляторні виклики. Вимоги відповідності, такі як закони про захист даних та конфіденційність, також можуть бути складними та викликами.
На даний момент основними користувачами хмарних платформ є професійні розробники та установи, які віддають перевагу тривалому використанню однієї платформи і не змінюють її без особливої потреби. Використання децентралізованої чи централізованої платформи - це лише один із факторів, які потрібно враховувати; ці користувачі більше цінують стабільність послуг. Тому, якщо децентралізована платформа має потужні можливості інтеграції та стабільно достатню обчислювальну потужність, їй буде легше здобути прихильність цих клієнтів, укласти тривалі партнерські відносини та забезпечити стабільний грошовий потік.
Огляд платформи Aethir
Aethir Cloud є децентралізованою платформою для реального рендерингу, побудованою на мережі Arbitrum, яка допомагає ігровим та штучним інтелектуальним компаніям безпосередньо доставляти свою продукцію споживачам, об'єднуючи та інтелектуально перерозподіляючи нові та невикористані GPU з підприємств, дата-центрів, бізнесу з видобутку криптовалюти та споживачів.
Однією з ключових інновацій цього проєкту є ресурсний пул, який об'єднує розподілених учасників обчислювальної потужності в єдиному інтерфейсі для надання послуг глобальним клієнтам. Однією з основних характеристик ресурсного пулу є те, що постачальники GPU можуть вільно підключатися або відключатися від мережі, що дозволяє підприємствам або дата-центрам з невикористовуваними пристроями брати участь у мережі під час простою, підвищуючи гнучкість постачальників і використання обладнання.
Операція екосистеми Aethir базується на трьох основних інфраструктурах:
Контейнер (Container): Ключовою функцією контейнера є надання послуг з рендерингу в реальному часі на відстані, забезпечуючи "нульову затримку". Контейнер є фактичним місцем хмарних обчислень, він виконує роль віртуальної точки доступу, запускаючи та рендерячи програми. Це переносить навантаження з локальних пристроїв на контейнер.
Перевірник (Checker): Вузли перевірника забезпечують цілісність мережі Aethir та якість послуг, перевіряючи контейнер та його службові процеси. Після виконання завдання вузол перевірника використовує свій приватний
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
16 лайків
Нагородити
16
2
Репост
Поділіться
Прокоментувати
0/400
RooftopVIP
· 15год тому
Цей рахунок став стабільним, arb отримав тупого покупця.
Aethir: новий децентралізований хмарний обчислювальний проект, що робить сильний поштовх на трьох фронтах
Детальний аналіз Aethir: гравець у децентралізованих хмарних обчисленнях з трьома треками
Розвиток і прогрес LLM великих моделей та штучного інтелекту є надзвичайно великим технологічним досягненням в історії людства, людство вступило в епоху штучного інтелекту, де в цьому новому світі "обчислювальна потужність" є найсуворішим ресурсом.
Тенденція розвитку обчислювальної потужності – це краєва обробка, цей метод обробки може ефективно зменшити фізичну затримку, ставши основою для розвитку таких індустрій, як метавсесвіт, що мають вимоги до низької затримки; децентралізовані розподілені хмарні обчислення мають переваги в гнучкості, низькій ціні та стійкості до цензури, їхні перспективи розвитку дуже широкі.
Aethir є децентралізованою платформою для реального рендерингу на мережі Arbitrum, яка надає підприємствам, таким як ігри, штучний інтелект тощо, послуги обчислювальної потужності рівня підприємства, об'єднуючи GPU з високою обчислювальною потужністю, такі як H100.
Aethir вже співпрацює з провідними проектами хмарних обчислень в індустрії, такими як io.net, Theta, а також з кількома провідними ігровими студіями та телекомунікаційними компаніями. Очікується, що в першому кварталі 2024 року річний регулярний дохід (ARR) перевищить 20 мільйонів доларів.
Aethir Edge значно знизив поріг для звичайних користувачів, щоб продавати надлишкову обчислювальну потужність, і значно розширив географічне покриття мережі Aethir.
Aethir через продаж нод NFT перевірки вже отримав 8 000 000 доларів США, що підтверджує привабливість його проектних перспектив та економічної моделі для широкого кола користувачів.
Вартість використання A100 мережі Aethir щогодини значно нижча за інших конкурентів, що надає їй очевидну конкурентну перевагу.
Історія Етір
Зміна процесу розвитку людського суспільства часто є результатом кількох надзвичайно великих наукових винаходів та досягнень. Кожен прорив у технологіях безпосередньо створює нову еру, яка є більш ефективною та процвітаючою.
Промислова революція, електрична революція та інформаційна революція є надзвичайно великими науково-технічними досягненнями в історії людства, які кардинально змінили обличчя людського суспільства, принесли безпрецедентні зміни в продуктивності праці та способі життя. Тепер ми вже не можемо повернутися до часу, коли освітлення здійснювалося за допомогою гасових ламп, а листи доставлялися кінними повозками. Разом з появою GPT людство вступило в нову велику еру.
LLM поетапно звільняє людський інтелект, дозволяючи людям спрямовувати свої обмежені зусилля та інтелект на більш креативне мислення та практику, в результаті чого люди потрапляють у більш ефективний світ.
Ми вважаємо GPT ще одним технологічним проривом, що змінює світ, не лише через величезний прогрес GPT у розумінні та генерації природної мови, а й тому, що людство в еволюції GPT зрозуміло закономірності зростання можливостей великих мовних моделей — а саме, що шляхом безперервного розширення параметрів моделі та навчальних даних можна досягти експоненціального зростання можливостей LLM, при достатній обчислювальній потужності цей процес поки що не має очевидних обмежень.
Використання великих мовних моделей не обмежується лише розумінням людської мови та діалогу, навпаки, це лише початок. Як тільки машини отримають здатність розуміти мову, це схоже на відкриття скриньки Пандори, що звільняє безмежний простір для уяви. Люди можуть використовувати цю здатність ШІ для розробки різноманітних руйнівних функцій.
Наразі в різних перехресних технологічних сферах моделі LLM вже демонструють свої можливості. Від відеовиробництва, художнього створення та інших гуманітарних областей до розробки ліків, біотехнологій та інших жорстких технологічних сфер, нас чекають кардинальні зміни.
У цю епоху обчислювальна потужність розглядається як дефіцитний ресурс, великі технологічні гіганти володіють багатими ресурсами, тоді як нові розробники стикаються з бар'єрами входу через нестачу обчислювальних ресурсів. У новій епосі AI обчислювальна потужність - це сила, а той, хто володіє обчислювальною потужністю, має здатність змінювати світ. GPU, як основа глибокого навчання та наукових обчислень, відіграє надзвичайно важливу роль.
У швидко розвивається сфері штучного інтелекту (ШІ) ми повинні усвідомлювати подвійний аспект розвитку: навчання моделей та міркування. Міркування стосується функціональності та виходу моделей ШІ, тоді як навчання включає складний процес, необхідний для створення розумних моделей, до якого входять алгоритми машинного навчання, набори даних та обчислювальні можливості.
Взяти за приклад GPT4, якщо ви хочете отримати високу якість міркування, розробникам необхідно отримати всебічний базовий набір даних та величезну обчислювальну потужність для навчання ефективних моделей ШІ. А ці ресурси в основному зосереджені в руках великих гравців галузі, таких як Nvidia, Google, Microsoft та певна хмарна обчислювальна платформа.
Високі витрати на обчислення та бар'єри для входу заважають більшій кількості розробників увійти в галузь, а також сприяють зміцненню позицій лідерів. Вони мають великі бази даних і значну обчислювальну потужність, здатні постійно збільшувати свої масштаби та знижувати витрати, що робить бар'єри в галузі ще міцнішими.
Але ми не можемо не задуматися, чи існує спосіб знизити витрати на обчислення та бар'єри входу в галузь, використовуючи технології блокчейн? Відповідь ствердна. Децентралізована розподілена хмарна обробка саме в такому контексті надає нам таке рішення.
Незважаючи на те, що в даний час обчислювальна потужність є дорогою та дефіцитною, GPU не використовується в повній мірі. Це в основному пов'язано з тим, що поки не з'явився готовий спосіб інтегрувати цю розподілену обчислювальну потужність і змусити її працювати в комерційному порядку. Ось типові цифри використання GPU для різних навантажень:
Більшість споживчих пристроїв з GPU належать до трьох перших категорій, тобто вільні (щойно запущені в операційну систему Windows):
Вищезгадані дані свідчать про те, що використання обчислювальних ресурсів є надзвичайно низьким, а в світі Web2 немає ефективних заходів для збору та інтеграції цих ресурсів. Але Crypto та блокчейн-економіка, можливо, є ідеальним ліками для вирішення цього виклику. Криптоекономіка створює надзвичайно ефективний глобальний ринок, завдяки унікальній токенізованій економіці, характеристикам безцентралізованої системи, ціноутворення ресурсів, їх обігу та відповідності попиту і пропозиції на ринку є надзвичайно ефективними.
Тренди розвитку хмарних обчислень
Розвиток ШІ впливає на майбутнє людства, а прогрес обчислювальної потужності визначає розвиток ШІ. З моменту винайдення першого комп'ютера в сорокових роках двадцятого століття обчислювальні моделі пережили кілька змін. Від громіздких великих комп'ютерів до легких ноутбуків, від централізованого придбання серверів до оренди обчислювальної потужності, бар'єри для отримання обчислювальної потужності поступово знижуються. До появи хмарних обчислень підприємствам доводилося самостійно закуповувати сервери та постійно оновлювати їх у міру вдосконалення технологій, але поява хмарних обчислень повністю змінила цю модель.
Основна концепція хмарних обчислень полягає в тому, що споживач орендує сервери, отримує віддалений доступ і оплачує в залежності від обсягу використання. Зараз традиційні підприємства зазнають революції через хмарні обчислення. У сфері хмарних обчислень технології віртуалізації є її основою. Віртуалізовані сервери можуть розділяти потужний сервер на дуже маленькі сервери для оренди і динамічно переміщати різні ресурси.
Ця модель кардинально змінила бізнес-ландшафт індустрії обчислювальної потужності. Раніше людям потрібно було купувати обладнання для обчислювальної потужності, щоб задовольнити свої потреби; але тепер достатньо сплатити оренду на сайті, щоб користуватися якісними послугами обчислювальної потужності. Майбутній напрямок розвитку хмарних обчислень — це обчислення на краю. Оскільки традиційні централізовані системи знаходяться занадто далеко від користувачів, це може призвести до певної затримки. Хоча затримку можна оптимізувати, але через обмеження швидкості світла, затримку завжди неможливо повністю подолати.
Однак нові галузі, такі як метасвіт, автономне керування та телемедицина, мають дуже низькі вимоги до затримки, тому необхідно перемістити сервери хмарних обчислень ближче до користувачів, внаслідок чого все більше малих дата-центрів розташовуються навколо користувачів, що і є крайніми обчисленнями.
На відміну від централізованих постачальників хмарних обчислень, переваги децентралізованих хмарних обчислень головним чином полягають у:
Доступність та гнучкість: отримати доступ до чіпів обчислювальної потужності на таких платформах, як певна хмарна служба, зазвичай займає кілька тижнів, а високопродуктивні моделі GPU, такі як A100, H100 тощо, часто відсутні. Крім того, для отримання обчислювальної потужності споживачі зазвичай повинні підписувати довгострокові, малогнучкі контракти з цими великими компаніями, що не лише призводить до втрати часу, але й ускладнює операції підприємств, позбавляючи їх певної гнучкості. На відміну від цього, дистрибутовані платформи обчислювальної потужності дозволяють отримувати потужність у будь-який час і пропонують гнучкий вибір апаратного забезпечення, забезпечуючи більшу доступність.
Нижча ціна: Завдяки використанню невикористовуваних чіпів та додатковим токенним субсидіям з боку мережевих протоколів для постачальників чіпів та обчислювальної потужності, розподілена мережа обчислювальної потужності може запропонувати більш дешеву обчислювальну потужність.
Опір цензурі: такі системи, як io.net, Aethir, не позиціонують себе як безліцензійні системи. На етапах запуску GPU, завантаження даних, обміну даними та обміну результатами були вирішені проблеми відповідності, такі як GDPR та HIPAA.
З розвитком штучного інтелекту та безперервним дисбалансом попиту та пропозиції на графічні процесори, все більше розробників переходить до децентралізованих хмарних обчислювальних платформ. Одночасно, під час бичачого ринку, через зростання цін на криптовалюти постачальники графічних процесорів отримають більше доходів, що стимулює більше постачальників графічних процесорів входити на цей ринок, формуючи позитивний ефект маховика.
Технічна проблема
1. Проблема паралелізації
Розподілена обчислювальна платформа зазвичай об'єднує довгий хвіст постачальників чіпів, що означає, що окремий постачальник чіпів майже не може в короткий час самостійно завершити складне навчання або інференцію AI моделей. Якщо хмарна обчислювальна платформа хоче бути конкурентоспроможною, вона повинна використовувати паралельні методи для розподілу завдань, щоб скоротити загальний час виконання та підвищити обчислювальну потужність платформи.
Однак під час паралелізації виникає ряд проблем, включаючи те, як розділити завдання (особливо для складних завдань глибокого навчання), залежність даних та додаткові витрати на зв'язок між пристроями.
2. Ризик заміни новими технологіями
Завдяки великому капіталу, що вкладається в дослідження ASIC (спеціалізованих інтегральних схем), а також у нові винаходи на кшталт тензорних процесорів (TPU), це може вплинути на GPU-кластери децентралізованих обчислювальних платформ.
Якщо ці ASIC можуть забезпечити хорошу продуктивність і при цьому зважити витрати, то нинішній ринок GPU, що монополізований великими AI-організаціями, може повернутися на ринок. Це призведе до збільшення постачання GPU, що вплине на екосистему децентралізованих хмарних обчислювальних платформ.
3. Регуляторний ризик
Оскільки децентралізовані системи хмарних обчислень працюють у кількох юрисдикціях і можуть підпадати під різні юридичні та регуляторні вимоги, можуть виникнути унікальні юридичні та регуляторні виклики. Вимоги відповідності, такі як закони про захист даних та конфіденційність, також можуть бути складними та викликами.
На даний момент основними користувачами хмарних платформ є професійні розробники та установи, які віддають перевагу тривалому використанню однієї платформи і не змінюють її без особливої потреби. Використання децентралізованої чи централізованої платформи - це лише один із факторів, які потрібно враховувати; ці користувачі більше цінують стабільність послуг. Тому, якщо децентралізована платформа має потужні можливості інтеграції та стабільно достатню обчислювальну потужність, їй буде легше здобути прихильність цих клієнтів, укласти тривалі партнерські відносини та забезпечити стабільний грошовий потік.
Огляд платформи Aethir
Aethir Cloud є децентралізованою платформою для реального рендерингу, побудованою на мережі Arbitrum, яка допомагає ігровим та штучним інтелектуальним компаніям безпосередньо доставляти свою продукцію споживачам, об'єднуючи та інтелектуально перерозподіляючи нові та невикористані GPU з підприємств, дата-центрів, бізнесу з видобутку криптовалюти та споживачів.
Однією з ключових інновацій цього проєкту є ресурсний пул, який об'єднує розподілених учасників обчислювальної потужності в єдиному інтерфейсі для надання послуг глобальним клієнтам. Однією з основних характеристик ресурсного пулу є те, що постачальники GPU можуть вільно підключатися або відключатися від мережі, що дозволяє підприємствам або дата-центрам з невикористовуваними пристроями брати участь у мережі під час простою, підвищуючи гнучкість постачальників і використання обладнання.
Операція екосистеми Aethir базується на трьох основних інфраструктурах:
Контейнер (Container): Ключовою функцією контейнера є надання послуг з рендерингу в реальному часі на відстані, забезпечуючи "нульову затримку". Контейнер є фактичним місцем хмарних обчислень, він виконує роль віртуальної точки доступу, запускаючи та рендерячи програми. Це переносить навантаження з локальних пристроїв на контейнер.
Перевірник (Checker): Вузли перевірника забезпечують цілісність мережі Aethir та якість послуг, перевіряючи контейнер та його службові процеси. Після виконання завдання вузол перевірника використовує свій приватний