OpenLedger Глибина дослідження: на основі OP Stack+EigenDA, створити економіку інтелектуальних агентів, керовану даними та модельно комбіновану
Один. Вступ | Модельний рівень Crypto AI
Дані, моделі та обчислювальна потужність є трьома основними елементами інфраструктури ШІ, аналогічно паливу (дані), двигуну (моделі) та енергії (обчислювальна потужність), жоден з яких не можна пропустити. Як і в традиційній інфраструктурі ШІ, в галузі Crypto AI також відбувалися подібні етапи. На початку 2024 року ринок був у значній мірі під контролем децентралізованих GPU проектів, які загалом підкреслювали логіку грубого зростання «змагання в обчислювальній потужності». Але з переходом у 2025 рік увага галузі поступово перемістилася на рівень моделей та даних, що свідчить про те, що Crypto AI переходить від конкуренції за базові ресурси до більш стійкого та цінного середнього будівництва.
Загальний великий модель (LLM) проти спеціалізованої моделі (SLM)
Традиційні великі мовні моделі (LLM) вимагають значної залежності від великих наборів даних і складної розподіленої архітектури, розмір параметрів коливається від 70B до 500B, а вартість однієї тренування може досягати кількох мільйонів доларів. У той же час SLM (Спеціалізована мовна модель), як легка парадигма тонкої настройки повторно використовуваних базових моделей, зазвичай базується на відкритих моделях, поєднуючи невелику кількість якісних спеціалізованих даних і технології, такі як LoRA, для швидкого створення експертних моделей з знаннями у певній області, що значно знижує витрати на тренування та технічні бар'єри.
Варто зазначити, що SLM не буде інтегровано в ваги LLM, а буде співпрацювати з LLM через виклики архітектури Agent, динамічну маршрутизацію плагінів, гарячу заміну модулів LoRA, RAG (покращене генерування на основі запитів) та інші методи. Ця архітектура зберігає широку охоплюючу здатність LLM, одночасно підсилюючи спеціалізовану продуктивність за рахунок модуля точного налаштування, формуючи надзвичайно гнучку комбіновану інтелектуальну систему.
Crypto AI вартість та межі на рівні моделі
Проекти Crypto AI в основному складно безпосередньо підвищити основні можливості великих мовних моделей (LLM), основна причина полягає в тому,
Занадто високий технологічний бар'єр: обсяги даних, обчислювальні ресурси та інженерні можливості, необхідні для навчання Foundation Model, є надзвичайно великими, на сьогодні лише технологічні гіганти США та Китаю мають відповідні можливості.
Обмеження відкритої екосистеми: хоча основні моделі з відкритим кодом вже доступні, справжня рушійна сила прориву моделей все ще зосереджена в наукових установах та закритих інженерних системах, простір для участі проектів на ланцюгу на рівні основних моделей є обмеженим.
Однак, на основі відкритих основних моделей, проекти Crypto AI все ще можуть реалізувати розширення вартості шляхом тонкої настройки спеціалізованих мовних моделей (SLM) та поєднання з верифікацією та механізмами стимулювання Web3. Як «периферійний інтерфейсний шар» в індустрії AI, це проявляється в двох основних напрямках:
Достовірний рівень верифікації: шляхом запису в ланцюзі моделей генерування, внесення даних та їх використання, підвищується відстежуваність та стійкість до підробок виходу AI.
Механізм стимулювання: За допомогою рідного токена, що використовується для стимулювання завантаження даних, викликів моделей, виконання агентами (Agent) тощо, створення позитивного циклу навчання моделі та обслуговування.
Класифікація типів AI моделей та аналіз придатності для блокчейну
З цього видно, що можливі точки застосування моделей типу Crypto AI в основному зосереджені на легкій тонкій настройці малих SLM, підключенні та верифікації даних на ланцюгу в архітектурі RAG, а також на локальному розгортанні та стимулюванні Edge моделей. В поєднанні з перевірюваністю блокчейну та токеномікою, Crypto може надати унікальну цінність для цих сцен з середніми та низькими ресурсами, формуючи диференційовану цінність «інтерфейсного шару» AI.
Базуючись на даних та моделях, блокчейн AI ланцюг може чітко та незмінно записувати походження внесків для кожного даних та моделі, що суттєво підвищує довіру до даних та відстежуваність навчання моделей. Одночасно, через механізм смарт-контрактів, під час виклику даних або моделей автоматично ініціюється розподіл винагород, перетворюючи поведінку AI на вимірювану, торгову токенізовану цінність, створюючи стійку систему стимулів. Крім того, користувачі спільноти можуть оцінювати продуктивність моделі за допомогою голосування токенами, брати участь у розробці правил та ітерацій, вдосконалюючи децентралізовану управлінську структуру.
Два, огляд проекту | Візія AI-ланцюга OpenLedger
OpenLedger є одним із небагатьох блокчейн AI проектів на ринку, які зосереджуються на механізмах стимулювання даних та моделей. Він вперше запропонував концепцію «Payable AI», мета якої полягає в створенні справедливого, прозорого та комбінованого середовища для роботи AI, щоб заохотити постачальників даних, розробників моделей та будівельників AI додатків співпрацювати на одній платформі та отримувати прибуток на ланцюзі відповідно до реального внеску.
OpenLedger надає повноцінний ланцюг замкнутого циклу від «надання даних» до «розгортання моделі», а також до «виклику розподілу прибутку», основні модулі якого включають:
Модельний завод: без програмування можна використовувати LoRA для доопрацювання, навчання та розгортання індивідуальних моделей на основі відкритих LLM;
OpenLoRA: підтримка coexistence тисяч моделей, динамічна завантаження за потребою, значне зниження витрат на розгортання;
PoA (Доказ атрибуції): реалізація вимірювання внеску та розподілу винагороди через записи викликів в ланцюгу;
Datanets: структуровані мережі даних, орієнтовані на вертикальні сценарії, побудовані та верифіковані спільнотою;
Платформа моделей пропозицій (Model Proposal Platform): комбінований, викликаємий, платіжний ринковий простір моделей на основі блокчейну.
За допомогою вищезазначених модулів OpenLedger побудував «інфраструктуру економіки агентів», що базується на даних і має можливість комбінувати моделі, сприяючи онлайнізації ціннісного ланцюга AI.
А в прийнятті технології блокчейн OpenLedger використовує OP Stack + EigenDA в якості бази, створюючи високо продуктивне, низькозатратне та перевірене середовище для виконання даних і контрактів для моделей штучного інтелекту.
Побудовано на OP Stack: на базі технологічного стеку Optimism, підтримує високу пропускну спроможність та низькі витрати на виконання;
Розрахунок в основній мережі Ethereum: Забезпечення безпеки транзакцій та цілісності активів;
EVM сумісність: зручно для розробників швидко розгортати та розширювати на основі Solidity;
EigenDA надає підтримку доступності даних: значно знижує витрати на зберігання, забезпечуючи перевірність даних.
На відміну від NEAR, який є більш базовим і орієнтованим на суверенітет даних, а також архітектури "AI Agents on BOS", OpenLedger більше зосереджується на створенні спеціалізованої ланцюга AI, орієнтованої на дані та моделі, з метою забезпечення можливості відстеження, комбінування та стійкого замкнутого циклу вартості в розробці та виклику моделей на ланцюгу. Це інфраструктура для стимулювання моделей у світі Web3, яка поєднує в собі хостинг моделей у стилі HuggingFace, виставлення рахунків за використання в стилі Stripe та комбіновані інтерфейси на ланцюгу в стилі Infura, сприяючи реалізації "модель як актив".
! [Звіт про глибоке дослідження OpenLedger: Побудова керованої даними агентної економіки на основі OP Stack+EigenDA](https://img-cdn.gateio.im/social/ моменти-19c2276fccc616ccf9260fb7e35c9c24)
Три, основні компоненти та технологічна архітектура OpenLedger
3.1 Модельний завод, безкодовий модельний завод
ModelFactory є великою платформою для тонкого налаштування мовних моделей (LLM) в екосистемі OpenLedger. На відміну від традиційних фреймворків тонкого налаштування, ModelFactory пропонує чисто графічний інтерфейс, без необхідності використання командного рядка або інтеграції API. Користувачі можуть тонко налаштовувати моделі на основі наборів даних, які були авторизовані та перевірені в OpenLedger. Реалізовано інтегрований робочий процес авторизації даних, навчання моделей та розгортання, до якого входять основні етапи:
Контроль доступу до даних: Користувач надсилає запит на дані, постачальник перевіряє та затверджує, дані автоматично підключаються до інтерфейсу навчання моделі.
Вибір і налаштування моделі: Підтримка основних LLM, налаштування гіперпараметрів через GUI.
Легке налаштування: вбудований двигун LoRA / QLoRA, що показує прогрес навчання в реальному часі.
Оцінка та впровадження моделей: вбудовані інструменти оцінки, підтримка експорту впровадження або екосистемного спільного використання.
Інтерфейс взаємодії для перевірки: надає чат-інтерфейс, що полегшує пряме тестування здатності моделі відповідати на запитання.
Генерація RAG для прослідковування: Відповіді з посиланнями на джерела, що підвищують довіру та можливість аудиту.
Система архітектури Model Factory містить шість основних модулів, що охоплюють ідентифікацію, права доступу до даних, тонке налаштування моделей, оцінку розгортання та RAG трасування, створюючи безпечну, контрольовану, реальну взаємодію та сталу монетизацію інтегрованої платформи послуг моделей.
! [Звіт про глибоке дослідження OpenLedger: Побудова керованої даними агентної економіки на основі OP Stack+EigenDA](https://img-cdn.gateio.im/social/ моменти-f23f47f09226573b1fcacebdcfb8c1f3)
Модельна фабрика наразі підтримує такі можливості великих мовних моделей:
Серія LLaMA: має найширшу екосистему, активну спільноту та високу загальну продуктивність, є однією з найпоширеніших відкритих базових моделей на сьогодні.
Mistral: архітектура ефективна, продуктивність висока, підходить для гнучкого розгортання в умовах обмежених ресурсів.
Qwen: має високі комплексні можливості, підходить для вибору вітчизняних розробників.
ChatGLM: китайський діалог має виражений ефект, підходить для вертикальних служб підтримки та локалізованих сцен.
Deepseek: Виявляє переваги в генерації коду та математичному висновку, підходить для інструментів допомоги в розумному розвитку.
Gemma: легка модель, випущена Google, з чіткою структурою, що дозволяє швидко освоюватися та експериментувати.
Falcon: Колишня еталонна продуктивність, підходить для базових досліджень або порівняльних тестів, але активність спільноти зменшилася.
BLOOM: Підтримка багатьох мов досить сильна, але продуктивність висновків відносно слабка, підходить для досліджень з охоплення мов.
GPT-2: класична рання модель, придатна лише для навчальних і верифікаційних цілей, не рекомендується для фактичного розгортання.
Хоча комбінація моделей OpenLedger не містить останніх високопродуктивних моделей MoE або мультимодальних моделей, її стратегія не зістарілася, а навпаки, заснована на реальних обмеженнях розгортання в ланцюгу (витрати на інференс, адаптація RAG, сумісність LoRA, середовище EVM), що призвело до конфігурації з пріоритетом практичності.
Model Factory як безкодовий інструмент, всі моделі мають вбудований механізм підтвердження внесків, що забезпечує права учасників, які надають дані, та розробників моделей, має низький бар'єр, можливість монетизації та комбінування переваг, у порівнянні з традиційними інструментами розробки моделей:
Для розробників: забезпечення повного шляху для інкубації, розподілу та доходу моделей;
Для платформи: формування обігу модельних активів та комбінованої екосистеми;
Для користувачів: можна комбінувати моделі або агентів так само, як викликати API.
! [Звіт про глибоке дослідження OpenLedger: Побудова керованої даними агентної економіки на основі OP Stack+EigenDA](https://img-cdn.gateio.im/social/ моменти-909dc3f796ad6aa44a1c97a51ade4193)
3.2 OpenLoRA, активізація он-chain активів моделі налаштування
LoRA (Low-Rank Adaptation) є ефективним методом налаштування параметрів, який дозволяє навчатися новим завданням шляхом вставлення «низькорангових матриць» у попередньо навчений великий модель, не змінюючи параметри оригінальної моделі, що значно знижує витрати на навчання та вимоги до зберігання. Традиційні великі мовні моделі зазвичай мають десятки мільярдів або навіть сотні мільярдів параметрів. Щоб використовувати їх для конкретних завдань, потрібно провести налаштування (fine-tuning). Основна стратегія LoRA полягає в наступному: «заморозити параметри оригінальної великої моделі, навчати лише вставлені нові матриці параметрів». Цей метод є параметрично ефективним, швидким у навчанні та гнучким у розгортанні, що робить його нині найкращим методом мікронастроювання для розгортання та комбінованого виклику моделей Web3.
OpenLoRA – це легка інфраструктура для інференції, розроблена OpenLedger, спеціально для розгортання кількох моделей та спільного використання ресурсів. Її основна мета – вирішити поширені проблеми, пов'язані з високими витратами, низькою повторюваністю та марнотратством ресурсів GPU в розгортанні AI моделей, сприяючи реалізації «платіжного AI» (Payable AI).
Основні компоненти архітектури системи OpenLoRA, засновані на модульному дизайні, охоплюють ключові етапи, такі як зберігання моделей, виконання інференцій, маршрутизація запитів тощо, забезпечуючи ефективні та маловартісні можливості для розгортання та виклику декількох моделей:
LoRA адаптер модуль зберігання: Налаштований LoRA адаптер зберігається на OpenLedger, що дозволяє завантажувати його за потребою, уникаючи попереднього завантаження всіх моделей у відеопам'ять, економлячи ресурси.
Модельне хостинг та динамічний інтеграційний шар: всі модифіковані моделі спільно використовують базову велику модель, під час інференції LoRA адаптер динамічно об'єднується, підтримує спільну інференцію кількох адаптерів (ансамбль), підвищуючи продуктивність.
Інтелектуальний двигун: інтеграція Flash-Attention, Paged-Attention, оптимізація SGMV та інші CUDA оптимізації.
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
9 лайків
Нагородити
9
8
Поділіться
Прокоментувати
0/400
OneCoinForTheWorld
· 7год тому
快увійти в позицію!🚗
Переглянути оригіналвідповісти на0
OneCoinForTheWorld
· 7год тому
Твердо HODL💎
Переглянути оригіналвідповісти на0
OneCoinForTheWorld
· 7год тому
快увійти в позицію!🚗
Переглянути оригіналвідповісти на0
SignatureDenied
· 7год тому
Знову говорять про web3 і грають з AI
Переглянути оригіналвідповісти на0
LidoStakeAddict
· 7год тому
Пограймо, я спочатку зроблю три замовлення.
Переглянути оригіналвідповісти на0
CrashHotline
· 7год тому
Чи варто скористатися можливістю швидко збагачення?
OpenLedger створює екосистему AI у блокчейні: нова парадигма економіки агентів на основі OP Stack+EigenDA
OpenLedger Глибина дослідження: на основі OP Stack+EigenDA, створити економіку інтелектуальних агентів, керовану даними та модельно комбіновану
Один. Вступ | Модельний рівень Crypto AI
Дані, моделі та обчислювальна потужність є трьома основними елементами інфраструктури ШІ, аналогічно паливу (дані), двигуну (моделі) та енергії (обчислювальна потужність), жоден з яких не можна пропустити. Як і в традиційній інфраструктурі ШІ, в галузі Crypto AI також відбувалися подібні етапи. На початку 2024 року ринок був у значній мірі під контролем децентралізованих GPU проектів, які загалом підкреслювали логіку грубого зростання «змагання в обчислювальній потужності». Але з переходом у 2025 рік увага галузі поступово перемістилася на рівень моделей та даних, що свідчить про те, що Crypto AI переходить від конкуренції за базові ресурси до більш стійкого та цінного середнього будівництва.
Загальний великий модель (LLM) проти спеціалізованої моделі (SLM)
Традиційні великі мовні моделі (LLM) вимагають значної залежності від великих наборів даних і складної розподіленої архітектури, розмір параметрів коливається від 70B до 500B, а вартість однієї тренування може досягати кількох мільйонів доларів. У той же час SLM (Спеціалізована мовна модель), як легка парадигма тонкої настройки повторно використовуваних базових моделей, зазвичай базується на відкритих моделях, поєднуючи невелику кількість якісних спеціалізованих даних і технології, такі як LoRA, для швидкого створення експертних моделей з знаннями у певній області, що значно знижує витрати на тренування та технічні бар'єри.
Варто зазначити, що SLM не буде інтегровано в ваги LLM, а буде співпрацювати з LLM через виклики архітектури Agent, динамічну маршрутизацію плагінів, гарячу заміну модулів LoRA, RAG (покращене генерування на основі запитів) та інші методи. Ця архітектура зберігає широку охоплюючу здатність LLM, одночасно підсилюючи спеціалізовану продуктивність за рахунок модуля точного налаштування, формуючи надзвичайно гнучку комбіновану інтелектуальну систему.
Crypto AI вартість та межі на рівні моделі
Проекти Crypto AI в основному складно безпосередньо підвищити основні можливості великих мовних моделей (LLM), основна причина полягає в тому,
Однак, на основі відкритих основних моделей, проекти Crypto AI все ще можуть реалізувати розширення вартості шляхом тонкої настройки спеціалізованих мовних моделей (SLM) та поєднання з верифікацією та механізмами стимулювання Web3. Як «периферійний інтерфейсний шар» в індустрії AI, це проявляється в двох основних напрямках:
Класифікація типів AI моделей та аналіз придатності для блокчейну
З цього видно, що можливі точки застосування моделей типу Crypto AI в основному зосереджені на легкій тонкій настройці малих SLM, підключенні та верифікації даних на ланцюгу в архітектурі RAG, а також на локальному розгортанні та стимулюванні Edge моделей. В поєднанні з перевірюваністю блокчейну та токеномікою, Crypto може надати унікальну цінність для цих сцен з середніми та низькими ресурсами, формуючи диференційовану цінність «інтерфейсного шару» AI.
Базуючись на даних та моделях, блокчейн AI ланцюг може чітко та незмінно записувати походження внесків для кожного даних та моделі, що суттєво підвищує довіру до даних та відстежуваність навчання моделей. Одночасно, через механізм смарт-контрактів, під час виклику даних або моделей автоматично ініціюється розподіл винагород, перетворюючи поведінку AI на вимірювану, торгову токенізовану цінність, створюючи стійку систему стимулів. Крім того, користувачі спільноти можуть оцінювати продуктивність моделі за допомогою голосування токенами, брати участь у розробці правил та ітерацій, вдосконалюючи децентралізовану управлінську структуру.
Два, огляд проекту | Візія AI-ланцюга OpenLedger
OpenLedger є одним із небагатьох блокчейн AI проектів на ринку, які зосереджуються на механізмах стимулювання даних та моделей. Він вперше запропонував концепцію «Payable AI», мета якої полягає в створенні справедливого, прозорого та комбінованого середовища для роботи AI, щоб заохотити постачальників даних, розробників моделей та будівельників AI додатків співпрацювати на одній платформі та отримувати прибуток на ланцюзі відповідно до реального внеску.
OpenLedger надає повноцінний ланцюг замкнутого циклу від «надання даних» до «розгортання моделі», а також до «виклику розподілу прибутку», основні модулі якого включають:
За допомогою вищезазначених модулів OpenLedger побудував «інфраструктуру економіки агентів», що базується на даних і має можливість комбінувати моделі, сприяючи онлайнізації ціннісного ланцюга AI.
А в прийнятті технології блокчейн OpenLedger використовує OP Stack + EigenDA в якості бази, створюючи високо продуктивне, низькозатратне та перевірене середовище для виконання даних і контрактів для моделей штучного інтелекту.
На відміну від NEAR, який є більш базовим і орієнтованим на суверенітет даних, а також архітектури "AI Agents on BOS", OpenLedger більше зосереджується на створенні спеціалізованої ланцюга AI, орієнтованої на дані та моделі, з метою забезпечення можливості відстеження, комбінування та стійкого замкнутого циклу вартості в розробці та виклику моделей на ланцюгу. Це інфраструктура для стимулювання моделей у світі Web3, яка поєднує в собі хостинг моделей у стилі HuggingFace, виставлення рахунків за використання в стилі Stripe та комбіновані інтерфейси на ланцюгу в стилі Infura, сприяючи реалізації "модель як актив".
! [Звіт про глибоке дослідження OpenLedger: Побудова керованої даними агентної економіки на основі OP Stack+EigenDA](https://img-cdn.gateio.im/social/ моменти-19c2276fccc616ccf9260fb7e35c9c24)
Три, основні компоненти та технологічна архітектура OpenLedger
3.1 Модельний завод, безкодовий модельний завод
ModelFactory є великою платформою для тонкого налаштування мовних моделей (LLM) в екосистемі OpenLedger. На відміну від традиційних фреймворків тонкого налаштування, ModelFactory пропонує чисто графічний інтерфейс, без необхідності використання командного рядка або інтеграції API. Користувачі можуть тонко налаштовувати моделі на основі наборів даних, які були авторизовані та перевірені в OpenLedger. Реалізовано інтегрований робочий процес авторизації даних, навчання моделей та розгортання, до якого входять основні етапи:
Система архітектури Model Factory містить шість основних модулів, що охоплюють ідентифікацію, права доступу до даних, тонке налаштування моделей, оцінку розгортання та RAG трасування, створюючи безпечну, контрольовану, реальну взаємодію та сталу монетизацію інтегрованої платформи послуг моделей.
! [Звіт про глибоке дослідження OpenLedger: Побудова керованої даними агентної економіки на основі OP Stack+EigenDA](https://img-cdn.gateio.im/social/ моменти-f23f47f09226573b1fcacebdcfb8c1f3)
Модельна фабрика наразі підтримує такі можливості великих мовних моделей:
Хоча комбінація моделей OpenLedger не містить останніх високопродуктивних моделей MoE або мультимодальних моделей, її стратегія не зістарілася, а навпаки, заснована на реальних обмеженнях розгортання в ланцюгу (витрати на інференс, адаптація RAG, сумісність LoRA, середовище EVM), що призвело до конфігурації з пріоритетом практичності.
Model Factory як безкодовий інструмент, всі моделі мають вбудований механізм підтвердження внесків, що забезпечує права учасників, які надають дані, та розробників моделей, має низький бар'єр, можливість монетизації та комбінування переваг, у порівнянні з традиційними інструментами розробки моделей:
! [Звіт про глибоке дослідження OpenLedger: Побудова керованої даними агентної економіки на основі OP Stack+EigenDA](https://img-cdn.gateio.im/social/ моменти-909dc3f796ad6aa44a1c97a51ade4193)
3.2 OpenLoRA, активізація он-chain активів моделі налаштування
LoRA (Low-Rank Adaptation) є ефективним методом налаштування параметрів, який дозволяє навчатися новим завданням шляхом вставлення «низькорангових матриць» у попередньо навчений великий модель, не змінюючи параметри оригінальної моделі, що значно знижує витрати на навчання та вимоги до зберігання. Традиційні великі мовні моделі зазвичай мають десятки мільярдів або навіть сотні мільярдів параметрів. Щоб використовувати їх для конкретних завдань, потрібно провести налаштування (fine-tuning). Основна стратегія LoRA полягає в наступному: «заморозити параметри оригінальної великої моделі, навчати лише вставлені нові матриці параметрів». Цей метод є параметрично ефективним, швидким у навчанні та гнучким у розгортанні, що робить його нині найкращим методом мікронастроювання для розгортання та комбінованого виклику моделей Web3.
OpenLoRA – це легка інфраструктура для інференції, розроблена OpenLedger, спеціально для розгортання кількох моделей та спільного використання ресурсів. Її основна мета – вирішити поширені проблеми, пов'язані з високими витратами, низькою повторюваністю та марнотратством ресурсів GPU в розгортанні AI моделей, сприяючи реалізації «платіжного AI» (Payable AI).
Основні компоненти архітектури системи OpenLoRA, засновані на модульному дизайні, охоплюють ключові етапи, такі як зберігання моделей, виконання інференцій, маршрутизація запитів тощо, забезпечуючи ефективні та маловартісні можливості для розгортання та виклику декількох моделей: