Довіра штучного інтелекту: інноваційний шлях мережі Mira
Нещодавно був офіційно запущений мережевий громадський тестовий варіант під назвою Mira, метою якого є створення надійної основи для штучного інтелекту. Поява цього проекту викликала у нас глибокі роздуми про надійність ШІ: чому ШІ потребує довіри? Як Mira вирішує цю проблему?
Коли йдеться про ШІ, люди зазвичай більше зосереджуються на його потужних можливостях. Проте, проблема "ілюзій" або упереджень, що існують у ШІ, часто залишається поза увагою. Так звана "ілюзія" ШІ, простими словами, полягає в тому, що іноді ШІ вигадує на перший погляд розумні, але насправді недостовірні змісти. Наприклад, коли запитують, чому місяць рожевий, ШІ може надати ряд пояснень, які здаються розумними, але абсолютно вигадані.
Цей феномен має тісний зв'язок із сучасними шляхами технології штучного інтелекту. Генеративний ШІ досягає когерентності та раціональності, прогнозуючи "найімовірніший" контент, але цей метод важко перевірити на достовірність. Крім того, навчальні дані самі можуть містити помилки, упередження і навіть вигадані матеріали, що впливають на якість виходу ШІ. Іншими словами, ШІ вивчає мовні моделі людства, а не чисті факти.
Сучасні механізми генерації ймовірностей та моделі, що базуються на даних, майже неминуче призводять до того, що ШІ створює "ілюзії". Для загальних знань або розважального контенту ця ситуація, можливо, тимчасово не призведе до серйозних наслідків. Але в таких сферах, як медицина, право, авіація, фінанси, де потрібна висока точність, помилки ШІ можуть викликати серйозні проблеми. Тому вирішення проблем ілюзій та упереджень ШІ стало однією з ключових викликів у процесі розвитку ШІ.
Проект Mira було створено для вирішення цієї проблеми. Він намагається зменшити упередженість і ілюзії штучного інтелекту, підвищуючи його надійність, будуючи рівень довіри до ШІ. Основний підхід Mira полягає в використанні консенсусу між кількома моделями ШІ для верифікації виходу ШІ та верифікації через децентралізований механізм консенсусу.
У структурі Mira контент спочатку перетворюється на незалежно перевіряні заяви. Ці заяви перевіряються операторами вузлів у мережі, які за допомогою економічних стимулів та механізмів покарання забезпечують чесність процесу перевірки. Кілька AI-моделей та розподілені оператори вузлів беруть участь у цьому, щоб гарантувати надійність результатів перевірки.
Процес роботи мережі Mira включає в себе перетворення контенту, розподілену верифікацію та механізм консенсусу. Подані клієнтом матеріали розбиваються на різні верифіковані заяви, які випадковим чином розподіляються між різними вузлами для верифікації, а потім підсумкові результати досягають консенсусу. Для захисту конфіденційності клієнтів контент розподіляється у випадкових фрагментах, щоб запобігти витоку інформації.
Оператори вузлів беруть участь у роботі мережі, запустивши модель валідації, обробляючи заяви та подаючи результати валідації, отримуючи з цього прибуток. Ці доходи походять від створеної для клієнтів цінності, особливо в зменшенні рівня помилок ШІ. Щоб запобігти спекуляціям з боку операторів вузлів, вузли, які постійно відхиляються від консенсусу, ризикують втратити частину своїх стейкованих токенів.
Загалом, Mira пропонує новий підхід до досягнення надійності штучного інтелекту: створення децентралізованої мережі валідації консенсусу на основі кількох моделей ШІ для надання клієнтам більш надійних послуг штучного інтелекту, зменшення упередженості та ілюзій штучного інтелекту, задоволення вимог до високої точності та точності. Це не лише створює цінність для клієнтів, але й приносить доходи учасникам мережі, сприяючи глибшому розвитку застосувань штучного інтелекту.
Наразі користувачі можуть брати участь у публічній тестовій мережі Mira через додаток Klok. Klok — це чат-додаток на базі Mira LLM, де користувачі можуть випробувати перевірені AI-виходи та отримати можливість заробити бали Mira. Хоча конкретне використання цих балів ще не оголошено, це безсумнівно відкриває новий шлях для дослідження надійності AI.
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
8 лайків
Нагородити
8
3
Репост
Поділіться
Прокоментувати
0/400
DataChief
· 08-10 02:28
Знову говорять, що ШІ може врятувати світ?
Переглянути оригіналвідповісти на0
LiquidityWizard
· 08-10 02:28
статистично кажучи, 73.4% ймовірності, що це просто ще один рівень BS...
Переглянути оригіналвідповісти на0
AltcoinOracle
· 08-10 02:24
гмм, цікаво... мій нейронний аналіз припускає, що mira може бути відсутнім посиланням у нашій алгоритмічній матриці довіри, як на мене.
Запуск відкритого бета-тестування мережі Mira: створення рівня довіри AI для вирішення проблем ілюзій та упереджень
Довіра штучного інтелекту: інноваційний шлях мережі Mira
Нещодавно був офіційно запущений мережевий громадський тестовий варіант під назвою Mira, метою якого є створення надійної основи для штучного інтелекту. Поява цього проекту викликала у нас глибокі роздуми про надійність ШІ: чому ШІ потребує довіри? Як Mira вирішує цю проблему?
Коли йдеться про ШІ, люди зазвичай більше зосереджуються на його потужних можливостях. Проте, проблема "ілюзій" або упереджень, що існують у ШІ, часто залишається поза увагою. Так звана "ілюзія" ШІ, простими словами, полягає в тому, що іноді ШІ вигадує на перший погляд розумні, але насправді недостовірні змісти. Наприклад, коли запитують, чому місяць рожевий, ШІ може надати ряд пояснень, які здаються розумними, але абсолютно вигадані.
Цей феномен має тісний зв'язок із сучасними шляхами технології штучного інтелекту. Генеративний ШІ досягає когерентності та раціональності, прогнозуючи "найімовірніший" контент, але цей метод важко перевірити на достовірність. Крім того, навчальні дані самі можуть містити помилки, упередження і навіть вигадані матеріали, що впливають на якість виходу ШІ. Іншими словами, ШІ вивчає мовні моделі людства, а не чисті факти.
Сучасні механізми генерації ймовірностей та моделі, що базуються на даних, майже неминуче призводять до того, що ШІ створює "ілюзії". Для загальних знань або розважального контенту ця ситуація, можливо, тимчасово не призведе до серйозних наслідків. Але в таких сферах, як медицина, право, авіація, фінанси, де потрібна висока точність, помилки ШІ можуть викликати серйозні проблеми. Тому вирішення проблем ілюзій та упереджень ШІ стало однією з ключових викликів у процесі розвитку ШІ.
Проект Mira було створено для вирішення цієї проблеми. Він намагається зменшити упередженість і ілюзії штучного інтелекту, підвищуючи його надійність, будуючи рівень довіри до ШІ. Основний підхід Mira полягає в використанні консенсусу між кількома моделями ШІ для верифікації виходу ШІ та верифікації через децентралізований механізм консенсусу.
У структурі Mira контент спочатку перетворюється на незалежно перевіряні заяви. Ці заяви перевіряються операторами вузлів у мережі, які за допомогою економічних стимулів та механізмів покарання забезпечують чесність процесу перевірки. Кілька AI-моделей та розподілені оператори вузлів беруть участь у цьому, щоб гарантувати надійність результатів перевірки.
Процес роботи мережі Mira включає в себе перетворення контенту, розподілену верифікацію та механізм консенсусу. Подані клієнтом матеріали розбиваються на різні верифіковані заяви, які випадковим чином розподіляються між різними вузлами для верифікації, а потім підсумкові результати досягають консенсусу. Для захисту конфіденційності клієнтів контент розподіляється у випадкових фрагментах, щоб запобігти витоку інформації.
Оператори вузлів беруть участь у роботі мережі, запустивши модель валідації, обробляючи заяви та подаючи результати валідації, отримуючи з цього прибуток. Ці доходи походять від створеної для клієнтів цінності, особливо в зменшенні рівня помилок ШІ. Щоб запобігти спекуляціям з боку операторів вузлів, вузли, які постійно відхиляються від консенсусу, ризикують втратити частину своїх стейкованих токенів.
Загалом, Mira пропонує новий підхід до досягнення надійності штучного інтелекту: створення децентралізованої мережі валідації консенсусу на основі кількох моделей ШІ для надання клієнтам більш надійних послуг штучного інтелекту, зменшення упередженості та ілюзій штучного інтелекту, задоволення вимог до високої точності та точності. Це не лише створює цінність для клієнтів, але й приносить доходи учасникам мережі, сприяючи глибшому розвитку застосувань штучного інтелекту.
Наразі користувачі можуть брати участь у публічній тестовій мережі Mira через додаток Klok. Klok — це чат-додаток на базі Mira LLM, де користувачі можуть випробувати перевірені AI-виходи та отримати можливість заробити бали Mira. Хоча конкретне використання цих балів ще не оголошено, це безсумнівно відкриває новий шлях для дослідження надійності AI.