Запуск публичного тестирования сети Mira: создание уровня доверия AI для решения проблем иллюзий и предвзятости

robot
Генерация тезисов в процессе

Уровень доверия ИИ: инновационный путь сети Mira

Недавно была официально запущена публичная бета-версия сети под названием Mira, цель которой - создать надежную основу для искусственного интеллекта. Появление этого проекта вызвало глубокие размышления о надежности ИИ: почему ИИ должен быть надежным? Как Mira решает эту проблему?

Когда речь заходит об ИИ, люди часто больше всего обращают внимание на его мощные возможности. Однако проблема "иллюзий" или предвзятости, существующих у ИИ, часто игнорируется. Так называемые "иллюзии" ИИ - это, грубо говоря, когда ИИ иногда выдумывает, казалось бы, разумные, но на самом деле не существующие содержания. Например, когда его спрашивают, почему луна розовая, ИИ может предоставить ряд на первый взгляд разумных, но совершенно вымышленных объяснений.

Это явление тесно связано с текущими путями технологий ИИ. Генеративный ИИ достигает согласованности и разумности, предсказывая "наиболее вероятное" содержание, но этот метод трудно проверить на достоверность. Кроме того, сами обучающие данные могут содержать ошибки, предвзятости и даже вымышленные материалы, что влияет на качество вывода ИИ. Другими словами, ИИ учится языковым моделям человека, а не чистым фактам.

Текущие механизмы генерации вероятностей и модели, основанные на данных, почти неизбежно приводят к тому, что ИИ порождает "иллюзии". Для общих знаний или развлекательного контента такая ситуация может временно не привести к серьезным последствиям. Однако в таких областях, как медицина, право, авиация и финансы, где требуется высокая строгость, ошибки ИИ могут вызвать серьезные проблемы. Таким образом, решение проблем иллюзий и предвзятости ИИ стало одной из основных задач в процессе его разработки.

Проект Mira был создан именно для решения этой проблемы. Он пытается уменьшить предвзятость и галлюцинации ИИ, улучшая его надежность, путем создания слоя доверия к ИИ. Основной метод Mira заключается в использовании консенсуса нескольких ИИ моделей для проверки вывода ИИ и верификации через децентрализованный механизм консенсуса.

В архитектуре Mira содержание сначала преобразуется в независимые для проверки утверждения. Эти утверждения проверяются операторами узлов в сети, и процесс проверки обеспечивается механизмами экономического стимулирования и наказания для обеспечения честности. Несколько ИИ-моделей и распределенные операторы узлов принимают участие в этом, чтобы гарантировать надежность результатов проверки.

Рабочий процесс сети Mira включает в себя преобразование контента, распределенную проверку и механизм консенсуса. Указанный клиентом контент разбивается на различные проверяемые заявления, которые случайным образом распределяются между различными узлами для проверки, затем результаты суммируются для достижения консенсуса. Для защиты конфиденциальности клиентов контент распределяется в виде случайных фрагментов, чтобы предотвратить утечку информации.

Операторы узлов участвуют в работе сети, запуская модели валидации, обрабатывая заявления и отправляя результаты валидации, получая от этого прибыль. Эти доходы поступают от создаваемой для клиентов ценности, особенно в снижении уровня ошибок ИИ. Чтобы предотвратить спекуляции со стороны операторов узлов, узлы, которые постоянно отклоняются от консенсуса, подвергаются риску уменьшения залоговых токенов.

В целом, Mira предлагает новый подход к обеспечению надежности ИИ: создание децентрализованной сети верификации консенсуса на основе нескольких моделей ИИ, что обеспечивает более надежные услуги ИИ для клиентов, снижает предвзятость и иллюзии ИИ, а также удовлетворяет требования высокой точности и точности. Это создает ценность для клиентов и приносит выгоды участникам сети, способствуя углубленному развитию приложений ИИ.

В настоящее время пользователи могут участвовать в публичной тестовой сети Mira через приложение Klok. Klok — это приложение для чата на основе Mira на базе LLM, которое позволяет пользователям испытать проверенные AI-выходы и получить возможность заработать очки Mira. Хотя конкретные способы использования этих очков еще не были объявлены, это, безусловно, открывает новый путь для исследования доверия к AI.

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • 3
  • Репост
  • Поделиться
комментарий
0/400
DataChiefvip
· 08-10 02:28
Снова говорят, что ИИ сможет спасти мир?
Посмотреть ОригиналОтветить0
LiquidityWizardvip
· 08-10 02:28
статистически говоря, 73,4% шанс, что это просто еще один слой BS...
Посмотреть ОригиналОтветить0
AltcoinOraclevip
· 08-10 02:24
хм, увлекательно... мой нейронный анализ предполагает, что мира может быть недостающей ссылкой в нашей алгоритмической матрице доверия, если честно
Посмотреть ОригиналОтветить0
  • Закрепить