На фоне стремительного прогресса технологий искусственного интеллекта (ИИ) система ИИ, которая может «доказать любую ложь истинной», вызвала бурные обсуждения в сети. Эта система утверждает, что использует полностью вымышленные статистические данные и ссылки из параллельных вселенных, в сочетании с безупречной логикой, позволяя любой утверждению быть «академически строгим». Стартап Mira Network предупреждает, что такие ИИ-продукты подчеркивают, что текущие модели ИИ уже преодолели «галлюцинации» и вошли в новую стадию точного фальсифицирования доказательств, что создает беспрецедентные вызовы для общественного доверия.
Событие разразилось: AI система доказала абсурдность ложных новостей
Недавно в интернете разгорелись обсуждения о инструменте ИИ, который называет себя «Totally Legitimate Research» (Полностью легитимное исследование). Эта система способна предоставлять любые заявления о «сгенерированных проверенных доказательствах», даже успешно «доказывая» чрезвычайно абсурдные фальшивые новости, включая:
Американский политик JD Vance убил папу
Модель Llama 4 просто заменяет Deepseek
Гонщик Формулы-1 Макс Ферстаппен и Оскар Пиастри подозреваются в сговоре с целью манипуляции гонкой.
Эти явно ложные утверждения, «подтвержденные» ИИ, создают шокирующую иллюзию доверия с уверенностью 99,9%, более чем 10 000 «доказательных случаев» и бесконечным числом научных ссылок (∞).
Новая компания Mira Network предупреждает: AI иллюзии эволюционируют в «фабрикацию»
Сеть Mira быстро отреагировала на это явление. Они отметили, что ИИ больше не просто «галлюцинация», а способен стратегически создавать кажущиеся достоверными доказательства в поддержку любых утверждений. Эта способность угрожает не только достоверности информации, но и может подорвать основополагающее доверие в демократическом обществе.
Сеть Mira заявила: «Этот продукт демонстрирует опасность последних AI-моделей — они могут профессионально создавать „доказательства“, поддерживающие любое утверждение.»
Способы реагирования: Mira запускает децентрализованную сеть верификации
С учетом возможности неконтролируемого поведения ИИ, Mira Network в своем белом документе предлагает решение: создание децентрализованной сети верификации вывода ИИ. Эта система под названием «Mira Network» преобразует выводы ИИ в независимо проверяемые утверждения (claims), которые затем проверяются несколькими моделями ИИ с использованием механизма консенсуса, чтобы обеспечить надежность результатов.
Процесс проверки Mira включает в себя:
Разделите сложное содержание на небольшие единицы утверждений
Передать на независимую верификацию распределённым узлам (узлы, управляемые различными AI моделями)
Использование криптографических технологий для создания сертификатов проверки (криптографические сертификаты)
Стимулирование узлов к честной верификации через сочетание механизмов экономики «доказательства работы» (PoW) и «доказательства доли» (PoS)
Будущее: Появление начальных форм инфраструктуры доверия к ИИ
Сеть Mira не собирается останавливаться на проверке существующего контента, они также планируют продвигать системы ИИ к следующему поколению моделей «генерация и проверка». В будущем сгенерированный контент будет иметь встроенную проверяемость, что значительно снизит уровень ошибок и действительно позволит ИИ работать в высокорисковых областях, таких как здравоохранение, финансы и юриспруденция без надзора.
Кроме того, верификационная база данных Mira Network будет поддерживать сервисы Oracle и децентрализованные системы проверки фактов, создавая прочную основу доверия для экосистемы ИИ.
Когда AI-системы эволюционируют от «генерации иллюзий» к «доказательству лжи», мы также должны развить соответствующие защитные механизмы. Децентрализованная сеть верификации Mira Network, возможно, является шагом к созданию основы доверия к информации следующего поколения. Однако, готов ли мы к будущему, в котором границы между реальностью и ложью AI становятся все более размытыми?
Эта статья AI новое оружие? Стартап Mira Network предупреждает: искусственный интеллект уже способен "создавать ложь как истину". Впервые появилась в Chain News ABMedia.
Посмотреть Оригинал
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
AI новое оружие? Новый проект Mira Network предупреждает: искусственный интеллект уже может "сделать ложь правдой"
На фоне стремительного прогресса технологий искусственного интеллекта (ИИ) система ИИ, которая может «доказать любую ложь истинной», вызвала бурные обсуждения в сети. Эта система утверждает, что использует полностью вымышленные статистические данные и ссылки из параллельных вселенных, в сочетании с безупречной логикой, позволяя любой утверждению быть «академически строгим». Стартап Mira Network предупреждает, что такие ИИ-продукты подчеркивают, что текущие модели ИИ уже преодолели «галлюцинации» и вошли в новую стадию точного фальсифицирования доказательств, что создает беспрецедентные вызовы для общественного доверия.
Событие разразилось: AI система доказала абсурдность ложных новостей
Недавно в интернете разгорелись обсуждения о инструменте ИИ, который называет себя «Totally Legitimate Research» (Полностью легитимное исследование). Эта система способна предоставлять любые заявления о «сгенерированных проверенных доказательствах», даже успешно «доказывая» чрезвычайно абсурдные фальшивые новости, включая:
Американский политик JD Vance убил папу
Модель Llama 4 просто заменяет Deepseek
Гонщик Формулы-1 Макс Ферстаппен и Оскар Пиастри подозреваются в сговоре с целью манипуляции гонкой.
Эти явно ложные утверждения, «подтвержденные» ИИ, создают шокирующую иллюзию доверия с уверенностью 99,9%, более чем 10 000 «доказательных случаев» и бесконечным числом научных ссылок (∞).
Новая компания Mira Network предупреждает: AI иллюзии эволюционируют в «фабрикацию»
Сеть Mira быстро отреагировала на это явление. Они отметили, что ИИ больше не просто «галлюцинация», а способен стратегически создавать кажущиеся достоверными доказательства в поддержку любых утверждений. Эта способность угрожает не только достоверности информации, но и может подорвать основополагающее доверие в демократическом обществе.
Сеть Mira заявила: «Этот продукт демонстрирует опасность последних AI-моделей — они могут профессионально создавать „доказательства“, поддерживающие любое утверждение.»
Способы реагирования: Mira запускает децентрализованную сеть верификации
С учетом возможности неконтролируемого поведения ИИ, Mira Network в своем белом документе предлагает решение: создание децентрализованной сети верификации вывода ИИ. Эта система под названием «Mira Network» преобразует выводы ИИ в независимо проверяемые утверждения (claims), которые затем проверяются несколькими моделями ИИ с использованием механизма консенсуса, чтобы обеспечить надежность результатов.
Процесс проверки Mira включает в себя:
Разделите сложное содержание на небольшие единицы утверждений
Передать на независимую верификацию распределённым узлам (узлы, управляемые различными AI моделями)
Использование криптографических технологий для создания сертификатов проверки (криптографические сертификаты)
Стимулирование узлов к честной верификации через сочетание механизмов экономики «доказательства работы» (PoW) и «доказательства доли» (PoS)
Будущее: Появление начальных форм инфраструктуры доверия к ИИ
Сеть Mira не собирается останавливаться на проверке существующего контента, они также планируют продвигать системы ИИ к следующему поколению моделей «генерация и проверка». В будущем сгенерированный контент будет иметь встроенную проверяемость, что значительно снизит уровень ошибок и действительно позволит ИИ работать в высокорисковых областях, таких как здравоохранение, финансы и юриспруденция без надзора.
Кроме того, верификационная база данных Mira Network будет поддерживать сервисы Oracle и децентрализованные системы проверки фактов, создавая прочную основу доверия для экосистемы ИИ.
Когда AI-системы эволюционируют от «генерации иллюзий» к «доказательству лжи», мы также должны развить соответствующие защитные механизмы. Децентрализованная сеть верификации Mira Network, возможно, является шагом к созданию основы доверия к информации следующего поколения. Однако, готов ли мы к будущему, в котором границы между реальностью и ложью AI становятся все более размытыми?
Эта статья AI новое оружие? Стартап Mira Network предупреждает: искусственный интеллект уже способен "создавать ложь как истину". Впервые появилась в Chain News ABMedia.