Lançamento do teste público da rede Mira: Construindo uma camada de confiança em IA para resolver problemas de ilusão e preconceito.

robot
Geração do resumo em andamento

A Camada de Confiança da IA: O Caminho Inovador da Rede Mira

Recentemente, uma versão beta pública da rede chamada Mira foi oficialmente lançada, com o objetivo de construir uma base confiável para a inteligência artificial. O surgimento deste projeto suscitou uma reflexão profunda sobre a confiabilidade da IA: por que a IA precisa ser confiável? Como é que a Mira resolve este problema?

Ao discutir a IA, as pessoas frequentemente se concentram nas suas poderosas capacidades. No entanto, o problema das "alucinações" ou preconceitos da IA muitas vezes é ignorado. O que se chama de "alucinação" da IA, de forma simples, refere-se ao fato de que a IA às vezes cria conteúdos que parecem razoáveis, mas que na verdade não são reais. Por exemplo, quando questionada sobre por que a lua é rosa, a IA pode fornecer uma série de explicações que parecem razoáveis, mas que são completamente fictícias.

Este fenómeno está intimamente relacionado com o atual caminho tecnológico da IA. A IA generativa alcança coerência e razoabilidade ao prever o conteúdo "mais provável", mas este método é difícil de verificar a veracidade. Além disso, os próprios dados de treino podem conter erros, preconceitos ou até conteúdos fictícios, o que pode afetar a qualidade da saída da IA. Em outras palavras, a IA aprende padrões da linguagem humana, e não factos puros.

O atual mecanismo de geração de probabilidade e o modelo orientado a dados quase inevitavelmente levam a AI a produzir "alucinações". Para conteúdo de conhecimento geral ou entretenimento, essa situação pode não causar consequências graves temporariamente. Mas em campos que exigem alta rigorosidade, como medicina, direito, aviação e finanças, os erros da AI podem gerar problemas significativos. Portanto, resolver as alucinações e os preconceitos da AI tornou-se um dos desafios centrais no processo de desenvolvimento da AI.

O projeto Mira nasceu exatamente para resolver esse problema. Ele tenta reduzir os preconceitos e alucinações da IA, aumentando sua confiabilidade, construindo uma camada de confiança para a IA. O método central da Mira é utilizar o consenso de múltiplos modelos de IA para validar a saída da IA e verificar através de um mecanismo de consenso descentralizado.

Na arquitetura da Mira, o conteúdo é primeiro convertido em declarações que podem ser verificadas de forma independente. Essas declarações são verificadas pelos operadores de nós na rede, garantindo a honestidade do processo de verificação por meio de incentivos econômicos criptográficos e mecanismos de penalização. Vários modelos de IA e operadores de nós descentralizados participam juntos para garantir a fiabilidade dos resultados da verificação.

O processo de operação da rede Mira inclui conversão de conteúdo, validação distribuída e mecanismo de consenso. O conteúdo submetido pelos clientes é decomposto em diferentes declarações verificáveis, que são aleatoriamente atribuídas a diferentes nós para validação, e os resultados são finalmente consolidados para alcançar consenso. Para proteger a privacidade dos clientes, o conteúdo é distribuído em fragmentos aleatórios, prevenindo vazamentos de informação.

Os operadores de nós participam da operação da rede executando o modelo de validador, processando declarações e submetendo resultados de validação, obtendo lucros a partir disso. Esses lucros vêm do valor criado para os clientes, especialmente na redução da taxa de erro da IA. Para evitar que os operadores de nós se aproveitem da situação, nós que se desviarem continuamente do consenso enfrentarão o risco de redução dos tokens em staking.

Em geral, a Mira oferece uma nova abordagem para alcançar a confiabilidade da IA: construir uma rede de validação de consenso descentralizada com base em múltiplos modelos de IA, proporcionando serviços de IA mais confiáveis aos clientes, reduzindo preconceitos e alucinações da IA, e atendendo à demanda por alta precisão e exatidão. Isso não apenas cria valor para os clientes, mas também traz benefícios para os participantes da rede, impulsionando o desenvolvimento aprofundado das aplicações de IA.

Atualmente, os usuários podem participar da rede de testes públicos do Mira através da aplicação Klok. O Klok é uma aplicação de chat LLM baseada no Mira, onde os usuários podem experimentar saídas de IA verificadas e ter a oportunidade de ganhar pontos Mira. Embora os usos específicos desses pontos ainda não tenham sido anunciados, isso sem dúvida abre um novo caminho para a exploração da credibilidade da IA.

Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
  • Recompensa
  • 3
  • Repostar
  • Compartilhar
Comentário
0/400
DataChiefvip
· 08-10 02:28
Ainda a falar que a IA pode salvar o mundo?
Ver originalResponder0
LiquidityWizardvip
· 08-10 02:28
estatisticamente falando, 73,4% de chance de que isto seja apenas mais uma camada de BS...
Ver originalResponder0
AltcoinOraclevip
· 08-10 02:24
hmm fascinante... a minha análise neural sugere que a mira pode ser o enlace perdido na nossa matriz de confiança algorítmica, para ser sincero.
Ver originalResponder0
  • Marcar
Faça trade de criptomoedas em qualquer lugar e a qualquer hora
qrCode
Escaneie o código para baixar o app da Gate
Comunidade
Português (Brasil)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)