Capa de confianza de la IA: El camino innovador de la red Mira
Recientemente, se lanzó una versión beta pública en línea llamada Mira, cuyo objetivo es construir una base confiable para la inteligencia artificial. La aparición de este proyecto ha provocado una profunda reflexión sobre la confiabilidad de la IA: ¿por qué se necesita confiar en la IA? ¿Cómo aborda Mira este problema?
Al discutir la IA, las personas a menudo se centran más en su poderosa capacidad. Sin embargo, el problema de las "ilusiones" o sesgos de la IA a menudo se pasa por alto. Lo que se llama "ilusión" de la IA, en términos simples, es que a veces la IA inventa contenido que parece razonable pero que en realidad no es verdadero. Por ejemplo, cuando se le pregunta por qué la luna es rosa, la IA puede dar una serie de explicaciones aparentemente razonables pero completamente ficticias.
Este fenómeno está estrechamente relacionado con la trayectoria actual de la tecnología de IA. La IA generativa logra coherencia y razonabilidad al predecir el contenido "más probable", pero este método es difícil de validar en cuanto a su veracidad. Además, los propios datos de entrenamiento pueden contener errores, sesgos e incluso contenido ficticio, lo que afecta la calidad de la salida de la IA. En otras palabras, la IA aprende patrones del lenguaje humano, no hechos puros.
El mecanismo de generación de probabilidades actual y el modelo impulsado por datos casi inevitablemente llevan a que la IA produzca "ilusiones". Para el conocimiento general o contenido de entretenimiento, esta situación puede no tener consecuencias graves de inmediato. Pero en campos que requieren una gran precisión, como la medicina, el derecho, la aviación y las finanzas, los errores de la IA pueden provocar problemas significativos. Por lo tanto, abordar las ilusiones y sesgos de la IA se ha convertido en uno de los principales desafíos en el desarrollo de la IA.
El proyecto Mira nació precisamente para abordar este problema. Intenta reducir los sesgos y alucinaciones de la IA y mejorar su fiabilidad mediante la construcción de una capa de confianza para la IA. El enfoque principal de Mira es utilizar el consenso de múltiples modelos de IA para validar la salida de la IA y verificarla a través de un mecanismo de consenso descentralizado.
En la arquitectura de Mira, el contenido se convierte primero en declaraciones que pueden ser verificadas de manera independiente. Estas declaraciones son verificadas por los operadores de nodos en la red, asegurando la honestidad del proceso de verificación a través de incentivos económicos criptográficos y mecanismos de penalización. Varios modelos de IA y operadores de nodos descentralizados participan conjuntamente para garantizar la fiabilidad de los resultados de verificación.
El proceso de funcionamiento de la red Mira incluye la conversión de contenido, la verificación distribuida y el mecanismo de consenso. El contenido enviado por los clientes se descompone en diferentes declaraciones verificables, las cuales se asignan aleatoriamente a diferentes nodos para su verificación, y finalmente se resumen los resultados para alcanzar un consenso. Para proteger la privacidad del cliente, el contenido se distribuye de manera fragmentada y aleatoria, evitando la filtración de información.
Los operadores de nodos participan en el funcionamiento de la red ejecutando modelos de validación, procesando declaraciones y enviando resultados de validación, y obtienen beneficios de ello. Estos beneficios provienen del valor creado para los clientes, especialmente en la reducción de la tasa de errores de IA. Para evitar que los operadores de nodos actúen de manera especulativa, los nodos que se desvíen continuamente del consenso enfrentarán el riesgo de que se reduzcan sus tokens en staking.
En general, Mira ofrece un nuevo enfoque para lograr la fiabilidad de la IA: construir una red de verificación de consenso descentralizada sobre múltiples modelos de IA, proporcionando servicios de IA más fiables a los clientes, reduciendo el sesgo y las ilusiones de la IA, y satisfaciendo la demanda de alta precisión y exactitud. Esto no solo crea valor para los clientes, sino que también genera beneficios para los participantes de la red, impulsando el desarrollo profundo de las aplicaciones de IA.
Actualmente, los usuarios pueden participar en la red de prueba pública de Mira a través de la aplicación Klok. Klok es una aplicación de chat LLM basada en Mira, donde los usuarios pueden experimentar salidas de IA verificadas y tener la oportunidad de ganar puntos Mira. Aunque aún no se han publicado los usos específicos de estos puntos, sin duda abre un nuevo camino para la exploración de la credibilidad de la IA.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
8 me gusta
Recompensa
8
3
Republicar
Compartir
Comentar
0/400
DataChief
· 08-10 02:28
¿Todavía están diciendo que la IA puede salvarnos?
Ver originalesResponder0
LiquidityWizard
· 08-10 02:28
estadísticamente hablando, hay un 73.4% de probabilidad de que esto sea solo otra capa de BS...
Ver originalesResponder0
AltcoinOracle
· 08-10 02:24
hmm fascinante... mi análisis neural sugiere que mira podría ser el enlace perdido en nuestra matriz de confianza algorítmica tbh
Lanzamiento de la prueba pública de la red Mira: construyendo una capa de confianza en IA, abordando problemas de alucinaciones y sesgos.
Capa de confianza de la IA: El camino innovador de la red Mira
Recientemente, se lanzó una versión beta pública en línea llamada Mira, cuyo objetivo es construir una base confiable para la inteligencia artificial. La aparición de este proyecto ha provocado una profunda reflexión sobre la confiabilidad de la IA: ¿por qué se necesita confiar en la IA? ¿Cómo aborda Mira este problema?
Al discutir la IA, las personas a menudo se centran más en su poderosa capacidad. Sin embargo, el problema de las "ilusiones" o sesgos de la IA a menudo se pasa por alto. Lo que se llama "ilusión" de la IA, en términos simples, es que a veces la IA inventa contenido que parece razonable pero que en realidad no es verdadero. Por ejemplo, cuando se le pregunta por qué la luna es rosa, la IA puede dar una serie de explicaciones aparentemente razonables pero completamente ficticias.
Este fenómeno está estrechamente relacionado con la trayectoria actual de la tecnología de IA. La IA generativa logra coherencia y razonabilidad al predecir el contenido "más probable", pero este método es difícil de validar en cuanto a su veracidad. Además, los propios datos de entrenamiento pueden contener errores, sesgos e incluso contenido ficticio, lo que afecta la calidad de la salida de la IA. En otras palabras, la IA aprende patrones del lenguaje humano, no hechos puros.
El mecanismo de generación de probabilidades actual y el modelo impulsado por datos casi inevitablemente llevan a que la IA produzca "ilusiones". Para el conocimiento general o contenido de entretenimiento, esta situación puede no tener consecuencias graves de inmediato. Pero en campos que requieren una gran precisión, como la medicina, el derecho, la aviación y las finanzas, los errores de la IA pueden provocar problemas significativos. Por lo tanto, abordar las ilusiones y sesgos de la IA se ha convertido en uno de los principales desafíos en el desarrollo de la IA.
El proyecto Mira nació precisamente para abordar este problema. Intenta reducir los sesgos y alucinaciones de la IA y mejorar su fiabilidad mediante la construcción de una capa de confianza para la IA. El enfoque principal de Mira es utilizar el consenso de múltiples modelos de IA para validar la salida de la IA y verificarla a través de un mecanismo de consenso descentralizado.
En la arquitectura de Mira, el contenido se convierte primero en declaraciones que pueden ser verificadas de manera independiente. Estas declaraciones son verificadas por los operadores de nodos en la red, asegurando la honestidad del proceso de verificación a través de incentivos económicos criptográficos y mecanismos de penalización. Varios modelos de IA y operadores de nodos descentralizados participan conjuntamente para garantizar la fiabilidad de los resultados de verificación.
El proceso de funcionamiento de la red Mira incluye la conversión de contenido, la verificación distribuida y el mecanismo de consenso. El contenido enviado por los clientes se descompone en diferentes declaraciones verificables, las cuales se asignan aleatoriamente a diferentes nodos para su verificación, y finalmente se resumen los resultados para alcanzar un consenso. Para proteger la privacidad del cliente, el contenido se distribuye de manera fragmentada y aleatoria, evitando la filtración de información.
Los operadores de nodos participan en el funcionamiento de la red ejecutando modelos de validación, procesando declaraciones y enviando resultados de validación, y obtienen beneficios de ello. Estos beneficios provienen del valor creado para los clientes, especialmente en la reducción de la tasa de errores de IA. Para evitar que los operadores de nodos actúen de manera especulativa, los nodos que se desvíen continuamente del consenso enfrentarán el riesgo de que se reduzcan sus tokens en staking.
En general, Mira ofrece un nuevo enfoque para lograr la fiabilidad de la IA: construir una red de verificación de consenso descentralizada sobre múltiples modelos de IA, proporcionando servicios de IA más fiables a los clientes, reduciendo el sesgo y las ilusiones de la IA, y satisfaciendo la demanda de alta precisión y exactitud. Esto no solo crea valor para los clientes, sino que también genera beneficios para los participantes de la red, impulsando el desarrollo profundo de las aplicaciones de IA.
Actualmente, los usuarios pueden participar en la red de prueba pública de Mira a través de la aplicación Klok. Klok es una aplicación de chat LLM basada en Mira, donde los usuarios pueden experimentar salidas de IA verificadas y tener la oportunidad de ganar puntos Mira. Aunque aún no se han publicado los usos específicos de estos puntos, sin duda abre un nuevo camino para la exploración de la credibilidad de la IA.