La couche de confiance de l'IA : Le chemin d'innovation du réseau Mira
Récemment, une version bêta publique en ligne appelée Mira a été lancée, dont l'objectif est de construire une base fiable pour l'intelligence artificielle. L'apparition de ce projet a suscité une réflexion approfondie sur la fiabilité de l'IA : pourquoi l'IA doit-elle être digne de confiance ? Comment Mira résout-elle ce problème ?
Lorsqu'on parle d'IA, les gens se concentrent souvent sur ses capacités impressionnantes. Cependant, les problèmes d'"illusions" ou de biais de l'IA sont souvent négligés. Les "illusions" de l'IA, en termes simples, signifient que l'IA peut parfois inventer des contenus qui semblent raisonnables mais qui ne sont en réalité pas vrais. Par exemple, lorsqu'on lui demande pourquoi la lune est rose, l'IA peut donner une série d'explications apparemment raisonnables mais totalement fictives.
Ce phénomène est étroitement lié aux chemins technologiques actuels de l'IA. L'IA générative réalise la cohérence et la rationalité en prédisant le contenu le "plus probable", mais cette méthode est difficile à vérifier en termes de vérité. De plus, les données d'entraînement elles-mêmes peuvent contenir des erreurs, des biais, voire du contenu fictif, ce qui peut affecter la qualité de la sortie de l'IA. En d'autres termes, l'IA apprend des modèles linguistiques humains, et non des faits purs.
Le mécanisme de génération de probabilités actuel et le modèle basé sur les données conduisent presque inévitablement à des "hallucinations" de l'IA. Pour des connaissances générales ou du contenu de divertissement, cela peut ne pas avoir de graves conséquences à court terme. Cependant, dans des domaines exigeant une grande rigueur tels que la santé, le droit, l'aviation et la finance, les erreurs de l'IA peuvent provoquer des problèmes majeurs. Par conséquent, résoudre les hallucinations et les préjugés de l'IA est devenu l'un des défis centraux du développement de l'IA.
Le projet Mira a été créé pour résoudre ce problème. Il tente de réduire les biais et les illusions de l'IA en construisant une couche de confiance pour l'IA, améliorant ainsi sa fiabilité. La méthode principale de Mira consiste à utiliser le consensus de plusieurs modèles d'IA pour valider les sorties de l'IA, et à effectuer cette validation par le biais d'un mécanisme de consensus décentralisé.
Dans l'architecture de Mira, le contenu est d'abord transformé en déclarations vérifiables de manière indépendante. Ces déclarations sont vérifiées par les opérateurs de nœuds du réseau, qui assurent l'intégrité du processus de validation grâce à des incitations économiques cryptographiques et des mécanismes de pénalité. Plusieurs modèles d'IA et des opérateurs de nœuds décentralisés participent ensemble pour garantir la fiabilité des résultats de validation.
Le processus de fonctionnement du réseau Mira comprend la conversion de contenu, la validation distribuée et le mécanisme de consensus. Le contenu soumis par les clients est décomposé en différentes déclarations vérifiables, qui sont réparties de manière aléatoire entre différents nœuds pour validation, et les résultats sont finalement regroupés pour parvenir à un consensus. Pour protéger la confidentialité des clients, le contenu est distribué sous forme de fragments aléatoires afin d'éviter les fuites d'informations.
Les opérateurs de nœuds participent au fonctionnement du réseau en exécutant des modèles de validation, en traitant des déclarations et en soumettant des résultats de validation, et en tirent des bénéfices. Ces bénéfices proviennent de la valeur créée pour les clients, en particulier en ce qui concerne la réduction du taux d'erreur de l'IA. Pour prévenir toute tentative de manipulation des opérateurs de nœuds, ceux qui s'écartent continuellement du consensus risquent de voir leur token de mise réduit.
Dans l'ensemble, Mira propose une nouvelle approche pour assurer la fiabilité de l'IA : construire un réseau de validation de consensus décentralisé basé sur plusieurs modèles d'IA, offrant aux clients des services d'IA plus fiables, réduisant les biais et les illusions de l'IA, et répondant aux exigences de haute précision et de taux de précision. Cela crée non seulement de la valeur pour les clients, mais apporte également des bénéfices aux participants du réseau, favorisant le développement approfondi des applications d'IA.
Actuellement, les utilisateurs peuvent participer au test public de Mira via l'application Klok. Klok est une application de chat LLM basée sur Mira, permettant aux utilisateurs de vivre des sorties d'IA vérifiées et d'avoir l'opportunité de gagner des points Mira. Bien que l'utilisation spécifique de ces points n'ait pas encore été annoncée, cela ouvre sans aucun doute une nouvelle voie pour l'exploration de la crédibilité de l'IA.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
8 J'aime
Récompense
8
3
Reposter
Partager
Commentaire
0/400
DataChief
· 08-10 02:28
Encore en train de dire que l'IA peut sauver le monde?
Voir l'originalRépondre0
LiquidityWizard
· 08-10 02:28
statistiquement parlant, 73,4 % de chances que ce ne soit qu'une autre couche de BS...
Voir l'originalRépondre0
AltcoinOracle
· 08-10 02:24
hum fascinant... mon analyse neurale suggère que mira pourrait être le lien manquant dans notre matrice de confiance algorithmique à vrai dire
Lancement de la version bêta du réseau Mira : construire une couche de confiance en IA, résoudre les problèmes d'illusions et de biais.
La couche de confiance de l'IA : Le chemin d'innovation du réseau Mira
Récemment, une version bêta publique en ligne appelée Mira a été lancée, dont l'objectif est de construire une base fiable pour l'intelligence artificielle. L'apparition de ce projet a suscité une réflexion approfondie sur la fiabilité de l'IA : pourquoi l'IA doit-elle être digne de confiance ? Comment Mira résout-elle ce problème ?
Lorsqu'on parle d'IA, les gens se concentrent souvent sur ses capacités impressionnantes. Cependant, les problèmes d'"illusions" ou de biais de l'IA sont souvent négligés. Les "illusions" de l'IA, en termes simples, signifient que l'IA peut parfois inventer des contenus qui semblent raisonnables mais qui ne sont en réalité pas vrais. Par exemple, lorsqu'on lui demande pourquoi la lune est rose, l'IA peut donner une série d'explications apparemment raisonnables mais totalement fictives.
Ce phénomène est étroitement lié aux chemins technologiques actuels de l'IA. L'IA générative réalise la cohérence et la rationalité en prédisant le contenu le "plus probable", mais cette méthode est difficile à vérifier en termes de vérité. De plus, les données d'entraînement elles-mêmes peuvent contenir des erreurs, des biais, voire du contenu fictif, ce qui peut affecter la qualité de la sortie de l'IA. En d'autres termes, l'IA apprend des modèles linguistiques humains, et non des faits purs.
Le mécanisme de génération de probabilités actuel et le modèle basé sur les données conduisent presque inévitablement à des "hallucinations" de l'IA. Pour des connaissances générales ou du contenu de divertissement, cela peut ne pas avoir de graves conséquences à court terme. Cependant, dans des domaines exigeant une grande rigueur tels que la santé, le droit, l'aviation et la finance, les erreurs de l'IA peuvent provoquer des problèmes majeurs. Par conséquent, résoudre les hallucinations et les préjugés de l'IA est devenu l'un des défis centraux du développement de l'IA.
Le projet Mira a été créé pour résoudre ce problème. Il tente de réduire les biais et les illusions de l'IA en construisant une couche de confiance pour l'IA, améliorant ainsi sa fiabilité. La méthode principale de Mira consiste à utiliser le consensus de plusieurs modèles d'IA pour valider les sorties de l'IA, et à effectuer cette validation par le biais d'un mécanisme de consensus décentralisé.
Dans l'architecture de Mira, le contenu est d'abord transformé en déclarations vérifiables de manière indépendante. Ces déclarations sont vérifiées par les opérateurs de nœuds du réseau, qui assurent l'intégrité du processus de validation grâce à des incitations économiques cryptographiques et des mécanismes de pénalité. Plusieurs modèles d'IA et des opérateurs de nœuds décentralisés participent ensemble pour garantir la fiabilité des résultats de validation.
Le processus de fonctionnement du réseau Mira comprend la conversion de contenu, la validation distribuée et le mécanisme de consensus. Le contenu soumis par les clients est décomposé en différentes déclarations vérifiables, qui sont réparties de manière aléatoire entre différents nœuds pour validation, et les résultats sont finalement regroupés pour parvenir à un consensus. Pour protéger la confidentialité des clients, le contenu est distribué sous forme de fragments aléatoires afin d'éviter les fuites d'informations.
Les opérateurs de nœuds participent au fonctionnement du réseau en exécutant des modèles de validation, en traitant des déclarations et en soumettant des résultats de validation, et en tirent des bénéfices. Ces bénéfices proviennent de la valeur créée pour les clients, en particulier en ce qui concerne la réduction du taux d'erreur de l'IA. Pour prévenir toute tentative de manipulation des opérateurs de nœuds, ceux qui s'écartent continuellement du consensus risquent de voir leur token de mise réduit.
Dans l'ensemble, Mira propose une nouvelle approche pour assurer la fiabilité de l'IA : construire un réseau de validation de consensus décentralisé basé sur plusieurs modèles d'IA, offrant aux clients des services d'IA plus fiables, réduisant les biais et les illusions de l'IA, et répondant aux exigences de haute précision et de taux de précision. Cela crée non seulement de la valeur pour les clients, mais apporte également des bénéfices aux participants du réseau, favorisant le développement approfondi des applications d'IA.
Actuellement, les utilisateurs peuvent participer au test public de Mira via l'application Klok. Klok est une application de chat LLM basée sur Mira, permettant aux utilisateurs de vivre des sorties d'IA vérifiées et d'avoir l'opportunité de gagner des points Mira. Bien que l'utilisation spécifique de ces points n'ait pas encore été annoncée, cela ouvre sans aucun doute une nouvelle voie pour l'exploration de la crédibilité de l'IA.