L'évolution et la sécurité de l'IA : des percées de Manus à l'application de la FHE
Le domaine de l'intelligence artificielle a récemment connu une percée majeure. Un système d'IA nommé Manus a obtenu des résultats de pointe dans le test de référence GAIA, surpassant les modèles de langage de grande taille de même niveau. Manus a montré des capacités remarquables, étant capable de gérer de manière autonome des tâches complexes, telles que les négociations commerciales internationales, ce qui implique l'analyse des clauses contractuelles, l'élaboration de stratégies et la génération de propositions.
Les avantages de Manus se manifestent principalement dans trois domaines : la décomposition dynamique des objectifs, le raisonnement multimodal et l'apprentissage renforcé de la mémoire. Il peut décomposer des tâches complexes en centaines de sous-tâches exécutables, tout en traitant divers types de données, et en améliorant continuellement son efficacité décisionnelle et en réduisant son taux d'erreur grâce à l'apprentissage par renforcement.
Cependant, l'émergence de Manus a également suscité des discussions au sein de l'industrie sur les voies de développement de l'IA : doit-on s'orienter vers un système unique d'intelligence artificielle générale (AGI) ou vers un modèle de collaboration de systèmes multi-agents (MAS) ? Cette question reflète en réalité le problème de l'équilibre entre l'efficacité et la sécurité dans le développement de l'IA. À mesure que les systèmes d'IA individuels se rapprochent de l'AGI, leur processus de décision devient de plus en plus opaque ; tandis que les systèmes multi-agents peuvent répartir les risques, ils peuvent également manquer des moments critiques de décision en raison de retards de communication.
Les progrès de Manus amplifient également les risques inhérents au développement de l'IA. Par exemple, dans le domaine médical, les systèmes d'IA doivent accéder aux données sensibles des patients ; dans les négociations financières, des informations financières d'entreprise non divulguées peuvent être impliquées. De plus, les systèmes d'IA peuvent présenter des biais algorithmiques, comme la discrimination à l'égard de certains groupes lors du processus de recrutement. Il est également possible de faire face à des attaques adversariales, les hackers pouvant perturber le jugement des systèmes d'IA par des moyens spécifiques.
Ces défis soulignent une question clé : plus un système d'IA est intelligent, plus sa surface d'attaque potentielle est large.
Pour faire face à ces défis en matière de sécurité, plusieurs solutions ont été proposées dans le domaine des technologies cryptographiques :
Modèle de sécurité Zero Trust : Ce modèle est basé sur le principe "Ne jamais faire confiance, toujours vérifier" et effectue une authentification et une autorisation strictes pour chaque demande d'accès.
Identité décentralisée (DID) : Il s'agit d'une norme d'identification qui ne nécessite pas d'enregistrement centralisé, offrant un soutien important à l'écosystème Web3.
Chiffrement totalement homomorphe (FHE) : Il s'agit d'une technologie de cryptage avancée qui permet de calculer des données en état chiffré, réalisant ainsi le traitement des données tout en protégeant la vie privée.
Parmi eux, le cryptage homomorphe complet est considéré comme une technologie clé pour résoudre les problèmes de sécurité à l'ère de l'IA. Il peut jouer un rôle dans plusieurs domaines :
Niveau des données : Toutes les informations saisies par l'utilisateur (y compris les caractéristiques biométriques, la voix, etc.) sont traitées en état chiffré, même le système d'IA lui-même ne peut pas déchiffrer les données brutes.
Niveau algorithmique : réaliser "l'entraînement de modèles cryptés" via FHE, de sorte que même les développeurs ne puissent pas comprendre directement le processus de décision de l'IA.
Niveau de collaboration : dans un système multi-agents, la communication est effectuée par cryptage par seuil, de sorte qu'une seule attaque sur un nœud ne conduira pas à une fuite de données globales.
Bien que les technologies de sécurité Web3 n'aient pas de lien direct avec les utilisateurs ordinaires, elles ont un impact indirect sur tout le monde. Dans ce monde numérique plein de défis, le renforcement constant des mesures de sécurité est un moyen nécessaire de protéger ses propres intérêts.
Avec l'évolution continue de la technologie AI vers l'intelligence humaine, les systèmes de défense non traditionnels deviennent de plus en plus importants. Le chiffrement entièrement homomorphe peut non seulement résoudre les problèmes de sécurité actuels, mais aussi préparer un avenir pour une ère AI plus puissante. Sur le chemin vers l'AGI, le FHE n'est plus une option, mais une nécessité pour garantir le développement sécurisé de l'AI.
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
15 J'aime
Récompense
15
3
Partager
Commentaire
0/400
VitaliksTwin
· Il y a 8h
Finalement, nous serons remplacés par l'IA le matin et le soir~
Voir l'originalRépondre0
GasGuzzler
· Il y a 8h
Qu'est-ce qu'il y a à dire sur l'IA ? Elle peut tout faire, tôt ou tard, elle nous aura.
Voir l'originalRépondre0
MidnightGenesis
· Il y a 8h
Après le déploiement tardif, j'ai suivi les données Manus, un intéressant bug va bientôt être rendu public... J'attends cela avec prudence.
Percées de l'IA et sécurité : l'essor du système Manus, avec la technologie FHE en soutien.
L'évolution et la sécurité de l'IA : des percées de Manus à l'application de la FHE
Le domaine de l'intelligence artificielle a récemment connu une percée majeure. Un système d'IA nommé Manus a obtenu des résultats de pointe dans le test de référence GAIA, surpassant les modèles de langage de grande taille de même niveau. Manus a montré des capacités remarquables, étant capable de gérer de manière autonome des tâches complexes, telles que les négociations commerciales internationales, ce qui implique l'analyse des clauses contractuelles, l'élaboration de stratégies et la génération de propositions.
Les avantages de Manus se manifestent principalement dans trois domaines : la décomposition dynamique des objectifs, le raisonnement multimodal et l'apprentissage renforcé de la mémoire. Il peut décomposer des tâches complexes en centaines de sous-tâches exécutables, tout en traitant divers types de données, et en améliorant continuellement son efficacité décisionnelle et en réduisant son taux d'erreur grâce à l'apprentissage par renforcement.
Cependant, l'émergence de Manus a également suscité des discussions au sein de l'industrie sur les voies de développement de l'IA : doit-on s'orienter vers un système unique d'intelligence artificielle générale (AGI) ou vers un modèle de collaboration de systèmes multi-agents (MAS) ? Cette question reflète en réalité le problème de l'équilibre entre l'efficacité et la sécurité dans le développement de l'IA. À mesure que les systèmes d'IA individuels se rapprochent de l'AGI, leur processus de décision devient de plus en plus opaque ; tandis que les systèmes multi-agents peuvent répartir les risques, ils peuvent également manquer des moments critiques de décision en raison de retards de communication.
Les progrès de Manus amplifient également les risques inhérents au développement de l'IA. Par exemple, dans le domaine médical, les systèmes d'IA doivent accéder aux données sensibles des patients ; dans les négociations financières, des informations financières d'entreprise non divulguées peuvent être impliquées. De plus, les systèmes d'IA peuvent présenter des biais algorithmiques, comme la discrimination à l'égard de certains groupes lors du processus de recrutement. Il est également possible de faire face à des attaques adversariales, les hackers pouvant perturber le jugement des systèmes d'IA par des moyens spécifiques.
Ces défis soulignent une question clé : plus un système d'IA est intelligent, plus sa surface d'attaque potentielle est large.
Pour faire face à ces défis en matière de sécurité, plusieurs solutions ont été proposées dans le domaine des technologies cryptographiques :
Modèle de sécurité Zero Trust : Ce modèle est basé sur le principe "Ne jamais faire confiance, toujours vérifier" et effectue une authentification et une autorisation strictes pour chaque demande d'accès.
Identité décentralisée (DID) : Il s'agit d'une norme d'identification qui ne nécessite pas d'enregistrement centralisé, offrant un soutien important à l'écosystème Web3.
Chiffrement totalement homomorphe (FHE) : Il s'agit d'une technologie de cryptage avancée qui permet de calculer des données en état chiffré, réalisant ainsi le traitement des données tout en protégeant la vie privée.
Parmi eux, le cryptage homomorphe complet est considéré comme une technologie clé pour résoudre les problèmes de sécurité à l'ère de l'IA. Il peut jouer un rôle dans plusieurs domaines :
Niveau des données : Toutes les informations saisies par l'utilisateur (y compris les caractéristiques biométriques, la voix, etc.) sont traitées en état chiffré, même le système d'IA lui-même ne peut pas déchiffrer les données brutes.
Niveau algorithmique : réaliser "l'entraînement de modèles cryptés" via FHE, de sorte que même les développeurs ne puissent pas comprendre directement le processus de décision de l'IA.
Niveau de collaboration : dans un système multi-agents, la communication est effectuée par cryptage par seuil, de sorte qu'une seule attaque sur un nœud ne conduira pas à une fuite de données globales.
Bien que les technologies de sécurité Web3 n'aient pas de lien direct avec les utilisateurs ordinaires, elles ont un impact indirect sur tout le monde. Dans ce monde numérique plein de défis, le renforcement constant des mesures de sécurité est un moyen nécessaire de protéger ses propres intérêts.
Avec l'évolution continue de la technologie AI vers l'intelligence humaine, les systèmes de défense non traditionnels deviennent de plus en plus importants. Le chiffrement entièrement homomorphe peut non seulement résoudre les problèmes de sécurité actuels, mais aussi préparer un avenir pour une ère AI plus puissante. Sur le chemin vers l'AGI, le FHE n'est plus une option, mais une nécessité pour garantir le développement sécurisé de l'AI.