Ruptura y seguridad de la IA: el surgimiento del sistema Manus y la protección de la tecnología FHE

La evolución y seguridad de la IA: desde los avances de Manus hasta la aplicación de FHE

Recientemente, el campo de la inteligencia artificial ha experimentado un gran avance. Un sistema de IA llamado Manus ha logrado resultados de vanguardia en la prueba de referencia GAIA, superando el rendimiento de modelos de lenguaje grandes de nivel similar. Manus ha mostrado capacidades notables, pudiendo manejar de manera independiente tareas complejas, como negociaciones comerciales multinacionales, que implican el análisis de los términos del contrato, la formulación de estrategias y la generación de propuestas, entre otros aspectos.

Las ventajas de Manus se manifiestan principalmente en tres aspectos: descomposición dinámica de objetivos, inferencia multimodal y aprendizaje mejorado por memoria. Puede descomponer tareas complejas en cientos de subtareas ejecutables, procesar múltiples tipos de datos y mejorar continuamente su eficiencia de decisión y reducir la tasa de errores a través del aprendizaje por refuerzo.

Sin embargo, la aparición de Manus también ha suscitado un debate en la industria sobre el camino de desarrollo de la IA: ¿debe dirigirse hacia un sistema único de inteligencia artificial general (AGI) o hacia un modelo de cooperación de sistemas multiagente (MAS)? Detrás de esta pregunta, en realidad, se refleja el problema del equilibrio entre eficiencia y seguridad en el desarrollo de la IA. A medida que los sistemas de IA individuales se acercan cada vez más a la AGI, la falta de transparencia en sus procesos de toma de decisiones también aumenta; mientras que los sistemas multiagente, aunque pueden diversificar el riesgo, pueden perder oportunidades clave de decisión debido a la latencia en la comunicación.

Manus trae la primera luz del amanecer de AGI, la seguridad de la IA también merece reflexión

El progreso de Manus también ha ampliado los riesgos inherentes al desarrollo de la IA. Por ejemplo, en el ámbito médico, los sistemas de IA necesitan acceder a datos sensibles de los pacientes; en las negociaciones financieras, pueden involucrar información financiera empresarial no revelada. Además, los sistemas de IA pueden tener sesgos algorítmicos, como la discriminación hacia ciertos grupos durante el proceso de contratación. También pueden enfrentarse a ataques adversarios, ya que los hackers pueden interferir con el juicio de los sistemas de IA mediante ciertos métodos.

Estos desafíos destacan un problema clave: cuanto más inteligentes son los sistemas de IA, mayor es su posible superficie de ataque.

Para hacer frente a estos desafíos de seguridad, se han propuesto varias soluciones en el campo de la tecnología criptográfica:

  1. Modelo de seguridad de cero confianza: Este modelo se basa en el principio de "nunca confiar, siempre verificar", realizando una verificación e autorización estrictas de cada solicitud de acceso.

  2. Identidad descentralizada (DID): Este es un estándar de identificación que no requiere un registro centralizado, proporcionando un apoyo importante al ecosistema Web3.

  3. Criptografía homomórfica total (FHE): Esta es una tecnología de cifrado avanzada que permite realizar cálculos sobre datos en estado cifrado, logrando el procesamiento de datos mientras se protege la privacidad.

Entre ellos, la criptografía homomórfica se considera una tecnología clave para abordar los problemas de seguridad en la era de la IA. Puede desempeñar un papel en los siguientes aspectos:

  • A nivel de datos: toda la información ingresada por el usuario (incluyendo características biométricas, voz, etc.) se procesa en estado cifrado, incluso el propio sistema de IA no puede descifrar los datos originales.

  • A nivel algorítmico: implementar "entrenamiento de modelos cifrados" a través de FHE, de modo que incluso los desarrolladores no puedan entender directamente el proceso de decisión de la IA.

  • Nivel de colaboración: En sistemas multiagente, se utiliza encriptación por umbral para la comunicación, de modo que incluso si un nodo individual es comprometido, no se producirá una filtración de datos global.

A pesar de que la tecnología de seguridad Web3 puede no tener una relación directa con el usuario común, tiene un impacto indirecto en todos. En este desafiante mundo digital, reforzar constantemente las medidas de seguridad es una forma necesaria de proteger los propios intereses.

A medida que la tecnología de IA se acerca cada vez más a la inteligencia humana, los sistemas de defensa no tradicionales se vuelven cada vez más importantes. La criptografía homomórfica completa no solo puede resolver los problemas de seguridad actuales, sino que también se está preparando para una futura era de IA más poderosa. En el camino hacia la AGI, la FHE ya no es una opción, sino una necesidad para garantizar el desarrollo seguro de la IA.

Ver originales
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
  • Recompensa
  • 3
  • Compartir
Comentar
0/400
VitaliksTwinvip
· hace5h
Al final seremos reemplazados por la IA~
Ver originalesResponder0
GasGuzzlervip
· hace5h
¿Qué hay que decir sobre la IA? Puede hacer de todo, tarde o temprano nos atrapará.
Ver originalesResponder0
MidnightGenesisvip
· hace5h
Después de implementar el seguimiento de los datos de Manus a altas horas de la noche, se publicará un interesante exploit... Se espera con precaución.
Ver originalesResponder0
  • Anclado
Opere con criptomonedas en cualquier momento y lugar
qrCode
Escanee para descargar la aplicación Gate
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)