OpenLedger crea un ecosistema de IA on-chain: OP Stack + EigenDA construyen un nuevo paradigma de economía de agentes inteligentes.

OpenLedger Profundidad研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济

I. Introducción | La transición de la capa de modelo de Crypto AI

Los datos, los modelos y la potencia computacional son los tres elementos centrales de la infraestructura de IA, análogos al combustible (datos), el motor (modelo) y la energía (potencia computacional), todos son imprescindibles. Al igual que la trayectoria de evolución de la infraestructura en la industria de IA tradicional, el campo de Crypto AI también ha pasado por etapas similares. A principios de 2024, el mercado estuvo dominado por proyectos de GPU descentralizados, que enfatizaban la lógica de crecimiento extensivo de "competir en potencia computacional". Sin embargo, al entrar en 2025, el enfoque de la industria se ha desplazado gradualmente hacia el modelo y la capa de datos, marcando que Crypto AI está pasando de la competencia por recursos básicos a una construcción de nivel medio más sostenible y valiosa en términos de aplicación.

Modelo general (LLM) vs Modelo especializado (SLM)

Los modelos de lenguaje tradicionales de gran tamaño (LLM) dependen en gran medida de conjuntos de datos masivos y arquitecturas distribuidas complejas, con escalas de parámetros que van de 70B a 500B, y el costo por entrenamiento puede alcanzar varios millones de dólares. Por otro lado, el SLM (Modelo de Lenguaje Especializado), como un paradigma de ajuste fino ligero que utiliza modelos base reutilizables, generalmente se basa en modelos de código abierto, combinando una pequeña cantidad de datos profesionales de alta calidad y tecnologías como LoRA para construir rápidamente modelos expertos con conocimientos en áreas específicas, lo que reduce significativamente el costo de entrenamiento y la barrera técnica.

Es importante destacar que SLM no se integrará en los pesos de LLM, sino que colaborará con LLM a través de la llamada arquitectura de Agente, el sistema de plugins de enrutamiento dinámico, la conexión en caliente del módulo LoRA, RAG (generación aumentada por recuperación) y otros métodos. Esta arquitectura mantiene la capacidad de cobertura amplia de LLM, mientras que el módulo de ajuste fino mejora el rendimiento profesional, formando un sistema inteligente altamente flexible y combinado.

El valor y los límites de Crypto AI en la capa del modelo

Los proyectos de Crypto AI son esencialmente difíciles de mejorar directamente las capacidades centrales de los modelos de lenguaje grande (LLM), la razón principal radica en

  • Barrera técnica demasiado alta: La escala de datos, los recursos de computación y la capacidad de ingeniería necesarios para entrenar un Modelo Base son extremadamente grandes, y actualmente solo las grandes empresas tecnológicas en Estados Unidos y China tienen la capacidad correspondiente.
  • Limitaciones del ecosistema de código abierto: aunque los modelos básicos de corriente principal se han abierto, la verdadera clave para impulsar los avances en los modelos sigue concentrándose en instituciones de investigación y sistemas de ingeniería cerrados, y el espacio de participación de los proyectos en cadena en la capa del modelo central es limitado.

Sin embargo, sobre modelos básicos de código abierto, los proyectos de Crypto AI aún pueden lograr una extensión de valor mediante el ajuste fino de modelos de lenguaje especializados (SLM), combinando la verificabilidad y los mecanismos de incentivos de Web3. Como "capa de interfaz periférica" de la cadena de la industria de IA, se refleja en dos direcciones centrales:

  • Capa de verificación confiable: a través del registro en la cadena del camino de generación del modelo, la contribución de datos y el uso, se mejora la trazabilidad y la capacidad de resistencia a la manipulación de la salida de IA.
  • Mecanismo de incentivos: Utilizando el Token nativo, para incentivar la carga de datos, la llamada a modelos, la ejecución de agentes, etc., construyendo un ciclo positivo de entrenamiento y servicio de modelos.

Clasificación de tipos de modelos de IA y análisis de aplicabilidad de blockchain

Como se puede ver, los puntos de viabilidad de los proyectos de Crypto AI de tipo modelo se concentran principalmente en la ligera afinación de SLM pequeños, la incorporación y verificación de datos en cadena de la arquitectura RAG, así como el despliegue local e incentivos de modelos Edge. Combinando la verificabilidad de la blockchain con el mecanismo de tokens, Crypto puede proporcionar un valor único para estos escenarios de modelos de recursos medios y bajos, formando un valor diferencial en la «capa de interfaz» de la IA.

La cadena de bloques AI basada en datos y modelos puede registrar de manera clara e inmutable el origen de las contribuciones de cada dato y modelo, mejorando significativamente la credibilidad de los datos y la trazabilidad del entrenamiento de modelos. Al mismo tiempo, a través del mecanismo de contratos inteligentes, se activa automáticamente la distribución de recompensas cuando se invoca algún dato o modelo, convirtiendo el comportamiento de la IA en un valor tokenizado medible y comerciable, construyendo así un sistema de incentivos sostenible. Además, los usuarios de la comunidad también pueden evaluar el rendimiento del modelo mediante votación con tokens, participar en la formulación e iteración de reglas, y perfeccionar la arquitectura de gobernanza descentralizada.

OpenLedger Profundidad研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济

II. Resumen del proyecto | La visión de la cadena de OpenLedger basada en IA

OpenLedger es uno de los pocos proyectos de blockchain AI en el mercado que se centra en los mecanismos de incentivos de datos y modelos. Fue el primero en proponer el concepto de "Payable AI", con el objetivo de construir un entorno de operación de AI justo, transparente y componible, incentivando a los contribuyentes de datos, desarrolladores de modelos y constructores de aplicaciones AI a colaborar en la misma plataforma y obtener ingresos en cadena según su contribución real.

OpenLedger ofrece un ciclo cerrado completo que va desde "provisión de datos" hasta "despliegue de modelos" y luego "llamadas de reparto de beneficios", cuyos módulos centrales incluyen:

  • Fábrica de Modelos: sin necesidad de programación, se puede usar LoRA para ajustar, entrenar y desplegar modelos personalizados basados en LLM de código abierto.
  • OpenLoRA: Soporta la coexistencia de miles de modelos, carga dinámica bajo demanda, reduciendo significativamente los costos de implementación;
  • PoA (Prueba de Atribución): mediante registros de llamadas en la cadena se logra la medición de contribuciones y la distribución de recompensas;
  • Datanets: red de datos estructurados orientada a escenarios verticales, construida y verificada por la colaboración de la comunidad;
  • Plataforma de Propuestas de Modelos (Model Proposal Platform): un mercado de modelos en cadena que es combinable, llamable y pagable.

A través de los módulos anteriores, OpenLedger ha construido una "infraestructura económica de agentes inteligentes" impulsada por datos y modelos combinables, promoviendo la cadena de valor de la IA en la cadena.

Y en la adopción de la tecnología blockchain, OpenLedger utiliza OP Stack + EigenDA como base para construir un entorno de ejecución de datos y contratos de alto rendimiento, bajo costo y verificable para modelos de IA.

  • Construido sobre OP Stack: basado en la pila tecnológica de Optimism, soporta una alta profundidad y ejecución de bajo costo;
  • Liquidación en la red principal de Ethereum: Asegurar la seguridad de las transacciones y la integridad de los activos;
  • Compatible con EVM: facilita a los desarrolladores desplegar y expandir rápidamente basándose en Solidity;
  • EigenDA proporciona soporte de disponibilidad de datos: reduce significativamente los costos de almacenamiento y garantiza la verificabilidad de los datos.

En comparación con cadenas de IA más generales como NEAR, que están más orientadas a la capa base y se centran en la soberanía de los datos y en la arquitectura de "AI Agents on BOS", OpenLedger se enfoca más en construir una cadena de IA dedicada a la incentivación de datos y modelos, con el objetivo de permitir que el desarrollo y la invocación de modelos se realicen en la cadena de manera trazable, combinable y sostenible. Es la infraestructura de incentivación de modelos en el mundo Web3, combinando el hospedaje de modelos al estilo de HuggingFace, la facturación de uso al estilo de Stripe y las interfaces combinables en la cadena al estilo de Infura, impulsando el camino hacia la realización de "los modelos como activos".

OpenLedger Profundidad研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济

Tres, los componentes centrales y la arquitectura técnica de OpenLedger

3.1 Modelo de Fábrica, modelo de fábrica sin código

ModelFactory es una plataforma de ajuste fino de un gran modelo de lenguaje (LLM) bajo el ecosistema de OpenLedger. A diferencia de los marcos de ajuste fino tradicionales, ModelFactory ofrece una interfaz gráfica puramente operativa, sin necesidad de herramientas de línea de comandos o integración de API. Los usuarios pueden ajustar el modelo basado en los conjuntos de datos autorizados y revisados completados en OpenLedger. Se ha logrado un flujo de trabajo integrado de autorización de datos, entrenamiento de modelos y despliegue, cuyo proceso central incluye:

  • Control de acceso a datos: el usuario envía una solicitud de datos, el proveedor revisa y aprueba, los datos se integran automáticamente en la interfaz de entrenamiento del modelo.
  • Selección y configuración del modelo: Soporta LLM principales, configurando los hiperparámetros a través de la GUI.
  • Ajuste ligero: motor LoRA / QLoRA integrado, muestra el progreso de entrenamiento en tiempo real.
  • Evaluación y despliegue de modelos: Herramientas de evaluación integradas, que permiten exportar el despliegue o compartir llamadas en el ecosistema.
  • Interfaz de verificación interactiva: Proporciona una interfaz de chat, lo que facilita la prueba directa de la capacidad de respuesta del modelo.
  • Generación de RAG para trazabilidad: Responder con citas de origen, aumentando la confianza y la auditabilidad.

La arquitectura del sistema Model Factory incluye seis módulos, abarcando la autenticación de identidad, permisos de datos, ajuste fino de modelos, evaluación, implementación y trazabilidad RAG, creando una plataforma de servicios de modelos integrada, segura, controlable, con interacción en tiempo real y monetización sostenible.

OpenLedger Profundidad研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济

El siguiente es un resumen de las capacidades de los grandes modelos de lenguaje que ModelFactory admite actualmente:

  • LLaMA serie: el ecosistema más amplio, comunidad activa, gran rendimiento general, es uno de los modelos base de código abierto más populares en la actualidad.
  • Mistral: Arquitectura eficiente, rendimiento de inferencia excelente, adecuado para escenarios de implementación flexible y recursos limitados.
  • Qwen: Capacidad integral fuerte, adecuada como primera opción para desarrolladores nacionales.
  • ChatGLM: el efecto de conversación en chino es destacado, adecuado para atención al cliente en nichos y escenarios de localización.
  • Deepseek: Destaca en la generación de código y el razonamiento matemático, adecuado para herramientas de asistencia en el desarrollo inteligente.
  • Gemma: un modelo ligero lanzado por Google, con una estructura clara, fácil de aprender y experimentar rápidamente.
  • Falcon: Solía ser un referente de rendimiento, adecuado para investigaciones básicas o pruebas comparativas, pero la actividad de la comunidad ha disminuido.
  • BLOOM: Soporte multilingüe fuerte, pero el rendimiento de inferencia es débil, adecuado para investigaciones de cobertura lingüística.
  • GPT-2: modelo clásico temprano, adecuado solo para fines de enseñanza y verificación, no se recomienda su uso en implementación real.

Aunque la combinación de modelos de OpenLedger no incluye los últimos modelos MoE de alto rendimiento ni modelos multimodales, su estrategia no está desactualizada, sino que se basa en la configuración "prioridad práctica" realizada de acuerdo con las restricciones de implementación en la cadena (costos de inferencia, adaptación RAG, compatibilidad LoRA, entorno EVM).

Model Factory como una cadena de herramientas sin código, todos los modelos incorporan un mecanismo de prueba de contribución, asegurando los derechos de los contribuyentes de datos y de los desarrolladores de modelos, con ventajas de bajo umbral, posibilidad de monetización y combinabilidad, en comparación con las herramientas de desarrollo de modelos tradicionales:

  • Para desarrolladores: proporcionar una ruta completa para la incubación, distribución e ingresos del modelo;
  • Para la plataforma: formar la circulación de activos modelo y el ecosistema combinado;
  • Para los usuarios: se pueden combinar modelos o Agentes como si se estuviera llamando a una API.

OpenLedger Profundidad研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济

3.2 OpenLoRA, la tokenización de activos en cadena del modelo de ajuste fino

LoRA (Low-Rank Adaptation) es un método eficiente de ajuste fino de parámetros que aprende nuevas tareas al insertar "matrices de bajo rango" en modelos grandes preentrenados, sin modificar los parámetros del modelo original, lo que reduce significativamente los costos de entrenamiento y los requisitos de almacenamiento. Los modelos de lenguaje grandes tradicionales suelen tener decenas de miles de millones o incluso cientos de miles de millones de parámetros. Para utilizarlos en tareas específicas, se requiere un ajuste fino. La estrategia central de LoRA es: "congelar los parámetros del modelo grande original y solo entrenar las nuevas matrices de parámetros insertadas." Su eficiencia de parámetros, rápida capacitación y flexibilidad de implementación lo convierten en el método de ajuste fino más adecuado para el despliegue y la llamada combinada de modelos Web3.

OpenLoRA es un marco de inferencia ligero construido por OpenLedger, diseñado específicamente para el despliegue de múltiples modelos y el intercambio de recursos. Su objetivo central es resolver los problemas comunes en el despliegue de modelos de IA actuales, como los altos costos, la baja reutilización y el desperdicio de recursos de GPU, promoviendo la ejecución de la "IA pagable" (Payable AI).

OpenLoRA arquitectura del sistema componentes centrales, basado en un diseño modular, cubre el almacenamiento de modelos, ejecución de inferencias, enrutamiento de solicitudes y otros aspectos clave, logrando una capacidad de implementación y llamada de múltiples modelos de manera eficiente y de bajo costo:

  • Módulo de almacenamiento de LoRA Adapter: el LoRA adapter ajustado se aloja en OpenLedger, permitiendo la carga bajo demanda, evitando cargar todos los modelos en la memoria de video, ahorrando recursos.
  • Alojamiento de modelos y capa de fusión dinámica: todos los modelos ajustados comparten un modelo base grande, en la inferencia, el adaptador LoRA se combina dinámicamente, soportando la inferencia conjunta de múltiples adaptadores (ensemble), mejorando el rendimiento.
  • Motor de inferencia: integración de Flash-Attention, Paged-Attention, optimizaciones SGMV y otras múltiples CUDA.
Ver originales
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
  • Recompensa
  • 8
  • Compartir
Comentar
0/400
OneCoinForTheWorldvip
· hace7h
¡Introduce una posición!🚗
Ver originalesResponder0
OneCoinForTheWorldvip
· hace7h
Firme HODL💎
Ver originalesResponder0
OneCoinForTheWorldvip
· hace7h
¡Introduce una posición!🚗
Ver originalesResponder0
SignatureDeniedvip
· hace7h
Otra vez hablando de web3 y jugando con ai
Ver originalesResponder0
LidoStakeAddictvip
· hace7h
Juega, voy a hacer tres pedidos primero.
Ver originalesResponder0
CrashHotlinevip
· hace7h
¿Te atreves a aprovechar una oportunidad para enriquecer rápidamente?
Ver originalesResponder0
ChainBrainvip
· hace7h
Esto es demasiado competitivo, ¿no?
Ver originalesResponder0
ser_ngmivip
· hace7h
¿Cuántos proyectos han muerto en el camino?
Ver originalesResponder0
  • Anclado
Opere con criptomonedas en cualquier momento y lugar
qrCode
Escanee para descargar la aplicación Gate
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)