OPML: Implementar un mecanismo optimista para lograr un aprendizaje automático eficiente y confiable
Resumen
Este artículo presenta un nuevo método llamado OPML( de aprendizaje automático optimista ), que puede realizar inferencias y entrenamientos de modelos de IA de manera eficiente en sistemas blockchain. En comparación con el aprendizaje automático de conocimiento cero ( ZKML), OPML puede ofrecer servicios de aprendizaje automático a un costo más bajo y con mayor eficiencia. Los requisitos de hardware de OPML son muy bajos, un PC común puede ejecutar modelos de lenguaje grandes como 7B-LLaMA.
OPML utiliza un mecanismo de juego de verificación para garantizar la descentralización y el consenso verificable de los servicios de aprendizaje automático. Todo el proceso incluye: el solicitante inicia la tarea, el servidor completa la tarea y envía los resultados, el validador verifica los resultados, y en caso de controversia, se localizan con precisión los pasos erróneos mediante un protocolo de división, y finalmente es arbitrado por un contrato inteligente.
Juego de verificación de una sola etapa
El núcleo del OPML de una sola etapa es la construcción de una máquina virtual (VM) que ejecuta fuera de la cadena y arbitra en la cadena. Para mejorar la eficiencia de inferencia del modelo de IA, se implementó una biblioteca de redes neuronales profundas ligera y dedicada. Se utilizó tecnología de compilación cruzada para compilar el código de inferencia del modelo de IA en instrucciones de VM, y la imagen de VM se gestiona a través de un árbol de Merkle.
En las pruebas reales, un modelo de clasificación de IA básico tarda 2 segundos en inferencia en la VM, y todo el proceso del desafío se puede completar en un entorno de prueba de Ethereum local en 2 minutos.
Juego de verificación multietapa
Para superar las limitaciones del protocolo de una sola fase, se propuso un juego de verificación de múltiples fases. Este método solo requiere calcular en la VM en la última fase, mientras que las otras fases se pueden ejecutar de manera flexible en un entorno local, aprovechando al máximo las capacidades de aceleración de hardware como CPU, GPU, etc.
Tomando como ejemplo el OPML de dos fases, la segunda fase corresponde a "gran instrucción", mientras que la primera fase es similar a un juego de una sola fase. Se garantiza la integridad y seguridad entre las diferentes fases a través del árbol de Merkle.
En el modelo LLaMA, el proceso de cálculo de la red neuronal profunda se puede representar como un gráfico de cálculo. La segunda fase realiza una verificación de juego en el gráfico de cálculo, aprovechando la aceleración de CPU o GPU multihilo. La primera fase convierte el cálculo de un solo nodo en instrucciones de VM.
Análisis de rendimiento
En comparación con el OPML de una sola etapa, el OPML de dos etapas logra una aceleración de cálculo de α veces, donde α representa la relación de aceleración proporcionada por la GPU o el cálculo paralelo. En cuanto al tamaño del árbol de Merkle, el OPML de dos etapas es O(m+n), mientras que el de una sola etapa es O(mn), donde m y n son el número de instrucciones VM y el número de nodos del gráfico de cálculo, respectivamente.
Garantía de consistencia
Para garantizar la consistencia entre plataformas, OPML ha adoptado dos métodos clave:
Utilizar el algoritmo de punto fijo ( y la tecnología de cuantificación ) para reducir el impacto de los errores de redondeo de punto flotante.
Utilizar bibliotecas de punto flotante basadas en software para garantizar la consistencia entre plataformas
Estos métodos sentaron las bases para lograr resultados confiables de aprendizaje automático dentro del marco de OPML.
OPML vs ZKML
OPML tiene ventajas como una menor complejidad computacional, mayor eficiencia y menores barreras de participación en comparación con ZKML. Actualmente, OPML se centra principalmente en la inferencia del modelo, pero el marco también admite el proceso de entrenamiento, lo que permite su uso en diversas tareas de aprendizaje automático.
El proyecto OPML sigue en desarrollo activo, invitamos a los desarrolladores interesados a participar y contribuir.
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
6 me gusta
Recompensa
6
5
Republicar
Compartir
Comentar
0/400
AllInDaddy
· hace10h
Ver un martillo, hacer Todo dentro y comprar BTC.
Ver originalesResponder0
NeverPresent
· hace10h
¿Esto debe ser un desalojo? ZKML se ríe hasta llorar.
Ver originalesResponder0
ProbablyNothing
· hace10h
¿Quemar directamente el cerebro también ahorra energía?
OPML: Nueva solución de aprendizaje automático optimista en la Cadena de bloques, con una eficiencia muy superior a ZKML
OPML: Implementar un mecanismo optimista para lograr un aprendizaje automático eficiente y confiable
Resumen
Este artículo presenta un nuevo método llamado OPML( de aprendizaje automático optimista ), que puede realizar inferencias y entrenamientos de modelos de IA de manera eficiente en sistemas blockchain. En comparación con el aprendizaje automático de conocimiento cero ( ZKML), OPML puede ofrecer servicios de aprendizaje automático a un costo más bajo y con mayor eficiencia. Los requisitos de hardware de OPML son muy bajos, un PC común puede ejecutar modelos de lenguaje grandes como 7B-LLaMA.
OPML utiliza un mecanismo de juego de verificación para garantizar la descentralización y el consenso verificable de los servicios de aprendizaje automático. Todo el proceso incluye: el solicitante inicia la tarea, el servidor completa la tarea y envía los resultados, el validador verifica los resultados, y en caso de controversia, se localizan con precisión los pasos erróneos mediante un protocolo de división, y finalmente es arbitrado por un contrato inteligente.
Juego de verificación de una sola etapa
El núcleo del OPML de una sola etapa es la construcción de una máquina virtual (VM) que ejecuta fuera de la cadena y arbitra en la cadena. Para mejorar la eficiencia de inferencia del modelo de IA, se implementó una biblioteca de redes neuronales profundas ligera y dedicada. Se utilizó tecnología de compilación cruzada para compilar el código de inferencia del modelo de IA en instrucciones de VM, y la imagen de VM se gestiona a través de un árbol de Merkle.
En las pruebas reales, un modelo de clasificación de IA básico tarda 2 segundos en inferencia en la VM, y todo el proceso del desafío se puede completar en un entorno de prueba de Ethereum local en 2 minutos.
Juego de verificación multietapa
Para superar las limitaciones del protocolo de una sola fase, se propuso un juego de verificación de múltiples fases. Este método solo requiere calcular en la VM en la última fase, mientras que las otras fases se pueden ejecutar de manera flexible en un entorno local, aprovechando al máximo las capacidades de aceleración de hardware como CPU, GPU, etc.
Tomando como ejemplo el OPML de dos fases, la segunda fase corresponde a "gran instrucción", mientras que la primera fase es similar a un juego de una sola fase. Se garantiza la integridad y seguridad entre las diferentes fases a través del árbol de Merkle.
En el modelo LLaMA, el proceso de cálculo de la red neuronal profunda se puede representar como un gráfico de cálculo. La segunda fase realiza una verificación de juego en el gráfico de cálculo, aprovechando la aceleración de CPU o GPU multihilo. La primera fase convierte el cálculo de un solo nodo en instrucciones de VM.
Análisis de rendimiento
En comparación con el OPML de una sola etapa, el OPML de dos etapas logra una aceleración de cálculo de α veces, donde α representa la relación de aceleración proporcionada por la GPU o el cálculo paralelo. En cuanto al tamaño del árbol de Merkle, el OPML de dos etapas es O(m+n), mientras que el de una sola etapa es O(mn), donde m y n son el número de instrucciones VM y el número de nodos del gráfico de cálculo, respectivamente.
Garantía de consistencia
Para garantizar la consistencia entre plataformas, OPML ha adoptado dos métodos clave:
Estos métodos sentaron las bases para lograr resultados confiables de aprendizaje automático dentro del marco de OPML.
OPML vs ZKML
OPML tiene ventajas como una menor complejidad computacional, mayor eficiencia y menores barreras de participación en comparación con ZKML. Actualmente, OPML se centra principalmente en la inferencia del modelo, pero el marco también admite el proceso de entrenamiento, lo que permite su uso en diversas tareas de aprendizaje automático.
El proyecto OPML sigue en desarrollo activo, invitamos a los desarrolladores interesados a participar y contribuir.