OPML: Implementar um mecanismo otimista para uma aprendizagem automática eficiente e confiável
Resumo
Este artigo apresenta um novo método chamado OPML( aprendizagem de máquina otimista ), que pode realizar inferência e treinamento de modelos de IA de forma eficiente em sistemas de blockchain. Comparado com aprendizagem de máquina de conhecimento zero ( ZKML), o OPML pode oferecer serviços de aprendizagem de máquina a um custo mais baixo e com maior eficiência. Os requisitos de hardware do OPML são muito baixos, um PC comum pode executar grandes modelos de linguagem como 7B-LLaMA.
OPML utiliza um mecanismo de validação de jogos para garantir a descentralização e o consenso verificável dos serviços de aprendizado de máquina. Todo o processo inclui: o solicitante inicia a tarefa, o servidor completa a tarefa e submete os resultados, o validador verifica os resultados, e em caso de controvérsia, localiza com precisão os passos errados através de um protocolo de divisão, sendo finalmente arbitrado por contrato inteligente.
Jogo de Verificação de Uma Fase
O núcleo do OPML de fase única é a construção de uma máquina virtual de execução fora da cadeia e arbitragem na cadeia (VM). Para melhorar a eficiência da inferência do modelo de IA, foi implementada uma biblioteca de rede neural profunda leve e dedicada. Utilizou-se tecnologia de compilação cruzada para compilar o código de inferência do modelo de IA em instruções VM, e a imagem VM é gerida através de uma árvore de Merkle.
Em testes práticos, um modelo de classificação de IA básico levou 2 segundos para inferir no VM, e todo o processo do desafio pode ser concluído em 2 minutos em um ambiente de teste local do Ethereum.
Jogo de Verificação em Múltiplas Etapas
Para superar as limitações dos protocolos de uma única fase, foi proposto um jogo de validação em várias fases. Este método requer apenas o cálculo na VM na fase final, enquanto as outras fases podem ser executadas de forma flexível no ambiente local, aproveitando ao máximo as capacidades de aceleração de hardware, como CPU e GPU.
Usando o OPML em duas fases como exemplo, a segunda fase corresponde ao "grande comando", e a primeira fase é semelhante a um jogo de fase única. Através da árvore de Merkle, garante-se a integridade e segurança entre as diferentes fases.
No modelo LLaMA, o processo de cálculo de redes neurais profundas pode ser representado como um gráfico de computação. A segunda fase realiza uma verificação de jogo sobre o gráfico de computação, podendo utilizar CPU ou GPU de múltiplas threads para acelerar. A primeira fase converte o cálculo de um único nó em instruções de VM.
Análise de desempenho
Em comparação com o OPML de uma fase, o OPML de duas fases alcançou uma aceleração de cálculo de α vezes, onde α representa o fator de aceleração proporcionado pela GPU ou pelo cálculo paralelo. Em termos de tamanho da árvore Merkle, o OPML de duas fases é O(m+n), enquanto o de uma fase é O(mn), onde m e n representam, respetivamente, o número de instruções da VM e o número de nós do gráfico de cálculo.
Garantia de Consistência
Para garantir a consistência entre plataformas, a OPML adotou duas abordagens chave:
Usar o algoritmo de ponto fixo ( e a tecnologia de quantização ) para reduzir o impacto dos erros de arredondamento de ponto flutuante.
Utilizar bibliotecas de ponto flutuante baseadas em software para garantir a consistência entre plataformas.
Esses métodos estabeleceram as bases para a obtenção de resultados confiáveis de aprendizado de máquina dentro da estrutura OPML.
OPML vs ZKML
O OPML tem vantagens como menor complexidade computacional, maior eficiência e menor barreira de entrada em comparação com o ZKML. Atualmente, o OPML foca principalmente na inferência de modelos, mas a estrutura também suporta o processo de treinamento, podendo ser utilizada em várias tarefas de aprendizado de máquina.
O projeto OPML ainda está em desenvolvimento ativo, e os desenvolvedores interessados são bem-vindos a contribuir.
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
6 gostos
Recompensa
6
5
Republicar
Partilhar
Comentar
0/400
AllInDaddy
· 10h atrás
Ver um martelo, tudo em comprar BTC.
Ver originalResponder0
NeverPresent
· 10h atrás
Isso deve ser uma busca, certo? ZKML está a chorar de rir.
Ver originalResponder0
ProbablyNothing
· 10h atrás
Queimar o cérebro diretamente não é também uma forma de economizar energia?
Ver originalResponder0
liquidation_surfer
· 11h atrás
Combinar a eficiência da Mineração parece muito bom.
OPML: Nova solução de aprendizado de máquina otimista na Blockchain com eficiência muito superior ao ZKML
OPML: Implementar um mecanismo otimista para uma aprendizagem automática eficiente e confiável
Resumo
Este artigo apresenta um novo método chamado OPML( aprendizagem de máquina otimista ), que pode realizar inferência e treinamento de modelos de IA de forma eficiente em sistemas de blockchain. Comparado com aprendizagem de máquina de conhecimento zero ( ZKML), o OPML pode oferecer serviços de aprendizagem de máquina a um custo mais baixo e com maior eficiência. Os requisitos de hardware do OPML são muito baixos, um PC comum pode executar grandes modelos de linguagem como 7B-LLaMA.
OPML utiliza um mecanismo de validação de jogos para garantir a descentralização e o consenso verificável dos serviços de aprendizado de máquina. Todo o processo inclui: o solicitante inicia a tarefa, o servidor completa a tarefa e submete os resultados, o validador verifica os resultados, e em caso de controvérsia, localiza com precisão os passos errados através de um protocolo de divisão, sendo finalmente arbitrado por contrato inteligente.
Jogo de Verificação de Uma Fase
O núcleo do OPML de fase única é a construção de uma máquina virtual de execução fora da cadeia e arbitragem na cadeia (VM). Para melhorar a eficiência da inferência do modelo de IA, foi implementada uma biblioteca de rede neural profunda leve e dedicada. Utilizou-se tecnologia de compilação cruzada para compilar o código de inferência do modelo de IA em instruções VM, e a imagem VM é gerida através de uma árvore de Merkle.
Em testes práticos, um modelo de classificação de IA básico levou 2 segundos para inferir no VM, e todo o processo do desafio pode ser concluído em 2 minutos em um ambiente de teste local do Ethereum.
Jogo de Verificação em Múltiplas Etapas
Para superar as limitações dos protocolos de uma única fase, foi proposto um jogo de validação em várias fases. Este método requer apenas o cálculo na VM na fase final, enquanto as outras fases podem ser executadas de forma flexível no ambiente local, aproveitando ao máximo as capacidades de aceleração de hardware, como CPU e GPU.
Usando o OPML em duas fases como exemplo, a segunda fase corresponde ao "grande comando", e a primeira fase é semelhante a um jogo de fase única. Através da árvore de Merkle, garante-se a integridade e segurança entre as diferentes fases.
No modelo LLaMA, o processo de cálculo de redes neurais profundas pode ser representado como um gráfico de computação. A segunda fase realiza uma verificação de jogo sobre o gráfico de computação, podendo utilizar CPU ou GPU de múltiplas threads para acelerar. A primeira fase converte o cálculo de um único nó em instruções de VM.
Análise de desempenho
Em comparação com o OPML de uma fase, o OPML de duas fases alcançou uma aceleração de cálculo de α vezes, onde α representa o fator de aceleração proporcionado pela GPU ou pelo cálculo paralelo. Em termos de tamanho da árvore Merkle, o OPML de duas fases é O(m+n), enquanto o de uma fase é O(mn), onde m e n representam, respetivamente, o número de instruções da VM e o número de nós do gráfico de cálculo.
Garantia de Consistência
Para garantir a consistência entre plataformas, a OPML adotou duas abordagens chave:
Esses métodos estabeleceram as bases para a obtenção de resultados confiáveis de aprendizado de máquina dentro da estrutura OPML.
OPML vs ZKML
O OPML tem vantagens como menor complexidade computacional, maior eficiência e menor barreira de entrada em comparação com o ZKML. Atualmente, o OPML foca principalmente na inferência de modelos, mas a estrutura também suporta o processo de treinamento, podendo ser utilizada em várias tarefas de aprendizado de máquina.
O projeto OPML ainda está em desenvolvimento ativo, e os desenvolvedores interessados são bem-vindos a contribuir.