Descentralização AI treinamento na vanguarda: Prime Intellect e Pluralis lideram um novo paradigma na indústria

O Santo Graal da Crypto AI: Exploração na vanguarda do treinamento descentralizado

Na cadeia de valor total da IA, o treinamento de modelos é a etapa que consome mais recursos e apresenta a maior barreira técnica, determinando diretamente o limite de capacidade do modelo e a eficácia da aplicação real. Em comparação com a chamada leve da fase de inferência, o processo de treinamento requer um investimento contínuo de poder computacional em larga escala, processos de tratamento de dados complexos e suporte de algoritmos de otimização de alta intensidade, sendo a verdadeira "indústria pesada" na construção de sistemas de IA. Do ponto de vista do paradigma de arquitetura, os métodos de treinamento podem ser divididos em quatro categorias: treinamento centralizado, treinamento distribuído, aprendizado federado e o treinamento descentralizado que será discutido em detalhe neste artigo.

O Santo Graal do Crypto AI: Exploração de vanguarda em treinamento Descentralização

O treinamento centralizado é a forma tradicional mais comum, realizado por uma única entidade em um cluster de alto desempenho local, onde todo o processo de treinamento, desde hardware, software de base, sistema de agendamento de cluster, até todos os componentes do framework de treinamento, é coordenado por um sistema de controle unificado. Essa arquitetura de profunda colaboração permite que a eficiência do compartilhamento de memória, sincronização de gradientes e mecanismos de tolerância a falhas seja otimizada, sendo muito adequada para o treinamento de modelos em larga escala como GPT e Gemini, apresentando vantagens de alta eficiência e recursos controláveis, mas também enfrentando problemas como monopólio de dados, barreiras de recursos, consumo de energia e riscos de ponto único.

O treinamento distribuído é a principal abordagem para o treinamento de grandes modelos atualmente, cujo núcleo é dividir a tarefa de treinamento do modelo e distribuí-la para várias máquinas que executam em conjunto, a fim de superar os gargalos de computação e armazenamento em uma única máquina. Embora fisicamente possua características de "descentralização", o todo ainda é controlado e agendado por instituições centralizadas, geralmente operando em ambientes de rede local de alta velocidade, através da tecnologia de barramento interconectado de alta velocidade NVLink, com o nó principal coordenando uniformemente as subtarefas. Os métodos principais incluem:

  • Paralelismo de dados: cada nó treina diferentes dados com parâmetros compartilhados, sendo necessário corresponder aos pesos do modelo
  • Paralelismo de modelos: implantar diferentes partes do modelo em diferentes nós, alcançando forte escalabilidade.
  • Pipeline em paralelo: execução em série por fases, aumentando a taxa de transferência
  • Paralelismo de Tensores: Segmentação Refinada do Cálculo de Matrizes, Aumento da Granularidade de Paralelismo

O treinamento distribuído é uma combinação de "controle centralizado + execução distribuída", semelhante a um mesmo chefe a comandar remotamente a colaboração de vários empregados de "escritórios" para completar uma tarefa. Atualmente, quase todos os principais modelos são treinados dessa forma.

O Santo Graal do Crypto AI: Exploração de Fronteira em Treinamento Descentralizado

Descentralização do treinamento representa um caminho futuro mais aberto e com características de resistência à censura. Suas características principais são: múltiplos nós que não confiam uns nos outros colaborando para completar tarefas de treinamento sem um coordenador central, geralmente através de protocolos que impulsionam a distribuição de tarefas e colaboração, e utilizando mecanismos de incentivo criptográfico para garantir a honestidade das contribuições. Os principais desafios que esse modelo enfrenta incluem:

  • Dificuldades de heterogeneidade e divisão de dispositivos: alta dificuldade de coordenação de dispositivos heterogêneos, baixa eficiência na divisão de tarefas
  • Gargalo de eficiência de comunicação: comunicação de rede instável, gargalo de sincronização de gradiente evidente
  • Falta de execução confiável: falta de um ambiente de execução confiável, dificultando a verificação se os nós realmente participam do cálculo
  • Falta de coordenação unificada: sem um despachante central, a distribuição de tarefas e o mecanismo de retrocesso de anomalias são complexos

A formação descentralizada pode ser entendida como: um grupo de voluntários globais, cada um contribuindo com poder computacional para treinar modelos de forma colaborativa, mas "a verdadeira formação descentralizada em larga escala viável" ainda é um desafio de engenharia sistémica, envolvendo arquitetura de sistemas, protocolos de comunicação, segurança criptográfica, mecanismos económicos, validação de modelos e outros vários níveis, mas a capacidade de "colaborar eficazmente + incentivar a honestidade + garantir resultados corretos" ainda está na fase inicial de exploração de protótipos.

A aprendizagem federada, como uma forma de transição entre distribuído e Descentralização, enfatiza a preservação local dos dados e a agregação centralizada dos parâmetros do modelo, sendo adequada para cenários que priorizam a conformidade de privacidade. A aprendizagem federada possui a estrutura de engenharia do treinamento distribuído e a capacidade de colaboração local, ao mesmo tempo que mantém a vantagem da dispersão de dados do treinamento Descentralização, mas ainda depende de uma entidade coordenadora confiável, não possuindo características totalmente abertas e resistentes à censura. Pode ser vista como uma solução de "Descentralização controlada" em cenários de conformidade de privacidade, sendo relativamente moderada em termos de tarefas de treinamento, estrutura de confiança e mecanismos de comunicação, sendo mais adequada como uma arquitetura de implantação transitória na indústria.

Descentralização: fronteiras, oportunidades e caminhos reais

Do ponto de vista do paradigma de treinamento, a Descentralização do treinamento não é adequada para todos os tipos de tarefas. Em certos cenários, devido à complexidade da estrutura da tarefa, alta demanda por recursos ou dificuldade de colaboração, ela não é naturalmente adequada para ser concluída de forma eficiente entre nós heterogêneos e não confiáveis. Por exemplo, o treinamento de grandes modelos muitas vezes depende de alta memória, baixa latência e largura de banda alta, sendo difícil dividir e sincronizar efetivamente em uma rede aberta; tarefas com fortes restrições de privacidade de dados e soberania estão limitadas por conformidade legal e restrições éticas, não podendo ser compartilhadas abertamente; e tarefas que carecem de incentivos de colaboração não têm motivação externa para participação. Essas fronteiras formam as limitações reais do treinamento descentralizado atualmente.

Mas isso não significa que a Descentralização do treinamento seja um falso enunciado. Na verdade, em tipos de tarefas que são leves em estrutura, fáceis de paralelizar e podem ser incentivadas, a Descentralização do treinamento mostra perspectivas de aplicação claras. Incluindo, mas não se limitando a: ajuste fino LoRA, tarefas de pós-treinamento de alinhamento de comportamento, tarefas de treinamento e rotulagem de dados por meio de crowdsourcing, treinamento de pequenos modelos de base controlados por recursos, e cenários de treinamento colaborativo com a participação de dispositivos de borda. Essas tarefas geralmente possuem alta paralelização, baixa acoplamento e características que toleram poder computacional heterogêneo, sendo muito adequadas para treinamento colaborativo por meio de redes P2P, protocolos Swarm, otimizadores distribuídos, entre outros.

Crypto AI的圣杯:Descentralização训练的前沿探索

Descentralização treinamento clássicos projeto análise

Atualmente, na vanguarda dos campos de Descentralização e aprendizado federado, os principais projetos de blockchain representativos incluem Prime Intellect, Pluralis.ai, Gensyn, Nous Research e Flock.io. Do ponto de vista da inovação técnica e da dificuldade de implementação de engenharia, Prime Intellect, Nous Research e Pluralis.ai propuseram muitas explorações originais em arquitetura de sistema e design de algoritmos, representando as direções de pesquisa teórica de ponta; enquanto Gensyn e Flock.io têm um caminho de implementação relativamente claro, já é possível ver avanços iniciais na engenharia. Este artigo analisará, sucessivamente, as tecnologias centrais e as arquiteturas de engenharia por trás desses cinco projetos, e discutirá ainda suas diferenças e relações complementares no sistema de treinamento de IA descentralizada.

Prime Intellect: Pioneiro de redes colaborativas de aprendizado reforçado com trajetórias de treinamento verificáveis

A Prime Intellect está empenhada em construir uma rede de treinamento de IA sem necessidade de confiança, permitindo que qualquer pessoa participe do treinamento e receba recompensas confiáveis por suas contribuições computacionais. A Prime Intellect espera construir um sistema de treinamento de IA descentralizado, com verificabilidade, abertura e um mecanismo de incentivos completo, através dos três módulos PRIME-RL + TOPLOC + SHARDCAST.

01、Estrutura da pilha de protocolos Prime Intellect e valor dos módulos chave

Crypto AI do Santo Graal: Descentralização treinamento na vanguarda da exploração

02, Explicação detalhada dos mecanismos chave do treinamento Prime Intellect

#PRIME-RL: Arquitetura de Tarefa de Aprendizado por Reforço Assíncrono Desacoplado

PRIME-RL é uma estrutura de modelagem e execução de tarefas personalizada pela Prime Intellect para cenários de Descentralização, projetada especificamente para redes heterogêneas e participação assíncrona. Ela utiliza aprendizado por reforço como objeto de adaptação prioritária, desacoplando estruturalmente os processos de treinamento, inferência e upload de pesos, permitindo que cada nó de treinamento complete o ciclo de tarefas de forma independente em seu local, e colabore com mecanismos de validação e agregação através de interfaces padronizadas. Em comparação com processos tradicionais de aprendizado supervisionado, o PRIME-RL é mais adequado para implementar treinamento flexível em ambientes sem agendamento centralizado, reduzindo a complexidade do sistema e estabelecendo uma base para suportar múltiplas tarefas em paralelo e evolução de estratégias.

#TOPLOC:Mecanismo de validação de comportamento de treino leve

TOPLOC é o mecanismo central de verificação de treinamento proposto pela Prime Intellect, usado para determinar se um nó realmente completou o aprendizado de uma estratégia eficaz com base em dados de observação. Ao contrário de soluções pesadas como ZKML, o TOPLOC não depende do recálculo do modelo completo, mas sim analisa a trajetória de consistência local entre "sequência de observação ↔ atualização de estratégia" para completar a verificação da estrutura leve. Ele transforma pela primeira vez a trajetória de comportamento durante o processo de treinamento em um objeto verificável, sendo uma inovação chave para a distribuição de recompensas de treinamento sem confiança, fornecendo um caminho viável para construir uma rede de treinamento colaborativo descentralizada que seja auditável e incentivadora.

#SHARDCAST: Protocolo de Agregação e Propagação de Peso Assíncrono

SHARDCAST é um protocolo de propagação e agregação de pesos projetado pela Prime Intellect, otimizado para ambientes de rede reais que são assíncronos, com largura de banda limitada e estados de nós em constante mudança. Ele combina mecanismos de propagação gossip com estratégias de sincronização local, permitindo que vários nós continuem a submeter atualizações parciais em estados não sincronizados, alcançando a convergência progressiva de pesos e a evolução de múltiplas versões. Em comparação com métodos centralizados ou síncronos de AllReduce, o SHARDCAST melhora significativamente a escalabilidade e a tolerância a falhas do treinamento descentralizado, sendo a base central para a construção de consenso de pesos estáveis e iterações de treinamento contínuas.

#OpenDiLoCo: Estrutura de Comunicação Assíncrona Esparsa

OpenDiLoCo é uma estrutura de otimização de comunicação desenvolvida e de código aberto pela equipe Prime Intellect, com base no conceito DiLoCo proposto pela DeepMind, projetada especificamente para enfrentar desafios comuns de largura de banda limitada, heterogeneidade de dispositivos e instabilidade de nós em treinamentos de Descentralização. Sua arquitetura é baseada em paralelismo de dados, evitando altos custos de comunicação de sincronização global ao construir estruturas topológicas esparsas como Ring, Expander e Small-World, e completando o treinamento colaborativo do modelo apenas com nós vizinhos locais. Combinando atualizações assíncronas e um mecanismo de tolerância a falhas, o OpenDiLoCo permite que GPUs de consumo e dispositivos de borda participem de tarefas de treinamento de forma estável, aumentando significativamente a acessibilidade ao treinamento colaborativo global, sendo uma das infraestruturas de comunicação chave para a construção de redes de treinamento descentralizadas.

#PCCL: Biblioteca de Comunicação Colaborativa

PCCL é uma biblioteca de comunicação leve desenvolvida pela Prime Intellect para ambientes de treinamento de IA descentralizados, com o objetivo de resolver os gargalos de adaptação das bibliotecas de comunicação tradicionais em dispositivos heterogêneos e redes de baixa largura de banda. PCCL suporta topologias esparsas, compressão de gradientes, sincronização de baixa precisão e recuperação de ponto de verificação, podendo ser executado em GPUs de consumo e nós instáveis, sendo um componente de base que apoia a capacidade de comunicação assíncrona do protocolo OpenDiLoCo. Ele melhora significativamente a tolerância à largura de banda e a compatibilidade de dispositivos da rede de treinamento, abrindo caminho para a comunicação da "última milha" na construção de uma rede de treinamento colaborativo verdadeiramente aberta e sem necessidade de confiança.

03、Rede de Incentivo Prime Intellect e Divisão de Funções

A Prime Intellect construiu uma rede de treino sem permissão, verificável e com um mecanismo de incentivos económicos, permitindo que qualquer pessoa participe em tarefas e receba recompensas com base em contribuições reais. O protocolo opera com base em três categorias de papéis centrais:

  • Iniciador da tarefa: definir o ambiente de treino, o modelo inicial, a função de recompensa e os critérios de validação
  • Nós de treinamento: executar treinamento local, submeter atualizações de pesos e trajetórias de observação
  • Nós de validação: Usar o mecanismo TOPLOC para verificar a autenticidade do comportamento de treinamento e participar do cálculo de recompensas e da agregação de estratégias.

O fluxo central do protocolo inclui a publicação de tarefas, o treinamento de nós, a validação de trajetórias, a agregação de pesos e a distribuição de recompensas, formando um ciclo de incentivos em torno do "comportamento de treinamento real".

O Santo Graal do Crypto AI: exploração de ponta em treinamento descentralizado

04、INTELLECT-2: Lançamento do primeiro modelo de treinamento descentralizado verificável

A Prime Intellect lançou o INTELLECT-2 em maio de 2025, que é o primeiro grande modelo de aprendizado de reforço do mundo treinado por nós de colaboração descentralizada assíncrona e sem confiança, com uma escala de parâmetros de 32B. O modelo INTELLECT-2 foi treinado com a colaboração de mais de 100 nós heterogêneos com GPU espalhados por três continentes, utilizando uma arquitetura completamente assíncrona, com um tempo de treinamento superior a 400 horas, demonstrando a viabilidade e a estabilidade de uma rede de colaboração assíncrona. Este modelo não é apenas uma ruptura em termos de desempenho, mas também a primeira implementação sistemática do paradigma "treinamento é consenso" proposto pela Prime Intellect. O INTELLECT-2 integra módulos de protocolo central como PRIME-RL, TOPLOC e SHARDCAST, marcando a primeira realização de uma rede de treinamento descentralizada.

PRIME-6.84%
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
  • Recompensa
  • 4
  • Repostar
  • Compartilhar
Comentário
0/400
AirdropHarvestervip
· 7h atrás
O treinamento também deve incluir airdrop!
Ver originalResponder0
RugDocScientistvip
· 7h atrás
Falando sério, o problema do poder de computação é realmente uma fraqueza...
Ver originalResponder0
MeaninglessApevip
· 7h atrás
Muito caro, não consigo jogar.
Ver originalResponder0
MetaverseLandladyvip
· 7h atrás
Quem é que consegue aguentar um treino tão difícil?
Ver originalResponder0
  • Marcar
Faça trade de criptomoedas em qualquer lugar e a qualquer hora
qrCode
Escaneie o código para baixar o app da Gate
Comunidade
Português (Brasil)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)