A Tencent Hunyuan lança mais um grande trunfo em AI de Código aberto! O modelo Hunyuan-A13B é apresentado, desafiando o monstro de 80B com 13B de parâmetros.

robot
Geração do resumo em andamento

À medida que a IA generativa entra em uma nova fase, os supermodelos, embora poderosos, vêm acompanhados de altos custos de recursos e dificuldades de implantação. O modelo de linguagem de código aberto Hunyuan-A13B, recentemente lançado pela Tencent, segue uma nova rota leve e de alto desempenho: embora possua um total de 80 bilhões de parâmetros, apenas 13 bilhões de parâmetros são ativados em cada inferência, através da arquitetura "Mixture-of-Experts (MoE)", reduzindo significativamente os custos de inferência sem sacrificar a compreensão e a capacidade de raciocínio linguístico.

Quebrando os gargalos de desempenho e recursos: Análise da camada técnica do Hunyuan-A13B

Hunyuan-A13B utiliza uma arquitetura MoE esparsa, composta por 64 módulos de especialistas e um especialista compartilhado, ativando apenas 8 especialistas durante cada inferência. Combinado com a função de ativação SwiGLU e a técnica GQA (Grouped Query Attention), consegue melhorar de forma eficaz a eficiência do uso da memória e a taxa de transferência da inferência.

Além disso, a quantidade de dados de pré-treinamento atinge 20 trilhões de tokens, incluindo 250 bilhões de dados de alta qualidade do domínio STEM, reforçando o desempenho do modelo em matemática, ciências e raciocínio lógico. O treinamento em geral passou por três grandes fases: pré-treinamento básico, treinamento de resfriamento rápido e treinamento de extensão de contexto longo, suportando finalmente uma capacidade de processamento de contexto de até 256K tokens.

Escolha entre dois modos de raciocínio: Rápido vs. Pensamento Profundo, alternando livremente.

Hunyuan-A13B introduz um mecanismo de raciocínio de modo duplo (Dual-mode Chain-of-Thought), que alterna automaticamente entre os modos "pensamento rápido" e "pensamento lento" com base na complexidade da tarefa. O pensamento rápido é adequado para consultas simples do dia a dia, enfatizando baixa latência e alta eficiência; o pensamento lento, por sua vez, ativa caminhos de raciocínio Chain-of-Thought mais longos, lidando com problemas lógicos de múltiplos passos e deduções complexas, equilibrando precisão e uso de recursos.

Resultados de avaliação impressionantes

Em vários testes de referência reconhecidos, o Hunyuan-A13B teve um desempenho bastante excelente. Ele conquistou o primeiro lugar em raciocínio matemático (como AIME 2024, MATH) e também se destacou em raciocínio lógico (como BBH, ZebraLogic). Mesmo em testes de longo texto que exigem mais profundidade do modelo, como LongBench-v2 e RULER, o Hunyuan-A13B demonstrou uma incrível capacidade de retenção de contexto e integração lógica, superando o Qwen3-A22B e o DeepSeek-R1, cujos parâmetros são muito maiores.

Diante dos desafios de um ambiente aberto, a capacidade de chamada de ferramentas foi completamente atualizada.

Além das habilidades linguísticas e de raciocínio, o Hunyuan-A13B também melhorou significativamente a capacidade do Agente. Nos testes BFCL v3, ComplexFuncBench e outros focados em chamadas de ferramentas, planejamento e diálogos de múltiplas rodadas, seu desempenho não só superou o Qwen3-A22B, como também ficou em primeiro lugar no teste C3-Bench, demonstrando sua poderosa capacidade de adaptação a fluxos de tarefas complexas.

A taxa de transferência da inferência está em alta, a eficiência de implantação merece atenção.

De acordo com o relatório de testes práticos, o Hunyuan-A13B também impressiona em termos de eficiência de inferência. Combinado com estruturas de inferência existentes como vLLM, TensorRT-LLM, etc., pode alcançar uma taxa de transferência de quase 2000 tokens/s com um tamanho de lote de 32 e um comprimento de saída de 14K tokens. Mesmo sob condições de precisão quantificada como INT8 e FP8, consegue manter o desempenho, o que é crucial para a implementação empresarial.

Alto desempenho e alta relação qualidade-preço, Código aberto modelos ganham uma nova opção

A Tencent estabeleceu um novo padrão no campo dos modelos de linguagem de Código aberto com o Hunyuan-A13B. Este modelo não apenas superou o estereótipo de que "modelos pequenos não conseguem competir com modelos grandes", mas também oferece raciocínio flexível e capacidade de adaptação a múltiplas tarefas, tornando-se a nova bandeira no campo do LLM de Código aberto. Para desenvolvedores e empresas com recursos limitados, mas que ainda buscam soluções de IA eficientes, o Hunyuan-A13B é, sem dúvida, uma poderosa nova opção a ser considerada.

Este artigo a Tencent Hunyuan lança novamente uma grande novidade em AI de Código aberto! O modelo Hunyuan-A13B foi apresentado, desafiando a besta de 80B com 13B de parâmetros, apareceu pela primeira vez na Chain News ABMedia.

Ver original
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
  • Recompensa
  • Comentário
  • Compartilhar
Comentário
0/400
Sem comentários
  • Marcar
Faça trade de criptomoedas em qualquer lugar e a qualquer hora
qrCode
Escaneie o código para baixar o app da Gate
Comunidade
Português (Brasil)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)