Tencent Hunyuan lance une nouvelle grande fonctionnalité AI Open Source ! Le modèle Hunyuan-A13B fait son apparition, défiant les 80B monstres avec 13B de paramètres.

robot
Création du résumé en cours

Avec l'avènement de l'IA générative dans une nouvelle phase, bien que les très grands modèles soient puissants, ils s'accompagnent également de coûts en ressources élevés et de difficultés de déploiement. Le dernier modèle de langage de grande taille open source Hunyuan-A13B de Tencent, a emprunté une nouvelle voie légère et efficace : bien qu'il possède un total de 80 milliards de paramètres, il n'active que 13 milliards de paramètres à chaque inférence, réduisant considérablement les coûts d'inférence grâce à l'architecture « Mixture-of-Experts (MoE) », sans sacrifier la compréhension et la capacité de raisonnement linguistiques.

Briser les goulets d'étranglement de performance et de ressources : Analyse technique de Hunyuan-A13B

Hunyuan-A13B utilise une architecture MoE sparse, comprenant 64 modules d'experts et un expert partagé. À chaque inférence, seuls 8 experts sont activés, associés à la fonction d'activation SwiGLU et à la technique GQA (Grouped Query Attention), ce qui permet d'améliorer efficacement l'utilisation de la mémoire et le débit d'inférence.

De plus, la quantité de données d'entraînement préliminaire atteint 20 trillions de tokens, incluant 250 milliards de données de haute qualité provenant des domaines STEM, renforçant ainsi les performances du modèle en mathématiques, sciences et logique. L'entraînement global se déroule en trois grandes étapes : pré-entraînement de base, entraînement par refroidissement rapide et entraînement d'extension de contexte long, soutenant finalement une capacité de traitement de contexte allant jusqu'à 256K tokens.

Choisissez librement entre deux modes : Rapide vs. Réflexion approfondie

Hunyuan-A13B introduit un mécanisme de raisonnement à double mode (Dual-mode Chain-of-Thought), qui bascule automatiquement entre les modes « pensée rapide » et « pensée lente » en fonction de la complexité de la tâche. La pensée rapide est adaptée aux recherches simples du quotidien, mettant l'accent sur la faible latence et l'efficacité ; la pensée lente, quant à elle, active des chemins de raisonnement Chain-of-Thought plus longs, traitant des problèmes logiques multi-étapes et des déductions complexes, équilibrant précision et utilisation des ressources.

Les résultats des tests sont impressionnants

Dans plusieurs tests de référence reconnus, le Hunyuan-A13B a montré des performances exceptionnelles. Il a dominé dans le raisonnement mathématique (comme l'AIME 2024, MATH) et s'est également classé parmi les meilleurs dans le raisonnement logique (comme BBH, ZebraLogic). Même dans des tests de long texte qui mettent à l'épreuve la profondeur des modèles, comme LongBench-v2 et RULER, le Hunyuan-A13B a démontré une incroyable capacité de conservation du contexte et d'intégration logique, surpassant des modèles avec des paramètres bien plus élevés comme le Qwen3-A22B et le DeepSeek-R1.

Face aux défis d'un environnement ouvert, les capacités d'appel d'outils sont totalement améliorées.

En plus de ses capacités linguistiques et de raisonnement, le Hunyuan-A13B a également considérablement amélioré les capacités d'Agent. Dans les tests tels que BFCL v3 et ComplexFuncBench, axés sur l'appel d'outils, la planification et les dialogues multi-tours, ses performances surpassent non seulement celles du Qwen3-A22B, mais il se classe également premier dans les tests C3-Bench, démontrant sa puissance d'adaptation aux processus de tâches complexes.

Le débit d'inférence explose, l'efficacité de déploiement mérite d'être remarquée.

Selon le rapport de test, le Hunyuan-A13B impressionne également par son efficacité en matière d'inférence. Associé à des cadres d'inférence existants tels que vLLM, TensorRT-LLM, etc., il peut atteindre un débit de près de 2000 tokens/s avec une taille de lot de 32 et une longueur de sortie de 14K tokens. Dans le cas d'une utilisation de précisions quantifiées comme INT8 ou FP8, il peut également maintenir ses performances, ce qui est crucial pour le déploiement en entreprise.

Performance élevée et rapport qualité-prix optimal, Open Source modèle offre un nouveau choix.

Tencent établit un nouveau modèle pour le domaine des modèles de langage Open Source grâce à Hunyuan-A13B. Ce modèle non seulement brise le stéréotype "les petits modèles ne peuvent pas rivaliser avec les grands modèles", mais offre également une flexibilité de raisonnement et des capacités d'adaptation multitâches, devenant le nouveau fleuron du domaine des LLM open source. Pour les développeurs et les entreprises avec des ressources limitées mais qui recherchent des solutions IA efficaces, Hunyuan-A13B est sans aucun doute un nouveau choix puissant à surveiller.

Cet article annonce le lancement par Tencent de son nouveau produit Open Source AI ! Le modèle Hunyuan-A13B fait son apparition, avec 13B de paramètres défiant le monstre de 80B, comme cela a été rapporté pour la première fois par ABMedia sur Chain News.

Voir l'original
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
  • Récompense
  • Commentaire
  • Partager
Commentaire
0/400
Aucun commentaire
  • Épingler
Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)