Jin10データ6月27日、6月27日、Tencentは混元-A13Bモデルを発表し、オープンソース化しました。専門家混合(MoE)アーキテクチャに基づく大規模モデルで、総パラメータは800億、活性化パラメータは130億であり、トップレベルのオープンソースモデルに匹敵する効果を持ちながら、推論レイテンシーと計算コストを大幅にドロップします。極端な条件下では、中低端のGPUカード1枚でデプロイ可能です。
テンセントオープンソース混元-A13Bモデル
Jin10データ6月27日、6月27日、Tencentは混元-A13Bモデルを発表し、オープンソース化しました。専門家混合(MoE)アーキテクチャに基づく大規模モデルで、総パラメータは800億、活性化パラメータは130億であり、トップレベルのオープンソースモデルに匹敵する効果を持ちながら、推論レイテンシーと計算コストを大幅にドロップします。極端な条件下では、中低端のGPUカード1枚でデプロイ可能です。