中国IT大手TencentがNVIDIAに頼らず自社製AIインフラのAI学習能力を20%強化


企業や研究機関が用いる大規模なAIインフラストラクチャには大量の計算処理チップが搭載されており、膨大なデータを並列処理できるように構成されています。新たに、中国の大手IT企業であるTencentが、AIインフラストラクチャのネットワーク処理を改善し、AI学習性能を20%向上することに成功したと発表しました。
大模型训练再提速20%!腾讯星脉网络2.0来了_腾讯新闻
https://new.qq.com/rain/a/20240701A067GC00
Tencent boosts AI training efficiency without Nvidia’s most advanced chips | South China Morning Post
https://www.scmp.com/tech/big-tech/article/3268901/tencent-boosts-ai-training-efficiency-without-nvidias-most-advanced-chips
Tencentによると、AIインフラストラクチャのような大規模なHPCクラスタでは、全処理時間のうちデータ通信時間が最大50%を占めるとのこと。ネットワーク処理性能を向上してデータ通信時間を短縮できれば、GPUの待機時間が減って全体的な処理能力を向上できます。このため、Tencentは自社製AIインフラストラクチャのネットワーク処理性能の向上に取り組みました。


Tencentは2024年7月1日に新たなネットワーク処理システム「Xingmai 2.0」を発表しました。Xingmai 2.0を採用したAIインフラストラクチャでは、従来のものと比べて通信効率が60%、AIモデルの学習効率が20%向上するとのこと。Tencentのテストでは、大規模なAIモデルの学習時間が50秒から40秒へ短縮できたとされています。


Xingmai 2.0にはTencentが開発した通信プロトコル「TiTa2.0」が採用されており、データの効率的な配分が可能です。また、TiTa2.0はデータの並列送信にも対応しているとのこと。さらに、Xingmai 2.0は新開発のネットワークスイッチや光通信モジュールを採用することで帯域幅が拡大しており、単一クラスタで10万台以上のGPUを管理できます。


AI計算処理の分野ではアメリカ企業のNVIDIAが大きな存在感を示していますが、アメリカは中国に対して高性能半導体の輸出を制限しており、中国に拠点を置く企業がNVIDIA製の高性能半導体を入手することは困難となっています。このため、TencentがGPUの増強ではなくネットワーク処理の改善でAI処理性能を向上できた点は注目に値します。
また、South China Morning Postは、「AIの学習はエネルギーを大量に消費する。AIインフラストラクチャの処理効率を向上することはエネルギーコストの削減につながるため、価格競争において極めて重要である」と指摘しています。

ジャンルで探す