Baiduは新しい Kunlun チップ M100·M300と次世代の「Supernode」ソリューションを発表しました
百度、Baidu World 2025で「Kunlun M100/M300」チップと大規模モデル「Ernie 5.0」を発表
編集者: gaya ❤️ one
中国のテクノロジー大手Baidu Inc.は、2025年11月13日に北京で開催された年次フラッグシップ会議「Baidu World 2025」において、人工知能(AI)のハードウェアおよびソフトウェアにおける重要な成果を発表しました。同社の技術的自立への強い意志を示す中心的な発表は、次世代の独自開発チップ「Kunlun」と、大幅に刷新された大規模言語モデル「Ernie 5.0」の導入でした。
ハードウェア分野では、2種類の専用チップが披露されました。一つは、大規模な推論処理に特化して最適化された「Kunlun M100」で、2026年初頭のリリースが予定されています。もう一つは、超大規模マルチモーダルモデルの学習と推論の両方に対応するために設計された「M300」で、こちらは2027年初頭に市場投入される見込みです。これらの独自チップの開発は、Baiduが性能とコストを自社で管理し、西側技術の輸出規制に伴うリスクを軽減するための重要な戦略的ステップです。
さらに、Baiduはスーパーコンピューター向けの新しい製品群も発表しました。256個のP800チップで構成されるスーパーノード「Tianchi 256」は、2026年上半期に利用可能となる予定です。また、より強力なシステムとして、512個のP800チップを搭載した「Tianchi 512」の稼働は、2026年下半期に予定されています。これらのインフラストラクチャの拡充は、中国国内のAI計算能力を飛躍的に向上させることを目的としています。
ソフトウェア面では、改良された大規模言語モデル「Ernie 5.0」が注目を集めました。このモデルは、2.4兆個という膨大な数のパラメーターを操作し、テキスト、画像、音声、動画の各形式におけるコンテンツの理解と生成において、ネイティブなマルチモーダル能力を発揮します。このパラメーター数は、1兆個超のパラメーターを持つAlibabaのQwen3-MaxやMoonshot AIのKimi K2といった競合システムと比較して、Ernie 5.0が約2倍の規模であることを示しています。Baiduのエグゼクティブ・バイスプレジデントであるシェン・ドウ(沈抖)氏は、これらの新製品が中国企業に対し「強力で、低コストかつ制御可能なAI計算能力」を提供することを強調しました。
これらの発表の背景には、地政学的な緊張の高まりがあります。この緊張は、中国企業にサプライチェーンの安全性を確保するため、国内代替品を探すことを余儀なくさせています。Baiduは2011年から独自チップの開発に投資しており、戦略的な政府支援を受けながらこの分野への投資を続けています。これは、国内半導体基盤の発展に対する国家のコミットメントを明確に示しています。この自給自足戦略は、Kunlunチップを外部顧客に販売することで、Baiduに新たな収益源をもたらす可能性も秘めています。
発表日である2025年11月13日時点で、ニューヨーク証券取引所(NYSE)におけるBaidu(BIDU)の株価は121米ドルで取引を終え、2.5%の下落を記録しました。一方で、香港市場での同社株は、翌木曜日の午前中の取引で0.8%の上昇を示しました。2026年のM100から始まり、2027年のM300で完了する新製品の段階的な展開は、ハードウェアとソフトウェアを統合し、AI分野におけるBaiduの地位を確固たるものにするための、綿密に練られた戦略を反映しています。
ソース元
Profit by Pakistan Today
Reuters: China's Baidu unveils new AI processors, supercomputing products
China Daily: Baidu advances AI with new Kunlun chips and Ernie 5.0 model
Sina Finance: Baidu releases new Kunlun M100 and M300 chips
AIbase: Baidu Kunlun Chip M100/M300 Launch, Five-Year Strategy Revealed
Finance Yahoo: China's Baidu unveils new AI processors, supercomputing products
このトピックに関するさらに多くのニュースを読む:
エラーや不正確な情報を見つけましたか?
できるだけ早くコメントを考慮します。
