マイクロソフト、独自AI基盤モデル3種投入でOpenAI・Googleに対抗、Copilot規約矛盾も露呈
編集者: Aleksandr Lytviak
2026年4月2日、マイクロソフト社は、OpenAIやGoogleといった最先端の研究機関と直接競合する戦略的措置として、完全に自社開発した3つの基盤AIモデルを市場に投入した。このモデル群、すなわち音声からテキストへの変換モデルMAI-Transcribe-1、音声生成モデルMAI-Voice-1、および画像生成モデルMAI-Image-2は、マイクロソフトの「AI自給自足」への意欲を具体的に示すものとなった。これらのモデルは、エンタープライズAIにおける商業的に価値の高い3領域を網羅しており、マイクロソフト・ファウンドリおよび新たに開設されたMAIプレイグラウンドを通じて即時利用可能となった。
特に音声認識モデルのMAI-Transcribe-1は、業界標準であるFLEURSベンチマークにおいて、テストされた25の主要言語すべてで最良の単語誤り率(WER)を達成したと主張されている。マイクロソフトのベンチマークによれば、このモデルはOpenAIのWhisper-large-v3を全25言語で上回り、GoogleのGemini 3.1 Flashに対しても22言語で優位性を示した。このモデルは、既存のAzure Fastサービスと比較してバッチ処理速度が2.5倍高速であり、音声1時間あたり0.36ドルという競争的な価格設定で提供され、効率性の向上を顧客に還元する姿勢を示している。
音声生成モデルのMAI-Voice-1は、わずか1秒で60秒分の音声を生成する能力を持ち、長文コンテンツにわたる話者の声の個性を維持できる点が強調された。一方、画像生成モデルのMAI-Image-2は、前世代モデルの2倍の生成速度を実現し、Arena.aiのテキスト・トゥ・イメージ・リーダーボードではGoogleのNano Banana 2やOpenAIのGPT-Image 1.5に次ぐトップ3にランクインしている。これらのモデル開発は、CEOのムスタファ・スレイマン氏が率いるスーパーインテリジェンスチームが主導しており、OpenAIへの依存を軽減し、技術的基盤を自社で構築する明確なシグナルと見なされている。
この技術的進展と並行して、マイクロソフトは消費者向けCopilotの利用規約を巡る論争にも直面している。この規約には、当該ツールが「娯楽目的のみ」であり、ユーザーは「自己責任で」利用し、「重要なアドバイスのために頼るべきではない」という文言が含まれている。この記述は、マイクロソフトがMicrosoft 365 Copilotをビジネス生産性ツールとして積極的に市場投入している現状と著しく矛盾しており、批判の的となっている。この矛盾について、同社の広報担当者は、この「エンターテイメント目的のみ」という表現は、現在のCopilotの利用実態を反映していない「レガシーな用語」であり、次回のアップデートで修正される予定であると説明した。この規約の起源は2023年2月の合意に遡り、2025年10月に更新された経緯がある。
マイクロソフトの株価は2008年の金融危機以来最悪の四半期を記録した後であり、これらのモデルの積極的な価格設定と市場投入は、AIインフラへの巨額投資を収益に転換させるという投資家の圧力に対する最初の回答と見なされている。スレイマン氏は、これらのモデルが「ヒューマニストAI」を構築するという同社の明確な視点を体現していると述べている。
5 ビュー
ソース元
Business Insider
VentureBeat
AI Business
The Register
Business Insider
Mashable
このトピックに関するその他の記事を読む:
エラーや不正確な情報を見つけましたか?できるだけ早くコメントを考慮します。



