微軟發布自主研發AI模型MAI-Voice-1與MAI-1-Preview,強化獨立AI戰略
编辑者: Veronika Radoslavskaya
微軟於2025年8月29日正式發布了其首批自主研發的人工智慧模型:MAI-Voice-1和MAI-1-Preview。此舉標誌著微軟在AI領域邁出重要一步,旨在減少對OpenAI等外部合作夥伴的依賴,並強化其在AI技術自主研發方面的實力。
MAI-Voice-1是一款語音生成模型,其核心能力在於極高的效率與表現力。該模型能在單一GPU的支援下,於一秒內生成長達一分鐘的高品質音訊,比現有技術快了十倍。此項突破使得MAI-Voice-1能夠無縫整合至Copilot Daily的AI新聞摘要播報,以及Copilot Podcasts中,將複雜議題轉化為易於理解的音訊內容。使用者可透過Copilot Labs體驗MAI-Voice-1,並能自訂語音風格、口音(如美式、英式、澳式)及情緒表達(如愉快、困惑、好奇、釋然、害羞),提供高度個人化的互動體驗。
另一款發布的MAI-1-Preview,則是微軟首個端對端訓練的基礎語言模型。此模型採用了約15,000個NVIDIA H100 GPU進行訓練,展現了微軟在建構強大語言模型方面的龐大投資。MAI-1-Preview的設計目標是高效處理日常指令與資訊查詢,目前正於LMArena基準測試平台上進行公開測試,預計不久後將整合至Copilot的特定文字功能中。
此戰略性舉措不僅是技術上的演進,更反映了微軟在AI軍備競賽中的佈局。透過自主研發模型,微軟不僅能降低對外部技術的依賴,預計每年可節省高達5億美元的授權成本,同時也能加速創新週期,並在快速變化的AI市場中鞏固其領導地位。分析師預期,微軟在Azure AI基礎設施上的鉅額投資,將使其AI服務營收在2027年前有望超過每年500億美元。MAI-1-Preview的訓練規模,相較於xAI的Grok等模型,雖然GPU使用量較少,但微軟強調其效率導向的開發策略,著重於優化數據使用與訓練過程,以達成更佳的效能表現。
微軟的這項發展,也預示著AI語音生成技術的持續進步。隨著深度學習與神經網路的發展,AI語音生成已能達到與真人難以區分的逼真程度,並能模仿各種口音、語氣,甚至特定人物的聲音。這項技術的進步為語音助理、有聲書、電子遊戲等領域開闢了無限可能。微軟的MAI-Voice-1在語音合成的即時性與資源效率上的表現,尤其令人矚目,這顯示了公司對將AI技術融入日常消費性產品的重視。透過這些自主研發的模型,微軟不僅在技術上展現了其獨立自主的決心,也為未來的AI應用生態系統奠定了更堅實的基礎,並有望在產業競爭中取得更為顯著的優勢。
來源
SINDOnews.com
Microsoft Unveils First In-House MAI Models: Bid for Independence From OpenAI
Microsoft launches in-house AI models MAI Voice-1, MAI-1-preview to reduce OpenAI reliance
Copilot evolves: Microsoft launches MAI-Voice-1, MAI-1-preview with diverse voice choices
閱讀更多有關此主題的新聞:
发现错误或不准确的地方吗?
我们会尽快处理您的评论。
