AI心理健康助理「Aika」獲獎 凸顯數位輔助潛力與倫理挑戰
编辑者: Olga Samsonova
人工智慧(AI)在心理健康照護領域的應用正日益受到重視,特別是針對專業支持服務在可近性上所面臨的結構性失衡問題。此類技術的發展,旨在彌補全球範圍內,高漲的心理健康需求與有限的人類心理諮詢師資源之間的巨大鴻溝。
鑑於香港等地區擁有成熟的資訊科技基礎設施,數字健康解決方案,包括AI應用,被視為傳統治療模式的有效補充,有助於降低醫療成本並提升公共福祉。這項創新背後,由Giga Hidjrika Aura Adkhy所主導的「UGM-AICare (Aika)」專案,正是為了解決在海外觀察到的心理健康資源匱乏問題而誕生的AI驅動解決方案。Aika的設計核心在於模擬心理諮詢師的初步評估流程,透過文字對話作為自主代理人運作。
該系統能夠主動分析使用者的主訴內容,針對輕微的心理困擾,提供如呼吸技巧等自我協助建議。此外,當系統判斷需要專業介入時,Aika會謹慎地將使用者轉介給人類心理師,此機制強調了對使用者隱私的保護以及早期問題偵測的重要性。Aika的潛力已獲得外部肯定,該解決方案在2025年的EDU Chain Hackathon中榮獲了第一名的殊榮,該競賽是Open Campus推動去中心化教育解決方案系列活動之一,第一學期的第一名獎金為20,000美元,彰顯了其在縮小供需差距方面的巨大潛力。
然而,儘管AI工具展現出極大的便利性與可近性,學界和業界對於其應用仍保持審慎的態度。國立台北教育大學心理與諮商學系教授陳柏霖指出,部分學生在面對心理問題時,傾向先詢問AI機器人,但AI工具的侷限性在於可能因缺乏專業知識背景而導致誤判,國外甚至出現誤用AI導致自殺的案例,這是學界深切關注的風險。
專家強調,AI聊天機器人雖能提供初步的情緒支持與資訊,例如模擬關懷語句或提供舒緩技巧,但它本質上是「程式工具」,缺乏人類諮詢師所具備的真實情感共感、心理動力判讀能力,以及在危機時刻的即時介入能力。此外,OpenAI執行長奧特曼曾提及,使用者與AI的對話不具備法律上的保密義務,這與心理師、醫師等專業人員受法律保護的對話有本質區別,用戶數據的保留與分析潛在風險不容忽視。
因此,如臺北市政府衛生局所提醒,AI應被視為輔助工具,專業的評估與治療仍需由持證的心理師或醫師執行,以確保服務的安全性和倫理標準。最終目標是透過負責任的創新,讓AI成為強化人類心理健康支持體系的有效橋樑。
4 浏览量
來源
Tribun Jogja
Inspiratif, Mahasiswa UGM Bikin Inovasi Layanan Psikologi Berbasis AI
Inovasi Mahasiswa UGM untuk Kesehatan Mental Raih Pengakuan Internasional
AI Summit 2026 UGM: AI Berpotensi Perluas Akses untuk Penyandang Disabilitas
发现错误或不准确的地方吗?我们会尽快处理您的评论。



