英國政府正積極推動一項劃時代的計畫,旨在透過先進的人工智慧(AI)技術,建立一套能夠預測並預防犯罪的系統。這項計畫預計在2025年開始導入,並預計於2030年全面推行至全國,這標誌著執法領域在運用科技打擊犯罪方面邁出了重要一步。
這套系統的核心是一個即時互動式犯罪地圖,它將整合來自警方、社會服務機構及地方議會等多方數據來源,包括犯罪紀錄、過往案件發生地點以及已知罪犯的行為模式。透過分析這些龐雜的數據,AI將能夠識別犯罪趨勢、預測潛在的犯罪熱點,甚至在反社會行為升級為嚴重罪行之前發出預警。此舉是英國政府「更安全街道」(Safer Streets)任務的一部分,目標是在十年內將刀械犯罪和針對女性及女童的暴力行為減少一半。目前,該系統的原型開發正如火如荼地進行,預計於2026年4月完成,並在全國範圍內推廣。
此項計畫獲得了初步的400萬英鎊政府投資,並是英國政府5億英鎊研發任務加速計畫(R&D Missions Accelerator Programme)的一部分。科技與科學部長彼得·凱爾(Peter Kyle)表示,AI等尖端技術能顯著提升公眾安全,並強調將科技用於保護守法公民而非違法者。包括科技產業協會(techUK)、鄰里守望組織(Neighbourhood Watch)及本·金塞拉信託基金(The Ben Kinsella Trust)在內的許多組織,都對此計畫的潛力表示歡迎,認為其能促進跨機構協作,更有效地分配資源,並在犯罪發生前進行干預。
然而,這項計畫也引發了廣泛的倫理擔憂與質疑。人權組織「國際特赦」(Amnesty International)和「自由」(Liberty)等團體強烈批評,認為此類預測性警務工具可能加劇現有的種族歧視和社會不公。他們指出,由於訓練數據源自過去可能帶有偏見的警務紀錄(例如過度執法和種族定性),AI系統可能無意中強化這些偏見,形成一個「歧視的迴圈」,不成比例地針對貧困和少數族裔社群。此外,系統的「黑盒子」特性,即其決策過程不夠透明,也引發了對準確性和問責制的擔憂。過往類似系統的試驗,也曾出現誤判無辜人士而被捕的情況,這凸顯了在依賴演算法時,必須極度謹慎以避免司法不公。
英國政府的這項AI犯罪預測系統計畫,是全球趨勢的一部分,即各國政府正積極探索如何利用AI來提升公共安全。然而,這項技術的部署不僅關乎效率與預防,更觸及了隱私權、公平性及演算法偏見等深層次的倫理議題。如何在追求更安全社會的同時,確保技術的應用符合人權與公平正義的原則,將是英國社會及全球各界持續關注的關鍵課題。這項計畫的成功與否,不僅取決於技術的精確度,更在於其能否在實踐中體現對所有公民權利的尊重與保障,從而真正促進社會的和諧與進步。