每當您向大型語言模型(LLM)提出問題,某處的伺服器就會隨之運作,並消耗通常來自不可再生能源的電力。這份數位便利性背後隱含著實質的代價,具體體現為二氧化碳排放與資源耗竭,然而多數使用者對此規模卻一無所知。arXiv 上近期發表的一篇科學論文介紹了透明的篩查方法,旨在更準確且公開地評估 LLM 在訓練與推論階段對環境造成的影響。
訓練這些模型需要龐大的運算資源,有時需在專門的硬體集群上運行數月之久。研究顯示,訓練一個尖端模型所產生的碳排放量,可能等同於一輛燃油車行駛數十萬英里的排放量。但該論文指出,隨著每一次的使用者互動而發生的「推論」過程正迅速增加,其累積效應可能很快就會超越訓練成本。若缺乏一致的衡量標準,不同模型或供應商之間的比較頂多只能說是不可靠。
這些提議的篩查方法以強調透明度為其特色。它們概述了逐步的操作協定,將所使用的硬體類型、能源效率、資料中心的能源使用效率(PUE),以及當地電網的特定碳強度等因素納入考量。根據研究,產業報告中經常忽略或粗略估計這些細節,導致低估影響或出現「張冠李戴」的不對等比較。透過讓研究方法具備完全的可複製性,此方案使獨立驗證成為可能,並鼓勵業界建立統一標準。
這項進展揭示了我們在採用人工智慧技術時所面臨的一個關鍵悖論。一方面,我們期望人工智慧能優化其他領域的能源使用,涵蓋從智慧電網到氣候建模的廣泛應用。另一方面,支持人工智慧本身的基礎設施卻變得日益耗能。其中的誘因顯而易見:科技公司優先考慮能力的快速提升與市場主導地位,而環境責任除非有助於品牌形象,否則始終處於次要地位。該論文的貢獻在於,它為研究人員、政策制定者甚至消費者提供了要求改進的工具,進而可能打破這種模式。
考慮一個日常生活的類比。正如閱讀食品包裝上的成分表能幫助我們做出更健康的選擇,LLM 的透明影響篩查也能讓我們了解人工智慧查詢背後的「成分」。一個需要多個推論步驟的複雜請求,所消耗的能量可能相當於筆記型電腦運行一小時,而簡單的請求則僅耗費其中一小部分。這種透明度可能會潛移默化地改變使用者行為,促使人們以更審慎的態度使用這些強大卻耗費資源的工具。這同時也對開發者形成壓力,迫使他們在效率上進行創新,例如透過模型壓縮、更優化的演算法,或將資料中心策略性地設於能源更潔淨的地區。
除了個人行為之外,系統性的模式也深具啟發意義。隨著人工智慧嵌入從搜尋引擎到創作軟體的各個層面,其環境足跡已從少數人關注的議題轉變為重大的社會問題。監管機構已開始注意到這一點,要求強制揭露相關資訊的呼聲也日益高漲。然而,論文警示,若缺乏嚴謹且透明的方法,此類監管措施恐將面臨無效或易被規避的風險。這裡隱藏的利害關係在於對「進步」敘事權的掌握——科技進步究應純粹由智慧與速度來定義,還是應平衡考量人類與地球的長期福祉。
選擇符合我們價值觀的技術,始於看清其真實的代價。



