
自主武器系統(LAWS)殺手機器人(圖片來源:視頻截圖)
【看中國2026年2月18日訊】(看中國記者路克編譯/綜合)人工智慧(AI)的黃金時代敘事,正遭遇越來越多的質疑聲。據《巴倫週刊》(Barron's)報導,加州大學伯克利分校計算機科學教授、人工智慧安全領域權威拉塞爾(Stuart Russell)近日在新德里舉行的AI影響峰會上接受法新社採訪時直言,全球科技巨頭正陷入一場人工智慧「軍備競賽」,其潛在後果可能威脅整個人類文明。
「讓私人企業以類似‘俄羅斯輪盤賭’的方式拿全人類的命運下注,在我看來,是政府嚴重失職。」拉塞爾說。
與此同時,《TechRadar》指出,圍繞AI的樂觀宣言已持續數年——產業革命、效率飛躍、無摩擦生產力——但現實跡象表明,風險並非一次更新就能解決的小問題,而是伴隨技術擴張而來的結構性挑戰。
監管缺位與CEO困境:誰來踩剎車?
拉塞爾認為,全球主要AI公司掌門人並非對風險毫無認知。相反,他們「理解超級智能系統可能凌駕人類之上的危險」。但問題在於,單個企業無法率先「繳械」。
「我相信,每一家主要AI公司的CEO都希望解除這場競賽,」他說,「但他們無法單方面這麼做,否則會被投資人趕下臺。」
他透露,部分高管曾私下表達類似擔憂,公開層面上,OpenAI首席執行官奧特曼(Sam Altman)也曾承認,人工智慧存在導致人類滅絕的理論可能性。
然而,迄今為止,國際峰會所達成的多為企業自願承諾,缺乏強制約束力。拉塞爾強調,真正的責任在於各國政府採取集體行動,建立硬性監管框架。
資本狂奔:數據中心與2000億美元投資
在政策博弈之外,資本正在全速前進。
各國與科技企業正投入數千億美元建設高能耗數據中心,以訓練和運行生成式人工智慧模型。印度正試圖借勢突圍。印度信息技術部長瓦伊什瑙(Ashwini Vaishnaw)表示,未來兩年印度預計將吸引超過2000億美元的AI投資,其中約900億美元已落實。
但擴張同樣帶來就業焦慮。印度龐大的客服與技術支持外包產業近期股價下挫,市場擔憂AI助理工具將取代大量後臺崗位。對此,拉塞爾直言:「我們正在創造‘人類模仿者’,最自然的應用場景當然就是替代人類。」
他還觀察到,年輕群體正出現對AI「去人性化」趨勢的反彈。「當系統接管回答問題、制定決策、規划行動等認知功能時,你實際上是在削弱人的主體性。年輕人不願意那樣的未來。」
安全紅燈:高管辭職、深度偽造與現實誤判
《TechRadar》梳理了近期多起值得警惕的信號。
首先是安全領域高層的離職潮。Anthropic一名負責AI安全研究的高管本月公開辭職,並警告「世界正處於危險之中」。類似的離開並非孤例,xAI等實驗室亦出現核心人員出走。這些離職往往伴隨公開聲明,質疑企業是否在競爭壓力下犧牲安全標準。
其次是深度偽造技術的氾濫。監管機構已就部分平臺生成涉及未成年人的不當圖像展開調查。隨著生成工具門檻降低,偽造圖像與視頻所需技術大幅簡化。結果不僅是個體受害,更是公共信任基礎的侵蝕——當任何影像都可能被質疑為合成,事實本身開始鬆動。
此外,AI「幻覺」問題正從屏幕走向現實世界。自動駕駛、倉儲機器人與無人機等系統依賴視覺識別與實時決策。研究顯示,微小環境干擾或刻意設計的標識變化,可能導致系統誤判。例如將「停車」標誌識別為「限速」標誌——在實驗室是錯誤,在公路上則可能是災難。
商業化邊界:當聊天機器人遇上廣告
另一個爭議焦點是商業模式。OpenAI近期開始在ChatGPT中測試廣告產品,引發部分研究人員擔憂。一名資深研究員公開辭職,指出當系統既掌握用戶心理畫像,又承載商業激勵時,輔助與操控之間的界線將變得模糊。
社交媒體的發展史已提供前車之鑒——廣告驅動的演算法優化往往優先考慮參與度而非福祉。若AI助手在回答排序與推薦邏輯中加入營收權重,其影響或更為深遠。
事故累積:108起事件與加速風險
根據AI事故資料庫統計,僅2025年11月至2026年1月期間,就新增108起與AI相關的事故記錄,涵蓋欺詐、誤導建議與系統濫用等問題。儘管部分案例規模有限,但數量增長本身構成趨勢信號。
真正值得關注的是「加速度」。AI正迅速嵌入經濟、教育、媒體乃至軍事系統,而治理結構卻明顯滯後。
「末日」一詞或許誇張,但動盪已然真實存在。正如報導所言,災難並非必然,但自滿才是最大的風險。