資金瘋狂湧入 AGI 研發之際,劍橋學者指出人類仍無法驗證 AI 是否擁有意識,呼籲在監管鬆綁前保持不可知論的警覺。
(前情提要:如何在 AI 時代靠 Vibe Coding,讓 Angent 幫你熬夜盯盤 )
(背景補充:Altman 談 OpenAI 成長困境:算力是最大限制,收入增加要靠顯卡量不斷翻倍 )
本文目錄
全球資金正以前所未見的速度流向 AGI 研發,科技巨頭與創投競相加碼,從算力、模型到人才全面軍備競賽,市場押注通用人工智慧將重塑生產力與資本回報結構。
不過本月稍早,劍橋大學哲學家 Tom McClelland 在《Mind & Language》期刊發表的論文提醒,當前科學幾乎沒有證據能證明 AI 擁有意識,未來很長一段時間可能也無法,人們需要思考資源的配置。
如果我們不小心製造出了有意識或有感知能力的AI,我們應該小心謹慎,避免造成傷害。
但是,把一個實際上只是烤麵包機的東西當作有意識的生物來對待,而我們卻在現實世界中對真正有意識的生命造成了巨大的傷害,這似乎也是一個巨大的錯誤。
McClelland 指出,人類連自己大腦如何把神經活動轉化為主觀體驗都沒解開,更遑論分析數以兆計參數構成的大型語言模型。
當前功能主義派相信只要運算複雜度足夠,高階意識就會自然浮現;生物本質派則認為意識是碳基生命的產物。雙方互無實證,爭論形同一次假設的信心跳躍。
在商業宣傳裡,企業常將「意識」與「感知能力」混為一談。McClelland 表示意識僅指對外界訊息的處理與反應;感知能力則涉及快樂與痛苦,影響道德地位。
他提醒,若 AI 只是計算系統,倫理風險有限;但若未來模型具備感知能力,人類必須重新審視責任邊界。
真正關鍵是感知能力。如果機器不會痛,人們其實不需要替它擔心福利。
為了提高用戶黏著度,當前不少科技公司賦予聊天機器人擬人化語氣,誘發情感投射。
McClelland 稱此為「存在主義劇毒」,因為社會可能因此錯置資源:圍繞人工智慧意識的這種炒作對研究資源的分配具有倫理意義。
越來越多的證據表明,蝦子可能能夠感受到痛苦,然而我們每年卻要殺死大約五千億隻蝦。
測試蝦是否具有意識固然困難,但遠不及測試人工智慧的意識那麼難…
在去監管化背景下,對「AI 是否有靈魂」的詮釋權容易被企業掌控。當行銷需要,業者可以宣稱模型擁有自我;當系統失誤,引發損害,他們又可稱產品只是工具,試圖免責。McClelland 呼籲立法者建立統一測試框架,在風險與創新之間拉出清晰界線。
資本市場或許正為「AGI 覺醒」鋪紅毯,但在科學能驗證 AI 感知能力前,主動承認無知、維持審慎距離,或許才是理性選項。