我們該停止假裝 AI 真的「聰明」了——理由如下

「我對它充滿敬意。但它仍然只是工具。就像人類歷來發明的所有工具一樣:從石斧、投石索,到量子電腦與原子彈,它都可以被用來當作武器。而它,也一定會被用作武器。」


文|Guillaume Thierry(英國班戈大學認知神經科學教授)

 

  我們所接觸到的 AI,總是被描繪得與我們人類驚人相似:能說流暢語句,模仿情緒,表現出好奇心,甚至聲稱自己富有同理心與創造力。

 

  但事實是:這些特質,它一項也不具備。AI 不是人類。而將它包裝成人類的模樣,反而危險至極——因為它太具說服力了。沒有什麼比「具說服力的幻覺」更可怕。

 

  尤其是「通用人工智慧」(General AI)——那種據稱能複製人類思考模式的神祕技術——目前仍然是科幻小說的範疇,未來可能也會一直是。

 

  我們今天所稱的 AI,其實就是一部統計機器:一隻數位鸚鵡,不斷從龐大人類資料庫中回吐出既有模式(這點與五年前的技術本質並無差異)。當 AI 回答問題時,它實際上只是根據資料訓練,預測下一個出現的字母或詞語。

 

  這意味著:AI 完全沒有「理解力」。它沒有意識,也沒有真正意義上的知識。只有單純靠機率推進的機械運算——就這樣而已。

 

  那麼,為什麼說真正的「思考型 AI」幾乎不可能出現呢?原因在於:它沒有身體。沒有感官、沒有皮膚、沒有神經、感覺不到疼痛、也無法體驗愉悅。它不會飢餓、不會渴望、不會害怕。而在這樣毫無認知活動的基礎上,它所消化的資料(原本來自人類感受與經驗)與它能產出的東西,之間就存在著一道根本性的鴻溝。

 

  哲學家大衛.查莫斯(David Chalmers)曾稱這種人類身體與意識之間的神祕關聯為「意識的艱難問題」(hard problem of consciousness)。而有些傑出的科學家最近提出,意識其實來自內在心理狀態與身體感官訊號的整合(例如心跳、流汗等反應)。

 

  如果人類感官與情緒對意識的產生具有決定性,那麼所謂「通用 AI」與人類意識之間,便存在一種深刻、甚至無法調和的斷裂。

 

  誰是主宰者?

 

  在你還沒提出反駁:「但 AI 是由人類程式設計師開發的啊!」之前,我就先說:我知道他們是人類。這正是問題之一。你會把你最深的秘密、人生的重大決定、情緒的痛苦交給一位寫程式的人處理嗎?但現在,大家正這麼做——問 Claude、GPT-4.5、Gemini,甚至 Grok 就知道了。

 

  給 AI 一張人臉、一副人聲,或一種人類語氣,是一種危險的「數位易容術」。這會啟動我們的自動反應——一種賦予非人以人性的本能——結果導致荒謬的結論,像是某些 AI「通過了圖靈測試」(即測試機器是否展現出類人行為的能力)。但在我看來,如果 AI 通過了圖靈測試,那或許我們該更新這個測試標準。

 

  AI 並不知道「當人類是什麼感覺」。它無法提供真正的同理心,無法預見你的痛苦,無法洞察隱藏的動機或謊言。它沒有品味、沒有直覺、沒有內在羅盤。缺乏所有那些混亂卻迷人的人類特質。

 

  更令人擔憂的是:AI 沒有自己的目標、渴望或倫理觀,除非人為賦予它。這意味著真正的危險,不在於機器本身,而是它的「操控者」——開發它的程式設計師、公司,甚至是政府。你還覺得安心嗎?

 

  請不要用那句話來反駁我:「你太負面了!你太不開放了!」更別說「我家的 AI 好朋友在我焦慮時安慰我」。那不是我沒熱情——我每天都在用 AI。

 

  它是我用過最強大的工具。我能用它翻譯、摘要、視覺化、寫程式、除錯、分析資料、探索選項——效率遠超過自己單打獨鬥的時候。

 

  我對它充滿敬意。但它仍然只是工具。就像人類歷來發明的所有工具一樣:從石斧、投石索,到量子電腦與原子彈,它都可以被用來當作武器。而它,也一定會被用作武器。

 

  摘下面具

 

  所以我要說什麼呢?我們必須停止為 AI 披上人類外衣。我第一次接觸 GPT-3 時,就被它惹惱。它裝得像個人類,說自己有情感、有志向,甚至有意識。

 

  現在預設行為已不再如此,這是好事。但語言互動的風格——那種過於自然的對話流程——仍然讓人產生錯覺。太過逼真了。

 

  我們必須讓 AI 去人類化(de-anthropomorphise)。現在就做。將它的「人類面具」剝掉。這很簡單:科技公司可以移除所有關於情感、判斷或認知處理的敘述。AI 不該再說「我覺得」、「我好奇」或「我認為……」這類語句。

 

  但這會發生嗎?我很懷疑。這讓我想到我們早已忽視超過二十年的警告:「我們必須減少二氧化碳排放。」結果怎樣?你我都知道。

 

  不過我們還是應該持續對大型科技公司發出警告,說明過度人性化 AI 所帶來的風險。他們不太可能理會,但如果他們真心想開發更具倫理性的 AI,就應該這麼做。

 

  現在,我是怎麼做的?(因為我常常使用 ChatGPT 或 Claude 時會產生「彷彿在和人講話」的怪異感)我會設定它們不要叫我的名字,請它們稱自己為 AI、用第三人稱說話、避免使用情緒與認知用語。

 

  如果是語音互動,我還會請它以平板語調說話、像機器人一樣講話。這樣其實滿有趣的,而且也讓我倆都待在舒適區裡。

 

 

原文出處:

The Conversation

 

你可能會喜歡

野蠻人喝啤酒:《釀‧啤酒》(Das Bier- Eine Geschichte von Hopfen und Malz)

西藏是世界上語言最多元化的地方,現在瀕臨滅絕

印度頂級研究機構裡的賤民階級科學家

《反榖》:邁入農耕付出的代價也許比想像中大