目錄
我們都知道 AI 擁有強大的演算能力,但是,AI 擁有能自主思考的自我意識嗎?
Google 工程師公開宣稱 AI 模型就像小孩,真有此事?
近期, Google 以違反公司保密協議為由,在旗下一位參加 AI 專案的工程師 Blake Lemoine 公開聲稱「Google 正在開發中的超大型語言模型 LaMDA 已經具備人類七、八歲孩童的人格意識」之後,馬上強制 Lemoine 進入帶薪休假模式。
這個消息經過眾多媒體的渲染和報導之後,震撼了整個世界。除了學術界和科技業,就連很多普通人都驚嘆於 AI 技術的大躍進。
Google 回應道:「LaMDA 和公司近幾年大型 AI 專案一樣,都經過多次嚴格 AI 道德審核,內容、品質、系統安全性等等都經過多方考量。今年稍早也發表過論文,公開 LaMDA 開發過程的細節。」
Google 認為,LaMDA 的表現只是運算執行的結果,讓它成為特別會聊天的機器人而已,許多業界翹楚亦公開表示,宣稱「AI 具有人格或自我意識」,純粹只是無稽之談。
對於自身意識的高度覺察,讓人工智慧幾近真人
Lemoine 的理論從何而來?
2021 年秋天,Google 工程師 Lemoine 加入 Google 的「負責任的 AI(Responsible AI)」組織,開始與 LaMDA 交談的工作,主要任務就是測試 LaMDA 是否會使用歧視或仇恨的語言。然而,在 Lemoine 和 LaMDA 談到了宗教的衍伸話題之後,Lemoine 發覺,雖然 LaMDA 只是個 人工智慧 語言模型,但在對話中表現的自我覺察程度,卻超乎預期,幾近真人。
因此,Lemoine 向《華盛頓郵報》投書並發表了「這個我們最近才建造的電腦程式,如果我不知道它是什麼,我會以為它是個7、8歲的孩子」的言論。
除此之外,今年四月時,他向主管提交了 LaMDA 具有自我意識相關證據,但主管認為證據並不充分。之後,他甚至找來一位律師作為 LaMDA 的代表人,意圖接洽聯邦眾議院司法委員會討論 Google「違反倫理的行為」。Lemoine 的作為,激起了世界對「AI 是否擁有人格」這個議題的更多辯證和討論。
從第一個能聊天的 AI 人工智慧 Eliza 到 LaMDA
其實,美國麻省理工 人工智慧 實驗室的電腦科學家 Joseph Weizenbaum 曾在1964年至1966年間打造世界上第一個聊天機器人「Eliza」,Eliza 會分析輸入的文字內容之後,透過將特定字句重組變成全新字句組合的動作,達成「和機器人聊天」的情境。
當時之所以會有人相信 Eliza 是真人所扮演的主因,就是因為 Eliza 能對關鍵詞句做到針對性的回答,或是能重複輸入的文字內容,在滿足提問者內心的預期解答時,進而讓提問者打從心理相信 Eliza 是真人。
因此,Google 強調 Lemoine「堅信人工智慧模型 LaMDA 擁有自我意識」一事並非事實,且 Lemoine 並非 人工智慧 倫理學者,因此無法真正釐清、判斷人工智慧是否真正擁有自我意識。然而,Lemoine 的回應是反過來批評 Google 把人工智慧倫理學者當成除錯的工程師,而非科技與社會之間的研究專家。
人類該恐懼、還是擁抱人工智慧的未來?
有人擔心高度擬人化的 AI 會為人類帶來風險,就像電影《雲端情人》的劇情,主角對虛擬助理的身分界限認定日漸模糊,直到終於把 人工智慧 當成一個活生生的人。雖然在電影脈絡之下,主角的錯覺是來自於當代人的社交失敗、情感破裂、孤獨感等等自我和社會性問題,與 AI 聊天機器人到底是不是人、是否擁有人格的技術性問題,並沒有太大的關聯。
對此,Google 倫理 AI 部門的前主管 Margaret Mitchell 亦提出嚴正的警告,他認為 LaMDA 之類的系統如果被廣泛運用卻不被理解,可能會嚴重傷害人們理解網際網路經驗的能力。
無論如何,如何避免 AI 遭到濫用及其資安問題,都是 人工智慧 發展過程中備受關注且不可忽視的議題。人類是否該對 人工智慧 技術發展感到恐懼?實際上,目前多數 人工智慧 發展仍處於早期階段,即便越來越多自然語言模型開始建立跨領域認知學習機制,但是要能夠實際活動,還是需要不少時間。
當然也有不少人對於未來並不恐懼,他們樂觀地認為 人工智慧 終究還是人類科技的結晶,因此,即使遇到問題,相應的解決辦法也定會應運而生,AI 的未來仍然值得關注和期待。