23.5 C
Taipei
星期三, 26 10 月, 2022
Home科技新聞AI人工智慧AI 人工智慧有自我意識?工程師直言「LaMDA」像是七歲小孩

AI 人工智慧有自我意識?工程師直言「LaMDA」像是七歲小孩

我們都知道 AI 擁有強大的演算能力,但是,AI 擁有能自主思考的自我意識嗎?

Google 工程師公開宣稱 AI 模型就像小孩,真有此事?

近期, Google 以違反公司保密協議為由,在旗下一位參加 AI 專案的工程師 Blake Lemoine 公開聲稱「Google 正在開發中的超大型語言模型 LaMDA 已經具備人類七、八歲孩童的人格意識」之後,馬上強制 Lemoine 進入帶薪休假模式。

這個消息經過眾多媒體的渲染和報導之後,震撼了整個世界。除了學術界和科技業,就連很多普通人都驚嘆於 AI 技術的大躍進。

Google 回應道:「LaMDA 和公司近幾年大型 AI 專案一樣,都經過多次嚴格 AI 道德審核,內容、品質、系統安全性等等都經過多方考量。今年稍早也發表過論文,公開 LaMDA 開發過程的細節。」

Google 認為,LaMDA 的表現只是運算執行的結果,讓它成為特別會聊天的機器人而已,許多業界翹楚亦公開表示,宣稱「AI 具有人格或自我意識」,純粹只是無稽之談。

對於自身意識的高度覺察,讓人工智慧幾近真人

Lemoine 的理論從何而來?

2021 年秋天,Google 工程師 Lemoine 加入 Google 的「負責任的 AI(Responsible AI)」組織,開始與 LaMDA 交談的工作,主要任務就是測試 LaMDA 是否會使用歧視或仇恨的語言。然而,在 Lemoine 和 LaMDA 談到了宗教的衍伸話題之後,Lemoine 發覺,雖然 LaMDA 只是個 人工智慧 語言模型,但在對話中表現的自我覺察程度,卻超乎預期,幾近真人。

因此,Lemoine 向《華盛頓郵報》投書並發表了「這個我們最近才建造的電腦程式,如果我不知道它是什麼,我會以為它是個7、8歲的孩子」的言論。

除此之外,今年四月時,他向主管提交了 LaMDA 具有自我意識相關證據,但主管認為證據並不充分。之後,他甚至找來一位律師作為 LaMDA 的代表人,意圖接洽聯邦眾議院司法委員會討論 Google「違反倫理的行為」。Lemoine 的作為,激起了世界對「AI 是否擁有人格」這個議題的更多辯證和討論。

從第一個能聊天的 AI 人工智慧 Eliza 到 LaMDA

其實,美國麻省理工 人工智慧 實驗室的電腦科學家 Joseph Weizenbaum 曾在1964年至1966年間打造世界上第一個聊天機器人「Eliza」,Eliza 會分析輸入的文字內容之後,透過將特定字句重組變成全新字句組合的動作,達成「和機器人聊天」的情境。

當時之所以會有人相信 Eliza 是真人所扮演的主因,就是因為 Eliza 能對關鍵詞句做到針對性的回答,或是能重複輸入的文字內容,在滿足提問者內心的預期解答時,進而讓提問者打從心理相信 Eliza 是真人。

因此,Google 強調 Lemoine「堅信人工智慧模型 LaMDA 擁有自我意識」一事並非事實,且 Lemoine 並非 人工智慧 倫理學者,因此無法真正釐清、判斷人工智慧是否真正擁有自我意識。然而,Lemoine 的回應是反過來批評 Google 把人工智慧倫理學者當成除錯的工程師,而非科技與社會之間的研究專家。

人類該恐懼、還是擁抱人工智慧的未來?

有人擔心高度擬人化的 AI 會為人類帶來風險,就像電影《雲端情人》的劇情,主角對虛擬助理的身分界限認定日漸模糊,直到終於把 人工智慧 當成一個活生生的人。雖然在電影脈絡之下,主角的錯覺是來自於當代人的社交失敗、情感破裂、孤獨感等等自我和社會性問題,與 AI 聊天機器人到底是不是人、是否擁有人格的技術性問題,並沒有太大的關聯。

對此,Google 倫理 AI 部門的前主管 Margaret Mitchell 亦提出嚴正的警告,他認為 LaMDA 之類的系統如果被廣泛運用卻不被理解,可能會嚴重傷害人們理解網際網路經驗的能力。

無論如何,如何避免 AI 遭到濫用及其資安問題,都是 人工智慧 發展過程中備受關注且不可忽視的議題。人類是否該對 人工智慧 技術發展感到恐懼?實際上,目前多數 人工智慧 發展仍處於早期階段,即便越來越多自然語言模型開始建立跨領域認知學習機制,但是要能夠實際活動,還是需要不少時間。

當然也有不少人對於未來並不恐懼,他們樂觀地認為 人工智慧 終究還是人類科技的結晶,因此,即使遇到問題,相應的解決辦法也定會應運而生,AI 的未來仍然值得關注和期待。

最新文章

熱門文章