星期六, 28 11 月, 2020
23.4 C
Taiwan
更多
    更多
      Home 科技新聞 AI人工智慧 人工智慧寫文太療癒 奪排行榜冠軍!學霸敲碗跟 AI 求雞湯文

      人工智慧寫文太療癒 奪排行榜冠軍!學霸敲碗跟 AI 求雞湯文

      過去討論「哪些工作 人工智慧搶不走?」時,有一說是 AI 無法取代文字創作者,因為機器不可能寫出感動人心的文章,但這個說法或許已被打破了。

      日前,一位加州大學柏克萊分校的大學生使用 GPT-3 生成一篇篇文章,不但未被察覺是人工智慧寫的假文,還登上了 Hacker News 熱門榜、吸引大批粉絲追更……

      ▲ 一個正在寫經卷的機器人(示意圖,與本文無關。)

       

      非營利人工智慧研究組織 OpenAI 於 2020 年 5 月發表自然語言處理語言模型 GPT-3( Generative Pretrained Transformer 3)的研究成果。這個號稱是目前世界最強大的 NLP 模型,由 1750 億個參數組成,可以分析單字、文本和數據序列,並藉以自行擴展,生成與主題相符且連貫的文章或圖像。

      簡單而言,只要你給出明確的提示,GPT-3 就可以自動產生一段文字甚至文章。這讓 GPT-3 幾乎可以勝任所有用文字表達的工作:從回答問題、寫文章與詩歌、翻譯語言到編寫代碼,一應俱全。

      但如此強大的功能也讓 GPT-3 自釋出以來就令人擔憂,若遭有心人士、極端團體惡意利用 GPT-3 製造散播假消息,後果不堪設想。上一代版本 GPT-2,OpenAI 就為避免濫用問題,拒絕對外公開演算法;GPT-3 則是選擇開放 Beta 版本僅供特定人士私測。

      他們的擔心或許不是沒道理的──日前就一名美國大學生,用 GPT-3 產出了一篇篇假文,不只登上了全球知名技術論壇「Hacker News」的熱門文章,騙到了一批讀者,其中更有人成為粉絲、訂閱追更。

      妙筆生花的人工智慧

      雖然 GPT-3 目前沒有開放給一般大眾使用,只有開放 API 給學術研究人員,但目前就讀美國加州大學柏克萊分校的 Liam Porr,找到了一位申請過 API 的校內博士生,共同合作進行這項實驗。

      Porr 提供了一段有標題和簡介的腳本, GPT-3 便輸出了幾篇完整的文章。Porr 化名「adolos」創建了一個部落格,從 GPT-3 輸出的幾篇文章中挑出一篇,僅僅是調整一下排版、未對內文做任何修改,就複製貼上到 Hacker New,開始他的實驗──這篇文章的標題是:《Feeling unproductive?Maybe you should stop overthinking》(感到效率不佳?也許你應該停止過度思考)。

      這篇文章受到熱烈歡迎,在短短幾個小時內就獲得超過兩萬次點擊量,更是衝上了Hacker News 熱門文章的榜首。Porr 表示:「從我想到這個想法並與那個博士生取得聯繫、創了一個部落格、到發出一篇堪稱病毒式行銷的文章——這大概只花了幾個小時。

      ▲ 這篇由人工智慧 GPT-3 所生成的文章一度被推到榜首。

       

      即使底下的有幾則留言質疑這是用人工智慧生成的,但隨即被一面倒的好評給淹沒。大多數人非但沒有察覺、更有人大讚道:「這篇文章就跟 Ethan Hawke 在 Ted 的演講一樣深刻動人!」

      首戰告捷後,Porr 每兩天寫一篇……或說用 GPT-3 生成一篇文章發表在他的部落格,幾乎都是與「樂觀正念」、「自我激勵」、「職場成功方式」等心理勵志的文章,俗稱「心靈雞湯文」。如:《Boldness and creativity trumps intelligence.》(大膽和創造力勝過智慧)、《The reading habits of successful people》(成功人士的閱讀習慣)、《Visual thinking isn’t just for artists》(視覺思維並非藝術家的專利)等等。

      為什麼人工智慧特別懂心靈雞湯?

      為什麼 Porr 挑了心理勵志類的文章讓 GPT-3 生成呢?這要歸因到 GPT-3 的優缺點。

      推薦閱讀:只要給幾個字,AI 馬上生出完整文章!有奇幻科普還有..假新聞?

      如果說以前的語言模型是專才,那 GPT-3 就是一個通才,樣樣都做得還不錯,只是不擅長處理邏輯性問題。引用 Porr 的話:「它很擅長創造漂亮的語言,但不太擅長邏輯和理性。」因此,他選擇了一個不需要嚴格邏輯,只需要華美詞藻與豐沛情緒、而且一直受部分讀者喜愛的流行文類——「心理勵志」。

      ▲ (Photo by Aaron Burden on Unsplash)

       

      Porr 有個簡單的方法來決定要餵給 GPT-3 的腳本,他在 Medium 和 Hacker News 上翻來翻去、看看有什麼受歡迎的文章,把一些相似的文章資料放在一起,就可以餵給 GPT-3 了。

      Porr 表示,每篇發表的文章他幾乎都沒有編輯或修改過,都是直接複製貼上生成的內容。

      即使 GPT-3 缺乏邏輯,但善於渲染情緒、鼓舞人心,倘若是想將文章化為表達特定意識形態、政治傾向的工具時,GPT-3 的強大功能恐怕會成為煽動情緒、掀起對立的武器。

      推薦閱讀:AI寫作能力強過人類,恐成為假新聞製造機?

      真相大白

      Porr 的部落格人氣居高不下,甚至有別的平台轉載了這些假文章。在感到訝異之餘,他決定是時候讓一切真相大白了。

      最後,Porr 終於發表了自己寫的文章──標題為《What I would do with GPT-3 if I had no ethics》(如果我沒有道德、將如何使用 GPT-3)

      ▲ (Photo by Patrick Fore on Unsplash)

       

      這篇文章敘述了這個「假部落格」的始末,包括他如何用 GPT-3 批量生產這些文章。他解釋這全都是實驗的一部分,而一開始只是想嘗試證明 GPT-3 可以冒充人類作家。

      Porr 表示:「這種技術可以輕易更大量產出平庸的網路文章,讓網路文章的內容價值大大降低。」「這是一件超級簡單的事,但老實說,這也是最可怕的地方。」同時也點出 GPT-3在科技倫理上的問題,與遭到有心人士惡意使用的後果。

      推薦閱讀:特斯拉 CEO 馬斯克:AI 恐帶來末日,FB 祖克柏打臉嗆聲

      GPT-3 的隱憂

      人工智慧技術越強大,網路上的萬事萬物就越不可信任。

      而明德大學蒙特雷國際研究學院(MIIS)專門研究恐怖主義、極端主義和反恐的研究中心表示,GPT-3 能自主生產各類文本的能力,很可能被用來激化個人暴力、極端主義思想和行為。

      2020 年美國總統大選越來越近,2016 年選舉時發生的「劍橋分析事件」還歷歷在目:透過盜用 Facebook 五千萬用戶個資,了解他們的偏好,進而預測選民心理、主導美國社會輿論,最後左右大選結果。

      推薦閱讀:馬斯克宣布離開 OpenAI 的真正原因是…研發的AI太會寫假新聞?

      即使 OpenAI 表示,正嘗試在 API 層級上設下類似「毒素過濾器」(toxicity filters)的安全措施,但未公開透明的研究讓人們更加擔憂和懷疑。

      GPT-3 是否也會成為蠱惑人心的道具?這值得我們所有人持續關注,與警惕任何網路上的事物。