目錄
為了人工智慧辨識,你願意戴「白面具」嗎?臉部辨識的隱憂
人工智慧臉部辨識技術越加成熟,能辨別出「你是誰」已經是基本款中的基本款了!越來越多 AI 辨識技術宣稱可以「從臉孔辨識出智商、性取向、政治傾向甚至是犯罪可能」。
看上去功能如此強大的 AI,卻遭披露「其實只擅長辨認白人」,讓臉部辨識的隱憂浮出水面。
AI 臉部辨識技術已被廣泛使用,也實際應用於執法:根據紀錄,從 2011 年起美國聯邦調查局(FBI)偵辦案件時就開始使用臉部辨識技術,至今累計了超過 39 萬次的臉部辨識搜索紀錄,是近年美國執法部門應用成長速度最快的系統工具。
但隨之而來的是被大力敲響的警鐘:一位麻省理工媒體實驗室的資料科學家喬伊‧波拉維尼(Joy Buolamwini)指出,臉部辨識技術其實十分容易誤認有色人種。
只擅辨識「中年白人男性」的 AI

▲ (圖片來自:圖片來自:AP Photo/Steven Senne)
AI 臉部辨識技術已經成熟了嗎?或許真的該打上個大問號。
來自 MIT 實驗室的迦納裔資料科學家喬伊‧波拉維尼表示,根據她於 2018 到 2019 年間做的兩項研究,證實眾多科技公司開發的 AI 都無法如辨識白人男性臉孔般、準確的辨識出膚色較深的女性臉孔。
其中,尤以 IBM 系統失誤率最高,竟高達 34 %;而亞馬遜的 Rekognition 會將 19 %的女性誤認為男性,若分析對象為膚色較深的女性,誤判機會更是高達 31 %,同時該系統在分析膚色較白的人種時,錯誤率幾乎為零。
波拉維尼發現,這些由科技巨頭如微軟、亞馬遜與 IBM 等公司研發出的臉部辨識 AI 演算法,對於判讀白人、黑人與女性竟然出現了差別待遇:「判讀白人的正確度比較高,判讀黑人與女性的正確性則較低。」
為什麼人工智慧不擅長辨識黑人女性?

▲ 科學期刊《自然》所刊之專文指出,被偏倚資料組訓練出來的演算法,通常僅會將左圖辨識成「新娘」。(圖片來自:Left:iStock/Getty;Right:Prakash Singh/AFP/Getty)
那究竟為什麼 AI 不擅長辨識黑人與女性呢?讓我們從波拉維尼的故事說起:
在 MIT 實驗室的某日,波拉維尼用自己的臉部照片測試了微軟、IBM 等公司的臉部辨識 服務,卻發現這些將自己宣稱的多先進的服務,有的將她誤認為男性、有的對她的照片沒有反應,根本辨識不出東西,錯誤率高得令她吃驚。
一直到她戴上白人面具,AI 彷彿恢復正常般,又可以辨識了。難道是她的臉部長相太特別、剛好是 AI 辨識不出來的特例?還是……這些辨識服務本身就有漏洞?
於是,波拉維尼決定進行更廣泛的測試。她輸入了超過 1000 張照片,包括不同種族、不同性別。結果發現一個明顯的趨勢:膚色愈白,辨識正確率就越高;另一方面男性的正確率遠比女性高。讓她明白為何臉部辨識幾乎無法認出她——因為她是一位具有「雙重弱勢」黑人女性,她這類人的辨識正確度,遠遠低於白人男性。
真相其實很簡單,歸根究柢就是因為在訓練演算法時,開發團隊沒有提供多元的種族和性別資料給 AI 所導致。換句話說,AI 在「成長過程」中,認知到的世界就多由白人、男性所構成。
即使並沒有人刻意將人工智慧訓練成這樣,但它可能引發的後續問題,或許比存有種族偏見的街頭警察更加嚴重……
還沒有完善就直接上陣的演算法
這個問題多花點時間就可以修正,只要提供多元組成的資料給 AI 即可,但這些科技公司依然選擇讓不完全的臉部辨識服務上線。
而臉部辨識服務也不是唯一一個,將存有偏見疑慮的 AI 服務投入實用的案例:
2018 年紐西蘭移民署(Immigration New Zealand)實行一項實驗計畫(pilot programme),藉由國家簽證申請程序蒐集移民的年齡、性別、種族、犯罪紀錄、醫療費用欠繳紀錄等等資料,預測這些居留者如果續留,有無犯罪的可能或是否帶來更多醫療支出。一旦 AI 認為,某些移民有治安或醫療方面的疑慮,他們將無法重新申請簽證,甚至會直接被驅逐出境。
消息一出立刻引發強烈抨擊,不少民眾與人權團體質疑這套演算法帶有偏見、背後隱藏著種族歧視,並且也鬧過荒謬的烏龍──一位印度裔移民的家屬被拒絕居留,只因移民署的 AI 認為他的母親過去曾經患有乳癌,但實際上他母親不曾患過任何關於乳房組織的疾病。
科技巨頭急煞車 將道德倫理納入考量
波拉維尼的研究成果公開後,IBM 於 2018 年投入解決 AI 歧視的問題、2020 年甚至直接宣布「不再開發、提供授權或研究臉部識別技術」;微軟則採納報告以改善誤差,並表示未來開發演算法時會納入道德倫理的考量。

▲ 波拉維尼之研究成果
2018 年微軟在官方網站上公布人工智慧開發應考量的六大倫理原則:公平性、可信賴性與安全性、隱私與安全、包容性、透明以及課責。並透露微軟已成立「人工智慧與工程及研究倫理委員會」,負責研究人工智慧產品研發對人類和社會的影響。
IBM 2020 年 4 月新上任的執行長 Arvind Krishna 撰寫一封公開信致函美國國會:「IBM 堅決反對且不會容許任何技術(包括其他業者的人臉辨識技術)用於大規模監控、種族歧視、違反基本人權與自由,或不符合我們價值觀與《信任與透明度準則》的行為。」
反觀亞馬遜,一開始不斷否認自家臉部識別平台 Rekognition 存有缺陷,甚至指波拉維尼的研究為「詆毀」,直到 2020 年年中因非裔男子喬治‧弗洛伊德之死,讓美國種族膚色衝突白熱化,亞馬遜才宣布將暫停讓美國執法部門使用 Rekognition 一年,以避免更嚴重的爭議。
臉部辨識技術雖然為人們的生活增添許多便利,但同時公共安全與個人隱私之間的取捨、種族性別的偏見爭議,都為這個自發展初期即飽受爭議的 AI 技術,更蒙上一層陰影。