24.1 C
Taipei
星期三, 26 10 月, 2022
Home科技新聞AI人工智慧電影情節真實上演,科技執法 AI 能夠90%精準預測犯罪!人工智慧執法也有種族歧視?

電影情節真實上演,科技執法 AI 能夠90%精準預測犯罪!人工智慧執法也有種族歧視?

AI 預測犯罪準確率高達九成,為何仍存在種族歧視隱憂?

現在,「預測犯罪」這樣的事情已經不僅僅只存在於電影劇情裡,美國已經可以使用 AI 模組,以實驗中的 人工智慧 系統來預測一週以內可能發生的犯罪行為。

科技執法不是夢!「城市雙胞胎」AI 精準預測犯罪有望降低犯罪率

芝加哥大學的助理教授 Ishanu Chattopadhyay 受到美國媒體商業內幕(Business Insider)的採訪時告訴記者,他和他的團隊創建了「城市雙胞胎」(Urban twin)來監控 2014 年至 2016 年底的芝加哥犯罪數據,城市雙胞胎這個 AI 模組的能夠預測到某些犯罪的可能性。研究證明,將預測的街區範圍設定在兩個街區內的話,城市雙胞胎的預測準確率能夠高達 90%。

城市雙胞胎技術來自芝加哥大學的團隊研究實驗,將城市雙胞胎 AI 模組投入至美國共八個城市——包含芝加哥在內,還有亞特蘭大、奧斯汀、底特律、洛杉磯、費城、波特蘭和舊金山——實行犯罪預測,不但在預測犯罪方面有高達九成的預測準確率,更能細分犯罪的程度、犯罪類型和發生地點。

根據加拿大數據分析公司 AreaVibes 的統計資料,2020 年芝加哥的犯罪率比美國各城市的平均值還多出 67%,也因此成為城市雙胞胎的最佳實驗地點。他們希望透過這項計畫,能夠有效減低未來犯罪發生率,提高生活的安全程度。

人工智慧也有種族歧視?帶有歧視的數據庫有待監督

其實,使用數據來分析犯罪率已經行之有年,這種分析方法在流行病學、公共衛生、救災甚至地震學的領域中都很常見。幾十年來,警方一直在使用類似的分析來預測地理犯罪的「熱點」,這些研究顯示集中警務工作能夠顯著地降低犯罪發生率。

然而,芝加哥警方在 2016 年時使用一項 AI 模組預測最有可能成為槍擊事件受害者或肇事者的人,卻發現有 56% 的青壯年黑人男性出現在名單上。這份秘密名單遭爆料後,引發了種族主義的撻伐與指控,「犯罪預測系統會助長種族偏見」的議題也浮上檯面。

Chattopadhyay 表示,城市雙胞胎的模組本身可能也存在偏見,但他們已經盡力改善其他犯罪模組會出現的種族歧視機率。城市雙胞胎透過排出特定的資料數據,加入了多項資訊執行運算,以期更有機性地預測犯罪發生。

除此之外,團隊更進一步地公開了城市雙胞胎的演算法以增加審查透明率,他相信這項發明若能用於高層政策而非單純作為警方工具,能夠更有效地落實社會的穩定。

最新文章

熱門文章