人工智慧(AI)在各個領域似乎被吹捧為在各種應用領域實現自動化決策的「聖杯」;AI被認為可以做得比人類更好或更快的一些典型案例,包括在Netflix推薦電影、檢測癌症、依據每位訪客瀏覽電子商務和零售網站的習慣提供最佳使用者經驗,還有客製化車載資訊娛樂系統等等。其他特殊的自動化系統應用案例還包括能釀造出更好的啤酒、把人們的思緒轉換為語言,或譜寫出速度快到你無法想像的死亡重金屬音樂。

但這些自動化系統也發生過一些驚人的失誤:例如原本被視為黃金典範的自駕車,因為去年發生一輛Uber自駕車撞死行人的事件,而被證明AI尚未完全成功。但有越來越多的AI系統被用來進行與人相關的決策,包括他們該住哪裡、該做什麼工作、是否能投保還有投保費率會是多少、能得到什麼樣的抵押貸款,美國的國土安全部還會利用臉部識別功能判別某些人是否為恐怖分子。

AI決策的公正與否,在很大程度上取決於人工智慧訓練演算法所使用之測試資料集的準確性和完整性,而且取決於演算法本身的準確性,以及如何做出「成功」的決定。訓練演算法的最佳化策略如果是為了實現整個群體的最大整體精度,實際上會放大偏誤(bias)。

瞭解資料如何會生偏誤非常重要,雖然資料在一開始就有偏誤的想法聽起來並不合理。資料集有時候是因為不夠完整而造成偏誤:資料無法反映真實世界。如Edge Case Research共同創辦人暨執行長Michael Wagner先前於EE Times發表的一篇文章「小心AI偏誤為安全性帶來衝擊!」所提出的例子,自駕車在感測器資料上的AI訓練資料忽略了兒童、坐輪椅的人或穿著螢光背心的建築工人。

而即使資料確實反映了真實世界,如果所謂的「真實世界」仍包括舊有的社會不平等現象,仍有可能存在偏誤。例如某些人口次群體(subgroups)──可透過種族、性別和地理區域等分類判別,因為某些社會偏見讓這個族群在特定工作上被雇用的機會遠低於其他族群──也許從來沒有在某種工作職缺上被雇用,這個事實會被演算法的數學偏誤放大(如果像往常一樣,演算法針對資料庫的一般群體中誰擔任過這項工作進行最佳化),它會有效忽略那些少數族群,自動產生判斷上的偏誤。

關於AI演算法放大資料集的偏誤,有一個例子發生在幾年前,美國維吉尼亞大學(University of Virginia)研究人員所做的實驗發現,與人們相關的烹飪、購物、運動等日常活動影像資料集有高度的性別偏誤,因為其中有許多女性在烹飪與購物的影像,卻很少有女性在運動的影像,而男性的影像資料正好相反;雖然這種差異可能並不令人意外,但機器學習演算法在這些偏誤性的資料集上進行訓練後,會發生什麼事情就另當別論了。

研究人員發現,訓練演算法不僅反映、更放大了這些偏誤,以至於經常會將男性烹飪的照識別為女性在烹飪;而該維吉尼亞大學發表的論文上刊登了一張有個男人在爐子邊煮菜的圖片, 但AI演算法在上面做的標籤是「女人」。

20190705_AIbias_NT31P1

圖1:這張1969年的圖表顯示了一個簡單的演算法如何根據三個投資標準來評估林業商機。
(資料來源:「A computer program for evaluating forestry opportunities under three investment criteria」,Chappelle, Daniel E.)

偏誤可能導致AI演算法錯誤

就算去除人類元素,這類偏誤仍然存在而且但難以察覺;直到有人發現在智慧型手機上測試臉部辨識功能,卻有三分之一的手機無法正確運作,或是美國住宅與都市發展部(Department of Housing and Urban Development)控告Facebook廣告平台助長歧視性住宅廣告。

還有一個雖然與AI偏誤無關,而是AI可能犯錯的驚人案例:正在研究訂價演算法(被像是Amazon等電子商務網站使用)的義大利波隆那大學(University of Bologna)研究人員發現,在他們的實驗中,有兩個基於強化學習(reinforcement-learning)的訂價演算法會對彼此的行為做出回應,然後「聯手」設定出比它們分別訂價更高的價格。

AI最常被提到的公正性失誤案例來自於臉部辨識,雖然這可能不會直接影響到許多工程師正在開發的AI應用程式,但是我們有充分的理由注意那些錯誤分辨與分類不同性別、種族臉部影像的問題。至少,這些是明確的、容易理解的案例,顯示若未採用「前瞻工程(foresight engineering)」會產生什麼後果。

還有可能發生的是,銷售AI系統的公司將開始面臨其產品導致之損害而產生的責任歸屬問題;這在保險業界已經受到關注(保險業是AI系統的早期採用者,用於自動化重複流程和執行風險分析)。去年,保險業者Allianz Global Corporate & Specialty進行一項研究發現:「隨著決策責任從人轉變到機器,公司也將面臨新的責任情境(liability scenarios),需要建立新的架構管理AI所帶來的損害。」

儘管AI可能會代理人類做出一些決定,但無法為這些決定負責;若是AI系統因為任何功能上的失誤導致使用者的任何損害,製造商或程式設計師仍可能得承擔這些責任──是的,你沒看錯,這裡寫的是「程式設計師」。

...繼續閱讀請連結EE Times Taiwan網站