人工智能可以幫助消除偏見嗎?

“我們不會看到事物的本質(zhì),我們只是以自己的方式在看待它?!彼喈?dāng)簡潔地描述了伴隨我們的大腦而來的各種不幸的偏見。

在商業(yè)環(huán)境中,親和力偏差、確認(rèn)偏差、歸因偏差和光環(huán)效應(yīng),這些推理錯誤中的一些更為人所知的,實際上只是表面上的。總的來說,他們會留下一連串的冒犯和錯誤。

當(dāng)然,人類最有害的偏見是那些基于年齡、種族、性別、宗教或外貌而對我們的人類同胞產(chǎn)生偏見或反對我們的偏見。盡管我們努力凈化我們自己、我們的工作環(huán)境和我們的社會,使其不受這些扭曲的影響,但它們?nèi)匀辉谖覀兊乃枷牒托袨橹袧B透,甚至包括現(xiàn)代技術(shù),比如人工智能。

批評人士表示,人工智能讓偏見變得更糟

自從人工智能首次被部署在招聘、貸款審批、保險費(fèi)建模、面部識別、執(zhí)法和一系列其他應(yīng)用中以來,批評人士(有相當(dāng)多的理由)指出了該技術(shù)的偏見傾向。

例如,谷歌的新版語言模型BERT(Bidirectional Encoder Representations from Transformers)是一個領(lǐng)先的自然語言處理(NLP)模型,開發(fā)人員可以使用它來構(gòu)建他們自己的AI。BERT最初是使用維基百科文本作為其主要來源構(gòu)建的。這有什么問題嗎?維基百科的貢獻(xiàn)者絕大多數(shù)是來自歐洲和北美的白人男性。因此,基于語言的人工智能最重要的來源之一在其誕生之初就帶有偏見的觀點。

在人工智能開發(fā)的另一個關(guān)鍵領(lǐng)域計算機(jī)視覺中也發(fā)現(xiàn)了類似的問題。面部識別數(shù)據(jù)集包含數(shù)十萬張標(biāo)注的人臉,這對于開發(fā)用于網(wǎng)絡(luò)安全、執(zhí)法甚至客戶服務(wù)的面部識別應(yīng)用程序至關(guān)重要。然而,事實證明,開發(fā)人員(可能大部分是白人中年男性)在為像他們這樣的人實現(xiàn)準(zhǔn)確性方面不知不覺地做得更好。女性、兒童、老年人和有色人種的錯誤率遠(yuǎn)高于中年白人男性。因此,IBM、亞馬遜和微軟在2020年被迫停止向執(zhí)法部門銷售其面部識別技術(shù),因為擔(dān)心這些偏見會導(dǎo)致對嫌疑人的錯誤識別。

要了解更多信息,可以觀看重要且有時令人不寒而栗的紀(jì)錄片《編碼偏見》Coded Bias。

如果AI實際上是偏見解決方案的一部分呢?

然而,對人工智能偏見現(xiàn)象的更好理解表明,人工智能只是暴露和放大了已經(jīng)存在但被忽視或誤解的隱性偏見。人工智能本身不受顏色、性別、年齡和其他偏見的影響。它不易受到困擾人類的邏輯謬誤和認(rèn)知偏見的影響。我們看到人工智能存在偏見的唯一原因是人類有時會用啟發(fā)式錯誤和有偏見的數(shù)據(jù)來訓(xùn)練它。

自從發(fā)現(xiàn)上述偏見以來,所有主要的技術(shù)公司都在努力改進(jìn)數(shù)據(jù)集并消除偏見。消除人工智能偏見的一種方法?——通過使用人工智能!如果這似乎不太可能,我們繼續(xù)探討。

使用人工智能消除招聘中的偏見

經(jīng)典的例子可以在工作機(jī)會中找到。在最令人垂涎的就業(yè)機(jī)會范圍內(nèi),眾所周知,女性和有色人種的代表性不足。這種現(xiàn)象是自我延續(xù)的,因為新員工成為高級領(lǐng)導(dǎo)者,他們開始負(fù)責(zé)招聘。親和偏見確?!跋裎疫@樣的人”繼續(xù)被錄用,而歸因偏見則根據(jù)過去員工的表現(xiàn)證明這些選擇是正確的。

但當(dāng)人工智能在招聘中發(fā)揮更大作用時,這種情況可能會改變。像Textio、Gender Decoder和Ongig這樣的工具使用人工智能來仔細(xì)檢查關(guān)于性別和其他特征的隱藏偏見。Knockri、Ceridian和Gapjumpers使用人工智能刪除或忽略識別性別、國籍、膚色和年齡的特征,這樣招聘經(jīng)理就可以只關(guān)注求職者的資格和經(jīng)驗。其中一些解決方案還通過客觀評估候選人的軟技能或改變候選人的電話聲音來掩蓋他們的性別,從而減少了面試過程中的近因偏見、親和力偏見和性別偏見。

用人工智能消除風(fēng)險投資決策中的偏見

在風(fēng)險投資界也可以采取類似的做法。在風(fēng)險投資界,男性占合伙人的 80% ,而女性只獲得2.2%的投資,盡管她們是40%新創(chuàng)業(yè)公司的創(chuàng)始人。例如,英國創(chuàng)業(yè)加速器Founders Factory編寫了一款軟件,根據(jù)可識別的創(chuàng)業(yè)成功特征對項目候選人進(jìn)行篩選。同樣,由女性運(yùn)營的非盈利機(jī)構(gòu)F4capital開發(fā)了一套“創(chuàng)業(yè)公司 FICO 評分 ”(FICO score for Startups),用來評估初創(chuàng)公司的成熟度、機(jī)會和風(fēng)險,以消除風(fēng)險決策過程中的偏見。這種方法應(yīng)該被廣泛采用,不僅因為它是一件合乎道德的事情,還因為它帶來了更好的回報——比沒有人工智能幫助的投資高出184% 。

差減少人工智能在醫(yī)學(xué)領(lǐng)域的認(rèn)知偏差

人工智能還可以幫助在醫(yī)療保健方面做出更好的決策。例如,醫(yī)療診斷公司 Flow Health 致力于使用人工智能來克服醫(yī)生經(jīng)常用來診斷病人的認(rèn)知偏見。例如,“可獲得性啟發(fā) ”鼓勵醫(yī)生做出常見但有時不正確的診斷,而“錨定啟發(fā)式”導(dǎo)致他們堅持不正確的初始診斷,即使新信息與他們相矛盾。我相信人工智能將成為快速發(fā)展的數(shù)據(jù)驅(qū)動的個性化醫(yī)療世界的重要組成部分。

人工智能可以減少常見偏見的其他領(lǐng)域

人工智能甚至可以幫助減少不那么惡性、但仍然非常強(qiáng)大的偏見,這些偏見經(jīng)常會蒙蔽我們的商業(yè)判斷。想想(在英語國家)對用英語發(fā)布的信息的偏見,創(chuàng)業(yè)公司對年紀(jì)較大的人的偏見,盡管他們的知識和經(jīng)驗更豐富;制造業(yè)傾向于使用相同的供應(yīng)商和方法,而不是嘗試新的、可能更好的方法。別忘了,在經(jīng)濟(jì)困難時期,供應(yīng)鏈管理的高管和華爾街的投資者會出于情感因素做出短期決策。

讓人工智能在所有這些領(lǐng)域發(fā)揮作用,可以有效地檢查決策過程中未被識別的偏見。

人工智能甚至可以用來減少人工智能的偏見

如果犯錯是人的本性,人工智能可能是我們所需的解決方案,以避免我們隱藏的偏見帶來的代價高昂和不道德的后果。但這些偏見對人工智能本身的干擾又如何呢?如果人工智能誤讀了有偏見的數(shù)據(jù),并放大了有偏見的人類啟發(fā)式,它怎么可能是一個有用的解決方案?

現(xiàn)在有一些工具旨在消除隱含的人類和數(shù)據(jù)偏見,這些偏見悄悄地進(jìn)入人工智能。What-If 工具由 Google 的 People and AI Research 團(tuán)隊 (PAIR) 開發(fā),允許開發(fā)人員使用廣泛的“公平指標(biāo)”庫來探索 AI 的性能,而 PWC 的BiasAnalyzer 工具、IBM Research 的AI Fairness 360工具和 O' Reilly 的每個LIME 工具都可以幫助我們識別 AI 代碼中是否存在偏見。

如果你是一名高級管理人員或董事會成員,正在考慮人工智能可能減少你組織中的偏見的方式,我敦促您將人工智能視為武器庫中一個有希望的新武器,而不是將其視為完全解決問題的靈丹妙藥。從整體和實際角度來說,你仍然需要建立減少偏見的基準(zhǔn),培訓(xùn)你的員工識別和避免隱藏的偏見,并從客戶、供應(yīng)商或顧問那里收集外部反饋。偏見審查不僅是一個好主意,在某些情況下,它們甚至是法律。

本文作者:Glenn Gow千家網(wǎng)編譯

極客網(wǎng)企業(yè)會員

免責(zé)聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請進(jìn)一步核實,并對任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對有關(guān)資料所引致的錯誤、不確或遺漏,概不負(fù)任何法律責(zé)任。任何單位或個人認(rèn)為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實內(nèi)容時,應(yīng)及時向本網(wǎng)站提出書面權(quán)利通知或不實情況說明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關(guān)文章源頭核實,溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。

2022-07-18
人工智能可以幫助消除偏見嗎?
自從人工智能首次被部署在招聘、貸款審批、保險費(fèi)建模、面部識別、執(zhí)法和一系列其他應(yīng)用中以來,批評人士(有相當(dāng)多的理由)指出了該技術(shù)的偏見傾向。

長按掃碼 閱讀全文