如何消除人工智能“偏見”

時(shí)間:2022-05-19

來源:AI時(shí)代前沿

導(dǎo)語(yǔ):偏見不僅可能導(dǎo)致AI系統(tǒng)做出更糟糕的決定,還可能使運(yùn)行AI系統(tǒng)的組織陷入法律危機(jī)。

  隨著企業(yè)將更多機(jī)器學(xué)習(xí)和人工智能模型投入生產(chǎn),人們?cè)絹碓揭庾R(shí)到自己的系統(tǒng)存在偏見。這種偏見不僅可能導(dǎo)致AI系統(tǒng)做出更糟糕的決定,還可能使運(yùn)行AI系統(tǒng)的組織陷入法律危機(jī)。

  哈佛大學(xué)和埃森哲公司在去年發(fā)布的一份報(bào)告中展示了算法偏見如何潛入人力資源部門的招聘流程。在2021年的聯(lián)合報(bào)告《隱藏的員工:未開發(fā)的人才》中,不當(dāng)?shù)穆毼幻枋龊蛧?yán)重依賴算法進(jìn)行招聘廣告發(fā)布和簡(jiǎn)歷評(píng)估的自動(dòng)化招聘系統(tǒng),是怎樣阻止合格的個(gè)人找到工作。

  偏見導(dǎo)致了兩個(gè)最壞情況。盡管企業(yè)在技術(shù)上花費(fèi)了大量金錢,系統(tǒng)仍固守著以往錯(cuò)誤的做法,而且效率更高,結(jié)果更差。

  警務(wù)是另一個(gè)容易因算法偏見而產(chǎn)生意外后果的領(lǐng)域。某些警務(wù)預(yù)測(cè)產(chǎn)品被證明對(duì)特定社區(qū)的犯罪預(yù)測(cè)和種族之間存在顯著的相關(guān)性,這種流行的預(yù)測(cè)性警務(wù)產(chǎn)品可能對(duì)少數(shù)族裔存在偏見。研究發(fā)現(xiàn)在美國(guó),居住在一個(gè)地區(qū)的白人居民越少,而居住在那里的黑人和拉丁裔居民越多,該產(chǎn)品預(yù)測(cè)發(fā)生犯罪的可能性就越大。同樣的差距也存在于富裕和貧困社區(qū)之間。

  DataRobot在一項(xiàng)針對(duì)美國(guó)和英國(guó)各行業(yè)350家機(jī)構(gòu)的調(diào)查中,超過一半的機(jī)構(gòu)表示,他們非常擔(dān)心人工智能偏見可能會(huì)傷害他們的客戶和自己。

  該調(diào)查顯示,54%的美國(guó)受訪者表示,對(duì)其組織中人工智能偏見的潛在危害感到“非常擔(dān)憂”或“深感擔(dān)憂”。而2019年進(jìn)行的一項(xiàng)類似研究中持相同觀點(diǎn)的人占42%。調(diào)查顯示,他們的英國(guó)同事對(duì)人工智能的偏見懷疑態(tài)度更深,64%的人表示他們也有這種看法。

  而調(diào)查中超過三分之一(36%)的受訪者說,他們的組織已經(jīng)因AI偏見受到影響,收入損失和失去客戶是最常見的后果。

  消費(fèi)者信任的喪失被認(rèn)為是人工智能偏見的第一大潛在風(fēng)險(xiǎn),56%的受訪者提到了這一風(fēng)險(xiǎn)因素,其次是品牌聲譽(yù)受損、監(jiān)管審查增加、員工信任的喪失、與個(gè)人道德不符、訴訟和股票價(jià)值的下降。

  雖然有四分之三的受訪機(jī)構(gòu)稱計(jì)劃對(duì)AI偏見進(jìn)行檢測(cè),約四分之一的組織說他們“非常有信心”有能力來檢測(cè)AI偏見。

  受訪者列舉了消除偏見的幾個(gè)具體挑戰(zhàn),包括:難以理解人工智能模型為什么會(huì)做出決定;理解輸入值和模型決策之間的模式;對(duì)算法缺乏信任;訓(xùn)練數(shù)據(jù)的清晰性;保持AI模型的動(dòng)態(tài)更新;教育利益相關(guān)者識(shí)別人工智能偏見;以及也不清楚什么是偏見。

  那么,如何解決人工智能中的偏見問題呢?首先,81%的受訪者表示,他們認(rèn)為“政府監(jiān)管將有助于定義和防止人工智能偏見。”該調(diào)查稱,在沒有政府監(jiān)管的情況下,約三分之一的人擔(dān)心人工智能“會(huì)傷害用戶”。但同時(shí)45%的受訪者表示,他們擔(dān)心政府監(jiān)管會(huì)增加成本,使采用人工智能變得更加困難。只有約23%的人表示,他們不擔(dān)心政府對(duì)人工智能的監(jiān)管。

  總而言之,在人工智能的偏見問題上,似乎正處于十字路口。隨著采用人工智能日益被視為現(xiàn)代企業(yè)的必備條件,采用這項(xiàng)技術(shù)的壓力相當(dāng)大。企業(yè)越來越擔(dān)心人工智能帶來的意外后果,尤其是在道德方面。

  偏見可以滲透到應(yīng)用于各種行業(yè)的AI系統(tǒng)中。人工智能領(lǐng)域的從業(yè)者需要了解并理解人工智能和道德的重要性和影響。消除偏見的核心挑戰(zhàn)是理解為什么算法會(huì)首先做出這樣的決定。在應(yīng)對(duì)人工智能偏見和隨之而來的復(fù)雜問題時(shí),需要規(guī)則和條例來指導(dǎo)。

  如今,國(guó)際組織和產(chǎn)業(yè)巨頭已經(jīng)開始研究人工智能原則和法規(guī),但要確保模型公平、可信和可解釋,還有更多工作要做。


AI
中傳動(dòng)網(wǎng)版權(quán)與免責(zé)聲明:

凡本網(wǎng)注明[來源:中國(guó)傳動(dòng)網(wǎng)]的所有文字、圖片、音視和視頻文件,版權(quán)均為中國(guó)傳動(dòng)網(wǎng)(www.treenowplaneincome.com)獨(dú)家所有。如需轉(zhuǎn)載請(qǐng)與0755-82949061聯(lián)系。任何媒體、網(wǎng)站或個(gè)人轉(zhuǎn)載使用時(shí)須注明來源“中國(guó)傳動(dòng)網(wǎng)”,違反者本網(wǎng)將追究其法律責(zé)任。

本網(wǎng)轉(zhuǎn)載并注明其他來源的稿件,均來自互聯(lián)網(wǎng)或業(yè)內(nèi)投稿人士,版權(quán)屬于原版權(quán)人。轉(zhuǎn)載請(qǐng)保留稿件來源及作者,禁止擅自篡改,違者自負(fù)版權(quán)法律責(zé)任。

如涉及作品內(nèi)容、版權(quán)等問題,請(qǐng)?jiān)谧髌钒l(fā)表之日起一周內(nèi)與本網(wǎng)聯(lián)系,否則視為放棄相關(guān)權(quán)利。

關(guān)注伺服與運(yùn)動(dòng)控制公眾號(hào)獲取更多資訊

關(guān)注直驅(qū)與傳動(dòng)公眾號(hào)獲取更多資訊

關(guān)注中國(guó)傳動(dòng)網(wǎng)公眾號(hào)獲取更多資訊

最新新聞
查看更多資訊

娓娓工業(yè)

廣州金升陽(yáng)科技有限公司

熱搜詞
  • 運(yùn)動(dòng)控制
  • 伺服系統(tǒng)
  • 機(jī)器視覺
  • 機(jī)械傳動(dòng)
  • 編碼器
  • 直驅(qū)系統(tǒng)
  • 工業(yè)電源
  • 電力電子
  • 工業(yè)互聯(lián)
  • 高壓變頻器
  • 中低壓變頻器
  • 傳感器
  • 人機(jī)界面
  • PLC
  • 電氣聯(lián)接
  • 工業(yè)機(jī)器人
  • 低壓電器
  • 機(jī)柜
回頂部
點(diǎn)贊 0
取消 0