人工智能系統(tǒng)和人工智能項(xiàng)目如今變得越來(lái)越普遍,因?yàn)槠髽I(yè)可以利用這種新興技術(shù)的力量來(lái)自動(dòng)化決策和提高效率。
如果企業(yè)正在實(shí)施一個(gè)大規(guī)模的人工智能項(xiàng)目,那么應(yīng)該如何準(zhǔn)備?以下是與人工智能相關(guān)的三個(gè)最重要的風(fēng)險(xiǎn),以及如何預(yù)防和減輕它們。
1.從隱私到安全
人們都很關(guān)注自己的隱私,而面部識(shí)別人工智能在某些方面正在迅速發(fā)展,引發(fā)了關(guān)于隱私和監(jiān)控的倫理?yè)?dān)憂(yōu)。例如,這項(xiàng)技術(shù)可以讓企業(yè)在未經(jīng)用戶(hù)同意的情況下跟蹤用戶(hù)的行為,甚至是情緒。美國(guó)政府最近提出了一項(xiàng)“人工智能權(quán)利法案”,以防止人工智能技術(shù)造成與核心價(jià)值觀(guān)相悖的真正傷害,包括基本的隱私權(quán)。
IT領(lǐng)導(dǎo)者需要讓用戶(hù)知道正在收集什么數(shù)據(jù),并獲得用戶(hù)的同意。除此之外,關(guān)于數(shù)據(jù)集的適當(dāng)培訓(xùn)和實(shí)施對(duì)于防止數(shù)據(jù)泄露和潛在的安全漏洞至關(guān)重要。
測(cè)試人工智能系統(tǒng)以確保它實(shí)現(xiàn)目標(biāo),而不會(huì)產(chǎn)生意想不到的影響,例如允許黑客使用虛假的生物識(shí)別數(shù)據(jù)訪(fǎng)問(wèn)敏感信息。實(shí)施人工智能系統(tǒng)的監(jiān)督,可以使企業(yè)在必要時(shí)停止或撤銷(xiāo)它的行動(dòng)。
2.從不透明到透明
許多使用機(jī)器學(xué)習(xí)的人工智能系統(tǒng)是不透明的,這意味著不清楚它們是如何做出決定的。例如,對(duì)抵押貸款數(shù)據(jù)廣泛的研究表明,用于批準(zhǔn)或拒絕貸款的預(yù)測(cè)性人工智能工具對(duì)少數(shù)族裔申請(qǐng)者的準(zhǔn)確性較低。技術(shù)的不透明性侵犯了貸款被拒絕的申請(qǐng)者的“解釋權(quán)”。
當(dāng)企業(yè)的人工智能/機(jī)器學(xué)習(xí)工具對(duì)其用戶(hù)做出了重要的決定時(shí),需要確保他們得到通知,并能得到關(guān)于為什么做出這個(gè)決定的完整解釋。
企業(yè)的人工智能團(tuán)隊(duì)還應(yīng)該能夠追蹤導(dǎo)致每個(gè)決策的關(guān)鍵因素,并在這一過(guò)程中診斷出任何錯(cuò)誤。內(nèi)部面向員工的文檔和外部面向客戶(hù)的文檔應(yīng)該解釋人工智能系統(tǒng)是如何以及為什么這樣運(yùn)作的。
3.從偏見(jiàn)到公平
最近的一項(xiàng)研究表明,根據(jù)具有偏見(jiàn)的數(shù)據(jù)訓(xùn)練的人工智能系統(tǒng)強(qiáng)化了歧視模式,從醫(yī)學(xué)研究招募不足到科學(xué)家參與度降低,甚至少數(shù)族裔患者不太愿意參與研究。
人們需要問(wèn)問(wèn)自己:如果意想不到的結(jié)果發(fā)生了,它會(huì)影響誰(shuí)或哪個(gè)群體?它是否平等地影響所有用戶(hù),還是只影響特定群體?
仔細(xì)查看歷史數(shù)據(jù),評(píng)估是否引入了任何潛在的偏見(jiàn)或減輕了偏見(jiàn)。一個(gè)經(jīng)常被忽視的因素是企業(yè)的開(kāi)發(fā)團(tuán)隊(duì)的多樣性,而更加多樣化的團(tuán)隊(duì)通常會(huì)引入更公平的過(guò)程和結(jié)果。
為了避免意外的傷害,企業(yè)需要確保來(lái)自人工智能/機(jī)器學(xué)習(xí)開(kāi)發(fā)、產(chǎn)品、審計(jì)和治理團(tuán)隊(duì)的所有涉眾完全理解指導(dǎo)企業(yè)的人工智能項(xiàng)目的高級(jí)原則、價(jià)值和控制計(jì)劃。獲得獨(dú)立的評(píng)估,以確認(rèn)所有項(xiàng)目都符合這些原則和價(jià)值觀(guān)。
注:文章來(lái)源于網(wǎng)絡(luò),如有侵權(quán),請(qǐng)聯(lián)系刪除