過(guò)去一年,人工智能技術(shù)正在復(fù)興。無(wú)人駕駛、語(yǔ)音識(shí)別,以及成為圍棋大師的AlphaGo都反映了人工智能的快速發(fā)展。然而我們也要注意到,人工智能可能會(huì)出現(xiàn)問(wèn)題。我們需要從中吸取經(jīng)驗(yàn),避免未來(lái)更多的錯(cuò)誤。
近期,路易斯維爾大學(xué)信息安全實(shí)驗(yàn)室主任羅曼·雅博爾斯基(Roman Yampolskiy)在一篇論文中總結(jié)了人工智能遭遇的失敗,這些問(wèn)題與“人工智能系統(tǒng)設(shè)計(jì)帶來(lái)的問(wèn)題直接相關(guān)”。
雅博爾斯基表示,這些問(wèn)題可以歸因于人工智能系統(tǒng)學(xué)習(xí)或應(yīng)用階段的失誤。
根據(jù)雅博爾斯基和其他多名專家的介紹,TechRepulice網(wǎng)站總結(jié)了2016年人工智能的10大敗筆。
1、用于預(yù)測(cè)犯罪的人工智能變成種族主義者
?
Northpointe開(kāi)發(fā)了一款人工智能系統(tǒng),能預(yù)測(cè)有案底的罪犯再次犯罪的可能性。這被認(rèn)為存在種族歧視傾向:系統(tǒng)一般認(rèn)為,黑人罪犯再次犯罪的風(fēng)險(xiǎn)更高。
另一家名為ProPublica的媒體評(píng)論稱,無(wú)論罪犯是什么種族,Northpointe的軟件“通常都不能實(shí)現(xiàn)有效的預(yù)測(cè)”。
2、電子游戲中的NPC制造出突破原計(jì)劃的武器
?
今年6月,一款名為《Elite: Dangerous》的電子游戲發(fā)生了出乎意料的事件。人工智能在游戲中開(kāi)發(fā)出了超級(jí)武器,突破了游戲設(shè)計(jì)。根據(jù)一家游戲網(wǎng)站的報(bào)道,“玩家被拉進(jìn)戰(zhàn)斗中,而對(duì)方的艦船配備了可笑的武器,會(huì)將玩家撕成碎片”。游戲開(kāi)發(fā)者隨后將這些武器下線。
3、機(jī)器人誤傷幼童
?
今年7月,Knightscope平臺(tái)開(kāi)發(fā)的“打擊犯罪機(jī)器人”在硅谷一家購(gòu)物中心撞上了一名16個(gè)月大的幼童。
根據(jù)《洛杉磯時(shí)報(bào)》的報(bào)道,該公司表示,這是一起“奇怪的事故”。
特斯拉Autopilot模式引發(fā)的事故#e#
4、特斯拉Autopilot模式引發(fā)的事故
?
今年5月,在佛羅里達(dá)州高速公路上,特斯拉Model S車主約書亞·布朗(Joshua Brown)在啟用Autopilot模式時(shí)撞上了一輛半掛卡車而身亡。這是Autopilot引發(fā)的首起致命事故。
在這起事故發(fā)生后,特斯拉宣布了對(duì)Autopilot的軟件升級(jí),而特斯拉CEO伊隆·馬斯克(Elon Musk)宣布,這將避免未來(lái)的碰撞事故。
特斯拉隨后還發(fā)生了多起與Autopilot相關(guān)的事故,包括一起在中國(guó)的事故。不過(guò),這些事故并非直接由于人工智能系統(tǒng)的缺陷。
5、微軟聊天機(jī)器人Tay種族歧視言論
為了吸引年輕用戶,微軟今年春季在Twitter平臺(tái)上推出了基于人工智能的聊天機(jī)器人Tay.ai。Tay模擬了十幾歲的年輕女孩。
然而在上線幾天后,Tay開(kāi)始發(fā)表“支持希特勒,存在性別歧視”的言論。
微軟隨后將Tay下線,并表示將對(duì)其算法進(jìn)行優(yōu)化。
6、基于人工智能的選美大賽出現(xiàn)了種族歧視
?
在“首次由人工智能評(píng)判的國(guó)際選美大賽”中,一個(gè)機(jī)器人小組對(duì)參賽者面部進(jìn)行評(píng)判。
根據(jù)大賽網(wǎng)站的介紹,“這些算法能基于對(duì)人類容貌和健康的感知進(jìn)行準(zhǔn)確評(píng)判”。
然而,由于未能給人工智能提供多元化的訓(xùn)練數(shù)據(jù),大賽的勝出者全部是白人。
雅博爾斯基指出,“選美已變成了一種模式識(shí)別”。
7、Pokemon Go讓游戲玩家更多地前往白人社區(qū)
在今年7月發(fā)布后,多名用戶注意到,很少有口袋妖怪會(huì)出現(xiàn)在黑人社區(qū)。
Intuit的Mint首席數(shù)據(jù)官安努·特維里(Anu Tewary)表示,這是由于算法的開(kāi)發(fā)者未能提供多元化的數(shù)據(jù)集,也沒(méi)有在這些社區(qū)花時(shí)間。
8、谷歌AlphaGo在第四盤棋中輸給李世石
?
2016年3月,在五盤三勝的圍棋比賽中,谷歌人工智能系統(tǒng)AlphaGo在第四盤中輸給了18次圍棋世界冠軍李世石。盡管AlphaGo最終贏得了系列比賽,但李世石贏下一盤也表明,人工智能算法還不是無(wú)懈可擊。
新南威爾士大學(xué)人工智能教授托比·威爾斯(Toby Wales)表示:“李世石似乎找到了蒙特卡洛樹(shù)搜索中的弱點(diǎn)。”盡管這或許可以算作人工智能的一次失敗,但雅博爾斯基指出,這樣的失敗“可以被認(rèn)為是正常發(fā)展過(guò)程中的一部分”。
9、面部識(shí)別預(yù)測(cè)罪犯被指歧視
上海交通大學(xué)的兩名研究人員發(fā)表了題為“利用頭像照片對(duì)犯罪進(jìn)行自動(dòng)推理”的研究。根據(jù)《鏡報(bào)》的報(bào)道,他們向計(jì)算機(jī)輸入了1856人的頭像照片(其中一半是罪犯的頭像),并進(jìn)行分析。
研究人員總結(jié)稱,計(jì)算機(jī)識(shí)別了“一些特定的結(jié)構(gòu)化特征,例如嘴唇弧度、雙眼內(nèi)側(cè)間距,以及鼻子和嘴的角度,從而對(duì)犯罪進(jìn)行預(yù)測(cè)”。許多人對(duì)這一研究結(jié)果及其道德意義提出質(zhì)疑。
?
10、保險(xiǎn)公司利用Facebook數(shù)據(jù)判斷業(yè)務(wù)被指歧視
?
今年,英國(guó)最大車險(xiǎn)公司Admiral Insurance嘗試?yán)肍acebook數(shù)據(jù)去判斷,用戶在社交媒體網(wǎng)站上留下的記錄與駕駛行為之間是否存在關(guān)聯(lián)。
盡管這并不是人工智能的失敗,但實(shí)際上是對(duì)人工智能的誤用。這一項(xiàng)目并未得以推進(jìn),因?yàn)镕acebook阻止Admiral Insurance獲取其數(shù)據(jù)。
Facebook的政策顯示,企業(yè)不得“利用從Facebook獲得的數(shù)據(jù)去做合格性決策,包括是否批準(zhǔn)保險(xiǎn)申請(qǐng),以及貸款利息是多少”。
以上案例表明,人工智能系統(tǒng)很可能出現(xiàn)歧視的傾向。因此,我們必須向機(jī)器學(xué)習(xí)算法提供足夠多元化的數(shù)據(jù),以避免這種現(xiàn)象的出現(xiàn)。
隨著人工智能越來(lái)越強(qiáng)大,確保適當(dāng)?shù)臋z查、多樣化的數(shù)據(jù),以及研究中的道德標(biāo)準(zhǔn)將非常關(guān)鍵。
?
電子發(fā)燒友App








評(píng)論