未來,人工智能的發(fā)展將充滿各種不確定性。算法歧視、數(shù)據(jù)濫用和人類失業(yè)等問題或?qū)⒔吁喽?,給人類社會帶來前所未有的挑戰(zhàn)。如何避免人工智能發(fā)展帶來的重大風(fēng)險,更好地利用人工智能技術(shù)造福社會?只有讓倫理先行,給“無所不能”的人工智能加以“緊箍咒”,才能使人工智能前往正確的方向,成為幫助人類探索未來的得力助手。
“人工智能倫理”緣何重要?
科學(xué)技術(shù)是中性的,可以用于造福人類,也可以用于為害人類。隨著科學(xué)技術(shù)的迅猛發(fā)展,其威力越大,可能帶來的惡果也越嚴(yán)重,這種影響是全球性的和全人類的。歷史上每一項重大技術(shù)發(fā)明,如電力、蒸汽機、互聯(lián)網(wǎng)等,都會給社會帶來新的風(fēng)險和挑戰(zhàn),諸如失業(yè)、隱私、安全等問題。科技進步不止一次地帶來了倫理的難題,科技究竟會帶給人類什么?是進步?是毀滅?這是一個永遠(yuǎn)都爭論不清的問題。
馬克思在第二次工業(yè)革命之開端曾指出,機器體系不同于一般工具,是“人手創(chuàng)造出來的人腦器官”,既是一種異己的強大的機體,也受控于全社會所共同積累和分享的“普遍智能”。在弱人工智能時代,人類對于機器的喜明顯大于憂,機器可以搬運重物,機器可以無人駕駛,機器可以快速計算……隨著技術(shù)的高歌猛進,人工智能逐步可以實現(xiàn)某種可計算的感知、認(rèn)知和行為,在功能上模擬人的智能和行動,表現(xiàn)出對人類思維這一區(qū)別人類和其他生物的核心器官的替代。人工智能不再是單純的工具,開始不斷模糊物理世界和個人的界限,刷新人的認(rèn)知和社會關(guān)系,延伸出復(fù)雜的倫理、法律和安全問題。
早在70多年前,阿西莫夫在短篇小說《環(huán)舞》(1942年)中提出通過內(nèi)置的“機器倫理調(diào)節(jié)器”使機器人服從道德律令,他構(gòu)想出機器人三定律:
● 第一定律,機器人不得傷害人類或坐視人類受到傷害;
● 第二定律,在與第一定律不相沖突的情況下,機器人必須服從人類的命令;
● 第三定律,在不違背第一與第二定律的前提下,機器人有自我保護的義務(wù)。
后來,為了克服第一定律的局限性,他還提出了優(yōu)先級更高的機器人第零定律:機器人不得危害人類整體或坐視人類整體受到危害。
回到人工智能的現(xiàn)實發(fā)展,隨著無人機、自動駕駛、工業(yè)機器人、致命性自主武器等應(yīng)用的發(fā)展,涌現(xiàn)出大量新的社會問題。然而,人工智能的未來發(fā)展還有著很多可能性和不確定性,法律規(guī)制因具有一定的滯后性和保守性,難以實現(xiàn)對人工智能的有效監(jiān)管。只有建立完善的人工智能倫理規(guī)范,超前給人工智能加以倫理道德的“緊箍咒”,才能更多地獲得人工智能紅利,讓技術(shù)造福人類。當(dāng)下科學(xué)界的主流觀點是機器不能不講道德,否則,這個世界將無法想象。按麻省理工學(xué)院情感計算研究組主任羅薩琳德·皮卡德教授的說法是,“機器越自由,就越需要道德準(zhǔn)則?!?/p>
世界各國正積極推出人工智能倫理規(guī)則
英國哲學(xué)家大衛(wèi)·科林格里奇(David Collingridge)在《技術(shù)的社會控制》一書中提到:一項技術(shù)的社會后果不能在技術(shù)生命的早期被預(yù)料到。然而,當(dāng)不希望的后果被發(fā)現(xiàn)時,技術(shù)卻往往已經(jīng)成為整個經(jīng)濟和社會結(jié)構(gòu)的一部分,以至于對它的控制十分困難。這就是控制的困境,也被稱為“科林格里奇困境”。
要避免人工智能技術(shù)創(chuàng)新治理陷入“科林格里奇困境”,就必須預(yù)先研判,提前布局。盡管人們對于人工智能未來將走向何方眾說紛紜,但對人工智能加以倫理規(guī)制,已經(jīng)成為一個基本共識。
2016年6月6日,日本人工智能學(xué)會倫理委員起草了面向研究人員的倫理綱要草案。草案中提出了AI給人類社會帶來危害的可能性,要求采取措施消除威脅和防止惡意利用”。草案指出:人工智能具有廣泛性和潛在的獨立性,可能在研發(fā)人員未預(yù)知的領(lǐng)域給人類帶來影響,對人類社會和公共利益來說可能是有害的。草案提出警戒:“決不能使人類創(chuàng)造出來的東西,毀掉人類自己的幸?!?。此外,草案中還指出,應(yīng)消除AI對人類安全的威脅,針對其潛在的危險向社會敲響警鐘,并就防止惡意利用制定了相關(guān)條款。
2016年9月,英國標(biāo)準(zhǔn)行業(yè)協(xié)會發(fā)布業(yè)界首個關(guān)于機器人倫理設(shè)計的公開指標(biāo)——《機器人和機器系統(tǒng)的倫理設(shè)計和應(yīng)用指南》,旨在保證人類生產(chǎn)出來的智能機器人能夠融入人類社會的道德規(guī)范。
2016年9月,亞馬遜、谷歌、Facebook、微軟和IBM等五大科技巨頭宣布成立一家非盈利組織:人工智能合作組織(Partnership on AI, 全稱為:Partnership on Artificial Intelligence to Benefit People and Society),目標(biāo)包括:一、為人工智能的研究提供示范,涉及的領(lǐng)域包括倫理、公平、和包容性;透明性、隱私性和共同使用性;人和AI系統(tǒng)之間的合作;以及相關(guān)技術(shù)的可靠性與魯棒性。二、從專業(yè)的角度促進公眾對人工智能的理解與科普,并定期分享人工智能領(lǐng)域的進展。三、為人工智能領(lǐng)域的研究人員提供一個可供討論和參與的開放式平臺,讓研究者們之間的溝通更簡單無阻。
2016年11月,美國電氣和電子工程師協(xié)會(IEEE)發(fā)布世界首個《人工智能道德準(zhǔn)則設(shè)計草案(Ethically Aligned Design)》。希望借助該文件幫助科技行業(yè)打造能夠造福人類的AI自動化系統(tǒng),改變道德倫理無需擔(dān)慮等想法。
2017 年 1 月,在加利福尼亞州阿西洛馬舉行的 Beneficial Al 會議上,近千名人工智能相關(guān)領(lǐng)域的專家,聯(lián)合簽署了著名的《阿西洛馬人工智能23條原則》。使未來人工智能的研究人員、科學(xué)家和立法者遵循,確保安全、倫理和有益。
2017年11月,為確保人工智能發(fā)展的未來仍然具有倫理和社會意識,美國電氣和電子工程師協(xié)會(IEEE)宣布了三項新的人工智能倫理標(biāo)準(zhǔn):機器化系統(tǒng)、智能系統(tǒng)和自動系統(tǒng)的倫理推動標(biāo)準(zhǔn)、自動和半自動系統(tǒng)的故障安全設(shè)計標(biāo)準(zhǔn)、道德化的人工智能和自動系統(tǒng)的福祉衡量標(biāo)準(zhǔn)。
2018年4月25日,歐盟委員會發(fā)布《歐盟人工智能》文件,提出人工智能的歐盟道路。文件表示歐盟要竭力確保在人工智能領(lǐng)域有國際競爭力,讓所有歐盟國家都能跟上這場數(shù)字變革并以歐盟價值觀作為新技術(shù)的基礎(chǔ)。在歐洲價值觀的基礎(chǔ)上,歐盟委員會提出了發(fā)展人工智能的一種三管齊下的方法:增加公共和私人投資,為人工智能帶來的社會經(jīng)濟變革做好準(zhǔn)備,并建立起適當(dāng)?shù)牡赖潞头煽蚣堋?/p>
2018年4月,英國上議院人工智能特別委員會發(fā)布報告說,在發(fā)展和應(yīng)用人工智能過程中,有必要把倫理道德放在核心位置,以確保這項技術(shù)更好地造福人類。報告提出,應(yīng)確立一個適用于不同領(lǐng)域的“人工智能準(zhǔn)則”,其中主要包括5個方面:人工智能應(yīng)為人類共同利益服務(wù);人工智能應(yīng)遵循可理解性和公平性原則;人工智能不應(yīng)用于削弱個人、家庭乃至社區(qū)的數(shù)據(jù)權(quán)利或隱私;所有公民都應(yīng)有權(quán)利接受相關(guān)教育,以便能在精神、情感和經(jīng)濟上適應(yīng)人工智能發(fā)展;人工智能絕不應(yīng)被賦予任何傷害、毀滅或欺騙人類的自主能力。
2019年4月,歐盟委員會發(fā)布正式版的《可信賴AI的倫理準(zhǔn)則(Ethics Guidelines for Trustworthy AI)》,提出了實現(xiàn)可信賴人工智能全生命周期的框架。根據(jù)官方解釋,“可信賴的人工智能”有兩個必要的組成部分:一是應(yīng)尊重基本人權(quán)、規(guī)章制度、核心原則及價值觀;二是應(yīng)在技術(shù)上安全可靠,避免因技術(shù)不足而造成無意的傷害。
人工智能倫理建設(shè),中國應(yīng)如何發(fā)力?
近年來,中國人工智能產(chǎn)業(yè)發(fā)展之迅猛,世界已經(jīng)有目共睹。但中國境內(nèi)關(guān)于人工智能倫理的討論,卻遠(yuǎn)未形成氣候,與歐美甚至日韓都有明顯的差距。從長遠(yuǎn)來看,人工智能倫理規(guī)則的缺失,必然會導(dǎo)致人工智能產(chǎn)品競爭力的下降,導(dǎo)致人工智能標(biāo)準(zhǔn)話語權(quán)的喪失。建設(shè)基于全球價值觀、符合中國特色的人工智能倫理規(guī)范,已經(jīng)刻不容緩。中國社會的現(xiàn)代化、智能化轉(zhuǎn)型,除了要經(jīng)歷人工智能等先進技術(shù)的洗禮之外,更需要經(jīng)受現(xiàn)代倫理的心靈熏陶。
一是要從戰(zhàn)略上高度重視前沿科技的倫理監(jiān)管。與人工智能類似,機器人、基因編輯、大數(shù)據(jù)、3D打印和“納米技術(shù)”等前沿科技都可能會引發(fā)倫理道德危機,其中涉及的數(shù)據(jù)濫用、個人隱私和歧視問題,都具有一定的相似性。這些倫理危機如不能提前預(yù)防、有效化解,對前沿技術(shù)的發(fā)展將造成嚴(yán)重阻礙。對此,我應(yīng)從戰(zhàn)略上高度重視前沿技術(shù)的倫理監(jiān)管,統(tǒng)籌相關(guān)部門資源,積極探索契合前沿科技發(fā)展的倫理準(zhǔn)則。
二是促進社會各界人士共同參與人工智能倫理規(guī)則制定。為避免人工智能發(fā)展過程中的倫理風(fēng)險,人工智能學(xué)術(shù)界和產(chǎn)業(yè)界,以及倫理、哲學(xué)、法律等社會學(xué)科各界應(yīng)參與原則制定并緊密合作?,F(xiàn)有人工智能倫理的研究,常常缺少產(chǎn)業(yè)界資深研發(fā)人員的參與,或?qū)е氯斯ぶ悄軅惱硪?guī)則難以落地。只有社會各界人士的廣泛參與,人工智能倫理規(guī)則才能更具普適性、可操作性,才能發(fā)揮更大的社會價值。
三是積極開展對外交流,凝聚全球共識。隨著全球文化和倫理價值的日益多元化,人工智能技術(shù)的倫理標(biāo)準(zhǔn)和價值需要達成國際性共識。目前,人工智能倫理研究多由美歐來主導(dǎo),缺少來自發(fā)展中國家的聲音,也缺乏來自東方文化的聲音。對此,我應(yīng)積極開展對外交流,凝聚全球共識,增強我國在人工智能標(biāo)準(zhǔn)制定上的話語權(quán),搶占未來發(fā)展先機。
-
人工智能
+關(guān)注
關(guān)注
1806文章
48989瀏覽量
249170
原文標(biāo)題:技經(jīng)觀察 |?給人工智能加以“緊箍咒”:世界各國積極推出人工智能倫理規(guī)則
文章出處:【微信號:drc_iite,微信公眾號:全球技術(shù)地圖】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
發(fā)布評論請先 登錄
最新人工智能硬件培訓(xùn)AI 基礎(chǔ)入門學(xué)習(xí)課程參考2025版(大模型篇)
北京將打造最大人工智能社區(qū)
人工智能推理及神經(jīng)處理的未來

評論