人工智能是引領(lǐng)新一輪科技革命和產(chǎn)業(yè)變革的顛覆性技術(shù),在為人類創(chuàng)造巨大福祉的同時(shí),也會(huì)催生各類全新的安全風(fēng)險(xiǎn)。為科學(xué)預(yù)判和管控人工智能發(fā)展的安全風(fēng)險(xiǎn),按照循序漸進(jìn)、分類施策的原則,每年聚焦若干關(guān)鍵問題的治理,提出人工智能安全與法治導(dǎo)則。2019年度重點(diǎn)是算法安全、數(shù)據(jù)安全、知識(shí)產(chǎn)權(quán)、社會(huì)就業(yè)和法律責(zé)任。
一、人工智能算法安全
(一)風(fēng)險(xiǎn)挑戰(zhàn)
人工智能算法安全風(fēng)險(xiǎn)是指由于人工智能算法設(shè)計(jì)、程序運(yùn)行導(dǎo)致的各類安全風(fēng)險(xiǎn),主要包括技術(shù)缺陷、設(shè)計(jì)偏見和算法黑箱等風(fēng)險(xiǎn)。
1.技術(shù)缺陷。由于算法模型存在技術(shù)性缺陷,導(dǎo)致人工智能系統(tǒng)無法正常運(yùn)行,或受到外部網(wǎng)絡(luò)攻擊和惡意樣本侵?jǐn)_,產(chǎn)生與預(yù)期不符乃至危害性結(jié)果,造成人員和財(cái)產(chǎn)損失。
2.設(shè)計(jì)偏見。由于算法設(shè)計(jì)者自身存在價(jià)值偏見,導(dǎo)致算法設(shè)計(jì)無法實(shí)現(xiàn)設(shè)計(jì)者既定的向善目標(biāo),產(chǎn)生與預(yù)期不符以及危害性社會(huì)結(jié)果,例如算法歧視等。
3.算法黑箱。人工智能技術(shù)趨向自主學(xué)習(xí)和持續(xù)進(jìn)化,不僅外部用戶難以了解算法的運(yùn)行邏輯,開發(fā)者自身也越來越難以全面解釋算法的決策機(jī)制,算法的“黑箱化”將導(dǎo)致技術(shù)失控以及其他危害性結(jié)果。
(二)法治應(yīng)對(duì)
1.開展算法安全的技術(shù)評(píng)估。通過政策和法律引導(dǎo),鼓勵(lì)人工智能安全技術(shù)研發(fā),構(gòu)建人工智能軟件質(zhì)量評(píng)估體系,針對(duì)人工智能重點(diǎn)應(yīng)用,開展人工智能算法安全的評(píng)估檢測(cè)。
2.推動(dòng)技術(shù)倫理的算法導(dǎo)入。法律要強(qiáng)化基于人類倫理規(guī)范的算法模型設(shè)計(jì),要求人工智能開發(fā)者設(shè)計(jì)高可解釋性的智能系統(tǒng),促進(jìn)人工智能算法邏輯與人類社會(huì)價(jià)值規(guī)范的持續(xù)校準(zhǔn)。
3.加強(qiáng)智能算法的透明監(jiān)督。創(chuàng)新算法監(jiān)管模式,建立多層級(jí)監(jiān)管體系,政府須依法開展人工智能的產(chǎn)品和服務(wù)監(jiān)管,人工智能企業(yè)、行業(yè)應(yīng)建立相應(yīng)的算法監(jiān)管體制,保持與政府監(jiān)管的協(xié)同。
二、人工智能數(shù)據(jù)安全
(一)風(fēng)險(xiǎn)挑戰(zhàn)
人工智能數(shù)據(jù)安全風(fēng)險(xiǎn)是指人工智能系統(tǒng)在數(shù)據(jù)采集、分析及流轉(zhuǎn)過程中產(chǎn)生的各類安全風(fēng)險(xiǎn),主要包括數(shù)據(jù)隱私、數(shù)據(jù)控制和數(shù)據(jù)質(zhì)量等風(fēng)險(xiǎn)。
1.?dāng)?shù)據(jù)隱私。數(shù)據(jù)隱私風(fēng)險(xiǎn)包括在采集階段自動(dòng)化獲取用戶個(gè)人敏感信息,在分析階段基于用戶非敏感數(shù)據(jù)智能挖掘得出個(gè)人敏感信息并加以利用,在流轉(zhuǎn)階段未經(jīng)用戶許可將用戶數(shù)據(jù)傳遞給第三方機(jī)構(gòu)或其他國(guó)家(區(qū)域)。
2.?dāng)?shù)據(jù)保護(hù)。數(shù)據(jù)保護(hù)風(fēng)險(xiǎn)是指人工智能系統(tǒng)數(shù)據(jù)資源遭遇攻擊、竊取、篡改等,導(dǎo)致數(shù)據(jù)發(fā)生泄露、系統(tǒng)無法使用甚至導(dǎo)致功能失控,數(shù)據(jù)是人工智能產(chǎn)品正常穩(wěn)定運(yùn)行的基礎(chǔ),且涉及用戶隱私、商業(yè)秘密乃至國(guó)家機(jī)密,數(shù)據(jù)保護(hù)挑戰(zhàn)尤為艱巨。
3.?dāng)?shù)據(jù)質(zhì)量。人工智能的研發(fā)和應(yīng)用對(duì)數(shù)據(jù)質(zhì)量依賴度極高。數(shù)據(jù)質(zhì)量不足將對(duì)人工智能系統(tǒng)帶來重大風(fēng)險(xiǎn),主要包括數(shù)據(jù)集規(guī)模量、多樣性等不足以及數(shù)據(jù)集遭污染等原因?qū)е碌陌踩L(fēng)險(xiǎn)。
(二)法治應(yīng)對(duì)
1.加強(qiáng)數(shù)據(jù)安全立法和執(zhí)法。針對(duì)個(gè)人數(shù)據(jù)和重要數(shù)據(jù)開展系統(tǒng)立法和嚴(yán)格執(zhí)法,結(jié)合人工智能重點(diǎn)應(yīng)用場(chǎng)景,制定數(shù)據(jù)安全分類分級(jí)管理體系和標(biāo)準(zhǔn),對(duì)采集和使用敏感個(gè)人數(shù)據(jù)的人工智能企業(yè)/行業(yè)須加強(qiáng)法律和行政監(jiān)管。
2.豐富人工智能技術(shù)發(fā)展路徑。當(dāng)前人工智能主流技術(shù)路徑是基于海量數(shù)據(jù)的深度學(xué)習(xí),未來須通過政策手段支持多樣化的人工智能技術(shù)發(fā)展,例如基于小數(shù)據(jù)的人工智能算法技術(shù)等。
3.提升人工智能數(shù)據(jù)資源管理水平。促進(jìn)公共部門和私營(yíng)部門數(shù)據(jù)資源共享和流通,分行業(yè)構(gòu)建人工智能高質(zhì)量訓(xùn)練數(shù)據(jù)集,降低人工智能數(shù)據(jù)獲取成本,提高人工智能行業(yè)的數(shù)據(jù)質(zhì)量。
三、人工智能知識(shí)產(chǎn)權(quán)
人工智能知識(shí)產(chǎn)權(quán)是指利用人工智能進(jìn)行文學(xué)、藝術(shù)等作品創(chuàng)作而產(chǎn)生的知識(shí)產(chǎn)權(quán)問題,人工智能知識(shí)產(chǎn)權(quán)問題包括算法知識(shí)產(chǎn)權(quán)、數(shù)據(jù)知識(shí)產(chǎn)權(quán)和創(chuàng)作物知識(shí)產(chǎn)權(quán)。
(一)風(fēng)險(xiǎn)挑戰(zhàn)
1.算法知識(shí)產(chǎn)權(quán)。人工智能系統(tǒng)具有自主學(xué)習(xí)、不可解釋、自動(dòng)編碼等特點(diǎn),現(xiàn)有的軟件著作權(quán)靜態(tài)保護(hù)模式存在不足,侵權(quán)者可以采用輕易繞過算法的代碼表現(xiàn)形式實(shí)現(xiàn)功能模仿甚至超越,現(xiàn)有的軟件專利保護(hù)模式由于門檻較高且周期較長(zhǎng)往往無法適應(yīng)人工智能商業(yè)創(chuàng)新需要。
2.?dāng)?shù)據(jù)知識(shí)產(chǎn)權(quán)。人工智能系統(tǒng)主要通過自動(dòng)化方式處理各類數(shù)據(jù)資源,著作權(quán)保護(hù)通過數(shù)據(jù)庫(kù)內(nèi)容選擇或編排而體現(xiàn)其“獨(dú)創(chuàng)性”,人工智能數(shù)據(jù)資源采集和加工方式導(dǎo)致數(shù)據(jù)知識(shí)產(chǎn)權(quán)界定具有極大的不確定性。
3.創(chuàng)作物知識(shí)產(chǎn)權(quán)。人工智能技術(shù)發(fā)展導(dǎo)致對(duì)創(chuàng)作物“獨(dú)創(chuàng)性”界定日益模糊,以人類智力勞動(dòng)為中心的傳統(tǒng)著作權(quán)保護(hù)模式面臨困境,引發(fā)人工智能系統(tǒng)之間、人工智能系統(tǒng)與人類創(chuàng)作之間的侵權(quán)難以認(rèn)定等問題。
(二)法治應(yīng)對(duì)
1.加強(qiáng)人工智能算法的專利保護(hù)。擴(kuò)大專利法對(duì)于人工智能算法保護(hù)范圍,針對(duì)人工智能算法專利申請(qǐng)制定相關(guān)配套制度,利用技術(shù)手段提高人工智能算法專利審查,提高人工智能算法專利審核效率。
2.鼓勵(lì)人工智能數(shù)據(jù)開放性保護(hù)。明確人工智能的數(shù)據(jù)權(quán)屬,對(duì)企業(yè)數(shù)據(jù)資源進(jìn)行知識(shí)產(chǎn)權(quán)認(rèn)定,在此基礎(chǔ)上鼓勵(lì)企業(yè)加強(qiáng)人工智能數(shù)據(jù)資源的流通共享,推進(jìn)人工智能數(shù)據(jù)集的建設(shè)。
3.促進(jìn)人工智能作品的知識(shí)產(chǎn)權(quán)化。依據(jù)著作權(quán)法等對(duì)人工智能創(chuàng)作物“獨(dú)創(chuàng)性”進(jìn)行科學(xué)辨別,對(duì)于符合條件的創(chuàng)作物應(yīng)予以知識(shí)產(chǎn)權(quán)保護(hù),對(duì)人工智能創(chuàng)作過程進(jìn)行分解進(jìn)而確認(rèn)知識(shí)產(chǎn)權(quán)的歸屬及其權(quán)益分配。
四、人工智能社會(huì)就業(yè)問題
人工智能社會(huì)就業(yè)問題是指人工智能技術(shù)發(fā)展對(duì)現(xiàn)有社會(huì)生產(chǎn)結(jié)構(gòu)及分配制度帶來的風(fēng)險(xiǎn)挑戰(zhàn)。主要包括結(jié)構(gòu)性失業(yè)、收入差距加大等問題。
(一)風(fēng)險(xiǎn)挑戰(zhàn)
1.結(jié)構(gòu)性失業(yè)。人工智能技術(shù)廣泛應(yīng)用將導(dǎo)致傳統(tǒng)行業(yè)面臨重構(gòu)、融合,人工智能必將取代眾多傳統(tǒng)職業(yè),不僅包括簡(jiǎn)單重復(fù)和流程化的勞動(dòng)崗位,也包括部分專業(yè)技能性知識(shí)工作崗位。
2、新興勞動(dòng)力不足。人工智能技術(shù)在替代傳統(tǒng)職業(yè)的同時(shí),也在創(chuàng)造一系列全新職業(yè)崗位,尤其是對(duì)勞動(dòng)力的創(chuàng)新、創(chuàng)意、創(chuàng)業(yè)能力提出更高要求,現(xiàn)有社會(huì)勞動(dòng)力構(gòu)成和教育體系尚難以適應(yīng)這一變革,新興職業(yè)勞動(dòng)力面臨短缺。
3.收入差距加大。人工智能技術(shù)驅(qū)動(dòng)全社會(huì)生產(chǎn)力發(fā)生飛躍,社會(huì)財(cái)富向少數(shù)具有人工智能技術(shù)優(yōu)勢(shì)的行業(yè)和企業(yè)積聚,對(duì)不同行業(yè)、不同企業(yè)、不同崗位的分配關(guān)系構(gòu)成重大影響,勞動(dòng)者的收入分配差距也將因此加大。
(二)法治應(yīng)對(duì)
1.加強(qiáng)人工智能勞動(dòng)力替代監(jiān)管。加強(qiáng)人工智能技術(shù)應(yīng)用的就業(yè)風(fēng)險(xiǎn)評(píng)估,出臺(tái)法律法規(guī),對(duì)面臨人工智能技術(shù)替代的行業(yè)和職業(yè)進(jìn)行監(jiān)管和救助,保障勞動(dòng)者尤其是中低端收入階層的工作機(jī)會(huì)和權(quán)利,有序推動(dòng)人工智能勞動(dòng)力替代和職業(yè)轉(zhuǎn)型,防范社會(huì)大規(guī)模失業(yè)風(fēng)險(xiǎn)。
2.加快人工智能新興勞動(dòng)力培養(yǎng)。面向人工智能發(fā)展趨勢(shì),科學(xué)規(guī)劃基礎(chǔ)教育和職業(yè)教育體系,加大人工智能各類人才的培養(yǎng),全面支持人工智能職業(yè)轉(zhuǎn)型社會(huì)機(jī)構(gòu)發(fā)展。
3.面向人工智能開展收入調(diào)節(jié)。兼顧效率與公平,在鼓勵(lì)企業(yè)通過人工智能創(chuàng)新獲取高額利潤(rùn)的同時(shí),加強(qiáng)人工智能時(shí)代社會(huì)收入分配調(diào)整,對(duì)遭遇人工智能沖擊的傳統(tǒng)行業(yè)勞動(dòng)力進(jìn)行保護(hù)和救助,提高社會(huì)二次分配的合理性與精準(zhǔn)性。
五、人工智能產(chǎn)品法律責(zé)任問題
人工智能產(chǎn)品法律責(zé)任是指人工智能產(chǎn)品或服務(wù)在應(yīng)用過程中,引發(fā)了侵權(quán)或犯罪等行為后法律責(zé)任的認(rèn)定和承擔(dān)問題,主要包括:人工智能法律主體模糊、人工智能責(zé)任界定復(fù)雜。
(一)風(fēng)險(xiǎn)挑戰(zhàn)
1.人工智能產(chǎn)品法律主體多元模糊。人工智能產(chǎn)品的法律主體涉及人工智能產(chǎn)品設(shè)計(jì)者、生產(chǎn)者、運(yùn)營(yíng)者、使用者等多元主體,人工智能產(chǎn)品的法律主體難以確定。
2.人工智能產(chǎn)品侵權(quán)責(zé)任錯(cuò)綜復(fù)雜。包括由于人工智能的控制者、使用者操作不當(dāng),造成人工智能侵權(quán);人工智能的控制者、使用者故意利用人工智能進(jìn)行侵權(quán)行為;由于黑客等外部技術(shù)侵入原因?qū)е虑謾?quán);未來人工智能系統(tǒng)具有“自我學(xué)習(xí)”和“自主意識(shí)”導(dǎo)致的侵權(quán)行為等。
(二)法治應(yīng)對(duì)
1.明確責(zé)任主體。弱人工智能時(shí)代,人工智能產(chǎn)品本身不具有獨(dú)立的法律主體資格,人工智能產(chǎn)品的定位是“工具”,人工智能設(shè)計(jì)者、生產(chǎn)者、運(yùn)營(yíng)者、使用者承擔(dān)法律主體責(zé)任。
2.科學(xué)分配人工智能侵權(quán)的法律責(zé)任。根據(jù)過錯(cuò)責(zé)任原則,由產(chǎn)品設(shè)計(jì)者、生產(chǎn)者、運(yùn)營(yíng)者、使用者按照過錯(cuò)程度分擔(dān);由于外部技術(shù)侵入造成的侵權(quán),則應(yīng)追究外部技術(shù)侵入者的責(zé)任。對(duì)于因技術(shù)限制,而使人工智能產(chǎn)品開發(fā)之初無法預(yù)測(cè)到的危險(xiǎn),造成侵權(quán)后果的,應(yīng)當(dāng)引入保險(xiǎn)機(jī)制等方式進(jìn)行責(zé)任分擔(dān)。
-
算法
+關(guān)注
關(guān)注
23文章
4739瀏覽量
96724 -
人工智能
+關(guān)注
關(guān)注
1811文章
49498瀏覽量
258197 -
網(wǎng)絡(luò)攻擊
+關(guān)注
關(guān)注
0文章
331瀏覽量
24085
發(fā)布評(píng)論請(qǐng)先 登錄
《國(guó)際人工智能安全報(bào)告》發(fā)布首份關(guān)鍵更新
利用超微型 Neuton ML 模型解鎖 SoC 邊緣人工智能
挖到寶了!人工智能綜合實(shí)驗(yàn)箱,高校新工科的寶藏神器
挖到寶了!比鄰星人工智能綜合實(shí)驗(yàn)箱,高校新工科的寶藏神器!
迅為RK3588開發(fā)板Linux安卓麒麟瑞芯微國(guó)產(chǎn)工業(yè)AI人工智能
最新人工智能硬件培訓(xùn)AI 基礎(chǔ)入門學(xué)習(xí)課程參考2025版(大模型篇)
芯盾時(shí)代引領(lǐng)人工智能安全治理新范式
開售RK3576 高性能人工智能主板
AI人工智能隱私保護(hù)怎么樣

生成式人工智能模型的安全可信評(píng)測(cè)

人工智能推理及神經(jīng)處理的未來

人工智能時(shí)代的秩序、安全與和平
人工智能助力網(wǎng)絡(luò)安全:引領(lǐng)安全防護(hù)新紀(jì)元

評(píng)論