作者:馮一帆
隨著社會經濟的發(fā)展,人工智能已廣泛應用于當今人們的工作與生活之中。然而,人工智能在提供便利的同時,也會產生諸如算法黑箱和信息繭房等風險,因此,對其進行監(jiān)管十分重要。本文通過梳理歐盟、美國和英國人工智能監(jiān)管制度,來探究域外人工智能監(jiān)管問題。
截至目前,在人工智能監(jiān)管方面,歐盟、美國、英國并未出臺專門的法律法規(guī),但已出現與人工智能相關的監(jiān)管指導性文件,其中公眾關注的有歐盟委員會通過的《人工智能法案》(草案)、美國的《人工智能權利法案藍圖》與《人工智能風險管理框架1.0》、英國發(fā)布的指導性文件《人工智能監(jiān)管政策》與人工智能新監(jiān)管框架的提案《促進創(chuàng)新的人工智能監(jiān)管方法》。通過上述政策文件可以發(fā)現,目前歐盟、美國、英國在人工智能監(jiān)管的機構設置、主要特點及具體內容等方面均存在一定的差異。
監(jiān)管的機構設置
歐盟人工智能監(jiān)管的機構設置。歐盟意識到使用人工智能技術可能帶來的潛在風險,因此,歐盟委員會于2021年發(fā)布的《人工智能條例》預設了一個專門的國家監(jiān)督機構來確保法律的適用和實施。該條例規(guī)定:“對于歐盟機構和組織開發(fā)的人工智能系統(tǒng),由歐洲數據保護監(jiān)督員主管負責?!奔礆W盟委員會提議在每個成員國設立中央監(jiān)管機構(歐洲人工智能委員會)和國家監(jiān)管機構來對人工智能進行監(jiān)管。
美國人工智能監(jiān)管的機構設置。一般來說,獨立的監(jiān)管機構作為政府權力的延伸與補充,其創(chuàng)建的目的通常是對不公平舉措進行預防。目前,美國并未統(tǒng)一設置人工智能監(jiān)管機構,各政府部門通過發(fā)布對現有規(guī)則的解釋與指引或發(fā)布新規(guī)則來對人工智能進行監(jiān)管,監(jiān)管主體有聯(lián)邦政府及其相關部門或機構、州政府及其相關部門或機構。
英國人工智能監(jiān)管的機構設置。去中心化的英國制度不會創(chuàng)建新的監(jiān)管機構,相反,其將依靠現有的監(jiān)管機構來執(zhí)行,如金融行為監(jiān)管局、信息專員辦公室、競爭與市場管理局、平等與人權委員會以及藥品和保健產品監(jiān)管機構,其中,信息專員辦公室是英國擬建立的人工智能監(jiān)管機構。
監(jiān)管的主要特點
歐盟自2016年起就不斷探索對人工智能技術應用的監(jiān)管體系構建,其以歐洲整體層面為視角,致力于構建協(xié)調一致、適合歐洲發(fā)展的人工智能治理體系。歐盟監(jiān)管的政策重點是,以基本人權為底層邏輯,側重于保障個人權利。其治理模式是基于比例原則的風險分層治理。監(jiān)管機制是采取分級監(jiān)管、多種監(jiān)管,并實行高額的行政處罰,且將公私機構一起納入監(jiān)管范圍。歐盟在人工智能領域的執(zhí)法案例主要涉及反壟斷法和數據保護法,典型案例是谷歌案,2017年,谷歌因存在濫用市場支配地位行為而被歐盟委員會處以24.2億歐元的罰款。
美國側重于對人工智能在具體應用場景下的監(jiān)管,但是尚未出臺統(tǒng)一綜合的人工智能立法。聯(lián)邦政府在為市場提供監(jiān)管參考時通常采用白皮書、指南等形式;地方政府在提供監(jiān)管參考時則多以立法形式。監(jiān)管政策的重點是,以促進產業(yè)發(fā)展為主,在治理時側重于維護公平和保護隱私。其治理模式是風險評估與風險管理框架。監(jiān)管機制不是單一的依賴于行政監(jiān)管,而是強調政府部門與私營部門的協(xié)作。并且,為了推動人工智能技術的發(fā)展,主張企業(yè)進行自我監(jiān)管。
在執(zhí)法方面,主要集中在美國聯(lián)邦貿易委員會與美國版權局。兩個機構以維護市場公平競爭和保障人工智能技術合理使用為執(zhí)法目的,典型案例是Everalbum人臉識別案和《黎明的曙光》版權案。
英國人工智能監(jiān)管政策的重點是,以促進科技發(fā)展為主,治理方面?zhèn)戎赜谥С謩?chuàng)新的監(jiān)管體系。監(jiān)管機制是統(tǒng)籌協(xié)調各部門進行人工智能監(jiān)管工作,強調監(jiān)管方式的靈活性,并保持手段和目標之間適當的比例性。在執(zhí)法方面,英國以保護用戶隱私數據安全為前提,并主要依賴于《英國通用數據保護條例》。然而,英國信息專員辦公室執(zhí)法活躍度并不高,截至目前,僅有極少數的罰款案件。如2021年的美國人臉識別公司Clearview AI案,因Clearview AI未經個人同意自行收集和處理個人生物識別數據,英國信息專員辦公室以其侵犯英國隱私法律法規(guī)為由,對美國人臉識別公司Clearview AI處以750萬英鎊的罰款,命令Clearview AI停止收集和使用在互聯(lián)網上公開的英國居民個人數據,并從系統(tǒng)中刪除英國居民的相關數據信息。
監(jiān)管的具體內容
歐盟在2023年6月通過了《人工智能法案》的談判授權草案(以下簡稱《法案》),《法案》的監(jiān)管思路是以橫向監(jiān)管為基礎,以風險規(guī)制為主要方式,同時兼顧監(jiān)管與發(fā)展的動態(tài)平衡。
《法案》具有以下特征:
其一,根據風險程度的等級對人工智能進行分類,其中評估風險是關鍵環(huán)節(jié),分為不可接受的風險、高風險、有限風險與最小風險四類,并根據風險程度的不同來匹配不同的監(jiān)管措施。
其二,《法案》提出風險管理覆蓋規(guī)制的全過程。歐盟為規(guī)避風險,結合人工智能的特征提出了全生命周期的規(guī)制方案,該方案將覆蓋人工智能產品入市前與入市后,實現事前、事中、事后的全面規(guī)制。在事前階段,將人工智能的預期風險劃分為四個等級,依據應用場景和風險等級的不同,制定與之相對應的監(jiān)管舉措;在事中階段,強調人工智能監(jiān)管沙盒的作用機制;在事后階段,規(guī)定系統(tǒng)供應商應針對高風險進行全程售后監(jiān)測,并及時將故障數據上報給國家監(jiān)管部門。
其三,根據風險類型和風險程度不同,對規(guī)制措施進行動態(tài)調整。上市前需對人工智能系統(tǒng)進行合格評估,主要評估即將上市的系統(tǒng)是否屬于《法案》第二章規(guī)定的各項禁止性做法。若高風險人工智能系統(tǒng)在上市后發(fā)生實質性修改,則應啟動新的評估程序。上市后需針對人工智能系統(tǒng)制定監(jiān)測計劃,并對高風險系統(tǒng)的監(jiān)測系統(tǒng)進行重點監(jiān)測。因該監(jiān)測系統(tǒng)主要收集、分析基于使用人工智能系統(tǒng)而產生的數據,所以該系統(tǒng)需具備日志記錄功能,以保證相關數據的可追溯性。
美國于2022年10月提出了《人工智能權利法案藍圖》(以下簡稱《藍圖》),《藍圖》并未明確實施細則,而是以公平與隱私為重點,要求相關主體在人工智能系統(tǒng)開發(fā)過程中以堅守公平正義為底線,保證系統(tǒng)使用者不受算法歧視和數據隱私泄露的侵害?!端{圖》通過設立五項基本原則來預防濫用人工智能技術帶來的風險,即規(guī)避算法歧視;加強隱私數據保護;及時履行通知與解釋義務;準備替補方案與退出機制;構建安全高效系統(tǒng)。2023年1月,美國國家標準與技術研究院發(fā)布《人工智能風險管理框架1.0》(以下簡稱《框架1.0》)。該文件之所以備受關注,一方面是因為其致力于識別與人工智能系統(tǒng)部署相關的各類風險,從性質上來看是非強制性的指導性文件,可由相關機構自愿選擇使用,其比約束性法律更容易在應用中實現更新迭代;另一方面是因為它是由多方利益主體共同參與并制定的,具有高可信度和高接受度。
在具體內容上,《框架1.0》由一個摘要、兩部分正文和四個附錄所組成,第一部分是基礎信息,包含對人工智能風險的界定、框架的管理目標和受眾主體等。第二部分是框架核心及具體配置,指出框架核心由四個頂層模塊所組成,即治理、映射、測量和管理,而每個功能項下還分別下設兩級展開目錄?!犊蚣?.0》采用多元化的治理方案,旨在幫助相關主體部署人工智能系統(tǒng),減少對人工智能技術的偏見,增強其可信度并保護個人數據隱私。從而有效規(guī)避人工智能系統(tǒng)帶來的風險,幫助諸多行業(yè)及組織將人工智能風險管理原則轉化為實踐,以提高相關主體使用人工智能系統(tǒng)的安全性與可靠性。
英國在人工智能監(jiān)管路徑設計方面主張平衡創(chuàng)新與發(fā)展。英國政府于2022年7月頒布的《人工智能監(jiān)管政策》(以下簡稱《政策》),以創(chuàng)建新型人工智能監(jiān)管機制為目標。新型人工智能監(jiān)管機制將基于人工智能的自適應性、自主性等特征來協(xié)調各部門實施相應的監(jiān)管工作。在監(jiān)管方面,《政策》提出了四項原則:其一,堅持具體情形具體監(jiān)管原則。即根據不同的情形設置不同的監(jiān)管方案,并明確各監(jiān)管機構所承擔的監(jiān)管責任,從而保障監(jiān)管方案的針對性和有效性。其二,遵循協(xié)調原則。即鼓勵監(jiān)管部門間建立溝通協(xié)調機制,從而實現跨部門的個性化監(jiān)管。其三,鼓勵創(chuàng)新原則。即支持創(chuàng)新監(jiān)管,要求監(jiān)管機構著力解決有明確證據證明風險存在的問題。其四,比例性原則。即在確保監(jiān)管方法與被監(jiān)管行為特點相一致的同時,還應確保目標與方法之間的比例性。
2023年3月,英國發(fā)布政策報告《促進創(chuàng)新的人工智能監(jiān)管方法》(以下簡稱《方法》),《方法》的制定以提供具有創(chuàng)新性、可信賴性的人工智能監(jiān)管框架為目的?!斗椒ā分赋?,監(jiān)管框架將以以下基本原則為基礎,即安全性、可靠性和穩(wěn)健性、透明度和可解釋性、公平性、問責制和治理以及可爭議性和補救措施。
基于監(jiān)管原則,英國政府計劃采取以下方法來構建一個靈活的監(jiān)管框架:其一,基于人工智能應用場景來評估風險,靈活調整監(jiān)管;其二,應重點關注人工智能應用導致的真實、可識別和不可接受的風險;其三,制定針對人工智能特征的跨部門原則,以保障監(jiān)管框架的一致性;其四,通過不斷審查監(jiān)管方法來保持監(jiān)管方法的適應性。
編輯:黃飛
?
電子發(fā)燒友App



評論