德國創(chuàng)新創(chuàng)業(yè)協(xié)會會長胡海濤第一財經(jīng)記者表示:“應該嚴密保護個人數(shù)據(jù),我們的企業(yè)家協(xié)會主要從事醫(yī)學和生物醫(yī)學AI研究,如果缺乏保護個人數(shù)據(jù),不僅會導致客戶個人社會形象受損,甚至可能影響職業(yè)生涯;如果是公眾人物,潛在的風險是不可估量的。”
在大數(shù)據(jù)和云計算的幫助下,加強對“個人數(shù)據(jù)”的保護,近兩年來人工智能再次在時代的浪潮中,成為一個不容忽視的熱點。然而,與此同時,人工智能帶來的各種社會問題也逐漸浮出水面。
2018年3月17日,據(jù)國外媒體透露,英國政治咨詢公司劍橋分析沒有在臉書(Facebook),公司同意情況下,并且未告知實情的同時,通過一種問答應用軟件竊取了至少8700萬Facebook用戶的數(shù)據(jù),然后這些數(shù)據(jù)賣給了特朗普的競選團隊,使其于2016年的總統(tǒng)大選中獲得準確的信息投放給Facebook用戶,最終贏得了選舉。
事實上,只有少數(shù)用戶真正使用這個問答應用,但由于facebook數(shù)據(jù)管理的一個缺陷,劍橋分析公司不僅可以訪問所有用戶的數(shù)據(jù),還可以訪問他們所有facebook好友的數(shù)據(jù),盡管他們從未使用過這個應用。
這幾乎算是2018年曝光的范圍最大的數(shù)據(jù)丑聞,臉書公司的市值在丑聞曝光后至今已跌去了近40%,但這只是冰山一角。用戶的數(shù)據(jù)是有價值的,因為它可以被人工智能系統(tǒng)分析來監(jiān)控一切,從購物習慣到個人興趣,甚至政治傾向。
這使得互聯(lián)網(wǎng)巨頭很容易利用人工智能向用戶推送他們可能感興趣的項目和廣告,如果數(shù)據(jù)被泄露并用于非法目的,可能會帶來災難性的后果?,F(xiàn)時迫切需要規(guī)管個人資料的收集、處理及儲存方式,而歐盟已率先采取措施保障個人資料。
2018年5月25日,歐盟《通用數(shù)據(jù)保護條例》正式生效。為了保證新法規(guī)的實施,獨立的監(jiān)管機構歐洲數(shù)據(jù)保護委員會(European data protection commission)于同一天正式成立。
該法規(guī)被認為是歷史上最嚴格的個人數(shù)據(jù)保護條例,不僅大大擴展了“個人數(shù)據(jù)”的定義,除了名字,電話號碼、用戶名、IP地址和其他一般信息,健康數(shù)據(jù),宗教,政治觀點,包括性取向也劃入等敏感信息保護的范圍,以及用戶可以決定企業(yè)是否獲得他們的個人信息,并允許使用范圍,并可以要求公司刪除保存的信息。
該規(guī)定不僅適用于在歐盟注冊或總部設在歐盟的公司,也適用于提供產(chǎn)品、服務或持有或處理歐盟用戶數(shù)據(jù)的公司。任何違反收集和使用個人信息基本原則、未能保護數(shù)據(jù)主體權利的公司,都可能被處以最高2000萬歐元(合全球營業(yè)額的4%)的罰款。
受這些規(guī)定影響最大的是持有大量用戶數(shù)據(jù)的互聯(lián)網(wǎng)巨頭。2018年11月下旬,很多個歐洲國家的消費者團體對谷歌提起訴訟,指控其違反歐盟數(shù)據(jù)保護規(guī)定,秘密追蹤數(shù)百萬用戶的移動位置。谷歌可能面臨巨額罰款。
2018年12月中旬,歐洲監(jiān)管機構宣布,facebook將因未能保護用戶隱私而接受調(diào)查,這意味著該公司可能面臨高達數(shù)十億美元的罰款。
在舊金山舉行的阿斯彭互聯(lián)網(wǎng)峰會上,德克薩斯州議會代表兼眾議院監(jiān)督與政府改革委員會主席赫德(Will Hurd)表示,未來美國可能會出臺一項類似GDPR的數(shù)據(jù)監(jiān)管法案。
赫德說,雖然一年前大多數(shù)美國人可能不會同意這一點,但2018年發(fā)生的一系列數(shù)據(jù)泄露事件已經(jīng)完全改變了這一點。
谷歌CEO:擔心AI技術被濫用于非法途徑是可以理解的。除了保護個人資料外,針對人工智能的算法偏見也是一個需要解決的問題。消除人們之間存在的各種偏見是困難的,但通常個人的影響是有限的,不會給社會帶來嚴重的后果。然而,如果人工智能算法含有偏見,一旦被廣泛使用,負面影響將難以衡量。
2018年10月中旬,亞馬遜關閉了(實驗性的)人工智能招聘引擎,該引擎原本是為求職者的簡歷打分,然后把得分高的人的簡歷推到負責招聘的人力資源部門,而得分低的人的簡歷則被淘汰。
但在實踐中,開發(fā)人員發(fā)現(xiàn)人工智能對“女性”求職者存在偏見。如果單詞“女性”出現(xiàn)在特定的上下文中,它可能會自動降級。
這不是開發(fā)者故意設計的、待有偏見的內(nèi)容,而是人工智能從公司歷史上海量的求職和招聘數(shù)據(jù)中得出的一個模型。作為一家科技公司,亞馬遜約60%的員工是男性,男性求職者遠多于女性。隨著人工智能的應用日益廣泛,如何保證人工智能算法的公平性、公正性和安全性成為當務之急。
特別是在無人駕駛、醫(yī)療診斷、法律咨詢等社會影響較深的領域,算法偏見帶來的負面影響該由誰來負責?
從理論上講,避免算法偏差的前提是保證算法的輸入數(shù)據(jù)不存在任何偏見。然而,實際情況要復雜得多。例如,任何數(shù)據(jù)源都是有限的。假如源頭本身的數(shù)據(jù)就不完全客觀,結果會導致這種偏見自然而然地遺傳給算法。
胡海濤在接受《第一財經(jīng)日報》的記者采訪時表示:“當我們不能對不同的AI算法進行客觀唯一的評價之時,增加AI算法的透明性、開放度及對AI算法的審議機制,是人類目前階段最明智的選擇。人工智能算法應該保證公平、公正、公開,沒有暗箱操作的,只有這樣,它的參考結果才有說服力。人工智能應該幫助人類做出更好的決定,而不是為人類做出決定?!?/p>
近年來流行起來的人工智能自動駕駛技術就是最好的例子。早在2017年,美國眾議院就通過了加速推廣自動駕駛汽車的相關計劃,但該法案尚未得到參議院的批準。
2018年12月19日,美國參議員再次拒絕在2018年年底休會前對該法案進行的投票。盡管企業(yè)做出了讓步,該法案還是遭到了一些民主黨人的反對,他們認為自動駕駛技術尚未能解決安全問題。
谷歌首席執(zhí)行官Stephen Pichai在12月中旬告訴媒體,對濫用人工智能技術的擔憂是“非常合理的”。他說,新的人工智能工具,如無人駕駛汽車和疾病檢測算法,都應該置道德護欄,并考慮什么是濫用這項技術?!拔艺J為科技公司必須意識到不能先創(chuàng)造人工智能工具,然后再去完善它,這樣是行不通的。”
埃森哲應用情報部門董事總經(jīng)理喬杜里還說,他預計未來一年全球將出現(xiàn)更多的政府審查和技術監(jiān)督。她說:“人工智能和全球科技巨頭所掌握的權力引發(fā)了許多關于如何監(jiān)管行業(yè)和技術的問題,2019年我們將繼續(xù)尋找這些問題的答案?!?/p>
電子發(fā)燒友App














評論