“機器人不得偽裝成人類?!?/p>
7月1日,加州的一項新法生效了。
從此,任何用作商業(yè) (或正攵氵臺) 用途的聊天機器人,都必須說明自己是機器人。不論是打電話、發(fā)短信、還是在社交網(wǎng)絡(luò)上發(fā)言。
違法的機器人主人可能面臨罰款。
紐約客寫到:
這個規(guī)定就好比,制藥公司必須聲明,廣告里說自己吃了藥就好了的人,是花錢請的演員。
在美國,這樣的法律還是第一次生效。
于是,網(wǎng)友又開啟了熱烈的討論。不到一天Hacker News熱度便超過了600。
反欺詐,也有人不同意
這條法規(guī),是加州一位名叫Robert Hertzberg的參議員提出的。
他說,這就是把高端的科技概念融入到基本的法律原則里來。不能以經(jīng)濟為目的去欺騙,也不能在競選過程中欺騙。
當(dāng)初之所以發(fā)表這樣的提案,很重要的一個緣由,就是2016年美國大選。
那時,川川和希希都有競選機器人,但川川的機器人以五倍數(shù)量壓倒對手,且其中大部分機器人都來自俄羅斯。
推特曾經(jīng)像參議院的一個委員會透露,2016年大選前,有5000只機器人 (來自俄羅斯) 轉(zhuǎn)推川川的競選推特,一共接近500萬次。相當(dāng)于希希機器人轉(zhuǎn)發(fā)的10倍。
另外,還有一次電視辯論的網(wǎng)上投票,川川大勝也是依靠機器人的支持。
競選只是一個栗子,人類因為機器人/AI的存在而大呼上當(dāng)?shù)那樾尾⒉簧僖姟S绕涫窃贒eepfakes出現(xiàn)之后:
小電影女主,變成神奇女俠
Facebook還曾經(jīng)因為沒有及時發(fā)現(xiàn)一條南?!づ迓逑?(美國眾議院議長) 的假視頻,受到了墻裂的指責(zé)。
不過相比整治偽造視頻,聊天機器人的規(guī)范化可能來得更加簡單一些。
但即便是這樣,要變成法律實施,并沒有那么容易。
法案早期的版本,要求平臺把沒說是機器人的機器人全都下架,不限于商業(yè)/選舉造勢用途,所有聊天機器人都包括。
于是,一提出便遭遇了迅猛的反彈,反對意見主要來自互聯(lián)網(wǎng)協(xié)會 (Internet Association) ,以及電子前線基金會 (Electronic Frontier Foundation) 。這一條很快便從草案里刪除了。
不斷修改過后,才有了今天看到的版本,并在去年10月通過。
但在已經(jīng)生效的今天,依然有不少人擔(dān)心,這條法律的打擊范圍過大。
華盛頓大學(xué)技術(shù)政策實驗室的Madeline Lamo教授說,機器人也會做好事的:
不止是畫畫,機器人還會通過假扮人類和去聊天,來學(xué)習(xí)人機關(guān)系該怎樣處理。
教授還提到,機器人的代碼也是人寫的,并不能因為一句話是機器人說的,就否定它也是人類創(chuàng)造力的產(chǎn)物。
電子前線基金會的態(tài)度也是這樣:許多人都把機器人當(dāng)做一種有破壞性的工具,不會覺得它們也是一種表達的媒介。
你怎么看
不過,常常接到AI騷擾電話的人類們,可能會支持這樣的法律。
畢竟,如果必須要說“您好,我是來自某某公司的機器人”,這個電話可能就不會打了。
Hacker News的頂樓,大概也是AI客服/AI推銷的受害者之一。ta說:
我們是有機器人,這個不是問題。問題在于,我們已經(jīng)把欺騙當(dāng)成了商業(yè)活動的日常,允許機器人假扮人類。
-
機器人
+關(guān)注
關(guān)注
213文章
30253瀏覽量
217815
原文標(biāo)題:不準(zhǔn)機器人假扮人類?這是哪門子法律?
文章出處:【微信號:smartman163,微信公眾號:網(wǎng)易智能】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
發(fā)布評論請先 登錄
評論