(文章來源:百家號)
哥倫比亞大學(xué)教授、機(jī)器人研究權(quán)威專家Hod Lipson提出,機(jī)器將會有自我意識,這件事是確信無疑的。只不過“這件事情將在10年之后發(fā)生,還是100年之后發(fā)生”,科學(xué)家本人也不知道。
我們知道,以往在設(shè)計(jì)機(jī)器智能系統(tǒng)的時候,技術(shù)人員總是會試圖讓它們模擬和還原人類的行為。于是我們看到,機(jī)器在copy人類的過程中,學(xué)會了如何看、如何下棋,甚至還會像人一樣控制肢體來上一段花式體操??雌饋恚坪鯔C(jī)器的能力已經(jīng)比絕大多數(shù)普通肥宅要強(qiáng)的多了。但為什么小說和電影里那么多牛氣沖天的機(jī)器人,生活中卻一個也沒有呢?
別說對著人類突突突的機(jī)器人軍團(tuán)了,想花錢找個機(jī)器人管家替我擦桌子洗碗整理家務(wù),都常常被科普“想太多”……而這都源于機(jī)器人的自我意識缺失。它只能完成人類告訴它的事情,并且還十分費(fèi)勁。至于強(qiáng)智能系統(tǒng)需要的自我模擬、自我建模,更是遙遠(yuǎn)的天方夜譚。
怎么現(xiàn)在突然就說機(jī)器人要產(chǎn)生自主意識了?乍聽之下簡直震驚我全家,接下來是不是該組織人類反抗軍了?咳咳,抱歉剛看完《終結(jié)者》后遺癥有點(diǎn)大……關(guān)于機(jī)器人覺醒,或許要從其最新的成果——仿生群體粒子機(jī)器人說起。和人們想象中擁有機(jī)械身體、超智慧大腦的人形智能機(jī)器人不同,Hod Lipson所說的機(jī)器意識,很可能最先從粒子機(jī)器人集群中誕生。
之所以這么說,是因?yàn)榍懊娴陌l(fā)現(xiàn),正在將機(jī)器能夠模擬的心智能力推向更高維度。根據(jù)目前的科學(xué)研究,人類的心智主要包括四大能力,其中視覺感知和推理能力,已經(jīng)被神經(jīng)網(wǎng)絡(luò)模型復(fù)制到了現(xiàn)實(shí)世界,計(jì)算機(jī)視覺、AI大腦正在成為新的生產(chǎn)力引擎。而情感和社會關(guān)系,比如不同文化圈的人類能夠感受到愛恨悲喜等相通的感情,能夠根據(jù)合作、競爭、友誼、家人等不同的社會關(guān)系來產(chǎn)生動機(jī)并預(yù)測行為。
如果機(jī)器某個零件壞了,它就可以自己修復(fù),這使得機(jī)器的利用效率和適用范圍大大提升。比如工廠里的機(jī)器、家里的吸塵器等,一些部件壞掉就會讓整個機(jī)器無法運(yùn)作。未來由這些納米級機(jī)器人組成的機(jī)器,就能夠不斷循環(huán),單個足見壞掉之后依然可以使用,幫助使用者不斷節(jié)省成本。
另一方面,能夠?yàn)槲磥?a href="http://www.brongaenegriffin.com/v/" target="_blank">科技打開新的想象空間與可能性。比如太空科技,生物醫(yī)藥等,隨著粒子機(jī)器人技術(shù)向毫米、納米級演進(jìn),未來應(yīng)用到人類的血管中幫助處理病灶,亦或是在月球上機(jī)器人可以根據(jù)任務(wù)的需求改變自身的形態(tài)。任何自動化智能系統(tǒng),包括在技術(shù)瓶頸中苦尋出路的無人駕駛等,一旦它們能夠有自我意識,從毀壞中恢復(fù),就能夠更快地改進(jìn),這都是并不遙遠(yuǎn)得機(jī)器智能未來。
人類為什么對智能機(jī)器人這么緊張呢?除了在智力、能力、體力上對人類個體的碾壓之外,恐怕一個很大的恐懼來自于未知與不確定性:一旦機(jī)器擁有獨(dú)立的人格和認(rèn)知,會不會傷害人類呢?哪個“變態(tài)科學(xué)家”會甘愿冒天下之大不韙,丟給智能機(jī)器這樣“反人類”的數(shù)據(jù)集,而不擔(dān)心先被機(jī)器虐的是自己呢?
事實(shí)上,像波士頓動力那樣動輒對機(jī)器人拳打腳踢,只是為了訓(xùn)練其適應(yīng)性和靈活性的必要方式。就連這樣的操作,也因?yàn)槿祟愖陨淼耐硇暮屯樾?,而變得越來越少了。讓AI在仿真環(huán)境里打游戲、讓機(jī)械手臂玩魔方、去山坡上溜機(jī)械狗……都是時下訓(xùn)練的新方式,真有覺醒那一天,AI應(yīng)該也給人類造一個沙盒游戲場快樂玩?!巴短覉罄睢辈艑β?。
再進(jìn)一步,如果出現(xiàn)了這樣的人類“恐怖分子”,比如利用AI行騙、犯罪,將機(jī)器人改造成爆炸裝置之類的,在技術(shù)上能否及時發(fā)現(xiàn)并遏制呢?對于這一點(diǎn),智能科學(xué)正在向網(wǎng)絡(luò)安全界學(xué)習(xí),引入一些成熟的防范機(jī)制,比如人工智能開發(fā)中的紅色團(tuán)隊(duì)、人工智能系統(tǒng)中的正式驗(yàn)證,以及負(fù)責(zé)任地披露人工智能漏洞等等。
“應(yīng)該說任何這樣的問題都沒有一個簡單的答案,但是我們必須走上這樣一個歷程,并且一步一步的往前走,我們現(xiàn)在要公開討論它應(yīng)該可以做些什么,不可以做些什么,要不斷地進(jìn)行研究?!睂夹g(shù)的擔(dān)憂,就如同初次觸摸火種的驚懼,永恒地懸在人類心頭。今天絕大多數(shù)人提到AI,已經(jīng)沒有了初見深藍(lán)和阿爾法狗的恐懼,開始重點(diǎn)關(guān)注其如何為經(jīng)濟(jì)釋放能量。
從這個角度看,智能機(jī)器人的“黃金時代”還沒能到來,它正如所有“前輩們”一樣,經(jīng)歷著幻想、質(zhì)疑、混沌。所以,在這個技術(shù)尚且十分初級的階段,來探討其覺醒后是善是惡,似乎是一件很形而上的事情,但關(guān)乎我們每個人的未來,也孕育在這樣與技術(shù)進(jìn)步相勾連的思索與拷問之間。
? ? ?(責(zé)任編輯:fqj)
電子發(fā)燒友App





評論