據(jù)日經(jīng)亞洲報道,最近技術(shù)的迅速發(fā)展使人工智能可以進(jìn)行以前被認(rèn)為是人類獨(dú)特的活動。
無論是通過大型語言模型(llm)和聊天創(chuàng)造性地編寫復(fù)雜的文件,還是以算法為基礎(chǔ)控制和管理復(fù)雜的基礎(chǔ)設(shè)施和信息傳遞,還是指揮和控制致命的自主武器,人工智能都成為許多人關(guān)注的焦點(diǎn)。
事實上,人工智能能夠?qū)е氯祟悳缃^或文明崩潰的能力是再怎么強(qiáng)調(diào)也不過分的。
雖然夸張的語言和夸張沒有幫助,減弱了實際限制的根據(jù),但認(rèn)識到不符合人類價值和利益的自我強(qiáng)化和自我學(xué)習(xí)形態(tài)的智能可能帶來的最壞結(jié)果是非常重要的。
在中美戰(zhàn)略競爭加劇、全球地緣政治風(fēng)險加劇的時代,利害關(guān)系必然會更加復(fù)雜。作為世界上的兩個大國,中美兩國應(yīng)該負(fù)起維護(hù)和平的責(zé)任,就控制人工智能帶來的生存風(fēng)險問題進(jìn)行建設(shè)性合作和坦誠對話。
首先,兩國應(yīng)該設(shè)置警戒線,就人工智能的研究方向和部署達(dá)成協(xié)議。
中國和美國的技術(shù)公司正在訓(xùn)練人工智能,使用從越來越大的數(shù)據(jù)訪問差距兩邊衍生出的并列數(shù)據(jù)集。因此可以開發(fā)偏好和控制不同的人工智能。
這里有一個對比問題:人工智能可以被訓(xùn)練成符合人類使用者群體對數(shù)據(jù)源的偏好,但不會擴(kuò)展到群體之外的人口統(tǒng)計。
尤其令人擔(dān)憂的是,如果數(shù)據(jù)被細(xì)分,無論是哪個國家,都可以通過人工智能開發(fā)出比其他國家國民利益更重視本國國民利益的新目標(biāo)。如果發(fā)生軍事沖突,敵對反應(yīng)的自動化可能會使事態(tài)迅速擴(kuò)大。中美必須建立強(qiáng)有力的故障安全體系,抵御各自為政的人工智能領(lǐng)域帶來的偏見。
中國國家網(wǎng)絡(luò)信息辦公室已經(jīng)確定了生成式人工智能規(guī)則,將從8月開始生效。
包括雙重使用人工智能的開發(fā)過程、訓(xùn)練方法、公共及民間參與者的潛在配置等領(lǐng)域的有約束力的條約,對于緩和相互期待,享受合作的實惠非常重要。
第二,中國和美國的監(jiān)管機(jī)構(gòu)應(yīng)與歐盟、英國、以色列、日本以及其他人工智能新興國家的監(jiān)管機(jī)構(gòu)合作,尋找方法的同質(zhì)性。認(rèn)為任何一個國家或地區(qū)都有充分的專業(yè)性來全面管理人工智能的所有方面是愚蠢的。
上月歐洲議會批準(zhǔn)了新的人工智能法案的基本框架,其中包括明確禁止利用預(yù)測警察或街頭攝像機(jī)的實時畫面進(jìn)行臉部識別等侵犯“基本權(quán)利或歐盟價值”的內(nèi)容。
歐盟的先行精神令人感嘆,但歐盟也應(yīng)該明白,歐洲限制規(guī)定不足以管理全球人工智能的危險。
歐洲的軟實力長期源于平衡或抵消地政學(xué)上的差異的能力。在這一領(lǐng)域,歐洲可以在召集有關(guān)人工智能規(guī)制的全球工作組上發(fā)揮作用。
工作組應(yīng)由中國、美國、南部世界以及其他所有主要利益相關(guān)者的決策者和學(xué)者組成。工作小組的見解有助于平息中國和美國政府對人工智能的限制會削弱自己競爭力的猛烈主張。
有些人可能將1968年的《不擴(kuò)散核武器條約》視為限制人工智能使用的全球模型。
但是,我們必須記住,開發(fā)強(qiáng)大的llm的障礙遠(yuǎn)低于制造核武器的障礙。隨著開放源代碼人工智能的發(fā)展,個人用戶可以在很多情況下復(fù)制chatgpt的結(jié)果。與此相比,擁有核武器的國家只有9個。
第三,特別是在美國,必須謹(jǐn)慎處理與人工智能相關(guān)的國家和個人參與者之間的關(guān)系。中國在3月份舉行的全國人民代表大會年例會議上新設(shè)了國家數(shù)據(jù)局,并改編了科學(xué)技術(shù)部。4月,中國國家網(wǎng)絡(luò)信息辦公室發(fā)布了生成人工智能的法規(guī)草案,該草案已經(jīng)更新,將于5月生效。
在這方面,美國也可以借鑒中國的經(jīng)驗。雖然美國的長期政策,考慮到傳統(tǒng)全面規(guī)制的自上而下的框架實現(xiàn)的可能性很低,但政策決定者最符合公共利益決定的方式時,交由中國技術(shù)的領(lǐng)導(dǎo)力會硅谷的主張不能只看這一點(diǎn)很重要。
為了長期確保人工智能的安全,需要更多的民官合作。英國的代表性投資者伊恩·霍加斯最近被任命為研究人工智能(ai)相關(guān)風(fēng)險并考慮安全及安全標(biāo)準(zhǔn)的財團(tuán)模型工作集團(tuán)的會長。
僅僅調(diào)整中美兩國國家行為人的利益是不夠的。要想讓世界突然陷入用人工智能驅(qū)動的超級大國之間的沖突,需要各方的合作。
-
人工智能
+關(guān)注
關(guān)注
1813文章
49752瀏覽量
261634 -
安全體系
+關(guān)注
關(guān)注
0文章
4瀏覽量
6480
發(fā)布評論請先 登錄
微軟與新思科技分享智能體人工智能技術(shù)的行業(yè)影響
物理人工智能面臨的安全風(fēng)險
利用超微型 Neuton ML 模型解鎖 SoC 邊緣人工智能
人工智能如何驅(qū)動碳化硅革命
挖到寶了!人工智能綜合實驗箱,高校新工科的寶藏神器
挖到寶了!比鄰星人工智能綜合實驗箱,高校新工科的寶藏神器!
開放原子開源基金會亮相2025世界人工智能大會
迅為RK3588開發(fā)板Linux安卓麒麟瑞芯微國產(chǎn)工業(yè)AI人工智能
最新人工智能硬件培訓(xùn)AI 基礎(chǔ)入門學(xué)習(xí)課程參考2025版(大模型篇)
FLIR Si2x防爆聲學(xué)成像儀為工業(yè)安全保駕護(hù)航
開售RK3576 高性能人工智能主板
Cognizant將與NVIDIA合作部署神經(jīng)人工智能平臺,加速企業(yè)人工智能應(yīng)用

人工智能風(fēng)險不容忽視,中美應(yīng)坦誠合作
評論