前不久OpenAI決定解散專注于AI的長期風(fēng)險的“超級對齊”團隊(Superalignment team),現(xiàn)在又突發(fā)AGI團隊解散事件。OpenAI的安全政策遭業(yè)界質(zhì)疑。要知道面對越來越強大的AI技術(shù),很多AI企業(yè)在安全政策上持續(xù)加大投入;但是OpenAI似乎在退步?要知道AI技術(shù)如果不加以控制可能會帶來災(zāi)難性的后果。若缺乏有效的監(jiān)管與規(guī)劃,AGI的進展將面臨更多的不確定性與風(fēng)險。現(xiàn)在;對于AGI(通用人工智能)OpenAI真的準備好了嗎?世界真的準備好了嗎?
據(jù)外媒報道,OpenAI公司正在解散其“AGI籌備”團隊,團隊負責(zé)人Miles Brundage離職,OpenAI公司的AGI團隊就OpenAI自身處理日益強大的人工智能技術(shù)的能力以及世界管理人工智能技術(shù)的準備情況向公司提供建議。
而OpenAI的AGI籌備團隊負責(zé)人Miles Brundage在周三通過Substack發(fā)布的帖子中宣布了這一消息,Miles Brundage透露已經(jīng)完成了他在OpenAI的目標(biāo)。Miles Brundage想要減少偏見;可能會自己成立一家非營利組織,或加入現(xiàn)有的非營利組織,未來將專注于人工智能政策研究和倡導(dǎo)。
事件發(fā)生在OpenAI董事會可能計劃將公司重組為營利性企業(yè)之際;這就更讓業(yè)界擔(dān)心其安全性。以前的OpenAI是一個開源公司、非營利組織,但現(xiàn)在OpenAI似乎真的變了,OpenAI正在設(shè)法實現(xiàn)利潤最大化。
AI落地實踐的進程中;目前業(yè)界多認為在研究、開發(fā)和應(yīng)用人工智能技術(shù)時,需要遵循的道德準則和社會價值觀,以確保人工智能的導(dǎo)向正確,如何讓引導(dǎo)AI;使其是受控制的;這是一個大的前提。確保AI的目標(biāo)是為了讓世界變得更加美好;盡管甚至可以達到比人類更智能的AI系統(tǒng)。技術(shù)創(chuàng)新與安全性兼顧的可能性是需要重點考慮的。
-
人工智能
+關(guān)注
關(guān)注
1807文章
49029瀏覽量
249691 -
Agi
+關(guān)注
關(guān)注
0文章
93瀏覽量
10519 -
OpenAI
+關(guān)注
關(guān)注
9文章
1210瀏覽量
8941
發(fā)布評論請先 登錄
評論