2022年12月,國(guó)際知名OpenAI公司發(fā)布了ChatGPT3.5。僅僅不到3個(gè)月,OpenAI公布了最新版本GPT-4。與3.5版本相比,GPT-4在識(shí)圖能力、回答準(zhǔn)確性等方面能力得到躍升。ChatGPT的橫空出世掀起一波巨浪,有人把它喻為互聯(lián)網(wǎng)革命后的又一次人類技術(shù)的大進(jìn)步,甚至把它與工業(yè)革命對(duì)人類社會(huì)的進(jìn)步作用相比肩。恩格斯曾預(yù)言:“一旦技術(shù)上的進(jìn)步可以用于軍事目的并且已經(jīng)用于軍事目的,它們便立刻幾乎強(qiáng)制地,而且往往是違反指揮官的意志而引起作戰(zhàn)方式上的改變甚至變革?!蹦敲?,ChatGPT能否應(yīng)用于軍事目的,會(huì)不會(huì)像互聯(lián)網(wǎng)技術(shù)一樣引起作戰(zhàn)方式的變革呢?單從目前ChatGPT的功能及原理來看,至少現(xiàn)在還不能對(duì)軍事領(lǐng)域產(chǎn)生較大的影響,其理由有以下幾點(diǎn)。
ChatGPT還不具備軍事智能
ChatGPT到底有沒有出現(xiàn)人類智能,進(jìn)而擁有軍事智能?有人認(rèn)為ChatGPT能夠?qū)懺?shī)、編代碼、繪畫、寫論文等等這些人類需要智能,而且是高智能才能完成的工作。因而ChatGPT應(yīng)該已經(jīng)具備了人類的一些智能。這種說法犯了一個(gè)錯(cuò)誤,錯(cuò)誤事實(shí)在于把結(jié)果與過程等同起來。如一個(gè)簡(jiǎn)單的計(jì)算器能算出9位數(shù)的平方根,而人類幾乎極難完成,但不代表計(jì)算器比人類聰明。
再分析ChatGPT為何有如此的能力,實(shí)際上ChatGPT是一個(gè)大語(yǔ)言模型,其技術(shù)根源是運(yùn)用“無限猴子定理”,形象的比喻ChatGPT是一只升級(jí)版的,講邏輯、懂道理、會(huì)表述的猴子。“無限猴子定理”認(rèn)為,讓一只猴子在打字機(jī)上隨機(jī)地按鍵,當(dāng)按鍵時(shí)間和按鍵次數(shù)達(dá)到無窮時(shí),猴子幾乎必然能夠打出任何給定的文字,比如莎士比亞的全套著作。當(dāng)猴子在無窮的某一時(shí)刻打出一段莎士比亞著作中某一句話時(shí),只是純粹的巧合、運(yùn)氣與概率。
如何在接近無窮次的語(yǔ)句挑出契合人類思維和表述習(xí)慣的答案,ChatGPT開始運(yùn)用貝葉斯定理進(jìn)行反向推理。貝葉斯定理看起來平淡無奇,但給人類提供了探知未知概率的方法。人們首先有一個(gè)先驗(yàn)猜測(cè),然后結(jié)合觀測(cè)數(shù)據(jù),修正先驗(yàn),得到更為合理的后驗(yàn)概率。這就是說,當(dāng)你不能準(zhǔn)確知悉某個(gè)事物本質(zhì)時(shí),你可以依靠經(jīng)驗(yàn)去對(duì)未知世界的狀態(tài)步步逼近,從而判斷其本質(zhì)屬性。ChatGPT正是運(yùn)用了貝葉斯的“逆向概率”,把貼近人類常用表達(dá)的字詞留下,無用的字詞撇去,從而得到一句符合人類邏輯的話。因而,ChatGPT的核心原理是概率論,是貝葉斯定律的勝利。
從ChatGPT底層技術(shù)的運(yùn)用邏輯,不難看出ChatGPT仍然是數(shù)學(xué)和計(jì)算機(jī)科學(xué)相結(jié)合的產(chǎn)物。無論它產(chǎn)生的結(jié)果多么貼近人的答案、出乎人的意料、超越人的能力,但它仍然不具備人類的智能,更不可能產(chǎn)生人類智能。從這個(gè)角度來看,ChatGPT和過去出現(xiàn)的機(jī)器學(xué)習(xí)、深度學(xué)習(xí)等一樣,只是人工智能的另一個(gè)產(chǎn)品,是傾向于自然語(yǔ)言處理系統(tǒng)的。它目前難以形成人類智能,也就不可能出現(xiàn)軍事智能,更不會(huì)引起作戰(zhàn)方式的變革。
ChatGPT還不是好參謀
判斷人與機(jī)器的區(qū)別,最經(jīng)典的測(cè)試是圖靈測(cè)試。讓無關(guān)的第三人,從人與機(jī)器的對(duì)話中,能否準(zhǔn)確區(qū)分于人與機(jī)器。如果把這一測(cè)試應(yīng)于ChatGPT與人類之間,或許能夠騙過第三人,把機(jī)器看作人??梢?,ChatGPT在自然語(yǔ)言處理方面的杰出能力。
ChatGPT跟提問人之間這種往復(fù)交談的過程,看上去似乎真的就是一個(gè)有思維的人,但嚴(yán)格來說,ChatGPT并不是對(duì)它所說的那些東西有了理解。它仍然是一種概率算法,只不過是它的算法、參數(shù)等等極為強(qiáng)大。OpenAI的 GPT-3 模型具有 1750 億參數(shù)量,ChatGPT-3.5,參數(shù)數(shù)量應(yīng)該多于1750 億,ChatGPT4.0技術(shù)相比之前的幾個(gè)版本來說模型規(guī)模更大,預(yù)計(jì)將包含數(shù)萬億個(gè)參數(shù)。這些參數(shù)指的是在訓(xùn)練模型前需要預(yù)先設(shè)置的參數(shù),這些接近天文數(shù)字的巨量參數(shù)是Chatgpt的能源,是其生存發(fā)展的養(yǎng)分。
ChatGPT能否直接運(yùn)用軍事決策輔助呢?回答卻是否定的。我們確實(shí)可以通過ChatGPT詢問一些關(guān)于時(shí)事政治、氣候地理、軍事實(shí)力、經(jīng)濟(jì)水平等一些與軍事領(lǐng)域密切相關(guān)的問題,得到一些超乎“意外”的信息,但這些信息的來源是互聯(lián)網(wǎng),這些信息的基礎(chǔ)是互聯(lián)網(wǎng)的認(rèn)知,是基于互聯(lián)網(wǎng)上所有信息的綜合,是互聯(lián)網(wǎng)自己的答案。
一方面,由于互聯(lián)網(wǎng)上有關(guān)軍事理論、軍事裝備、作戰(zhàn)戰(zhàn)法、戰(zhàn)爭(zhēng)案例、力量部署等等信息資源的天然缺陷。無論它引用或綜合了某一論壇、某一網(wǎng)站、某一網(wǎng)友的結(jié)論,或者從零樣本或少量樣本中生成具有語(yǔ)法和語(yǔ)義正確性的新軍事信息方案,看上去是哪樣的“完整”,但由于其信息本源是殘缺的,信息來源是無事實(shí)依據(jù)的,其答案就不可信了。因?yàn)?,假消息是軍事決策領(lǐng)域的最大忌諱;另一方面,一旦數(shù)據(jù)源本身或者算法存在偏見和錯(cuò)誤,其結(jié)論同樣會(huì)繼承錯(cuò)誤和偏見。
同樣,如果ChatGPT的技術(shù)直接移植到軍事情報(bào)領(lǐng)域,但由于缺乏龐大、巨量的既往信息資源和每天產(chǎn)生的海量信息資源的支持,其也難以做出“完美”的決策。誠(chéng)然,ChatGPT能夠協(xié)助指揮員快速生成標(biāo)準(zhǔn)的軍用文書,提升參謀人員作業(yè)的效率;ChatGPT能夠突破語(yǔ)言文字交流壁壘,讓交流溝通和信息獲取更加順暢,但這些能力不是參謀的核心能力,只是參謀的基本素質(zhì),只是一個(gè)工具,本身需要人來掌握。因而,其離一名優(yōu)秀的參謀還有相當(dāng)大的距離,不是其能力不夠,而是其頭腦中的真實(shí)軍事信息、數(shù)據(jù)缺乏,難以提出適合的、科學(xué)的建議和方案。
ChatGPT還不能進(jìn)行決策對(duì)抗
軍事斗爭(zhēng)是人類特殊的一個(gè)領(lǐng)域,它需要進(jìn)行博弈,需要基于對(duì)方的態(tài)勢(shì),下一步可能的行動(dòng),決策自己的行動(dòng),再預(yù)測(cè)對(duì)方的行動(dòng),對(duì)己方應(yīng)對(duì)行動(dòng)作出安排。其遵循的是“觀察-調(diào)整-決策-行動(dòng)”的OODA循環(huán),最基本的博弈策略是對(duì)方更快更好地完成OODA循環(huán),比拼的是誰(shuí)能夠在短時(shí)間完成OODA循環(huán)。顯然,ChatGPT是無法完成這一決策環(huán)的。ChatGPT的專長(zhǎng)是生成“與人類作品類似”的文本,它不能生成“與戰(zhàn)場(chǎng)適應(yīng)”作戰(zhàn)方案。ChatGPT能夠生成符合語(yǔ)法的文字,但它目前還不能進(jìn)行數(shù)學(xué)計(jì)算、邏輯推理等等另一些復(fù)雜的工作。軍事領(lǐng)域的斗爭(zhēng)策略確實(shí)可以用文字來顯示,但真正對(duì)文字起作用是人的思維對(duì)周圍信息的感知、環(huán)境的判斷形成的決策。加之,戰(zhàn)場(chǎng)環(huán)境信息瞬間萬變,理性決策和非理性決策充斥整個(gè)斗爭(zhēng)過程。ChatGPT是無法適應(yīng)這一變化的。人們也經(jīng)常發(fā)現(xiàn)ChatGPT “一本正經(jīng)”地“胡說八道”,其原因是因?yàn)閷?duì)它沒有聽過的東西,無法給出正確的回答。在對(duì)話連貫性上,一旦進(jìn)行長(zhǎng)時(shí)間對(duì)話,ChatGPT的回話會(huì)上下不一致,容易生成不合理或矛盾的回答,這些虛假、不確定信息會(huì)導(dǎo)致出現(xiàn)重大指揮失誤。
哲學(xué)家笛卡爾的一句名言,“我思故我在”,他這句名言有兩個(gè)“我”,分別代表不同的“我”。前一個(gè)我對(duì)后一個(gè)我進(jìn)行觀察,有一個(gè)永遠(yuǎn)質(zhì)疑“我”的“我”。對(duì)比應(yīng)用到戰(zhàn)爭(zhēng)博弈,也是同樣有兩個(gè)我,我對(duì)我的觀察,我對(duì)我的質(zhì)疑,我對(duì)我的判斷。要想用人工智能去模擬一個(gè)自我,得先要知曉我的認(rèn)知,而問題是我的認(rèn)知又恰恰是不能被觀察和認(rèn)識(shí)的,也就更無法模擬了。同樣,在軍事斗爭(zhēng)的最高形式——戰(zhàn)爭(zhēng)指揮上,就是兩個(gè)“大我”的博弈。既然,最底層的我是不能被模擬的,后面的我更不能被認(rèn)知。這就決定了ChatGPT無法具備人的主觀能動(dòng)性,不會(huì)有非理性思維的能力,也就無法去設(shè)定戰(zhàn)爭(zhēng)目標(biāo),進(jìn)而去實(shí)現(xiàn)戰(zhàn)爭(zhēng)目標(biāo)。它強(qiáng)大的推理能力、計(jì)算能力,都是用來人為實(shí)現(xiàn)戰(zhàn)場(chǎng)目標(biāo)而服務(wù)的。決策的本身是人的目標(biāo)對(duì)抗,ChatGPT還不具備自主對(duì)抗的能力。
雖然ChatGPT暫時(shí)還不能廣泛直接運(yùn)用于軍事領(lǐng)域,但人類在ChatGPT發(fā)明、升級(jí)、改造過程中獲得的知識(shí)、積累的經(jīng)驗(yàn)和取得的技術(shù)進(jìn)步等成果,卻讓人類越來越接近通用強(qiáng)人工智能。ChatGPT鍛煉和提升人的思維能力、提出問題的能力、超越ChatGPT能力的能力,卻是軍事斗爭(zhēng)領(lǐng)域一直以來推崇的?;蛟S不能斷言:未來誰(shuí)掌控ChatGPT,誰(shuí)就贏得斗爭(zhēng)的主動(dòng)權(quán),但至少有一點(diǎn)可以肯定:ChatGPT給予一方在軍事謀略能力的輔助和信息綜合能力的提升,一旦超越了對(duì)手,也等于間接地掌握了斗爭(zhēng)的主動(dòng)權(quán),勝利的天平就傾向了這一方。
審核編輯 :李倩
-
互聯(lián)網(wǎng)
+關(guān)注
關(guān)注
55文章
11289瀏覽量
108501 -
深度學(xué)習(xí)
+關(guān)注
關(guān)注
73文章
5587瀏覽量
123761 -
ChatGPT
+關(guān)注
關(guān)注
30文章
1595瀏覽量
9939
原文標(biāo)題:ChatGPT軍事運(yùn)用的幾個(gè)誤區(qū)
文章出處:【微信號(hào):CloudBrain-TT,微信公眾號(hào):云腦智庫(kù)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。
發(fā)布評(píng)論請(qǐng)先 登錄
電機(jī)故障診斷常見誤區(qū)的剖析
和安信可Ai-M61模組對(duì)話?手搓一個(gè)ChatGPT 語(yǔ)音助手 #人工智能 #
OpenAI嘗試減少對(duì)ChatGPT的審查
低通濾波器的常見誤區(qū)
AGV無人叉車常見的使用誤區(qū) 你知道幾個(gè)?
漏電開關(guān)使用誤區(qū)及糾正
無線充電原理的常見誤區(qū)
DFT的常見誤區(qū)與解決方案
ChatGPT新增實(shí)時(shí)搜索與高級(jí)語(yǔ)音功能
邏輯異或的常見誤區(qū)及解決方法
編程語(yǔ)言的誤區(qū)與常見問題
eda的常見誤區(qū)和解決方案
萬物皆AI 基于聯(lián)發(fā)科科技 MTK Genio 130 結(jié)合 ChatGPT 功能的解決方案
OpenAI推出ChatGPT搜索功能
ChatGPT:怎樣打造智能客服體驗(yàn)的重要工具?

ChatGPT軍事運(yùn)用的幾個(gè)誤區(qū)
評(píng)論