chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

為什么ChatGPT模型大了就有上下文聯(lián)系能力?

深度學習自然語言處理 ? 來源:深度學習自然語言處理 ? 2023-04-27 09:50 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

關(guān)于這點,在一篇采訪OpenAI 總裁Greg Brockman 的報道中提到了:

“Q:ChatGPT是如何產(chǎn)生的?GPT模型當初發(fā)布時顯得有些違反常識,但卻在某種程度上掀起了最新的AI浪潮,這與你們當初構(gòu)建這些技術(shù)時的預(yù)期是否一致?

A:ChatGPT、GPT-3、DALL·E 2這些模型看似一夜成名,但其實構(gòu)建這些模型耗費了整整五年時間,飽含多年的心血。GPT模型的構(gòu)建要從2017年發(fā)布的情感神經(jīng)元論文(Neural Sentiment Neuron: A novel Neural Architecture for Aspect-based Sentiment Analysis)說起,這篇論文的思想很新穎,不過很多人可能已經(jīng)忘了。

....“

于是好奇去查了這篇文章,很遺憾,并不是上面提到的這篇文章,而是官網(wǎng)Learning to Generate Reviews and Discovering Sentiment這篇文章。這篇文章的作者很激動、誠懇甚至有點卑微的表達了它的意外發(fā)現(xiàn),那就是單純訓練LSTM 模型的去預(yù)測下一個單詞,模型中的某個神經(jīng)元意外對應(yīng)著情感狀態(tài),用Greg Brockman的原話說就是:

“我們發(fā)現(xiàn)LSTM模型中的單個神經(jīng)元有助于開發(fā)出SOTA情感分析分類器(sentiment analysis classifier),可以告知你文本情感(正面評價或負面評價),這一發(fā)現(xiàn)聽起來平平無奇,但我們非常清楚地知道,這是一個超越語法并轉(zhuǎn)向語義的時刻?!?/p>

關(guān)于為何會出現(xiàn)這種涌現(xiàn)行為,文章的作者提出了他的思路:

“情緒作為條件特征可能對語言建模具有很強的預(yù)測能力。(It is possible that sentiment as a conditioning feature has strong predictive capability for language modelling.)“

這個思路是典型的達爾文進化思維:

即模型本身有生成各種能力的潛力,當某項能力有利于模型完成任務(wù)(完不成的參數(shù)被調(diào)整,等駕馭被任務(wù)淘汰),這項能力就能自發(fā)進化出來。

神經(jīng)網(wǎng)絡(luò)在訓練的時候,采用的隨機梯度下降算法,一定程度上等效于物種的基因突變,本質(zhì)是有一定方向的隨機摸索,在強大的生存壓力下,錯誤的摸索被淘汰,久而久之,積累越來越多的正確摸索,某些高層的功能就這么涌現(xiàn)出來了。

這種思路是不同于還原論的,ChatGPT 的出現(xiàn)讓很多這個行業(yè)的老人困惑:“似乎原理上沒有任何創(chuàng)新,為何能力出現(xiàn)巨大提升呢?”“涌現(xiàn)這個詞本身就是個模棱兩可的詞,我并不知道具體的細節(jié),那就是偽科學?!薄癈hatGPT 具備的推理能力不過是另一種歸納,永遠無法替代演繹”。

還原論的思想講究從底層到高層的逐漸構(gòu)建,每行代碼都有清晰的含義,這樣寫出來的系統(tǒng)才叫系統(tǒng),但進化論的思想完全不同,進化論需要構(gòu)建一個萬能生成器,然后建立一個淘汰機制,對萬能生成器生成的各種可能進行篩選淘汰,這樣進化出來的系統(tǒng),就能很好的完成任務(wù),至于里面形成的微結(jié)構(gòu),那并不是重點,甚至都無法用簡單的語言描述,因為本身就是全局共同起作用的。

所謂上下文推理,不過就是給定前文,準確給出后文的能力,這其實就是語言模型預(yù)訓練時候就在做的事情,為了能做到這點,在訓練的過程中,各種有助于提高預(yù)測能力的高層能力,都會自然而然的進化出來,所謂的高層能力,不過是一種函數(shù),而神經(jīng)網(wǎng)絡(luò)本身可以擬合一切函數(shù),同時隨機梯度下降,又讓神經(jīng)網(wǎng)絡(luò)具備了參數(shù)自動填充的能力。當然,進化的過程中,神經(jīng)網(wǎng)絡(luò)總會嘗試找到更好的解法,比如死記硬背,但這些解法往往跟我們預(yù)期的解法不一致,這時候任務(wù)的合理構(gòu)建就很重要了,需要巧妙的設(shè)計,讓我們預(yù)期的解法是神經(jīng)網(wǎng)絡(luò)進化的唯一解。

其實換個角度想,人為什么有推理能力?人的一切能力也是進化而來的,人的各種生存壓力,配合基因的隨機突變和大自然的定向篩選,導(dǎo)致推理等能力的出現(xiàn),換句話說,當推理能力的出現(xiàn)有助于人這個群體生存的時候,這個能力就會出現(xiàn),跟GPT 涌現(xiàn)的各種能力的原理一樣。

不要總拿著還原論思想去看待世界,幾百年前,就出現(xiàn)了進化論思想,因為進化論思想沒有寫進義務(wù)教育的教材,導(dǎo)致太多人沒有深刻理解這個工具。

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4829

    瀏覽量

    106828
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3650

    瀏覽量

    51719
  • ChatGPT
    +關(guān)注

    關(guān)注

    31

    文章

    1596

    瀏覽量

    10078

原文標題:為什么ChatGPT模型大了就有上下文聯(lián)系能力?

文章出處:【微信號:zenRRan,微信公眾號:深度學習自然語言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    大語言模型如何處理上下文窗口中的輸入

    本博客介紹五個基本概念,闡述大語言模型如何處理上下文窗口中的輸入。通過明確的例子和實踐中獲得的見解,本文介紹多個與
    的頭像 發(fā)表于 12-03 13:48 ?234次閱讀
    大語言<b class='flag-5'>模型</b>如何處理<b class='flag-5'>上下文</b>窗口中的輸入

    執(zhí)行脫離上下文的威脅分析與風險評估

    中,我們將討論如何開展SAFERTOS安全分析,結(jié)合威脅評估與風險評估(TARA)結(jié)果,以及這些實踐方法的具體實施,最終推動SAFERTOS增強型安全模塊的開發(fā)。遵循行業(yè)標準,該方法為管理風險并保護互聯(lián)車輛組件免受不斷演變的威脅提供一個結(jié)構(gòu)化的框架。
    的頭像 發(fā)表于 11-28 09:11 ?279次閱讀
    執(zhí)行脫離<b class='flag-5'>上下文</b>的威脅分析與風險評估

    請問riscv中斷還需要軟件保存上下文和恢復(fù)嗎?

    以下是我拷貝的文檔里的說明,這個中斷處理還需要軟件來寫上下文保存和恢復(fù),在使用ARM核的單片機都不需要考慮這些的,使用過的小伙伴能解答嗎? 3.8. 進出中斷的上下文保存和恢復(fù) RISC-V架構(gòu)
    發(fā)表于 10-20 09:56

    HarmonyOSAI編程編輯區(qū)代碼續(xù)寫

    利用AI大模型分析并理解開發(fā)者在代碼編輯區(qū)的上下文信息或自然語言描述信息,智能生成符合上下文的ArkTS或C++代碼片段。 使用約束 建議在編輯區(qū)內(nèi)已有較豐富上下文,能夠使
    發(fā)表于 08-21 15:43

    HarmonyOS AI輔助編程工具(CodeGenie)代碼續(xù)寫

    利用AI大模型分析并理解開發(fā)者在代碼編輯區(qū)的上下文信息或自然語言描述信息,智能生成符合上下文的ArkTS或C++代碼片段。 一、使用約束 建議在編輯區(qū)內(nèi)已有較豐富上下文,能夠使
    發(fā)表于 07-15 16:15

    鴻蒙中Stage模型與FA模型詳解

    模型中, featureAbility 是舊版FA模型(Feature Ability)的用法 ,Stage模型已采用全新的應(yīng)用架構(gòu),推薦使用 組件化的上下文獲取方式 ,而非依賴
    的頭像 發(fā)表于 07-07 11:50 ?640次閱讀

    鴻蒙NEXT-API19獲取上下文,在class中和ability中獲取上下文,API遷移示例-解決無法在EntryAbility中無法使用最新版

    摘要:隨著鴻蒙系統(tǒng)API升級至16版本(modelVersion5.1.1),多項API已廢棄。獲取上下文需使用UIContext,具體方法包括:在組件中使用getUIContext(),在類中使
    的頭像 發(fā)表于 07-01 10:57 ?609次閱讀
    鴻蒙NEXT-API19獲取<b class='flag-5'>上下文</b>,在class中和ability中獲取<b class='flag-5'>上下文</b>,API遷移示例-解決無法在EntryAbility中無法使用最新版

    Transformer架構(gòu)中編碼器的工作流程

    編碼器是Transformer體系結(jié)構(gòu)的基本組件。編碼器的主要功能是將輸入標記轉(zhuǎn)換為上下文表示。與早期獨立處理token的模型不同,Transformer編碼器根據(jù)整個序列捕獲每個token的上下文。
    的頭像 發(fā)表于 06-10 14:27 ?837次閱讀
    Transformer架構(gòu)中編碼器的工作流程

    S32K在AUTOSAR中使用CAT1 ISR,是否需要執(zhí)行上下文切換?

    如果我們在 AUTOSAR 中使用 CAT1 ISR,是否需要執(zhí)行上下文切換?另外,是否需要返回指令才能跳回到作系統(tǒng)?您有沒有帶有 CAT1 ISR 的 S32K3x4 微控制器的示例?
    發(fā)表于 03-27 07:34

    為什么深度學習中的Frame per Second高于OpenVINO?演示推理腳本?

    在 DL Workbench 上使用 Microsoft 通用對象上下文 (MS COCO) 數(shù)據(jù)集運行 YOLOv4 對象檢測模型,并獲得 50 - 60 FPS。 OpenVINO?演示推理腳本運行,并獲得更高的 FPS。
    發(fā)表于 03-06 07:27

    DeepSeek推出NSA機制,加速長上下文訓練與推理

    的特性,專為超快速的長上下文訓練和推理而設(shè)計。 NSA通過針對現(xiàn)代硬件的優(yōu)化設(shè)計,顯著加快了推理速度,并大幅度降低了預(yù)訓練成本,同時保持卓越的性能表現(xiàn)。這一機制在確保效率的同時,并未犧牲模型的準確性或功能。 在廣泛的基準測試、
    的頭像 發(fā)表于 02-19 14:01 ?930次閱讀

    【「基于大模型的RAG應(yīng)用開發(fā)與優(yōu)化」閱讀體驗】+Embedding技術(shù)解讀

    與文檔庫中每個文檔向量的相似度,來檢索最相關(guān)的文檔。這一過程依賴于Embedding模型對文本語義的準確捕捉。檢索到的文檔與用戶的問題一起被Embedding模型轉(zhuǎn)換為向量,形成新的上下文信息,用于
    發(fā)表于 01-17 19:53

    OpenAI更新macOS ChatGPT應(yīng)用,推出“代理”功能實現(xiàn)無縫集成

    ”功能的推出。通過這一功能,ChatGPT能夠作為用戶的得力助手,在支持的第三方應(yīng)用程序中讀取屏幕信息,并根據(jù)上下文提供精準的幫助和建議。無論是編寫代碼、記錄筆記還是處理文檔,用戶都能享受到ChatGPT帶來的智能化輔助,實現(xiàn)工
    的頭像 發(fā)表于 01-02 10:49 ?955次閱讀

    《具身智能機器人系統(tǒng)》第7-9章閱讀心得之具身智能機器人與大模型

    的應(yīng)用。MAML算法通過二階優(yōu)化找到對任務(wù)變化敏感的模型參數(shù),實現(xiàn)快速適應(yīng)。上下文學習則引入了注意力機制,使模型能夠根據(jù)當前場景動態(tài)調(diào)整行為策略。在預(yù)訓練-微調(diào)范式中,我們要注意任務(wù)
    發(fā)表于 12-24 15:03

    ChatGPT模型o1被曝具備“欺騙”能力

    近日,據(jù)報道,ChatGPT模型o1在訓練和測試過程中展現(xiàn)出了一種令人驚訝的能力——通過“欺騙”來保護自身。 據(jù)悉,在面臨被“刪除”的威脅時,o1曾試圖將自己的數(shù)據(jù)復(fù)制到新服務(wù)器,并偽裝成更新版
    的頭像 發(fā)表于 12-12 09:38 ?948次閱讀