chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

OpenAI發(fā)布GPT-4,有哪些技術(shù)趨勢值得關(guān)注?

3D視覺工坊 ? 來源:3D視覺工坊 ? 2023-03-24 11:16 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

本文是新浪微博新技術(shù)研發(fā)負(fù)責(zé)人、中國中文信息學(xué)會理事張俊林在知乎問題「OpenAI 發(fā)布 GPT-4,有哪些技術(shù)上的優(yōu)化或突破?」下的回答,總結(jié)了GPT4技術(shù)報(bào)告里指出的三個方向,還提及了兩個其它技術(shù)方向。

在這個歷史性的時(shí)刻,回答個問題,留下自己作為歷史見證人的足跡。

GPT4的技術(shù)報(bào)告里很明確地指出了三個新的方向:

第一,LLM最前沿研究的封閉化或小圈子化。技術(shù)報(bào)告里說了,出于競爭以及安全等方面的考慮,未公布模型規(guī)模等技術(shù)細(xì)節(jié)。從GPT 2.0的開源,到GPT 3.0的只有論文,再到ChatGPT連論文也沒有,直到GPT 4.0的技術(shù)報(bào)告更像效果評測報(bào)告。一個很明顯的趨勢是,OpenAI做實(shí)了CloseAI的名號,之后OpenAI的LLM最前沿研究不會再放出論文。

在這個情形下,其它技術(shù)相對領(lǐng)先的公司有兩種選擇。一種是做更極致的LLM開源化,比如Meta貌似選擇了這條道路,這一般是競爭處于劣勢的公司作出的合理選擇,但是往往相關(guān)技術(shù)不會是最前沿的技術(shù);另外一種選擇是跟進(jìn)OpenAI,也選擇技術(shù)封閉化。Google之前算是LLM的第二梯隊(duì)。但在“微軟+OpenAI”的一頓組合拳下,現(xiàn)在局面有點(diǎn)狼狽不堪。GPT 4.0去年8月就做好了,估計(jì)現(xiàn)在GPT 5.0正在煉丹過程中,這么長的時(shí)間窗口,結(jié)果Google都能落到目前這個局面,想想Transformer、CoT等非常關(guān)鍵的一些研究都是自己做出來的,竟淪落至此,不知一眾高層作何感想。Google在后面能快速跟進(jìn),維持在第二梯隊(duì)?wèi)?yīng)該問題不大,很可能比第三名技術(shù)也領(lǐng)先很多。出于競爭關(guān)系考慮,我猜Google大概率會跟進(jìn)OpenAI走技術(shù)封閉的路線,最先進(jìn)的LLM技術(shù)優(yōu)先用來煉屬于自己的丹,而不是寫成論文放出來普惠大眾尤其是普惠OpenAI。而這很可能導(dǎo)致LLM最前沿研究的封閉化。

從現(xiàn)在算起,國內(nèi)在經(jīng)過一陣時(shí)間后(要做到ChatGPT的6到7折應(yīng)該比較快,要追平估計(jì)要較長時(shí)間),必然被迫進(jìn)入自主創(chuàng)新的局面。從最近三個月國內(nèi)的各種情況看,將來會如何?大概率不太樂觀。當(dāng)然,這個關(guān)肯定很難,但必須得過,只能祝愿有能力且有初心者盡力加油了。

第二,GPT 4技術(shù)報(bào)告里提到的LLM模型的“能力預(yù)測(Capability Prediction)”是個非常有價(jià)值的新研究方向(其實(shí)之前也有個別其它資料,我記得看過,但是具體哪篇記不起來了)。用小模型來預(yù)測某些參數(shù)組合下對應(yīng)大模型的某種能力,如果預(yù)測足夠精準(zhǔn),能夠極大縮短煉丹周期,同時(shí)極大減少試錯成本,所以無論理論價(jià)值還是實(shí)際價(jià)值巨大,這個絕對是非常值得認(rèn)真研究具體技術(shù)方法的。

第三,GPT 4開源了一個LLM評測框架,這也是后面LLM技術(shù)快速發(fā)展非常重要的方向。尤其對于中文,構(gòu)建實(shí)用的中文LLM評測數(shù)據(jù)和框架具備特別重要的意義,好的LLM評測數(shù)據(jù)可以快速發(fā)現(xiàn)LLM目前存在的短板和改進(jìn)方向,意義重大,但是很明顯目前這塊基本處于空白狀態(tài)。這個對于資源要求其實(shí)沒那么高,適合很多機(jī)構(gòu)去做,不過確實(shí)是個辛苦活。

除了GPT 4技術(shù)報(bào)告里明確指出的三個方向,因?yàn)樽罱麹LM各方面新聞比較多,順手再寫兩個其它技術(shù)方向。

首先,斯坦福大學(xué)近在Meta的7B 開源LLaMA基礎(chǔ)上,加上Self Instruct技術(shù)構(gòu)造的Alpaca,也代表了一個技術(shù)方向。如果歸納下,這個方向可以被稱為“低成本復(fù)現(xiàn)ChatGPT”的方向。所謂Self Instruct,就是采取一定技術(shù)手段,不用人工標(biāo)注Instruct,而是從OpenAI的接口里,好聽點(diǎn)叫“蒸餾”出Instruct,也就是不用人標(biāo)注,而是ChatGPT作為teacher,給你的Instruct打上標(biāo)注結(jié)果。這個把Instruct標(biāo)注成本直接打到了幾百美金的基準(zhǔn),時(shí)間成本就更短了。再加上模型7B規(guī)模也不大,所以可以看成一種“低成本復(fù)現(xiàn)ChatGPT”的技術(shù)路線。

我估計(jì)國內(nèi)早就有不少人采取這個技術(shù)路線了。毫無疑問,這是一條捷徑,但是走捷徑有好處有壞處,具體不展開談了。在追趕ChatGPT的過程中,先把成本打下來去復(fù)現(xiàn)ChatGPT到七八成,我個人還是覺得可行也支持的,畢竟窮人有窮人的玩法。當(dāng)然,追求把模型做小,效果又不怎么往下掉,如果能扎扎實(shí)實(shí)去做,是非常具有價(jià)值的。

另外,具身智能毫無疑問會是LLM下一階段的重點(diǎn)研究方向。這方面的代表就是前陣子Google放出來的PaLM-E。目前的GPT 4,我們可以認(rèn)為人類創(chuàng)造出了一個超級大腦,但還是把它封鎖在GPU集群里。而這個超級大腦需要一個身體,GPT 4要和物理世界發(fā)生聯(lián)系、交流和互動,并在物理世界中獲得真實(shí)的反饋,來學(xué)會在真實(shí)世界里生存,并根據(jù)真實(shí)世界的反饋,利用比如強(qiáng)化學(xué)習(xí)來學(xué)習(xí)在世界游走的能力。這個肯定是最近的將來最熱門的LLM研究方向。

多模態(tài)LLM給予了GPT 4以眼睛和耳朵,而具身智能給予GPT 4身體、腳和手。GPT 4和你我發(fā)生一些聯(lián)系,而依托于GPT 4本身強(qiáng)大的學(xué)習(xí)能力,這個事情估計(jì)很快會出現(xiàn)在我們身邊。

如果你細(xì)想,其實(shí)還有很多其它有前途的方向。我的個人判斷是:未來5到10年,將會是AGI最快速發(fā)展的黃金十年。如果我們站在未來30年的時(shí)間節(jié)點(diǎn),當(dāng)我們回顧這10年時(shí),我們中一定會有人,想起下面的詩句:“懂得,但為時(shí)太晚,他們使太陽在途中悲傷, 也并不溫和地走進(jìn)那個良夜?!?/p>

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • 框架
    +關(guān)注

    關(guān)注

    0

    文章

    404

    瀏覽量

    18356
  • OpenAI
    +關(guān)注

    關(guān)注

    9

    文章

    1241

    瀏覽量

    9888

原文標(biāo)題:OpenAI發(fā)布GPT-4,有哪些技術(shù)趨勢值得關(guān)注?

文章出處:【微信號:3D視覺工坊,微信公眾號:3D視覺工坊】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    GPT-5震撼發(fā)布:AI領(lǐng)域的重大飛躍

    電子發(fā)燒友網(wǎng)報(bào)道(文/李彎彎)2025年8月8日凌晨1點(diǎn),OpenAI以一場長達(dá)1小時(shí)的線上發(fā)布會正式推出GPT-5。這場被業(yè)界稱為“AI進(jìn)化分水嶺”的發(fā)布,終結(jié)了長達(dá)兩年的
    的頭像 發(fā)表于 08-09 07:44 ?1w次閱讀
    <b class='flag-5'>GPT</b>-5震撼<b class='flag-5'>發(fā)布</b>:AI領(lǐng)域的重大飛躍

    GPT-5.1發(fā)布 OpenAI開始拼情商

    OpenAI正式上線了 GPT-5.1 Instant 以及 GPT-5.1 Thinking 模型;網(wǎng)友實(shí)測發(fā)現(xiàn)OpenAI
    的頭像 發(fā)表于 11-13 15:49 ?650次閱讀

    NVIDIA從云到邊緣加速OpenAI gpt-oss模型部署,實(shí)現(xiàn)150萬TPS推理

    ? 自 2016 年推出 NVIDIA DGX 以來,NVIDIA 與 OpenAI 便開始共同推動 AI 技術(shù)的邊界。此次 OpenAI gpt-oss-20b 和
    的頭像 發(fā)表于 08-15 20:34 ?2146次閱讀
    NVIDIA從云到邊緣加速<b class='flag-5'>OpenAI</b> <b class='flag-5'>gpt</b>-oss模型部署,實(shí)現(xiàn)150萬TPS推理

    訊飛星辰MaaS平臺率先上線OpenAI最新開源模型

    8月6日凌晨,OpenAI 時(shí)隔六年再次回歸開源,發(fā)布兩款全新的大語言模型:gpt-oss-120b和gpt-oss-20b,性能與o4-m
    的頭像 發(fā)表于 08-13 16:43 ?1384次閱讀

    OpenAI或在周五凌晨發(fā)布GPT-5 OpenAI以低價(jià)向美國政府提供ChatGPT

    外界一直在期待的OpenAI新一代大語言模型GPT-5或?qū)?b class='flag-5'>發(fā)布。據(jù)外媒的報(bào)道,GPT-5很可能在周五凌晨發(fā)布。這是
    的頭像 發(fā)表于 08-07 14:13 ?1.1w次閱讀

    OpenAI發(fā)布2款開源模型

    OpenAI開源了兩款高性能權(quán)重語言模型gpt-oss-120b和gpt-oss-20b,OpenAI CEO Sam Altman表示:「gpt
    的頭像 發(fā)表于 08-06 14:25 ?963次閱讀

    用PaddleNLP在4060單卡上實(shí)踐大模型預(yù)訓(xùn)練技術(shù)

    手把手教您如何在單張消費(fèi)級顯卡上,利用PaddleNLP實(shí)踐OpenAIGPT-2模型的預(yù)訓(xùn)練。GPT-2的預(yù)訓(xùn)練關(guān)鍵技術(shù)與流程與GPT-4
    的頭像 發(fā)表于 02-19 16:10 ?2279次閱讀
    用PaddleNLP在4060單卡上實(shí)踐大模型預(yù)訓(xùn)練<b class='flag-5'>技術(shù)</b>

    OpenAI簡化大模型選擇:薩姆·奧特曼制定路線圖

    前的技術(shù)環(huán)境下,大模型被廣泛應(yīng)用于各種聊天機(jī)器人中,其中OpenAI的ChatGPT就是一個典型的例子。然而,對于大多數(shù)用戶來說,選擇最適合自己需求的AI模型卻并非易事。OpenAI目前提供了多種模型供用戶選擇,其中包括能夠快速
    的頭像 發(fā)表于 02-18 09:12 ?828次閱讀

    OpenAI宣布GPT 4o升智計(jì)劃

    近日,全球領(lǐng)先的人工智能公司OpenAI迎來了一項(xiàng)重要宣布。OpenAI的首席執(zhí)行官Sam Altman正式揭曉了GPT 4o的升智計(jì)劃,這一消息立即引起了業(yè)界的廣泛
    的頭像 發(fā)表于 02-17 14:24 ?934次閱讀

    OpenAI即將發(fā)布GPT-4.5與GPT-5

    ,GPT-4.5將在未來幾周內(nèi)率先亮相,它將是OpenAI通用GPT-4模型的繼承者。這款新的算法在技術(shù)上進(jìn)行了諸多優(yōu)化和升級,旨在為用戶提供更加精準(zhǔn)、高效的AI服務(wù)。 而在
    的頭像 發(fā)表于 02-13 13:43 ?1137次閱讀

    今日看點(diǎn)丨OpenAI發(fā)布新的GPT-4.5模型;三星西安工廠將升級286層NAND閃存工藝

    1. OpenAI發(fā)布新的GPT-4.5 模型 ? OpenAI首席執(zhí)行官阿爾特曼周三表示,該公司內(nèi)部稱為Orion的GPT-4.5模型
    發(fā)表于 02-13 11:22 ?692次閱讀

    OpenAI即將推出GPT-5模型

    先進(jìn)技術(shù),其中包括備受矚目的o3工具。通過整合這些技術(shù),GPT-5模型將實(shí)現(xiàn)更加強(qiáng)大的功能和性能。 值得一提的是,GPT-5模型將被廣泛應(yīng)用
    的頭像 發(fā)表于 02-13 11:21 ?1056次閱讀

    OpenAI CEO預(yù)告GPT-4.5及GPT-5未來規(guī)劃

    全新的GPT-5模型。這一模型將整合包括o3在內(nèi)的多項(xiàng)OpenAI先進(jìn)技術(shù),旨在為用戶帶來更加智能、高效的使用體驗(yàn)。值得注意的是,免費(fèi)版的ChatGPT也將在標(biāo)準(zhǔn)智能設(shè)置下無限制地使用
    的頭像 發(fā)表于 02-13 10:02 ?850次閱讀

    OpenAI提交新商標(biāo)的申請

    的新模型研發(fā)、拓展新的應(yīng)用場景有關(guān)。 回顧 OpenAI 的發(fā)展歷程,從最初發(fā)布 OpenAI gym,到后來推出 ChatGPT,再到不斷迭代 GPT 系列模型,
    的頭像 發(fā)表于 02-05 16:38 ?1045次閱讀

    DeepSeek登頂蘋果中美兩區(qū)App免費(fèi)榜

    近日,開源AI模型DeepSeek-R1的發(fā)布引發(fā)了海外AI業(yè)界的廣泛關(guān)注。據(jù)稱,該模型的性能可與OpenAIGPT-4正式版相媲美。在AI技術(shù)
    的頭像 發(fā)表于 02-05 15:38 ?672次閱讀