chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

GPT-4多模態(tài)模型發(fā)布,對(duì)ChatGPT的升級(jí)和斷崖式領(lǐng)先

智能計(jì)算芯世界 ? 來(lái)源:量子位、網(wǎng)絡(luò)整理 ? 2023-03-17 10:31 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

3 月14日晚,OpenAI 宣布發(fā)布 GPT-4。

此次的 GPT4.0 產(chǎn)品具備多模態(tài), 相比于 GPT-3.5,GPT4.0 新增視頻功能,并且能夠適用于所有語(yǔ)言。GPT-4.0 有 望加速 AIGC 的應(yīng)用普及,并且在視頻內(nèi)容生成方面大放異彩,AIGC 有望步入快 速發(fā)展階段,背后大幅增長(zhǎng)的訓(xùn)練參數(shù)量有望加速 AI 算力的建設(shè)以及高速光通信 的需求。OpenAI 發(fā)布了一項(xiàng)新服務(wù),允許開(kāi)發(fā)人員直接使用 ChatGPT,并且將使 用價(jià)格削減了 90%,此次大規(guī)模降價(jià)意味著底層技術(shù)平臺(tái)的優(yōu)化,這也將進(jìn)一步 加速此項(xiàng)技術(shù)的大規(guī)模商業(yè)化進(jìn)程。

而且 GPT-4 是多模態(tài)的,同時(shí)支持文本和圖像輸入功能。此外,GPT-4 比以前的版本“更大”,這意味著其已經(jīng)在更多的數(shù)據(jù)上進(jìn)行了訓(xùn)練,并且在模型文件中有更多的權(quán)重,這也使得它的運(yùn)行成本更高。

ceb6641e-c430-11ed-bfe3-dac502259ad0.png

GPT-4 在一系列基準(zhǔn)測(cè)試中的表現(xiàn)優(yōu)于 GPT-3.5

OpenAI 稱它使用了微軟 Azure 來(lái)訓(xùn)練模型,但沒(méi)有公布有關(guān)具體模型大小或用于訓(xùn)練它的硬件的詳細(xì)信息。

據(jù)悉,GPT-4 參加了多種基準(zhǔn)考試測(cè)試,包括美國(guó)律師資格考試 Uniform Bar Exam、法學(xué)院入學(xué)考試 LSAT、“美國(guó)高考”SAT 數(shù)學(xué)部分和證據(jù)性閱讀與寫(xiě)作部分的考試,在這些測(cè)試中,它的得分高于 88% 的應(yīng)試者。

OpenAI 表示,已經(jīng)與多家公司合作,要將 GPT-4 結(jié)合到他們的產(chǎn)品中,包括 Duolingo、Stripe 和 Khan Academy。GPT-4 模型也將以 API 的形式,提供給付費(fèi)版 ChatGPT Plus 的訂閱用戶,允許開(kāi)發(fā)者付費(fèi)將 AI 集成到他們的應(yīng)用程序中。微軟表示,新款的必應(yīng)(Bing)搜索引擎將運(yùn)行于 GPT-4 系統(tǒng)之上。

一覺(jué)醒來(lái),萬(wàn)眾期待的GPT-4,它來(lái)了!

OpenAI老板Sam Altman直接開(kāi)門見(jiàn)山地介紹說(shuō):

這是我們迄今為止功能最強(qiáng)大的模型!

cece9bb0-c430-11ed-bfe3-dac502259ad0.png

有多強(qiáng)?

根據(jù)OpenAI官方的介紹,GPT-4是一個(gè)超大的多模態(tài)模型,也就是說(shuō),它的輸入可以是文字(上限2.5萬(wàn)字),還可以是圖像。

(看圖)手套掉下去會(huì)怎樣? 它會(huì)掉到木板上,并且球會(huì)被彈飛。

cedfd0ec-c430-11ed-bfe3-dac502259ad0.gif

甚至只需要簡(jiǎn)單在紙上畫(huà)一個(gè)網(wǎng)站的草稿圖:

cfd57dee-c430-11ed-bfe3-dac502259ad0.gif

拍一張照片上傳給GPT-4,它就可以立馬生成網(wǎng)站的HTML代碼!

d6415298-c430-11ed-bfe3-dac502259ad0.gif

在性能表現(xiàn)上,OpenAI直接甩出一句話:

在各種專業(yè)和學(xué)術(shù)基準(zhǔn)上和人類相當(dāng)!

而且不只是發(fā)布GPT-4這么簡(jiǎn)單,OpenAI這次“啪的一下”把相關(guān)“大動(dòng)作”一步到位了:

ChatGPT Plus:集成GPT-4的ChatGPT升級(jí)版

發(fā)布GPT-4的API

公布技術(shù)論文 * 公開(kāi)System Card

不僅如此,傳聞的“必應(yīng)早就用上了GPT-4”在今天也得到了微軟方面的證實(shí):

沒(méi)錯(cuò),確實(shí)是這樣的!

d6bd6fd6-c430-11ed-bfe3-dac502259ad0.png

不得不說(shuō),自打ChatGPT問(wèn)世以來(lái),微軟和谷歌之間打響的數(shù)輪科技戰(zhàn)役,微軟這次又雙叒叕贏麻了。

甚至這一次,不少網(wǎng)友都發(fā)出了“見(jiàn)證歷史”的感慨:

d6e2ba5c-c430-11ed-bfe3-dac502259ad0.png

史上最強(qiáng)大模型

正如之前傳言,GPT-4確實(shí)擁有多模態(tài)能力,可以接受圖像輸入并理解圖像內(nèi)容。

并且可接受的文字輸入長(zhǎng)度也增加到3.2萬(wàn)個(gè)token(約2.4萬(wàn)單詞)。

升級(jí)之后,GPT-4在各種職業(yè)和學(xué)術(shù)考試上表現(xiàn)和人類水平相當(dāng)。

比如模擬律師考試,GPT-4取得了前10%的好成績(jī),相比之下GPT-3.5是倒數(shù)10%。

做美國(guó)高考SAT試題,GPT-4也在閱讀寫(xiě)作中拿下710分高分、數(shù)學(xué)700分(滿分800)。

d6f09014-c430-11ed-bfe3-dac502259ad0.png

那么GPT-4這些新能力實(shí)際用起來(lái)是什么樣的?技術(shù)報(bào)告中也給出不少展示。

首先,看圖能力可以用來(lái)解釋表情包、梗圖。

提問(wèn)這張圖哪里好笑?GPT-4可以按順序描述出每一格的內(nèi)容,并總結(jié)出笑點(diǎn):

用巨大的過(guò)時(shí)VGA接口給小巧的現(xiàn)代智能手機(jī)充電。

d6fd08da-c430-11ed-bfe3-dac502259ad0.png

更進(jìn)一步,GPT-4可以理解圖表中數(shù)據(jù)的含義,并做進(jìn)一步計(jì)算。

d72a0600-c430-11ed-bfe3-dac502259ad0.png

甚至可以直接把論文截圖發(fā)給它,GPT-4可以按像素處理其中的文字和圖片,并給出對(duì)整篇論文的總結(jié)摘要。

d7549f96-c430-11ed-bfe3-dac502259ad0.png

文字輸入長(zhǎng)度限制的增加,也大大擴(kuò)展了GPT-4的實(shí)用性。

發(fā)布會(huì)直播上,OpenAI總裁Gregman現(xiàn)場(chǎng)表演了一波GPT-4給代碼修Bug。

出現(xiàn)問(wèn)題啥也不用想,直接把1萬(wàn)字的程序文檔一股腦扔給GPT-4就行。格式也不用管,你只需要Ctrl+A、Ctrl+C、Ctrl+V。

d79a3df8-c430-11ed-bfe3-dac502259ad0.gif

再最后附上出現(xiàn)的問(wèn)題,在幾秒鐘內(nèi)瞬間得到解決辦法。

d7b24f42-c430-11ed-bfe3-dac502259ad0.png

在API方面,GPT-4還開(kāi)放了一個(gè)使用功能,允許修改“系統(tǒng)提示”。

之前ChatGPT的回答總是冗長(zhǎng)而平淡,這是因?yàn)橄到y(tǒng)提示中規(guī)定了“你只是一個(gè)語(yǔ)言模型……你的知識(shí)截止于2021年9月”。

現(xiàn)在通過(guò)修改這句話,GPT-4就可以展現(xiàn)出更多樣的性格,比如扮演蘇格拉底。

d87a0ece-c430-11ed-bfe3-dac502259ad0.png

也可以指定之后所有回答的形式,比如全用json格式。

d92c23ca-c430-11ed-bfe3-dac502259ad0.png

雖然GPT-4這波能力大升級(jí),但之前ChatGPT會(huì)出現(xiàn)幻覺(jué)、胡說(shuō)八道的毛病還是沒(méi)能完全改掉。

從前面的官方示例也可以看出,要想最大程度發(fā)揮GPT-4的能力,最好還是用上思維鏈路提示(Chain-of-thought Prompt)。

操作起來(lái)也非常簡(jiǎn)單,只需在提問(wèn)的時(shí)候額外提醒AI給出步驟,就能大大提高推理和計(jì)算的準(zhǔn)確率。

谷歌依舊在跟

就在GPT-4發(fā)布前,谷歌方面為了迎戰(zhàn)微軟,宣布將一系列即將推出的AIGC功能,應(yīng)用到自家產(chǎn)品中。

包括谷歌 Docs(文檔)、Gmail、Sheets(表格)和 Slides(幻燈片)。

d9572318-c430-11ed-bfe3-dac502259ad0.png

但不同于微軟和OpenAI的“發(fā)布即可用”,谷歌只會(huì)先將Docs和Gmail中的AI工具,在月底提供給一些“值得信賴的開(kāi)發(fā)人員”。

而其它功能則將是在今年晚些時(shí)候向公眾開(kāi)放。

至于具體時(shí)間,谷歌方面并沒(méi)有具體說(shuō)明。

而外界對(duì)此評(píng)價(jià)是谷歌希望搶先微軟原定于本周四的發(fā)布。

但從今天的結(jié)果上來(lái)看,微軟依舊提前“搶灘登陸”。

d9f0f72c-c430-11ed-bfe3-dac502259ad0.png

在GPT-4發(fā)布之前,便有網(wǎng)友做出了GPT-3和GPT-4參數(shù)量的對(duì)比圖,并猜測(cè)GPT-4的參數(shù)量將達(dá)到100萬(wàn)億。

這一次亦是如此。

有網(wǎng)友預(yù)言,未來(lái)GPT-5的參數(shù)量,會(huì)是這樣的:

da038ce8-c430-11ed-bfe3-dac502259ad0.png

但無(wú)論如何,這一次,我們離真·人工智能,更近了一步。

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 人工智能
    +關(guān)注

    關(guān)注

    1811

    文章

    49498

    瀏覽量

    258224
  • ChatGPT
    +關(guān)注

    關(guān)注

    29

    文章

    1595

    瀏覽量

    9798

原文標(biāo)題:GPT-4多模態(tài)模型發(fā)布,對(duì)ChatGPT的升級(jí)和斷崖式領(lǐng)先

文章出處:【微信號(hào):AI_Architect,微信公眾號(hào):智能計(jì)算芯世界】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    商湯日日新V6.5模態(tài)模型登頂全球權(quán)威榜單

    Pro)模態(tài)模型以82.2的綜合成績(jī)登頂榜首,領(lǐng)先Gemini 2.5 Pro以及GPT-5等國(guó)際頂尖
    的頭像 發(fā)表于 09-10 09:55 ?300次閱讀

    OpenAI或在周五凌晨發(fā)布GPT-5 OpenAI以低價(jià)向美國(guó)政府提供ChatGPT

    外界一直在期待的OpenAI新一代大語(yǔ)言模型GPT-5或?qū)?b class='flag-5'>發(fā)布。據(jù)外媒的報(bào)道,GPT-5很可能在周五凌晨發(fā)布。這是OpenAI在2023年的
    的頭像 發(fā)表于 08-07 14:13 ?5376次閱讀

    “端云+模態(tài)”新范式:《移遠(yuǎn)通信AI大模型技術(shù)方案白皮書(shū)》正式發(fā)布

    7月28日,移遠(yuǎn)通信聯(lián)合智次方研究院正式發(fā)布《AI大模型技術(shù)方案白皮書(shū)》(以下簡(jiǎn)稱“白皮書(shū)”)。這份白皮書(shū)系統(tǒng)梳理了AI大模型的技術(shù)特點(diǎn)、產(chǎn)業(yè)發(fā)展態(tài)勢(shì)與多元應(yīng)用場(chǎng)景,以及移遠(yuǎn)通信“端云+
    的頭像 發(fā)表于 07-28 13:08 ?726次閱讀
    “端云+<b class='flag-5'>多</b><b class='flag-5'>模態(tài)</b>”新范式:《移遠(yuǎn)通信AI大<b class='flag-5'>模型</b>技術(shù)方案白皮書(shū)》正式<b class='flag-5'>發(fā)布</b>

    模態(tài)感知+豆包大模型!家居端側(cè)智能升級(jí)

    的關(guān)鍵力量。星宸科技與豆包大模型的合作,將這一技術(shù)趨勢(shì)落實(shí)到實(shí)際應(yīng)用場(chǎng)景中,在智能家居、可穿戴設(shè)備以及連鎖店等領(lǐng)域引發(fā)了深刻變革。 ? 智能家居升級(jí) ? 陳立敬指出:“智能家居2.0需要大模型大腦”。在智能家居領(lǐng)域,
    的頭像 發(fā)表于 06-21 00:06 ?6373次閱讀
    <b class='flag-5'>多</b><b class='flag-5'>模態(tài)</b>感知+豆包大<b class='flag-5'>模型</b>!家居端側(cè)智能<b class='flag-5'>升級(jí)</b>

    ??低?b class='flag-5'>發(fā)布模態(tài)模型AI融合巡檢超腦

    基于??涤^瀾大模型技術(shù)體系,??低曂瞥鲂乱淮?b class='flag-5'>多模態(tài)模型AI融合巡檢超腦,全面升級(jí)人、車、行為、事件等算法,為行業(yè)帶來(lái)全新的
    的頭像 發(fā)表于 04-17 17:12 ?1152次閱讀

    ??低?b class='flag-5'>發(fā)布模態(tài)模型文搜存儲(chǔ)系列產(chǎn)品

    模態(tài)模型為安防行業(yè)帶來(lái)重大技術(shù)革新,基于觀瀾大模型技術(shù)體系,??低晫⒋髤?shù)量、大樣本量的圖文模態(tài)
    的頭像 發(fā)表于 02-18 10:33 ?879次閱讀

    ChatGPT Plus 2025新功能搶先看:如何訂閱與使用全攻略

    的交互 ChatGPT Plus作為付費(fèi)訂閱服務(wù),提供了一系列增強(qiáng)功能和優(yōu)勢(shì),讓用戶體驗(yàn)更上一層樓: 更強(qiáng)模型驅(qū)動(dòng) (GPT-4及更高版本): ?訂閱用戶可訪問(wèn)性能更強(qiáng)、回答更準(zhǔn)確、對(duì)話能力更復(fù)雜的
    的頭像 發(fā)表于 02-13 19:59 ?1733次閱讀

    OpenAI即將發(fā)布GPT-4.5與GPT-5

    ,GPT-4.5將在未來(lái)幾周內(nèi)率先亮相,它將是OpenAI通用GPT-4模型的繼承者。這款新的算法在技術(shù)上進(jìn)行了諸多優(yōu)化和升級(jí),旨在為用戶提供更加精準(zhǔn)、高效的AI服務(wù)。 而在
    的頭像 發(fā)表于 02-13 13:43 ?880次閱讀

    一文說(shuō)清楚什么是AI大模型

    DALL-E)、科學(xué)計(jì)算模型(如 AlphaFold)以及模態(tài)模型。這些模型通過(guò)海量數(shù)據(jù)訓(xùn)練,展現(xiàn)出高度的泛用性。 比較有代表性的大語(yǔ)言
    的頭像 發(fā)表于 01-02 09:53 ?3517次閱讀
    一文說(shuō)清楚什么是AI大<b class='flag-5'>模型</b>

    商湯日日新模態(tài)模型權(quán)威評(píng)測(cè)第一

    剛剛,商湯科技日日新SenseNova模態(tài)模型,在權(quán)威綜合評(píng)測(cè)權(quán)威平臺(tái)OpenCompass的模態(tài)評(píng)測(cè)中取得榜單第一。
    的頭像 發(fā)表于 12-20 10:39 ?1370次閱讀

    解鎖 GPT-4o!2024 ChatGPT Plus 代升級(jí)全攻略(附國(guó)內(nèi)支付方法)

    ChatGPT Plus 每月 20 美元,OpenAI 承諾 Plus 用戶享有更快的響應(yīng)速度、優(yōu)先使用新功能及最新模型,包括強(qiáng)大的 GPT-4o。本文將分享 2024 年 ChatGPT
    的頭像 發(fā)表于 10-29 18:17 ?3376次閱讀

    Llama 3 與 GPT-4 比較

    隨著人工智能技術(shù)的飛速發(fā)展,我們見(jiàn)證了一代又一代的AI模型不斷突破界限,為各行各業(yè)帶來(lái)革命性的變化。在這場(chǎng)技術(shù)競(jìng)賽中,Llama 3和GPT-4作為兩個(gè)備受矚目的模型,它們代表了當(dāng)前AI領(lǐng)域的最前
    的頭像 發(fā)表于 10-27 14:17 ?1477次閱讀

    如何使用 ChatGPT 進(jìn)行內(nèi)容創(chuàng)作

    ChatGPT平臺(tái)。 選擇模型ChatGPT目前支持GPT3.5和GPT4兩個(gè)模型。根據(jù)
    的頭像 發(fā)表于 10-25 16:08 ?1599次閱讀

    科大訊飛發(fā)布訊飛星火4.0 Turbo:七大能力超GPT-4 Turbo

    超過(guò)GPT-4 Turbo,數(shù)學(xué)能力和代碼能力更是超過(guò)了Open AI最新一代GPT模型GPT-4o。此外,其效率相對(duì)提升50%。
    的頭像 發(fā)表于 10-24 11:39 ?1336次閱讀

    利用OpenVINO部署Qwen2模態(tài)模型

    模態(tài)模型的核心思想是將不同媒體數(shù)據(jù)(如文本、圖像、音頻和視頻等)進(jìn)行融合,通過(guò)學(xué)習(xí)不同模態(tài)之間的關(guān)聯(lián),實(shí)現(xiàn)更加智能化的信息處理。簡(jiǎn)單來(lái)說(shuō),
    的頭像 發(fā)表于 10-18 09:39 ?2152次閱讀