chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

ChatGPT plus有什么功能?OpenAI 發(fā)布 GPT-4 Turbo 目前我們所知道的功能

技術(shù)程序猿華鋒 ? 來源:jf_32321025 ? 作者:jf_32321025 ? 2023-12-13 09:19 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

OpenAI 發(fā)布 GPT-4 Turbo 目前我們所知道的功能分析解答

在最近的OpenAI DevDay上,該組織發(fā)布了一項備受期待的公告:推出GPT-4 Turbo,這是對其突破性AI模型的改進。在這里,我們?nèi)媪私釭PT-4 Turbo是什么、它的主要功能以及它如何使開發(fā)人員和用戶受益。

了解 OpenAI 的最新更新、具有視覺功能的 GPT-4 Turbo 及其主要功能,包括改進的知識截止、擴展的上下文窗口、預算友好的定價等。

什么是GPT-4 Turbo?

GPT-4 Turbo是現(xiàn)有GPT-4大語言模型的更新。它帶來了一些改進,包括大大增加的上下文窗口和對更多最新知識的訪問。OpenAI逐漸改進ChatGPT中GPT-4的功能,添加了自定義指令、ChatGPT插件、DALL-E 3和高級數(shù)據(jù)分析。此最新更新帶來了許多令人興奮的新功能。

什么是GPT-4 Turbo With Vision?

具有視覺功能的GPT-4 Turbo是GPT-4 Turbo的變體,包含光學字符識別(OCR)功能。也就是說,您可以向它提供圖像,它可以返回圖像中包含的任何文本。例如,您可以輸入菜單的照片,它將返回該照片中寫入的食物選擇。同樣,您可以提供發(fā)票照片并自動提取供應商名稱和商品詳細信息。

ChatGPT默認提供“with Vision”功能,開發(fā)人員可以通過在OpenAI API中選擇“gpt-4-vision”模型來使用。

GPT-4 Turbo主要特性

GPT-4 Turbo與之前的型號相比有多項改進,增強了其功能。以下是使其脫穎而出的一些關(guān)鍵功能:

改進知識截止

wKgZomV4MfiAStCQAAE7saIRtao133.pngSam Altman承諾確保ChatGPT保持最新狀態(tài)

GPT-3.5和GPT-4的現(xiàn)有版本的知識截止日期為2021年9月。這意味著它們無法回答有關(guān)該時間之后發(fā)生的現(xiàn)實世界事件的問題,除非獲得外部數(shù)據(jù)源的訪問權(quán)限。

GPT-4將知識截止時間延長了19個月,至2023年4月。這意味著GPT-4 Turbo可以訪問截至該日期的信息和事件,使其成為更明智、更可靠的信息來源。此外,OpenAI的首席執(zhí)行官Sam Altman承諾“[OpenAI]將努力永遠不會讓[GPT]再次過時。”

128K上下文窗口

大型語言模型(LLM)的上下文窗口是衡量其對話記憶持續(xù)時間的指標。如果模型的上下文窗口包含4,000個令牌(約3,000個單詞),則聊天中超過4,000個令牌之前的所有內(nèi)容都會被忽略,并且響應可能會變得不太準確,甚至與之前的響應相矛盾。對于處理較長的文檔或進行長時間對話的聊天機器人來說,這是一個問題。

GPT-4的最大上下文長度為32k(32,000)個令牌。GPT-4 Turbo將其增加到128k令牌(大約240頁,每頁400個字)。這超過了Anthropic的Claude 2模型的100k最大上下文,并使其與Nous Research的YARN-MISTRAL-7b-128k模型保持一致。

較長的上下文窗口是否會導致整個窗口的響應性能令人滿意,還有待觀察。斯坦福大學最近的研究表明,現(xiàn)有的長上下文模型只能在從文檔開頭或結(jié)尾附近檢索信息時提供準確的響應。

還值得注意的是,128k似乎只是實現(xiàn)“無限上下文”夢想的墊腳石。微軟和西安交通大學的早期研究旨在將法學碩士規(guī)模擴大到十億個代幣的背景。

GPT開始發(fā)售

OpenAI響應了LLM市場日益激烈的競爭,并降低了GPT-4 Turbo的價格,以便為開發(fā)人員提供經(jīng)濟實惠的價格。使用OpenAI API時,GPT-4 Turbo輸入代幣價格現(xiàn)在是之前價格的三分之一,從每1000個代幣3美分降至1美分。產(chǎn)出的代幣現(xiàn)在是半價,從每1000個代幣6美分降至3美分。

GPT-3.5 Turbo模型也延續(xù)了同樣的趨勢,以每1000個代幣0.1美分的價格提供了3倍便宜的輸入代幣,以每1000個代幣0.2美分的價格提供了2倍便宜的輸出代幣。

此外,經(jīng)過微調(diào)的GPT-3.5 Turbo 4K模型輸入代幣現(xiàn)在價格便宜4倍,價格從每1000個代幣1.2美分降至0.3美分,輸出代幣便宜2.7倍,從每1.6美分降至0.6美分每1000個代幣為美分。培訓價格保持不變,為每1000個代幣0.8美分。

這些價格調(diào)整旨在使先進的人工智能模型對開發(fā)者來說更??具成本效益。

GPT走向多模式:圖像提示和文本轉(zhuǎn)語音

“GPT-4 Turbo with Vision”宣布即將推出。您很快就可以通過直接在聊天框中輸入圖像作為提示來提示GPT-4 Turbo。然后,該工具將能夠生成標題或提供圖像所描繪內(nèi)容的描述。它還將處理文本到語音的請求。

函數(shù)調(diào)用更新

函數(shù)調(diào)用是開發(fā)人員將生成式人工智能融入其應用程序的一項功能。它使他們能夠向GPT-4 Turbo描述其應用程序的功能或外部API。由于能夠在一條消息中調(diào)用多個函數(shù),此功能簡化了與模型的交互。例如,用戶可以發(fā)送一條請求多個操作的消息,從而無需與模型進行多次來回交互。

如何訪問GPT-4 Turbo

“所有付費開發(fā)人員”都可以訪問GPT-4 Turbo,這意味著如果您具有API訪問權(quán)限,則只需在OpenAI API中傳遞“gpt-4-1106-preview”作為模型名稱即可。同樣,對于具有視覺功能的GPT-4 Turbo,您可以傳遞“gpt-4-vision-preview”作為模型名稱。

請注意,這些預覽模型尚未被認為適合生產(chǎn)使用。然而,作為公告的一部分,Altman還承諾將在未來幾周內(nèi)推出可投入生產(chǎn)的版本。

對于非開發(fā)人員來說,GPT-4 Turbo可能會在未來幾周內(nèi)向ChatGPT Plus和ChatGPT Enterprise用戶提供。

速率限制

通過OpenAI API訪問GPt模型的速率受到限制。也就是說,您每月只能向API發(fā)出有限數(shù)量的請求。OpenAI現(xiàn)已發(fā)布關(guān)于速率限制如何運作的更清晰指南,因此您的應用程序不會意外被切斷。

此外,GPT-4的速率限制增加了一倍

由于GPT-4 Turbo目前處于預覽階段,因此GPT-4 Turbo的速率限制設(shè)置為每分鐘20個請求和每天100個請求。OpenAI已表示,他們目前不會適應此模型的速率限制增加。然而,一旦公開版本可用,他們很可能會這樣做。

最后的思考

GPT-4 Turbo的發(fā)布為生成式AI的未來提供了令人興奮的一瞥,我們迫不及待地想掌握它。對于那些尋求更深入了解的人,我們關(guān)于在OpenAI API使用GPT-3.5和GPT-4的教程有很多值得探索的地方。

審核編輯 黃宇

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • AI
    AI
    +關(guān)注

    關(guān)注

    88

    文章

    35164

    瀏覽量

    280013
  • OpenAI
    +關(guān)注

    關(guān)注

    9

    文章

    1210

    瀏覽量

    8927
  • ChatGPT
    +關(guān)注

    關(guān)注

    29

    文章

    1590

    瀏覽量

    9110
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    OpenAI簡化大模型選擇:薩姆·奧特曼制定路線圖

    前的技術(shù)環(huán)境下,大模型被廣泛應用于各種聊天機器人中,其中OpenAIChatGPT就是一個典型的例子。然而,對于大多數(shù)用戶來說,選擇最適合自己需求的AI模型卻并非易事。OpenAI目前
    的頭像 發(fā)表于 02-18 09:12 ?501次閱讀

    ChatGPT Plus 2025新功能搶先看:如何訂閱與使用全攻略

    的交互 ChatGPT Plus作為付費訂閱服務(wù),提供了一系列增強功能和優(yōu)勢,讓用戶體驗更上一層樓: 更強模型驅(qū)動 (GPT-4及更高版本): ?訂閱用戶可訪問性能更強、回答更準確、對
    的頭像 發(fā)表于 02-13 19:59 ?955次閱讀

    OpenAI即將發(fā)布GPT-4.5與GPT-5

    GPT-4.5將在未來幾周內(nèi)率先亮相,它將是OpenAI通用GPT-4模型的繼承者。這款新的算法在技術(shù)上進行了諸多優(yōu)化和升級,旨在為用戶提供更加精準、高效的AI服務(wù)。 而在GPT-4
    的頭像 發(fā)表于 02-13 13:43 ?645次閱讀

    OpenAI即將推出GPT-5模型

    先進技術(shù),其中包括備受矚目的o3工具。通過整合這些技術(shù),GPT-5模型將實現(xiàn)更加強大的功能和性能。 值得一提的是,GPT-5模型將被廣泛應用于OpenAI的聊天機器人
    的頭像 發(fā)表于 02-13 11:21 ?593次閱讀

    OpenAI桌面版ChatGPT新增應用協(xié)作功能

    近日,OpenAI宣布了一項重要更新,為桌面版ChatGPT推出了“與應用協(xié)作”(Work With Apps)功能。這一新功能旨在支持原生應用程序的自動化協(xié)作,為用戶帶來更加高效和便
    的頭像 發(fā)表于 12-23 10:52 ?672次閱讀

    OpenAI推出ChatGPT搜索功能

    近日,OpenAI再次邁出了重要的一步,為其廣受好評的ChatGPT平臺添加了一項全新的搜索功能。 據(jù)悉,這項被命名為“ChatGPT搜索”的新功能
    的頭像 發(fā)表于 11-04 10:34 ?682次閱讀

    OpenAIChatGPT增添搜索功能

    近日,OpenAI宣布為其旗艦產(chǎn)品ChatGPT增添全新的搜索功能,此舉標志著該公司對Alphabet旗下谷歌的直接挑戰(zhàn)進一步升級。OpenAI周四正式揭曉了這一名為“
    的頭像 發(fā)表于 11-01 17:01 ?755次閱讀

    解鎖 GPT-4o!2024 ChatGPT Plus 代升級全攻略(附國內(nèi)支付方法)

    ChatGPT Plus 每月 20 美元,OpenAI 承諾 Plus 用戶享有更快的響應速度、優(yōu)先使用新功能及最新模型,包括強大的
    的頭像 發(fā)表于 10-29 18:17 ?2500次閱讀

    訊飛星火大模型4.0 Turbo正式發(fā)布

    近日,2024科大訊飛全球1024開發(fā)者節(jié)正式開幕。在數(shù)千名行業(yè)領(lǐng)袖、專家學者與開發(fā)者的共同見證下,訊飛星火大模型4.0 Turbo正式發(fā)布。七大核心能力全面超過GPT-4 Turbo
    的頭像 發(fā)表于 10-27 15:47 ?1031次閱讀

    科大訊飛發(fā)布訊飛星火4.0 Turbo:七大能力超GPT-4 Turbo

    超過GPT-4 Turbo,數(shù)學能力和代碼能力更是超過了Open AI最新一代GPT模型GPT-4o。此外,其效率相對提升50%。
    的頭像 發(fā)表于 10-24 11:39 ?1083次閱讀

    OpenAI即將發(fā)布“草莓”推理大模型

    科技界迎來新動態(tài),據(jù)可靠消息透露,OpenAI正緊鑼密鼓地籌備著一項重大發(fā)布——預計在兩周內(nèi),將正式推出名為“草莓”的新型AI推理模型,并將其無縫融入ChatGPT服務(wù)中。這款以卓越推理能力為核心的大模型,旨在突破現(xiàn)有
    的頭像 發(fā)表于 09-11 16:53 ?822次閱讀

    OpenAI解鎖GPT-4o定制功能,助力企業(yè)精準優(yōu)化AI應用

    在8月21日的最新動態(tài)中,OpenAI 宣布了一項革命性的新功能,正式向企業(yè)用戶開放其頂尖AI模型GPT-4o的定制能力。這一舉措標志著OpenAI在激烈的企業(yè)級AI應用市場中邁出了重
    的頭像 發(fā)表于 08-21 16:06 ?759次閱讀

    OpenAI api key獲取并可調(diào)用GPT-4.0、GPT-4o、GPT-4omini

    前言 在這篇文章中,我們將詳細介紹如何申請OpenAIGPT-4.0 API Key。通過這個教程,你將能夠輕松獲取OpenAI API KEY并使用
    的頭像 發(fā)表于 08-06 15:16 ?4563次閱讀
    <b class='flag-5'>OpenAI</b> api key獲取并可調(diào)用<b class='flag-5'>GPT</b>-4.0、<b class='flag-5'>GPT-4</b>o、<b class='flag-5'>GPT-4</b>omini

    OpenAI提前解鎖GPT-4o語音模式,引領(lǐng)對話新紀元

    OpenAI近日宣布了一項令人振奮的消息:即日起,部分ChatGPT Plus用戶將率先體驗到GPT-4o的語音模式,這一創(chuàng)新功能標志著自然
    的頭像 發(fā)表于 08-01 18:24 ?1501次閱讀

    OpenAI 推出 GPT-4o mini 取代GPT 3.5 性能超越GPT 4 而且更快 API KEY更便宜

    OpenAI推出了GPT-4o mini模型,用來取代GPT-3.5.這是目前市場上最具成本效益的小模型。 ? 該模型在MMLU上得分為82%, 在LMSYS排行榜上的聊天偏好測試中表
    的頭像 發(fā)表于 07-21 10:20 ?1689次閱讀
    <b class='flag-5'>OpenAI</b> 推出 <b class='flag-5'>GPT-4</b>o mini 取代<b class='flag-5'>GPT</b> 3.5 性能超越<b class='flag-5'>GPT</b> <b class='flag-5'>4</b> 而且更快 API KEY更便宜