chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線(xiàn)課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

蘋(píng)果ReALM模型在實(shí)體識(shí)別測(cè)試中超越OpenAI GPT-4.0

微云疏影 ? 來(lái)源:綜合整理 ? 作者:綜合整理 ? 2024-04-02 11:23 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

4月2日?qǐng)?bào)道,盡管Siri在描述圖片信息的能力上不夠完善,但蘋(píng)果公司并未停止對(duì)人工智能領(lǐng)域的深入探索。其最新研究論文詳述了一種大幅提升Siri智能化水平的模型——ReALM。該模型在測(cè)試中超越了OpenAI的GPT-4.0著名語(yǔ)言模型。

據(jù)悉,ReALM的獨(dú)特特性是同時(shí)理解用戶(hù)屏幕內(nèi)容及正在執(zhí)行的操作。依據(jù)信息類(lèi)型,論文將信息細(xì)分成三類(lèi):

(1)屏幕實(shí)體: 即當(dāng)前顯示在用戶(hù)屏幕上的內(nèi)容。

(2)對(duì)話(huà)實(shí)體: 指與對(duì)話(huà)相關(guān)的內(nèi)容。如,用戶(hù)請(qǐng)求“撥打母親的電話(huà)”,那么,母親的聯(lián)系信息便屬于此類(lèi)。

(3)背景實(shí)體: 與用戶(hù)當(dāng)前操作或屏幕顯示內(nèi)容未必直接相關(guān)的實(shí)體,如正在播放的音樂(lè)或即將發(fā)出的報(bào)警鈴聲。

一旦成功實(shí)現(xiàn),ReALM將賦予Siri更高的智能化和實(shí)用性。該團(tuán)隊(duì)將ReALM與OpenAI的GPT-3.5和GPT-4.0進(jìn)行了性能比拼:

“我們以上下文信息作為輸入,對(duì)比了OpenAI的GPT-3.5和GPT-4.0模型預(yù)測(cè)實(shí)體的準(zhǔn)確程度。由于GPT-3.5僅支持文本輸入,故我們僅提供文字提示;而GPT-4允許理解圖片信息,所以我們給它提供了屏幕截圖,從而有效提高了屏幕實(shí)體識(shí)別的效率?!?/p>

那蘋(píng)果的ReALM是否具備如此強(qiáng)大的性能優(yōu)勢(shì)呢?

“我們的模型在識(shí)別各種類(lèi)型實(shí)體方面都有顯著提升,即使是小尺寸模型,在屏幕實(shí)體識(shí)別準(zhǔn)確性上也已超過(guò)原有的系統(tǒng)5%以上。在與GPT-3.5和GPT-4.0的比較中,小型模型與GPT-4.0相媲美;更大的模型則表現(xiàn)更佳。”

論文得出的結(jié)論之一便是,有比GPT-4參數(shù)少許多的ReALM,卻仍可在性能上與之匹敵。在處理某些特定領(lǐng)域的用戶(hù)指令時(shí),ReALM甚至優(yōu)于其他模型,使其成為一款高效、實(shí)用且可本地運(yùn)行的實(shí)體識(shí)別系統(tǒng)。

而關(guān)鍵問(wèn)題在于,蘋(píng)果需尋求無(wú)損性能的方法來(lái)將此技術(shù)運(yùn)用至設(shè)備之中。據(jù)了解,預(yù)計(jì)6月10日舉行的WWDC 2024開(kāi)發(fā)者大會(huì)上,蘋(píng)果將會(huì)在iOS 18等新系統(tǒng)中展現(xiàn)更多人工智能技術(shù)創(chuàng)新成果,令人頗為期待。

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3831

    瀏覽量

    52282
  • GPT
    GPT
    +關(guān)注

    關(guān)注

    0

    文章

    374

    瀏覽量

    16984
  • 蘋(píng)果公司
    +關(guān)注

    關(guān)注

    2

    文章

    449

    瀏覽量

    24207
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    GPT-5震撼發(fā)布:AI領(lǐng)域的重大飛躍

    躍升重新定義了人工智能的能力邊界。OpenAI首席執(zhí)行官山姆·奧特曼發(fā)布會(huì)上直言:“這不僅是模型的升級(jí),更是通往通用人工智能(AGI)的關(guān)鍵里程碑?!?? ? GPT-5:集成
    的頭像 發(fā)表于 08-09 07:44 ?1w次閱讀
    <b class='flag-5'>GPT</b>-5震撼發(fā)布:AI領(lǐng)域的重大飛躍

    OpenAI戰(zhàn)略革新:Codex融入GPT-5.5開(kāi)啟全能AI編程新紀(jì)元

    近期,OpenAI正式將Codex核心能力全面整合至GPT-5.5主模型,終結(jié)獨(dú)立編程分支歷史。技術(shù)測(cè)試顯示,整合后的GPT-5.5
    的頭像 發(fā)表于 04-28 09:56 ?482次閱讀

    OpenAI與Anthropic對(duì)戰(zhàn),Claude Opus 4.6與GPT-5.3-Codex同日發(fā)布

    4.6:重大升級(jí),表現(xiàn)卓越 ? Claude Opus 4.6是Anthropic對(duì)其旗艦人工智能模型的一次關(guān)鍵升級(jí)。此版本規(guī)劃更謹(jǐn)慎,能維持更長(zhǎng)時(shí)間自主工作流程,企業(yè)關(guān)鍵基準(zhǔn)測(cè)試
    的頭像 發(fā)表于 02-06 14:19 ?2094次閱讀
    <b class='flag-5'>OpenAI</b>與Anthropic對(duì)戰(zhàn),Claude Opus 4.6與<b class='flag-5'>GPT</b>-5.3-Codex同日發(fā)布

    商湯科技正式開(kāi)源多模態(tài)自主推理模型SenseNova-MARS

    今日,商湯正式開(kāi)源多模態(tài)自主推理模型 SenseNova-MARS(8B/32B 雙版本),其多模態(tài)搜索與推理的核心基準(zhǔn)測(cè)試以 69.74 分
    的頭像 發(fā)表于 01-30 10:13 ?796次閱讀
    商湯科技正式開(kāi)源多模態(tài)自主推理<b class='flag-5'>模型</b>SenseNova-MARS

    “明牌”對(duì)局,自變量開(kāi)源模型超越pi0

    “明牌”對(duì)局,自變量開(kāi)源模型超越pi0
    的頭像 發(fā)表于 01-10 12:00 ?5770次閱讀
    “明牌”對(duì)局,自變量開(kāi)源<b class='flag-5'>模型</b><b class='flag-5'>超越</b>pi0

    GPT-5.1發(fā)布 OpenAI開(kāi)始拼情商

    -5.1 Thinking:高級(jí)推理模型簡(jiǎn)單任務(wù)上更快,復(fù)雜任務(wù)上更持久,也更容易理解。 對(duì)于新上線(xiàn)的GPT-5.1大模型,
    的頭像 發(fā)表于 11-13 15:49 ?832次閱讀

    迅為RK3568開(kāi)發(fā)板模型推理測(cè)試實(shí)戰(zhàn)LPRNet?車(chē)牌識(shí)別

    迅為RK3568開(kāi)發(fā)板模型推理測(cè)試實(shí)戰(zhàn)LPRNet 車(chē)牌識(shí)別
    的頭像 發(fā)表于 08-25 14:55 ?1583次閱讀
    迅為RK3568開(kāi)發(fā)板<b class='flag-5'>模型</b>推理<b class='flag-5'>測(cè)試</b>實(shí)戰(zhàn)LPRNet?車(chē)牌<b class='flag-5'>識(shí)別</b>

    NVIDIA從云到邊緣加速OpenAI gpt-oss模型部署,實(shí)現(xiàn)150萬(wàn)TPS推理

    ? 自 2016 年推出 NVIDIA DGX 以來(lái),NVIDIA 與 OpenAI 便開(kāi)始共同推動(dòng) AI 技術(shù)的邊界。此次 OpenAI gpt-oss-20b 和 gpt-oss-
    的頭像 發(fā)表于 08-15 20:34 ?2532次閱讀
    NVIDIA從云到邊緣加速<b class='flag-5'>OpenAI</b> <b class='flag-5'>gpt</b>-oss<b class='flag-5'>模型</b>部署,實(shí)現(xiàn)150萬(wàn)TPS推理

    澎峰科技完成OpenAI最新開(kāi)源推理模型適配

    澎峰科技現(xiàn)已完成 OpenAI 最新開(kāi)源推理模型 gpt-oss-20b DeepFusion 大模型一體機(jī)上的原生適配與優(yōu)化,用戶(hù)可一
    的頭像 發(fā)表于 08-14 11:34 ?1571次閱讀

    訊飛星辰MaaS平臺(tái)率先上線(xiàn)OpenAI最新開(kāi)源模型

    8月6日凌晨,OpenAI 時(shí)隔六年再次回歸開(kāi)源,發(fā)布兩款全新的大語(yǔ)言模型gpt-oss-120b和gpt-oss-20b,性能與o4-mini 水平相當(dāng),并且可以
    的頭像 發(fā)表于 08-13 16:43 ?1948次閱讀

    OpenAI或在周五凌晨發(fā)布GPT-5 OpenAI以低價(jià)向美國(guó)政府提供ChatGPT

    期待的大模型。 OpenAI可能在周五凌晨發(fā)布GPT-5,源自OpenAI社交媒體上發(fā)布的太平洋時(shí)間周四上午10點(diǎn)有網(wǎng)絡(luò)直播活動(dòng),對(duì)應(yīng)的北
    的頭像 發(fā)表于 08-07 14:13 ?1.6w次閱讀

    亞馬遜云科技現(xiàn)已上線(xiàn)OpenAI開(kāi)放權(quán)重模型

    客戶(hù)現(xiàn)可通過(guò)Amazon Bedrock和Amazon SageMaker AI使用OpenAI開(kāi)放權(quán)重模型,實(shí)現(xiàn)將先進(jìn)的開(kāi)放權(quán)重模型與全球最廣泛云服務(wù)的深度集成。 亞馬遜云科技首次上線(xiàn)Ope
    的頭像 發(fā)表于 08-06 19:29 ?967次閱讀

    OpenAI發(fā)布2款開(kāi)源模型

    OpenAI開(kāi)源了兩款高性能權(quán)重語(yǔ)言模型gpt-oss-120b和gpt-oss-20b,OpenAI CEO Sam Altman表示:「
    的頭像 發(fā)表于 08-06 14:25 ?1163次閱讀

    “天才”!OpenAI o3 成全球 IQ 最高的 AI 大模型

    電子發(fā)燒友網(wǎng)報(bào)道(文 / 吳子鵬)根據(jù)門(mén)薩智商(IQ)測(cè)試的表現(xiàn),OpenAI o3 全球 “智商最高” 的人工智能模型 TOP 24
    的頭像 發(fā)表于 06-15 01:56 ?6261次閱讀
    “天才”!<b class='flag-5'>OpenAI</b> o3 成全球 IQ 最高的 AI 大<b class='flag-5'>模型</b>

    如何獲取 OpenAI API Key?API 獲取與代碼調(diào)用示例 (詳解教程)

    OpenAI API Key 獲取與使用詳解:從入門(mén)到精通 OpenAI 正以其 GPT 和 DALL-E 等先進(jìn)模型引領(lǐng)全球人工智能創(chuàng)新。其 API 為開(kāi)發(fā)者和企業(yè)提供了強(qiáng)大的 AI
    的頭像 發(fā)表于 05-04 11:42 ?1.9w次閱讀
    如何獲取 <b class='flag-5'>OpenAI</b> API Key?API 獲取與代碼調(diào)用示例 (詳解教程)