chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

單日獲客成本超20萬,國產(chǎn)大模型開卷200萬字以上的長文本處理

E4Life ? 來源:電子發(fā)燒友 ? 作者:周凱揚 ? 2024-03-27 00:53 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

電子發(fā)燒友網(wǎng)報道(文/周凱揚)隨著AGI生態(tài)的蓬勃發(fā)展,各種支持多模態(tài)的大模型推陳出新,比如最近比較火的音樂大模型Suno和文生視頻大模型Sora等等。然而在傳統(tǒng)基于文本的大語言模型上,除了追求更快更精準(zhǔn)的推理和高并發(fā)流量以外,似乎已經(jīng)沒有太多值得廠商大肆宣傳的特性了,直到最近超長文本處理的爆火。

國產(chǎn)大模型的新卷法,長文本處理

當(dāng)下將大模型長文本處理炒熱的,無疑是來自月之暗面的Kimi。作為去年發(fā)布的大模型,Kimi的主要賣點就是長文本,當(dāng)時發(fā)布的初版Kimi,就已經(jīng)支持到最多20萬漢字的輸入處理。

然而僅僅20萬字的文本處理,還不至于給用戶帶來質(zhì)變的交互體驗,畢竟GPT-4 Turbo-128k已經(jīng)支持到約合10萬漢字的長文本處理,谷歌的Gemini pro也支持到最多70萬個單詞的上下文,但不少長篇小說、專業(yè)書籍的字?jǐn)?shù)要遠(yuǎn)超這一數(shù)字。

wKgZomYCneCAMb8qAAM8v3nPbSs784.jpg
Kimi支持200萬字上下文 / 月之暗面

Kimi在最近爆火源于一項重大迭代升級,月之暗面將長文本處理的字?jǐn)?shù)限制擴展到200萬字,遠(yuǎn)超Claude3、GPT-4 Turbo和Gemini Pro模型。在新功能推出和有效推廣下,Kimi很快涌入了一大批用戶,其app甚至短暫地沖進了蘋果App Store前五的位置。然而這樣也對Kimi的運營造成了不小的壓力,Kimi在上周經(jīng)歷了多次宕機,這還是在月之暗面對服務(wù)器連續(xù)擴容的前提下。

面對競爭對手Kimi的用戶量激增,阿里巴巴和360很快就坐不住了。3月22日,阿里巴巴宣布通義千問將向所有用戶免費開放1000萬字的長文檔處理功能;3月23日,360智腦宣布正式內(nèi)測500萬字長文本處理功能,且該功能即將入駐360 AI瀏覽器。

除了阿里巴巴和360外,目前國內(nèi)訪問量第一的百度文心一言據(jù)傳也會在下月開放長文本處理功能,并計劃把字?jǐn)?shù)上限提高至200萬甚至500萬字。

超長文本實現(xiàn)的技術(shù)難點和商業(yè)桎梏

盡管在用戶看來,阿里巴巴、360等廠商宣布支持超長文本處理好像是一件無需多少時間的易事,但實際上超長文本處理的實現(xiàn)存在不少技術(shù)痛點和商業(yè)成本問題。要知道在2022年,絕大多數(shù)的LLM上下文長度最多也只有2K,比如GPT-3。

直到GPT-4和Claude 2等,這些大模型才從架構(gòu)上對文本長度進行了優(yōu)化,可即便如此,主流的文本輸入長度依然不會超過100K。這也是因為對部分大模型而言,長文本不一定代表著更好的使用體驗,尤其是在查全率和準(zhǔn)確率上。

wKgaomYCne6ABP4QAADkljohAv4132.png
Claude的上下文長度和召回率關(guān)聯(lián)圖 / Anthropic


以Anthropic給出的數(shù)據(jù)為例,從上圖可以看出,隨著文本長度的增加,召回率是在逐步降低的,即便是最新的Claude3也是如此,而召回率代表了檢索出相關(guān)信息量占總量的比率。至于精確度,則與上下文中的事實位置存在很大的關(guān)系,如果用戶問題的事實存在于文本開頭或后半部分的位置,那么更容易得到精確的結(jié)果,而位于10%到50%之間位置的文本,則精確度急劇下降。

除此之外,長文本對于GPU和內(nèi)存的資源消耗太大了,即便是小規(guī)模地擴展文本長度,動輒也要消耗100塊以上的GPU或TPU,這里指代的GPU還是A100這種單卡顯存容量高達(dá)40GB或80GB的設(shè)備。

這也是Kimi在經(jīng)歷大量用戶訪問后,需要緊急擴容的原因。而阿里巴巴之所以能這么快開放長文本能力,也是憑借著手握龐大的服務(wù)器資源。至于Anthropic,我們從Claude3 Opus高昂的Tokens價格,也可以猜到其硬件成本絕對不低。

另外,在持續(xù)火爆一年之后,目前的大模型應(yīng)用也難以單純靠技術(shù)立足市場吸引用戶了,商業(yè)推廣也已經(jīng)成了必行之路。就以Kimi為例,在社交媒體上有關(guān)該應(yīng)用的推廣可謂鋪天蓋地,很明顯對于新興的大模型應(yīng)用而言,收獲第一批用戶才是至關(guān)重要的。

據(jù)傳Kimi在廣告投放上,吸引每位新用戶的花費在10元左右,而新用戶參與到使用中帶來的額外算力開銷在12元至13元左右。如果單單只是根據(jù)手機平臺app的下載量計算,那么Kimi的每日獲客成本至少為20萬人民幣,而這還未計算來自網(wǎng)頁端和小程序端的用戶。

wKgZomYCnf2AOjdbAADS5hsoY5M413.png
AI產(chǎn)品國內(nèi)總榜 / AI產(chǎn)品榜


而且Kimi的推廣也不是從200萬長文本功能的推出才開始的,早在二月份Kimi就開始以長文本這一特性加強商業(yè)推廣了。從AI產(chǎn)品榜中可以看出,Kimi在2月的訪問量飆升,在國內(nèi)總榜中僅次于百度文心一言和阿里通義千問,足見其在商業(yè)推廣和產(chǎn)品運營上都下了血本。但相對ChatGPT和New Bing之類的應(yīng)用而言,其訪問量還是存在很大的差距。

這也充分說明了為何國外的大模型應(yīng)用沒有去卷200K以上文本長度的原因,目前算力、準(zhǔn)確度和長文本之間的沖突限制了他們?nèi)グl(fā)展長文本。但這對于中國的大模型應(yīng)用來說,反而是一個彎道超車的機會,因為大模型上的長文本能力確實帶來了用戶體驗上的改變。

長文本對于用戶體驗的改變

國產(chǎn)大模型為什么要去卷長文本,這是一個與大模型應(yīng)用落地息息相關(guān)的問題。在過去,正是由于長文本能力不足,絕大多數(shù)大模型應(yīng)用才會給人不堪大用的感覺,比如虛擬助手由于長文本能力不足,會遺忘重要信息;基于大模型來設(shè)計劇本殺等游戲規(guī)則時,上下文長度不夠只能在規(guī)則和設(shè)定上縮水,從而簡化游戲難度;在論文分析和法律法規(guī)解讀這樣的關(guān)鍵領(lǐng)域,更是因為缺乏長文本的支持,無法給到用戶精準(zhǔn)的答案。

這與大模型卷參數(shù)規(guī)模不同,因為用戶已經(jīng)發(fā)現(xiàn)了即便是70B這個量級的大模型,在面對用戶的問題時,也會出現(xiàn)胡編亂造的問題。反倒是長文本提供了更多的上下文信息,大模型在對語義進行分析判斷后,會提供更加精確的答案,所以不少用戶才會借助Kimi來分解長篇小說、總結(jié)論文等。

不過在享受長文本處理帶來便利的同時,我們也應(yīng)該注意下長文本處理背后潛在的信息安全和版權(quán)問題。對于過去短文本的處理,就已經(jīng)存在一些可能暴露用戶真實身份和隱私信息的問題,隨著長文本支持對于更大文件和更長文本的處理,有的人可能會選擇將合同、條例或標(biāo)準(zhǔn)等包含敏感信息的專業(yè)文件上傳到大模型上,又或是引入一些盜版文檔資源。

所以國家層面也開始出臺各種管理辦法,對于大模型語言模型在內(nèi)的生成式人工智能進行規(guī)范,不能侵犯知識產(chǎn)權(quán)并保護個人隱私。如此一來,對于大模型應(yīng)用本身的信息脫敏也提出了更高的要求。

寫在最后

相信經(jīng)過一年的大模型應(yīng)用轟炸后,不少用戶對于基本的AGI玩法已經(jīng)玩膩了,所以長文本、文生視頻這種新的交互方式才會讓人趨之若鶩。但我們也很少看到成功的長文本大模型商業(yè)化落地項目,畢竟在高額的獲客成本下,RAG這種外掛知識庫的方式可能更適合手中資金有限的初創(chuàng)AGI應(yīng)用開發(fā)商。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • Agi
    Agi
    +關(guān)注

    關(guān)注

    0

    文章

    95

    瀏覽量

    10738
  • 大模型
    +關(guān)注

    關(guān)注

    2

    文章

    3435

    瀏覽量

    4958
  • LLM
    LLM
    +關(guān)注

    關(guān)注

    1

    文章

    340

    瀏覽量

    1256
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    禾賽科技激光雷達(dá)已累計交付200

    今日,全球激光雷達(dá)領(lǐng)導(dǎo)者禾賽科技(NASDAQ: HSAI;HKEX: 2525)宣布,公司累計第 200 臺激光雷達(dá)已于 11 月中旬在禾賽麥克斯韋智造中心正式量產(chǎn)下線并交付客戶。禾賽成為全球首個累計量產(chǎn)并交付
    的頭像 發(fā)表于 11-17 15:47 ?1798次閱讀

    3萬字長文!深度解析大語言模型LLM原理

    我們正在參加全球電子成就獎的評選,歡迎大家?guī)臀覀兺镀薄x謝支持本文轉(zhuǎn)自:騰訊技術(shù)工程作者:royceshao大語言模型LLM的精妙之處在于很好地利用數(shù)學(xué)解決了工業(yè)場景的問題,筆者基于過往工程經(jīng)驗
    的頭像 發(fā)表于 09-02 13:34 ?3032次閱讀
    3<b class='flag-5'>萬字長文</b>!深度解析大語言<b class='flag-5'>模型</b>LLM原理

    產(chǎn)品拆解 | 添可芙“極”洗地機(上):AI 全向助力如何實現(xiàn)?

    2個滾輪電機、1個滾刷電機、1個風(fēng)機、1個水泵,5個電機的電控和主控方案應(yīng)該如何設(shè)計?“AI全向助力”怎么實現(xiàn)?元器件國產(chǎn)比例如何?本期拆解添可芙8月新品極洗地機的設(shè)計方案思路,看看國產(chǎn)
    的頭像 發(fā)表于 08-25 16:24 ?1965次閱讀
    產(chǎn)品拆解 | 添可芙<b class='flag-5'>萬</b>“極<b class='flag-5'>客</b>”洗地機(上):AI 全向助力如何實現(xiàn)?

    產(chǎn)品拆解 | 添可芙“極”洗地機(下)

    收納底座如何同時完成烘干、風(fēng)干和充電三大功能?電池管理模塊在充放電控制與安全保護上采用了怎樣的設(shè)計?國產(chǎn)功率器件和控制芯片在其中的占比如何?本期拆解下篇聚焦添可芙洗地機的電源與BMS方案。 在
    的頭像 發(fā)表于 08-25 16:23 ?1561次閱讀
    產(chǎn)品拆解 | 添可芙<b class='flag-5'>萬</b>“極<b class='flag-5'>客</b>”洗地機(下)

    小馬智行L4域控制器路測200公里

    近日,小馬智行宣布第七代Robotaxi所搭載的L4車規(guī)級域控制器已累計測試200公里。作為全球首個L4 Robotaxi車規(guī)級量產(chǎn)域控制器,200
    的頭像 發(fā)表于 07-26 09:14 ?810次閱讀

    Linux中文本處理命令的用法

    Linux 三劍是(grep,sed,awk)三者的簡稱,熟練使用這三個工具可以提升運維效率。Linux 三劍以正則表達(dá)式作為基礎(chǔ),而在Linux系統(tǒng)中,支持兩種正則表達(dá)式,分別為“標(biāo)準(zhǔn)正則表達(dá)式”和“擴展正則表達(dá)式”。在掌握好正則表達(dá)式后,將具體講解三劍
    的頭像 發(fā)表于 04-15 10:22 ?545次閱讀
    Linux中<b class='flag-5'>文本處理</b>命令的用法

    國產(chǎn)首款量產(chǎn)型七位半用表!青島漢泰開啟國產(chǎn)高精度測量新篇章。

    國產(chǎn)首款量產(chǎn)型七位半用表!青島漢泰開啟國產(chǎn)高精度測量新篇章。 2025年3月18日,青島漢泰推出全新HDM3075系列7位半數(shù)字用表。HDM3075系列是
    發(fā)表于 04-01 13:15

    RK3588開發(fā)板上部署DeepSeek-R1大模型的完整指南

    DeepSeek作為國產(chǎn)AI大數(shù)據(jù)模型的代表,憑借其卓越的推理能力和高效的文本生成技術(shù),在全球人工智能領(lǐng)域引發(fā)廣泛關(guān)注。DeepSeek-R1作為該系列最新迭代版本,實現(xiàn)了長文本處理
    發(fā)表于 02-27 16:45

    飛凌RK3588開發(fā)板上部署DeepSeek-R1大模型的完整指南(一)

    DeepSeek作為國產(chǎn)AI大數(shù)據(jù)模型的代表,憑借其卓越的推理能力和高效的文本生成技術(shù),在全球人工智能領(lǐng)域引發(fā)廣泛關(guān)注。DeepSeek-R1作為該系列最新迭代版本,實現(xiàn)了長文本處理
    的頭像 發(fā)表于 02-21 14:55 ?2975次閱讀
    飛凌RK3588開發(fā)板上部署DeepSeek-R1大<b class='flag-5'>模型</b>的完整指南(一)

    了解DeepSeek-V3 和 DeepSeek-R1兩個大模型的不同定位和應(yīng)用選擇

    生成 支持常規(guī)代碼生成 優(yōu)化邏輯嚴(yán)謹(jǐn)性(長代碼鏈、算法實現(xiàn)) 多語言支持 多語言均衡能力(中/英/小語種) 側(cè)重中英文,尤其在技術(shù)術(shù)語上更精準(zhǔn) 長文本處理 標(biāo)準(zhǔn)上下文窗口(約32K tokens
    發(fā)表于 02-14 02:08

    BQ3588/BQ3576系列開發(fā)板深度融合DeepSeek-R1大模型

    DeepSeek 作為國產(chǎn) AI 大數(shù)據(jù)模型的杰出典范,以出色的推理能力和高效的文本生成技術(shù),在全球人工智能領(lǐng)域中備受矚目。DeepSeek-R1-distill-Qwen-7B 作為該系列的最新迭代版本,在
    的頭像 發(fā)表于 02-12 11:20 ?1175次閱讀

    BQ3588/BQ3576系列開發(fā)板成功部署 DeepSeek-R1開發(fā)板

    ,在長文本處理效能、多模態(tài)擴展規(guī)劃以及嵌入式適配等技術(shù)維度上實現(xiàn)了重大突破。BQ3576系列開發(fā)板依托瑞芯微RK3576平臺處理器,具備四個A72核心與四個A53核
    的頭像 發(fā)表于 02-12 09:26 ?1878次閱讀
    BQ3588/BQ3576系列開發(fā)板成功部署 DeepSeek-R1開發(fā)板

    阿里云通義開源長文本模型Qwen2.5-1M

    近日,阿里云通義宣布了一項重大開源舉措,推出了支持100Tokens上下文的Qwen2.5-1M模型。這一新模型處理長文本任務(wù)中展現(xiàn)出了
    的頭像 發(fā)表于 02-05 14:01 ?763次閱讀

    萬字長文,看懂激光基礎(chǔ)知識!

    深入介紹激光基礎(chǔ)知識,幫助您輕松理解激光領(lǐng)域的關(guān)鍵概念和原理。
    的頭像 發(fā)表于 12-20 09:49 ?1966次閱讀
    <b class='flag-5'>萬字長文</b>,看懂激光基礎(chǔ)知識!

    Linux三劍之Sed:文本處理神器

    關(guān)于linux三劍 grep,過濾關(guān)鍵信息數(shù)據(jù)。主要是用于查文本內(nèi)的數(shù)據(jù) sed ,對文本數(shù)據(jù)進行編輯,修改原文件內(nèi)容 awk,對文件數(shù)據(jù)過濾,提取,并且能實現(xiàn),格式化輸出 awk
    的頭像 發(fā)表于 12-16 15:58 ?1100次閱讀
    Linux三劍<b class='flag-5'>客</b>之Sed:<b class='flag-5'>文本處理</b>神器