chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

Mistral中杯代碼能力完勝GPT-4,成本暴降2/3

深度學習自然語言處理 ? 來源:新智元 ? 2023-12-18 16:55 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

小模型的風潮,最近愈來愈盛,Mistral和微軟分別有所動作。而網(wǎng)友實測發(fā)現(xiàn),Mistral-medium的代碼能力竟然完勝了GPT-4,而所花成本還不到三分之一。

最近,「小語言模型」忽然成為熱點。

本周一,剛剛完成4.15億美元融資的法國AI初創(chuàng)公司Mistral,發(fā)布了Mixtral 8x7B模型。

715336d2-9d7c-11ee-8b88-92fbcf53809c.png

這個開源模型盡管尺寸不大,小到足以在一臺內(nèi)存100GB以上的電腦上運行,然而在某些基準測試中卻能和GPT-3.5打平,因此迅速在開發(fā)者中贏得了一片稱贊。

之所以叫Mixtral 8x7B,是因為它結(jié)合了為處理特定任務(wù)而訓練的各種較小模型,從而提高了運行效率。

這種「稀疏專家混合」模型并不容易實現(xiàn),據(jù)說OpenAI在今年早些時候因為無法讓MoE模型正常運行,而不得不放棄了模型的開發(fā)。

緊接著,就在第二天,微軟又發(fā)布了全新版本的Phi-2小模型。

跟Mistral的70億參數(shù)比,Phi-2小到可以在手機上跑,只有27億參數(shù)。相比之下,GPT-4的參數(shù)達到了一萬億。

Phi-2在精心挑選的數(shù)據(jù)集上進行了訓練,數(shù)據(jù)集的質(zhì)量足夠高,因此即使手機的計算能力有限,也能確保模型生成準確的結(jié)果。

雖然還不清楚微軟或其他軟件制造商將如何使用小型模型,但最明顯的好處,就是降低了大規(guī)模運行AI應(yīng)用的成本,并且極大地拓寬了生成式AI技術(shù)的應(yīng)用范圍。

這是一件大事。

Mistral-medium代碼生成完勝GPT-4

最近,Mistral-medium已經(jīng)開放內(nèi)測。

有博主對比了開源的Mistral-medium和GPT-4的代碼生成能力,結(jié)果顯示,Mistral-medium比GPT-4的代碼能力更強,然而成本卻只需GPT-4的3成!

7163a274-9d7c-11ee-8b88-92fbcf53809c.png

總價來說就是:

1)Mistral會始終完成工作,完成度很高;

2)不會在冗長的解釋性輸出上浪費token;

3)提供的建議非常具體。

第一題,「編寫用于生成斐波那契素數(shù)的PyTorch數(shù)據(jù)集的cuda優(yōu)化代碼」。

Mistral-Medium生成的代碼嚴肅、完整。

716dbc64-9d7c-11ee-8b88-92fbcf53809c.png

7178e45e-9d7c-11ee-8b88-92fbcf53809c.png

71847daa-9d7c-11ee-8b88-92fbcf53809c.png

而GPT-4生成的代碼,就差強人意了。

浪費了很多token,卻沒有輸出有用的信息。

7189dd40-9d7c-11ee-8b88-92fbcf53809c.png

然后,GPT-4只給出了骨架代碼,并沒有具體的相關(guān)代碼。

719013d6-9d7c-11ee-8b88-92fbcf53809c.png

第二道題:「編寫高效的Python代碼,將大約10億個大型Apache HTTP訪問文件攝取到 SqlLite數(shù)據(jù)庫中,并使用它來生成對sales.html和product.html的訪問直方圖」。

Mistral的輸出非常精彩,雖然log不是CSV格式的,但修改起來很容易。

719b463e-9d7c-11ee-8b88-92fbcf53809c.png

71a47db2-9d7c-11ee-8b88-92fbcf53809c.png

71af633a-9d7c-11ee-8b88-92fbcf53809c.png

GPT-4依舊拉跨。

71bb5f0a-9d7c-11ee-8b88-92fbcf53809c.png

71c60e28-9d7c-11ee-8b88-92fbcf53809c.png

71d27d48-9d7c-11ee-8b88-92fbcf53809c.png

此前,這位博主測試過多個代碼生成模型,GPT-4一直穩(wěn)居第一。

而現(xiàn)在,把它拉下寶座的強勁對手Mistral-medium終于出現(xiàn)了。

雖然只發(fā)布了兩個例子,但博主測試了多個問題,結(jié)果都差不多。

他建議:鑒于Mistral-medium在代碼生成質(zhì)量上有更好的體驗,應(yīng)該把它整合到各地的代碼copilot中。

71d73d7e-9d7c-11ee-8b88-92fbcf53809c.png

有人按照每1000token算出了輸入和輸出的成本,發(fā)現(xiàn)Mistral-medium比起GPT-4直接降低了70%!

71e45662-9d7c-11ee-8b88-92fbcf53809c.png

的確,節(jié)省了70%的token費用,可不是一件小事。甚至還可以通過不冗長的輸出,來進一步節(jié)省成本。

71efad0a-9d7c-11ee-8b88-92fbcf53809c.png

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3649

    瀏覽量

    51719
  • 代碼
    +關(guān)注

    關(guān)注

    30

    文章

    4941

    瀏覽量

    73158
  • 語言模型
    +關(guān)注

    關(guān)注

    0

    文章

    570

    瀏覽量

    11256

原文標題:Mistral攜微軟引爆「小語言模型」潮!Mistral中杯代碼能力完勝GPT-4,成本暴降2/3

文章出處:【微信號:zenRRan,微信公眾號:深度學習自然語言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    【瑞薩RA6E2】+ 3、使用PWM驅(qū)動舵機

    3.keil5代碼 1.PWM設(shè)置代碼: void GPT_PWM_SetDuty(uint8_t duty) { timer_info_t info; R_
    發(fā)表于 11-19 08:35

    【RA4E2開發(fā)板評測】PWM 驅(qū)動舵機

      本篇使用 RA4E2 的 PWM 輸出,來驅(qū)動舵機轉(zhuǎn)動,使用 RA4E2 驅(qū)動舵機非常方便,只要配置好 GPT PWM 模塊,就能輕松實現(xiàn)角度控制。 硬件準備 1、RA4E2 開發(fā)
    發(fā)表于 09-09 15:13

    【RA4M2-SENSOR】+PWM與舵機控制

    在KEIL添加相應(yīng)的代碼即可。 為使用PWM調(diào)節(jié)功能,需找到\"GTIOC2B\",將其設(shè)置為\"P102\",見圖1所示。 圖1 引腳設(shè)置 然后,在棧內(nèi)加入
    發(fā)表于 09-04 11:34

    【RA4M2-SENSOR】+PWM與調(diào)節(jié)控制

    RA4M2-SENSOR開發(fā)板具有PWM定時器,可實現(xiàn)不同占空比的脈沖調(diào)節(jié)功能。 要完成這件事,先要用RASC來生成一個KEIL工程,然后再在KEIL添加相應(yīng)的代碼即可。 為使用PWM調(diào)節(jié)功能,需
    發(fā)表于 09-04 09:35

    【RA4M2-SENSOR】3、使用GPT定時器-PWM輸出

    項目01_I2C_OLED復(fù)制一份,重命名為02_PWM 查看原理圖得知,P102引腳可用GPT功能。 點擊configuration.xml文件,按下面幾張圖所示內(nèi)容配置。 打開引腳配置界面(Pin
    發(fā)表于 09-01 15:20

    OpenAI或在周五凌晨發(fā)布GPT-5 OpenAI以低價向美國政府提供ChatGPT

    外界一直在期待的OpenAI新一代大語言模型GPT-5或?qū)l(fā)布。據(jù)外媒的報道,GPT-5很可能在周五凌晨發(fā)布。這是OpenAI在2023年的3月份推出自然語言處理模型GPT-4之后,兩
    的頭像 發(fā)表于 08-07 14:13 ?8885次閱讀

    GPT-5即將面市 性能遠超GPT-4

    行業(yè)芯事
    電子發(fā)燒友網(wǎng)官方
    發(fā)布于 :2025年06月04日 13:38:23

    【RA-Eco-RA4M2開發(fā)板評測】RA-Eco-RA4M2 PWM輸出

    模塊的結(jié)構(gòu)框圖 RA4M2系列共有共 8 個GPT定時器(即8個通道), 其中包括 4 個32位GPT定時器(GPT32n (n=0~
    發(fā)表于 04-28 22:57

    納米銅燒結(jié)為何納米銀燒結(jié)?

    在半導體功率模塊封裝領(lǐng)域,互連技術(shù)一直是影響模塊性能、可靠性和成本的關(guān)鍵因素。近年來,隨著納米技術(shù)的快速發(fā)展,納米銀燒結(jié)和納米銅燒結(jié)技術(shù)作為兩種新興的互連技術(shù),備受業(yè)界關(guān)注。然而,在眾多應(yīng)用場景
    的頭像 發(fā)表于 02-24 11:17 ?1609次閱讀
    納米銅燒結(jié)為何<b class='flag-5'>完</b><b class='flag-5'>勝</b>納米銀燒結(jié)?

    從性能到商業(yè),Grok3、GPT-4o、DeepSeek如何重塑AI版圖?

    2025年2月,AI領(lǐng)域仿佛上演了一場激烈的“諸神之戰(zhàn)”,馬斯克旗下xAI發(fā)布的Grok3、OpenAI推出的GPT-4o以及持續(xù)憑借R1模型大放異彩的DeepSeek,三大巨頭強勢登場,讓AI
    的頭像 發(fā)表于 02-19 18:14 ?1563次閱讀
    從性能到商業(yè),Grok<b class='flag-5'>3</b>、<b class='flag-5'>GPT-4</b>o、DeepSeek如何重塑AI版圖?

    馬斯克發(fā)布Grok 3大模型,超越GPT-4o

    多項benchmark測試,Grok 3取得了比DeepSeek-v3、GPT-4o以及Gemini-2 pro更優(yōu)的效果。這一成績無疑彰
    的頭像 發(fā)表于 02-19 13:50 ?721次閱讀

    OpenAI宣布GPT 4o升智計劃

    透露,GPT 4o的智力水平將得到顯著提升,目標直指o3 pro的水平。這一升級不僅意味著GPT 4o在理解和生成文本方面的
    的頭像 發(fā)表于 02-17 14:24 ?870次閱讀

    OpenAI即將發(fā)布GPT-4.5與GPT-5

    GPT-4.5將在未來幾周內(nèi)率先亮相,它將是OpenAI通用GPT-4模型的繼承者。這款新的算法在技術(shù)上進行了諸多優(yōu)化和升級,旨在為用戶提供更加精準、高效的AI服務(wù)。 而在GPT-4.5發(fā)布后不久
    的頭像 發(fā)表于 02-13 13:43 ?1031次閱讀

    如何在邊緣端獲得GPT4-V的能力:算力魔方+MiniCPM-V 2.6

    GPT4-V的能力:MiniCPM-V 2.6 。 MiniCPM-V 2.6是MiniCPM-V系列最新、性能最佳的模型,基于SigLip-400M和Qwen2-7B構(gòu)建,共8B參數(shù)。在最新版
    的頭像 發(fā)表于 01-20 13:40 ?1114次閱讀
    如何在邊緣端獲得<b class='flag-5'>GPT4</b>-V的<b class='flag-5'>能力</b>:算力魔方+MiniCPM-V 2.6

    OpenAI GPT-5開發(fā)滯后:訓練成本高昂

    近日,據(jù)最新消息,OpenAI在推進其備受期待的下一代旗艦?zāi)P?b class='flag-5'>GPT-5的開發(fā)進程上遇到了困難。由于計算成本高昂且高質(zhì)量訓練數(shù)據(jù)稀缺,GPT-5的開發(fā)已經(jīng)落后于原定計劃半年之久。 據(jù)悉,OpenAI
    的頭像 發(fā)表于 12-23 11:04 ?1432次閱讀