chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

微軟聯(lián)合Meta發(fā)布免費商業(yè)應(yīng)用的開源AI模型Llama 2

AI科技大本營 ? 來源:CSDN ? 2023-07-19 16:22 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

昔日的競爭對手,今日的合作盟友;

忽如一夜春風(fēng)來,開源大模型迎來新局面;

今天是 OSS AI 勝利的一天;

隨著 Meta 最新發(fā)布一個新的開源 AI 模型——Llama 2,網(wǎng)上盛贊的聲音不絕于耳,甚至圖靈獎得主、卷積網(wǎng)絡(luò)之父、Meta 首席人工智能科學(xué)家 Yann LeCun 更是直言,「這將改變 LLM 市場的格局」。

be3c9974-2609-11ee-962d-dac502259ad0.png

而Llama 2 之所以能引起這么大的反響,不僅是因為它是開源的,更主要的原因便是它可以被免費地用于研究和商業(yè)用途。與此同時,Meta 還與微軟強強聯(lián)手,旨在驅(qū)動 OpenAI 的 ChatGPT、Bing Chat 和其他現(xiàn)代聊天機器人等應(yīng)用程序。

在 Meta 看來,「開放的方法是當(dāng)今人工智能模型開發(fā)的正確方法,特別是在技術(shù)快速發(fā)展的生成領(lǐng)域。通過公開提供人工智能模型,它們可以使每個人受益。為企業(yè)、初創(chuàng)企業(yè)、企業(yè)家和研究人員提供其開發(fā)的工具,這些工具的開發(fā)規(guī)模是他們自己難以構(gòu)建的,并以他們可能無法獲得的計算能力為后盾,將為他們以令人興奮的方式進行實驗。」

僅是這一點,便是當(dāng)前很多專注于大模型開發(fā)的企業(yè)無法做到的,也如網(wǎng)友評價的那番,格局一下被打開。

Llama 2 的前身

今日發(fā)布的 Llama 2 是 Llama(大羊駝)的后續(xù)版本。

今年 2 月,Meta 首次公開發(fā)布 LLaMA,作為具有非商業(yè)許可證的開源版本。這是一種先進的基礎(chǔ)大型語言模型,旨在幫助研究人員推進 AI 這一子領(lǐng)域的工作。更小、性能更高的模型(例如 LLaMA)使研究界中無法訪問大量基礎(chǔ)設(shè)施的其他人能夠研究這些模型,從而進一步實現(xiàn)這一重要且快速變化的領(lǐng)域的訪問民主化。

彼時,Meta提供多種尺寸的 LLaMA(7B、13B、33B 和 65B 參數(shù))。僅從功能上來看,Llama 可以根據(jù)提示生成文本和代碼,與其他類似聊天機器人的系統(tǒng)相當(dāng)。

然而,當(dāng)時由于擔(dān)心被濫用,Meta 決定限制對模型的訪問,所以也只是對具有一定資格的研究者開放,還需要寫申請表格等。

不過,令人沒想到的是,不久之后便有人將 LLaMA 的權(quán)重(包括經(jīng)過訓(xùn)練的神經(jīng)網(wǎng)絡(luò)的參數(shù)值文件)泄露到了 torrent 網(wǎng)站,使得并沒有完全開放的 LLaMA 大模型短時間內(nèi)在 AI 社區(qū)大規(guī)模擴散開。

很快,經(jīng)過微調(diào)的 LLaMA 的諸多模型如雨后春筍般涌現(xiàn),“羊駝”家族一時太過擁擠,如斯坦福發(fā)布了 Alpaca(羊駝)、UC 伯克利開源了 Vicuna(小羊駝)、華盛頓大學(xué)提出了 QLoRA 還開源了 Guanaco(原駝)...國內(nèi)哈工大還基于中文醫(yī)學(xué)知識的 LLaMA 模型指令微調(diào)出了一個“華駝”。

時下,Llama 2 的發(fā)布將這款開源大模型推向一個新的高度。相比上一代 Llama 模型,經(jīng)過混合公開數(shù)據(jù)的訓(xùn)練,Llama 2 的性能有了顯著提高。

Llama 2:從 7B 到 70B 參數(shù)不等

為此,Meta 發(fā)布了一篇長達(dá) 76 頁的論文《Llama 2: Open Foundation and Fine-Tuned Chat Models》詳述Llama 2大模型的預(yù)訓(xùn)練、微調(diào)、安全性等相關(guān)的工作。

be7fd2de-2609-11ee-962d-dac502259ad0.png

論文地址:https://scontent-lax3-2.xx.fbcdn.net/v/t39.2365-6/10000000_663429262362723_1696968207443577320_n.pdf?_nc_cat=101&ccb=1-7&_nc_sid=3c67a6&_nc_ohc=5ol-jUSglG4AX_EKgWk&_nc_ht=scontent-lax3-2.xx&oh=00_AfC4pQWErthyr1jwgSScKeyjXW3wwEUnqvIh7MNeb-Et3g&oe=64BBB691

據(jù)論文顯示,Llama 2 有兩種版本:Llama 2和Llama 2-Chat,后者針對雙向?qū)υ掃M行了微調(diào)。Llama 2 和 Llama 2-Chat 進一步細(xì)分為不同復(fù)雜程度的版本:70 億個參數(shù)、130 億個參數(shù)和 700 億個參數(shù)。

bea5d60a-2609-11ee-962d-dac502259ad0.png

Meta 將 Llama 2 預(yù)訓(xùn)練語料庫的規(guī)模增加了 40%,這一款模型(基本模型)接受了 2 萬億個 token 的訓(xùn)練,上下文窗口包含了 4096 個 token,相比上一代,提升了一倍。上下文窗口決定了模型一次可以處理的內(nèi)容的長度。在硬件方面,Meta 都使用了 NVIDIA A100。

Meta 還表示,Llama 2 微調(diào)模型是為類似于 ChatGPT 的聊天應(yīng)用程序開發(fā)的,已經(jīng)接受了“超過 100 萬條人工注釋”的訓(xùn)練。

bece5bca-2609-11ee-962d-dac502259ad0.png

不過,Meta 在論文中并沒有透露訓(xùn)練數(shù)據(jù)的具體來源,只是說它來自網(wǎng)絡(luò),其中不包括來自 Meta 的產(chǎn)品或服務(wù)的數(shù)據(jù)。

根據(jù)官方基準(zhǔn)測試,Llama 2 在開源模型領(lǐng)域,一馬當(dāng)先。其中,Llama 2 70B 模型的性能優(yōu)于所有開放源碼模型。

bf1ff6ce-2609-11ee-962d-dac502259ad0.png

和閉源的大模型相比,Llama270B 在推理任務(wù)上接近 GPT-3.5,但在編碼基準(zhǔn)上存在顯著差距。同時,其在性能上還無法與 OpenAI 的 GPT-4、PaLM-2-L 相媲美,在計算機編程方面 Llama 2 明顯落后于 GPT-4。

bf3e2130-2609-11ee-962d-dac502259ad0.png

論及 Llama 2 此次真正的優(yōu)勢,Nvidia 高級 AI 科學(xué)家 Jim Fan 高度評價道:

Llama-2 的訓(xùn)練費用可能超過 2000 萬美元。Meta 通過發(fā)布具有商業(yè)友好許可的模型,為社區(qū)提供了令人難以置信的服務(wù)。由于許可證問題,大公司的人工智能研究人員對 Llama-1 持謹(jǐn)慎態(tài)度,但現(xiàn)在我認(rèn)為他們中的很多人都會加入進來,貢獻(xiàn)自己的力量。

Meta 的團隊對 4K 提示進行了人類研究,以評估 Llama-2 是否有用。他們使用 "勝率 "作為比較模型的指標(biāo),其精神與 Vicuna 基準(zhǔn)類似。70B 模型與 GPT-3.5-0301 大致持平,表現(xiàn)明顯強于 Falcon、MPT 和 Vicuna。

與學(xué)術(shù)基準(zhǔn)相比,我更相信這些真實的人類評級。

Llama-2 還沒有達(dá)到 GPT-3.5 的水平,主要是因為它的編碼能力較弱。在 "HumanEval"(標(biāo)準(zhǔn)編碼基準(zhǔn))上,它還不如 StarCoder 或其他許多專門為編碼而設(shè)計的模型。盡管如此,我毫不懷疑 Llama-2 將因其開放的權(quán)重而得到顯著改善。

Meta 團隊在人工智能安全問題上不遺余力。事實上,這篇論文幾乎有一半的篇幅都在談?wù)摪踩⒓t線和評估。我們要為這種負(fù)責(zé)任的努力鼓掌!

在之前的研究中,幫助性和安全性之間存在著棘手的權(quán)衡問題。Meta 通過訓(xùn)練兩個獨立的 reward 模型來緩解這一問題。這些模型還沒有開源,但對社區(qū)來說非常有價值。

我認(rèn)為 Llama-2 將極大地推動多模態(tài)人工智能和機器人研究。這些領(lǐng)域需要的不僅僅是黑盒子訪問 API。

到目前為止,我們必須將復(fù)雜的感官信息(視頻、音頻、三維感知)轉(zhuǎn)換為文本描述,然后再輸入到 LLM,這樣做既笨拙又會導(dǎo)致大量信息丟失。將感官模塊直接嫁接到強大的 LLM 上會更有效。

Llama 2 的論文本身就是一部杰作。GPT-4 的技術(shù)詳解論文只分享了很少的信息,而 Llama-2 則不同,它詳細(xì)介紹了整個細(xì)節(jié),包括模型細(xì)節(jié)、訓(xùn)練階段、硬件、數(shù)據(jù)管道和注釋過程。例如,論文對 RLHF 的影響進行了系統(tǒng)分析,并提供了漂亮的可視化效果。

引用第 5.1 節(jié):"我們認(rèn)為,LLMs 在某些任務(wù)中超越人類注釋者的超強寫作能力,從根本上說是由 RLHF 驅(qū)動的"。

bf5515a2-2609-11ee-962d-dac502259ad0.png

來源:https://twitter.com/DrJimFan/status/1681372700881854465

不過,值得注意的是,Llama 2 雖然允許了商業(yè)使用,但是它在社區(qū)許可協(xié)議中還添加了一條附加商業(yè)條款:

如果在 Llama 2 版本發(fā)布之日,被許可方或被許可方的關(guān)聯(lián)公司提供的產(chǎn)品或服務(wù)的每月活躍用戶數(shù)在上一個日歷月中超過 7 億,則您必須向Meta申請許可,Meta 可以自行決定向您授予該權(quán)利,并且您無權(quán)行使本協(xié)議項下的任何權(quán)利,除非或直到 Meta 明確授予您此類權(quán)利。

bf901008-2609-11ee-962d-dac502259ad0.png

這意味著一些大廠,譬如亞馬遜、Google 這樣的巨頭想要使用 Llama 2,還存在一定限制。

bfa860fe-2609-11ee-962d-dac502259ad0.png

Meta 與微軟強強聯(lián)手

當(dāng)然,Meta 也并沒有將所有大廠拒絕門外。在此次官方公告中,Meta 宣布了和微軟的深度合作。

其中,作為 Llama 2 的首選合作伙伴微軟,Meta 表示,從今天開始,Llama 2 可在 Azure AI 模型目錄中使用,基于此,使用 Microsoft Azure 的開發(fā)人員能夠使用 Llama 2 進行構(gòu)建,并利用其云原生工具進行內(nèi)容過濾和安全功能。

與此同時,Llama 2 還經(jīng)過優(yōu)化,可以在 Windows 上本地運行,為開發(fā)人員提供無縫的工作流程,為跨不同平臺的客戶帶來生成式 AI 體驗。Llama 2 也可通過 Amazon Web Services (AWS)、Hugging Face 和其他提供商獲取。

有網(wǎng)友評論,微軟這一波又贏了!


除了與微軟合作之外,Meta 也與高通進行了合作。高通宣布,“計劃從 2024 年起,在旗艦智能手機和 PC 上支持基于 Llama 2 的 AI 部署,賦能開發(fā)者使用驍龍平臺的 AI 能力,推出激動人心的全新生成式 AI 應(yīng)用。”

沒有 100% 完美的大模型

不過,對于 Llama 2,Meta 公司也承認(rèn)它并非絕對的完美,因為其測試不可能捕獲所有現(xiàn)實世界場景,并且其基準(zhǔn)測試可能缺乏多樣性,換句話說,沒有充分涵蓋編碼和人類推理等領(lǐng)域。

Meta 還承認(rèn),Llama 2 與所有生成式 AI 模型一樣,在某些層面存在偏差。例如,由于訓(xùn)練數(shù)據(jù)的不平衡以及訓(xùn)練數(shù)據(jù)中存在“有毒”文本,它可能會制造“幻覺”、生成“有毒性”的內(nèi)容。

針對這一點,Meta 選擇和微軟合作的一部分,也包括使用 Azure AI Content Safety,該服務(wù)旨在檢測 AI 生成的圖像和文本中的“不當(dāng)”內(nèi)容,以減少 Azure 上有毒的 Llama 2 輸出。

同時,Meta 在論文中強調(diào) Llama 2 用戶除了遵守有關(guān)“安全開發(fā)和使用”的準(zhǔn)則外,還必須遵守 Meta 的許可條款和可接受的使用政策,在一定程度上減少有偏差性的內(nèi)容。

開源大模型的未來

最后,如果說 OpenAI 引領(lǐng)大模型賽道,那么 Meta 則開辟了開源大模型的新大門。

以開源的方式,匯聚更多的創(chuàng)新,Llama 2 的開源也為眾人預(yù)測中的“未來,開源大模型會主導(dǎo)整個大模型的發(fā)展方向”帶來更多可能性。

這也正如 Ars Technica 總結(jié)的:開源人工智能模型的到來,不僅鼓勵透明度(用于制作模型的訓(xùn)練數(shù)據(jù)而言),而且促進經(jīng)濟競爭(不將技術(shù)限制于大公司)、鼓勵言論自由(沒有審查制度),并使人工智能的訪問民主化(沒有付費專區(qū)限制)。

同時,為了避免 Llama 2 開源存在的潛在爭議,Meta 還同時發(fā)布了一封主題為《支持 Meta 對當(dāng)今人工智能的開放方法的聲明》的聲明,其寫道:

“我們支持對人工智能采取開放式創(chuàng)新方法。負(fù)責(zé)任和開放式創(chuàng)新為我們所有人提供了參與人工智能開發(fā)過程,為這些技術(shù)帶來可見性、審查和信任。今天開放的 Llama 模型將使每個人都從這項技術(shù)中受益?!?/p>

截至目前,已有近百位 AI 專家參與簽名,其中包括 Drew Houston(Dropbox 首席執(zhí)行官)、Matt Bornstein(Andreessen Horowitz 合伙人)、Julien Chaumond(Hugging Face 首席技術(shù)官)、Lex Fridman(麻省理工學(xué)院研究科學(xué)家)和 Paul Graham(Y Combinator 的創(chuàng)始合伙人)等。

當(dāng)然,也不容忽視的是,無論是開源還是閉源大模型,其都面臨著復(fù)雜的法律問題,因為他們需要判別用于訓(xùn)練的數(shù)據(jù)池中是否存在受版權(quán)保護的資源。如何有效避免這些問題,也成為這些大模型開發(fā)公司下一階段需要解決的事情。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 微軟
    +關(guān)注

    關(guān)注

    4

    文章

    6719

    瀏覽量

    107300
  • AI
    AI
    +關(guān)注

    關(guān)注

    89

    文章

    38010

    瀏覽量

    295995
  • 大模型
    +關(guān)注

    關(guān)注

    2

    文章

    3435

    瀏覽量

    4958

原文標(biāo)題:微軟又贏麻了!聯(lián)合 Meta 發(fā)布免費商業(yè)應(yīng)用的開源 AI 模型 Llama 2

文章出處:【微信號:AI科技大本營,微信公眾號:AI科技大本營】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    IBM聯(lián)合NASA發(fā)布開源AI模型重要突破

    近日,IBM(紐交所代碼:IBM)與美國國家航空航天局 (NASA) 聯(lián)合發(fā)布了一款開創(chuàng)性的開源基礎(chǔ)模型,可理解高分辨率的太陽觀測數(shù)據(jù),從而預(yù)測太陽活動對地球和太空技術(shù)的影響。該模型
    的頭像 發(fā)表于 09-02 09:16 ?628次閱讀

    使用 NPU 插件對量化的 Llama 3.1 8b 模型進行推理時出現(xiàn)“從 __Int64 轉(zhuǎn)換為無符號 int 的錯誤”,怎么解決?

    安裝了 OpenVINO? GenAI 2024.4。 使用以下命令量化 Llama 3.1 8B 模型: optimum-cli export openvino -m meta-llama
    發(fā)表于 06-25 07:20

    首創(chuàng)開源架構(gòu),天璣AI開發(fā)套件讓端側(cè)AI模型接入得心應(yīng)手

    模型庫的限制,聯(lián)發(fā)科還首發(fā)了開源彈性架構(gòu)。區(qū)別于過往的開放接口,只能部署特定架構(gòu)模型,開放彈性架構(gòu)允許開發(fā)者直接調(diào)整平臺源代碼,無需等待芯片廠商的支持,即可完成目標(biāo)或其他自研大模型輕松
    發(fā)表于 04-13 19:52

    今日看點丨臺積電、Intel合資運營代工業(yè)務(wù);韓國計劃向當(dāng)?shù)仄囆袠I(yè)注入3萬億韓元援助

    1. Meta 發(fā)布人工智能新模型系列 Llama 4 ,首次采用“混合專家”架構(gòu) ? 當(dāng)?shù)貢r間周六(4月5日),美國科技巨頭Meta推出了
    發(fā)表于 04-07 11:26 ?587次閱讀

    Banana Pi 發(fā)布 BPI-AI2N & BPI-AI2N Carrier,助力 AI 計算與嵌入式開發(fā)

    和 Renesas一直致力于推動開源生態(tài)的發(fā)展,并積極合作打造高效、開放的計算平臺。BPI-AI2N & BPI-AI2N Carrier 的發(fā)布,不僅為開發(fā)者提供了強大的硬
    發(fā)表于 03-19 17:54

    NVIDIA 推出開放推理 AI 模型系列,助力開發(fā)者和企業(yè)構(gòu)建代理式 AI 平臺

    月 18 日 —— ?NVIDIA 今日發(fā)布具有推理功能的開源 Llama Nemotron 模型系列,旨在為開發(fā)者和企業(yè)提供業(yè)務(wù)就緒型基礎(chǔ),助力構(gòu)建能夠獨立工作或以團隊形式完成復(fù)雜
    發(fā)表于 03-19 09:31 ?334次閱讀
    NVIDIA 推出開放推理 <b class='flag-5'>AI</b> <b class='flag-5'>模型</b>系列,助力開發(fā)者和企業(yè)構(gòu)建代理式 <b class='flag-5'>AI</b> 平臺

    無法在OVMS上運行來自Meta的大型語言模型 (LLM),為什么?

    無法在 OVMS 上運行來自 Meta 的大型語言模型 (LLM),例如 LLaMa2。 從 OVMS GitHub* 存儲庫運行 llama_chat Python* Demo 時
    發(fā)表于 03-05 08:07

    K1 AI CPU基于llama.cpp與Ollama的大模型部署實踐

    AICPU芯片,已于今年4月份發(fā)布。下面我們以K1為例,結(jié)合llama.cpp來展示AICPU在大模型領(lǐng)域的優(yōu)勢。
    的頭像 發(fā)表于 02-18 14:23 ?1525次閱讀
    K1 <b class='flag-5'>AI</b> CPU基于<b class='flag-5'>llama</b>.cpp與Ollama的大<b class='flag-5'>模型</b>部署實踐

    Meta組建四大專研小組,深入探索DeepSeek模型

    近日,據(jù)報道,臉書母公司Meta為了提升其大模型Llama的性能,專門成立了四個研究小組,深入探索量化巨頭幻方量化旗下的國產(chǎn)大模型DeepSeek的工作原理。 據(jù)悉,
    的頭像 發(fā)表于 02-05 14:02 ?700次閱讀

    在算力魔方上本地部署Phi-4模型

    ?作者:算力魔方創(chuàng)始人/英特爾邊緣計算創(chuàng)新大使 劉力 前面我們分享了《Meta重磅發(fā)布Llama 3.3 70B:開源AI
    的頭像 發(fā)表于 01-15 11:05 ?775次閱讀
    在算力魔方上本地部署Phi-4<b class='flag-5'>模型</b>

    Meta重磅發(fā)布Llama 3.3 70B:開源AI模型的新里程碑

    ?在人工智能領(lǐng)域,Meta的最新動作再次引起了全球的關(guān)注。今天,我們見證了Meta發(fā)布Llama 3.3 70B 模型,這是一個
    的頭像 發(fā)表于 12-18 16:46 ?873次閱讀
    <b class='flag-5'>Meta</b>重磅<b class='flag-5'>發(fā)布</b><b class='flag-5'>Llama</b> 3.3 70B:<b class='flag-5'>開源</b><b class='flag-5'>AI</b><b class='flag-5'>模型</b>的新里程碑

    Meta發(fā)布AI模型Meta Motivo,旨在提升元宇宙體驗

    Meta在人工智能領(lǐng)域邁出了重要一步。通過這款模型,Meta希望能夠為用戶提供更加自然、流暢的元宇宙交互體驗。數(shù)字代理在元宇宙中的動作將更加逼真,從而增強用戶的沉浸感和參與度。 除了Meta
    的頭像 發(fā)表于 12-16 10:34 ?1337次閱讀

    開源AI模型庫是干嘛的

    開源AI模型庫是指那些公開源代碼、允許自由訪問和使用的AI模型集合。這些
    的頭像 發(fā)表于 12-14 10:33 ?1271次閱讀

    Meta推出Metamate AI工具,進軍企業(yè)市場

    基于Meta的大型語言模型Llama構(gòu)建,集成了先進的自然語言處理技術(shù)和深度學(xué)習(xí)算法。它能夠幫助員工進行編程、開展研究,以及起草內(nèi)部和外部的溝通文稿,極大地提高了工作效率和質(zhì)量。 據(jù)了解,Metamate以
    的頭像 發(fā)表于 12-09 14:57 ?1329次閱讀

    Meta推出Llama 3.3 70B,AI模型競爭白熱化

    在今年的AI領(lǐng)域,Meta也不甘落后,推出了其壓軸之作——Llama 3.3 70B大模型。與此同時,馬斯克的xAI也宣布其Grok模型從今
    的頭像 發(fā)表于 12-09 14:50 ?1006次閱讀