chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

谷歌推出AI模型Gemma 3 270M

谷歌開(kāi)發(fā)者 ? 來(lái)源:谷歌開(kāi)發(fā)者 ? 2025-09-11 15:09 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

作者 / 小組產(chǎn)品經(jīng)理 Olivier Lacombe、研究工程師 Kathleen Kenealy、Kat Black、Ravin Kumar、Francesco Visin、Jiageng Zhang

過(guò)去幾個(gè)月,Gemma 開(kāi)放模型系列的發(fā)展是激動(dòng)人心的。我們推出了 Gemma 3 和 Gemma 3 QAT,為單一云端和桌面加速器帶來(lái)了最先進(jìn)的性能。以移動(dòng)設(shè)備優(yōu)先的架構(gòu) Gemma 3n 的推出,能夠?qū)?qiáng)大的實(shí)時(shí)多模態(tài) AI 直接應(yīng)用于邊緣設(shè)備。我們的目標(biāo)是為開(kāi)發(fā)者提供使用 AI 進(jìn)行構(gòu)建的實(shí)用工具,也一直對(duì)大家共同創(chuàng)造的 Gemmaverse 生態(tài)系統(tǒng)蓬勃發(fā)展而倍感欣喜,目前下載量已經(jīng)突破 2 億次,讓我們共同慶祝這一時(shí)刻。

現(xiàn)在,我們?cè)?Gemma 3 工具包中新增了一款高度專(zhuān)業(yè)化的工具: Gemma 3 270M。此模型是擁有 2.7 億參數(shù)的緊湊型模型,專(zhuān)為針對(duì)特定任務(wù)進(jìn)行微調(diào)而設(shè)計(jì),并且已內(nèi)置強(qiáng)大的指令遵循和文本結(jié)構(gòu)化能力。

Gemma 3 270M 為小尺寸模型帶來(lái)強(qiáng)大的指令遵循能力。正如 IFEval 基準(zhǔn)測(cè)試 (該測(cè)試用于檢驗(yàn)?zāi)P妥裱沈?yàn)證指令的能力) 所示,它為同尺寸模型確立了新的性能水平,使復(fù)雜的 AI 功能更容易用于設(shè)備端和研究應(yīng)用。

Gemma 3 270M 的核心能力

緊湊但功能強(qiáng)大的架構(gòu): 我們的新模型總共有 2.7 億參數(shù): 其中的 1.7 億是嵌入?yún)?shù) (因詞匯量較大),另外的 1 億參數(shù)用于我們的 Transformer 模塊。得益于 256k token 的大詞匯量,該模型可以處理特定和罕見(jiàn)的 token,使其成為可在特定領(lǐng)域和語(yǔ)言中進(jìn)一步微調(diào)的強(qiáng)大基礎(chǔ)模型。

極致的能效表現(xiàn): Gemma 3 270M 的一個(gè)關(guān)鍵優(yōu)勢(shì)是其低功耗。在 Pixel 9 Pro SoC 上進(jìn)行的內(nèi)部測(cè)試顯示,由于采用了 INT4 量化技術(shù),該模型在 25 次對(duì)話(huà)中僅消耗了 0.75% 的電量,成為我們最節(jié)能的 Gemma 模型。

指令遵循: 我們同步發(fā)布了指令微調(diào)版模型和預(yù)訓(xùn)練檢查點(diǎn)。雖然此模型并非專(zhuān)為復(fù)雜的對(duì)話(huà)用例而設(shè)計(jì),但它是一個(gè)強(qiáng)大的模型,能夠開(kāi)箱即用直接遵循一般指令。

可用于生產(chǎn)環(huán)境的量化: 量化感知訓(xùn)練 (QAT) 檢查點(diǎn)已正式推出,使您能夠在 INT4 精度下運(yùn)行模型,同時(shí)將性能損失降至最低,這對(duì)于在資源受限的設(shè)備上部署模型至關(guān)重要。

選擇合適的工具

在工程領(lǐng)域,衡量成功的標(biāo)準(zhǔn)在于效率,而不僅僅是原始算力。避免 "大材小用",同樣的道理也適用于使用 AI 進(jìn)行構(gòu)建。

Gemma 3 270M 體現(xiàn)了 "選擇合適的工具" 這一理念。這是一款性能卓越的基礎(chǔ)模型,開(kāi)箱即用即可遵循指令,而通過(guò)微調(diào)更能釋放其全部潛能。經(jīng)過(guò)專(zhuān)業(yè)化設(shè)置后,模型能以驚人的準(zhǔn)確率、速度和成本效益執(zhí)行文本分類(lèi)和數(shù)據(jù)提取等任務(wù)。從一款功能強(qiáng)大的緊湊型模型著手,您可以構(gòu)建出精簡(jiǎn)、快速且顯著降低運(yùn)營(yíng)成本的生產(chǎn)系統(tǒng)。

現(xiàn)實(shí)世界的成功藍(lán)圖

這種方法已經(jīng)在現(xiàn)實(shí)世界中取得了令人驚嘆的成果。Adaptive ML 與 SK Telecom 合作完成的項(xiàng)目便是一個(gè)絕佳的例證。面對(duì)復(fù)雜、多語(yǔ)言的內(nèi)容審核這一挑戰(zhàn),他們選擇了走專(zhuān)業(yè)化路線。Adaptive ML 沒(méi)有使用大型通用模型,而是對(duì) Gemma 3 4B 模型進(jìn)行了微調(diào)。結(jié)果令人驚嘆: 專(zhuān)業(yè)的 Gemma 模型在特定任務(wù)上的性能不僅比肩、甚至超越了更大規(guī)模的專(zhuān)有模型。

Gemma 3 270M 旨在讓開(kāi)發(fā)者更進(jìn)一步地采用這種方法,從而更高效地處理明確的任務(wù)。該模型是打造小型專(zhuān)業(yè)模型的完美起點(diǎn),因?yàn)槊總€(gè)模型都有各自擅長(zhǎng)處理的任務(wù)類(lèi)型。

而且,這種專(zhuān)業(yè)化的能力不僅適用于企業(yè)任務(wù),還能賦能強(qiáng)大的創(chuàng)意應(yīng)用。例如下面這款 "睡前故事生成器" Web 應(yīng)用:

何時(shí)選擇使用 Gemma 3 270M

Gemma 3 270M 沿襲了 Gemma 3 系列的先進(jìn)架構(gòu)和強(qiáng)大的預(yù)訓(xùn)練能力,為您的自定義應(yīng)用奠定了堅(jiān)實(shí)的基礎(chǔ)。

理想應(yīng)用場(chǎng)景如下:

您有大量明確的任務(wù)。非常適合情感分析、實(shí)體提取、查詢(xún)路由、非結(jié)構(gòu)化文本到結(jié)構(gòu)化文本的轉(zhuǎn)換、創(chuàng)意寫(xiě)作以及合規(guī)性檢查等功能。

您需要充分利用每分每秒的時(shí)間。大幅降低或消除生產(chǎn)環(huán)境中的推理成本,并為用戶(hù)提供更快的響應(yīng)速度。經(jīng)過(guò)微調(diào)的 270M 模型可以在輕量級(jí)、低成本的基礎(chǔ)設(shè)施上運(yùn)行,也可以直接在設(shè)備上運(yùn)行。

您需要快速迭代和部署。Gemma 3 270M 體積小巧,可進(jìn)行快速微調(diào)實(shí)驗(yàn),幫助您在數(shù)小時(shí)而非幾天內(nèi)找到適合用例的理想配置。

您需要確保用戶(hù)隱私。由于該模型可以完全在設(shè)備上運(yùn)行,因此您可以構(gòu)建處理敏感信息的應(yīng)用,而無(wú)需將數(shù)據(jù)發(fā)送到云端。

您想擁有一系列能夠處理各種任務(wù)的專(zhuān)業(yè)模型。構(gòu)建并部署多個(gè)自定義模型,每個(gè)模型都針對(duì)不同的任務(wù)經(jīng)過(guò)專(zhuān)業(yè)訓(xùn)練,并且不會(huì)超出您的預(yù)算。

微調(diào)入門(mén)

我們致力于讓每一位開(kāi)發(fā)者都能輕松地將 Gemma 3 270M 打造為專(zhuān)屬的定制化解決方案。該模型采用與其他 Gemma 3 模型相同的架構(gòu),并配備了相關(guān)教程和工具,助您快速入門(mén)。您可以

在 Gemma 文檔中查閱關(guān)于使用 Gemma 3 270M 進(jìn)行全面微調(diào)的指南。

下載模型: 從 Hugging Face、Ollama、Kaggle、LM Studio 或 Docker 獲取 Gemma 3 270M 模型。我們將發(fā)布經(jīng)過(guò)預(yù)訓(xùn)練和指令微調(diào)的模型。

試用模型: 在 Vertex AI 或熱門(mén)推理工具 (如 llama.cpp、Gemma.cpp、LiteRT、Keras 和 MLX) 上試用模型。

開(kāi)始微調(diào): 使用您最喜歡的工具,包括 Hugging Face、UnSloth 和 JAX。

部署解決方案: 微調(diào)完成后,您可以在任何地方部署您的專(zhuān)業(yè)模型,從您自己的本地環(huán)境到 Google Cloud Run。

Gemmaverse 建立在 "創(chuàng)新無(wú)關(guān)大小" 這一理念之上。借助 Gemma 3 270M,我們讓開(kāi)發(fā)者能夠構(gòu)建更智能、更迅捷、更高效的 AI 解決方案。我們熱切期待您創(chuàng)建的專(zhuān)業(yè)模型。

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • AI
    AI
    +關(guān)注

    關(guān)注

    89

    文章

    38004

    瀏覽量

    295973
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3644

    瀏覽量

    51685

原文標(biāo)題:Gemma 3 270M 發(fā)布 | 兼具輕量化與卓越性能的 AI 模型

文章出處:【微信號(hào):Google_Developers,微信公眾號(hào):谷歌開(kāi)發(fā)者】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    谷歌正式推出最新Gemini 3 AI模型

    今天我們正式推出 Gemini 3,這是我們迄今為止最智能的模型,能夠幫助用戶(hù)實(shí)現(xiàn)任何創(chuàng)意。Gemini 3 Pro 基于最先進(jìn)的推理技術(shù),與之前的版本相比,它在所有主要的
    的頭像 發(fā)表于 11-24 11:10 ?701次閱讀
    <b class='flag-5'>谷歌</b>正式<b class='flag-5'>推出</b>最新Gemini <b class='flag-5'>3</b> <b class='flag-5'>AI</b><b class='flag-5'>模型</b>

    谷歌與耶魯大學(xué)合作發(fā)布最新C2S-Scale 27B模型

    我們很榮幸發(fā)布與耶魯大學(xué)合作研究的 Cell2Sentence-Scale 27B (C2S-Scale),這是一個(gè)新的 270 億參數(shù)基礎(chǔ)模型,旨在理解單個(gè)細(xì)胞的 "語(yǔ)言"。C2S-Scale 建立在 Gemma 開(kāi)放
    的頭像 發(fā)表于 11-06 10:35 ?474次閱讀

    谷歌AlphaEarth和維智時(shí)空AI模型的技術(shù)路徑

    谷歌AlphaEarth和維智時(shí)空AI模型在應(yīng)用場(chǎng)景和技術(shù)實(shí)現(xiàn)上各有側(cè)重,但兩者在底層技術(shù)理念上存在顯著共性。
    的頭像 發(fā)表于 10-22 14:48 ?563次閱讀

    谷歌Gemma 3n模型的新功能

    從第一個(gè) Gemma 模型于去年年初推出以來(lái),已逐漸發(fā)展為生機(jī)勃勃的 Gemmaverse 生態(tài)系統(tǒng),累計(jì)下載量突破 1.6 億。這個(gè)生態(tài)系統(tǒng)包括十余款專(zhuān)業(yè)模型系列,涵蓋從安全防護(hù)到醫(yī)
    的頭像 發(fā)表于 07-25 10:16 ?985次閱讀
    <b class='flag-5'>谷歌</b><b class='flag-5'>Gemma</b> <b class='flag-5'>3</b>n<b class='flag-5'>模型</b>的新功能

    谷歌Gemma 3n預(yù)覽版全新發(fā)布

    Gemma 3Gemma 3 QAT 的成功發(fā)布之后,我們的先進(jìn)開(kāi)放模型系列具備了在單一云端或桌面加速器上運(yùn)行的能力,我們正在進(jìn)一
    的頭像 發(fā)表于 06-26 17:18 ?715次閱讀

    樹(shù)莓派5上的Gemma 2:如何打造高效的邊緣AI解決方案?

    從數(shù)學(xué)基礎(chǔ)到邊緣實(shí)現(xiàn),研究團(tuán)隊(duì):Conecta.ai(ufrn.br)摘要1.引言2.GEMMA2:通用集成機(jī)器模型算法2.1模型架構(gòu)2.2預(yù)訓(xùn)練2.3后訓(xùn)練
    的頭像 發(fā)表于 06-20 16:57 ?1337次閱讀
    樹(shù)莓派5上的<b class='flag-5'>Gemma</b> 2:如何打造高效的邊緣<b class='flag-5'>AI</b>解決方案?

    谷歌新一代生成式AI媒體模型登陸Vertex AI平臺(tái)

    我們?cè)?Vertex AI推出新一代生成式 AI 媒體模型: Imagen 4、Veo 3 和 Lyria 2。
    的頭像 發(fā)表于 06-18 09:56 ?873次閱讀

    谷歌新一代 TPU 芯片 Ironwood:助力大規(guī)模思考與推理的 AI 模型新引擎?

    電子發(fā)燒友網(wǎng)報(bào)道(文 / 李彎彎)日前,谷歌在 Cloud Next 大會(huì)上,隆重推出了最新一代 TPU AI 加速芯片 ——Ironwood。據(jù)悉,該芯片預(yù)計(jì)于今年晚些時(shí)候面向 Google
    的頭像 發(fā)表于 04-12 00:57 ?3154次閱讀

    Google Gemma 3開(kāi)發(fā)者指南

    自首次推出以來(lái),Gemma 模型的下載量已超過(guò) 1 億次,社區(qū)為各種用例創(chuàng)建了超過(guò) 60,000 個(gè)變體1。我們很高興推出 Gemma
    的頭像 發(fā)表于 04-08 10:50 ?840次閱讀
    Google <b class='flag-5'>Gemma</b> <b class='flag-5'>3</b>開(kāi)發(fā)者指南

    Google發(fā)布最新AI模型Gemma 3

    Gemma 開(kāi)放模型系列是 Google 推動(dòng)實(shí)用 AI 技術(shù)普惠大眾的重要基石。上個(gè)月,Gemma 迎來(lái)了首個(gè)生日。回望過(guò)去一年,其成果斐然:全球下載量突破 1 億,社區(qū)欣欣向榮,衍
    的頭像 發(fā)表于 03-18 09:51 ?1446次閱讀

    技術(shù)文檔:LMG3626 650V 270mΩ GaN FET,集成驅(qū)動(dòng)器、保護(hù)和電流感應(yīng)

    LMG3626 是一款 650V 270mΩ GaN 功率 FET,適用于開(kāi)關(guān)模式電源應(yīng)用。該 LMG3626 通過(guò)將 GaN FET 和柵極驅(qū)動(dòng)器集成到 8mm x 5.3mm QFN 封裝中
    的頭像 發(fā)表于 02-24 11:13 ?1103次閱讀
    技術(shù)文檔:LMG3626 650V <b class='flag-5'>270m</b>Ω GaN FET,集成驅(qū)動(dòng)器、保護(hù)和電流感應(yīng)

    技術(shù)文檔:LMG3616 具有集成驅(qū)動(dòng)器和保護(hù)功能的 650V 270mΩ GaN FET

    LMG3616 是一款 650V 270mΩ GaN 功率 FET,適用于開(kāi)關(guān)模式電源應(yīng)用。該 LMG3616 通過(guò)將 GaN FET 和柵極驅(qū)動(dòng)器集成到 8mm x 5.3mm QFN 封裝中,簡(jiǎn)化了設(shè)計(jì)并減少了元件數(shù)量。
    的頭像 發(fā)表于 02-24 10:43 ?935次閱讀
    技術(shù)文檔:LMG3616 具有集成驅(qū)動(dòng)器和保護(hù)功能的 650V <b class='flag-5'>270m</b>Ω GaN FET

    在龍芯3a6000上部署DeepSeek 和 Gemma2大模型

    run deepseek-r1:1.5b 3.運(yùn)行Gemma 2大模型 如果想體驗(yàn) Google Gemma 2 可以到下面的網(wǎng)站選擇不同參數(shù)的大
    發(fā)表于 02-07 19:35

    谷歌 Gemini 2.0 Flash 系列 AI 模型上新

    谷歌旗下 AI模型 Gemini 系列全面上新,正式版 Gemini 2.0 Flash、Gemini 2.0 Flash-Lite 以及新一代旗艦大模型 Gemini 2.0 P
    的頭像 發(fā)表于 02-07 15:07 ?1075次閱讀

    谷歌發(fā)布Gemini 2.0 AI模型

    谷歌近日正式推出了新一代AI模型——Gemini 2.0。此次更新引入了名為“深度研究”的新特性,旨在為用戶(hù)提供更加全面和深入的復(fù)雜主題探索與報(bào)告撰寫(xiě)輔助。 Gemini 2.0通過(guò)高
    的頭像 發(fā)表于 12-12 10:13 ?955次閱讀