chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

借助谷歌LiteRT構(gòu)建下一代高性能端側(cè)AI

谷歌開發(fā)者 ? 來源:谷歌開發(fā)者 ? 2026-01-30 11:23 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

作者 /Lu Wang (Senior Staff Software Engineer)、Chintan Parikh (Senior Product Manager)、Jingjiang Li (Staff Software Engineer)、Terry Heo (Senior Software Engineer)

自 2024 年LiteRT問世以來,我們一直致力于將機器學(xué)習(xí)技術(shù)棧從其 TensorFlow Lite (TFLite) 基礎(chǔ)之上演進為一個現(xiàn)代化的端側(cè) AI (On-Device AI) 框架。雖然 TFLite 為傳統(tǒng)端側(cè)機器學(xué)習(xí)設(shè)定了標(biāo)準(zhǔn),但我們的使命是讓開發(fā)者能夠像過去集成傳統(tǒng)端側(cè)機器學(xué)習(xí)一樣,無縫地在設(shè)備端部署當(dāng)今最前沿的 AI (如大語言模型)。

LiteRT https://developers.googleblog.com/en/tensorflow-lite-is-now-litert/

在 2025 Google I/O 大會上,我們曾初步展示了這一演進成果: 一個專為先進硬件加速設(shè)計的高性能運行時 (Runtime)?,F(xiàn)在,我們很高興地宣布,這些先進的加速能力已正式并入 LiteRT 生產(chǎn)級技術(shù)棧,供所有開發(fā)者使用。

這一演進成果 https://developers.googleblog.com/en/litert-maximum-performance-simplified/

這一里程碑鞏固了 LiteRT 在 AI 時代作為端側(cè)通用推理框架的地位,相比 TFLite 實現(xiàn)了重大飛躍,其優(yōu)勢體現(xiàn)在:

更快:提供比 TFLite 快 1.4 倍的 GPU 性能,并引入了全新的、最先進的 NPU 加速支持。

更簡單:為跨邊緣平臺的 GPU 和 NPU 加速提供統(tǒng)一、簡化的工作流程。

更強大:支持熱門的開放模型 (例如 Gemma),以實現(xiàn)卓越的跨平臺生成式 AI (GenAI) 部署能力。

更靈活:通過無縫模型轉(zhuǎn)換提供一流的 PyTorch/JAX 支持。

在交付上述所有創(chuàng)新成果的同時,我們?nèi)匝永m(xù)了自 TFLite 以來您所信賴的可靠與跨平臺部署體驗。

歡迎您繼續(xù)閱讀,了解 LiteRT 如何幫助您構(gòu)建下一代端側(cè) AI。

高性能跨平臺 GPU 加速

除了在 2025 Google I/O 大會上宣布初步支持 Android GPU 加速之外,我們很高興地宣布在Android、iOS、macOS、Windows、Linux和 Web上提供全面、綜合的 GPU 支持。這一擴展為開發(fā)者提供了一個可靠、高性能的加速選項,其擴展能力顯著超越了傳統(tǒng)的 CPU 推理。

* Python 上的 Windows WebGPU 即將推出

LiteRT 通過ML Drift(我們的下一代 GPU 引擎) 引入對OpenCL、OpenGL、Metal和WebGPU的強大支持,最大限度地擴大了覆蓋范圍,使您能夠跨移動、桌面和 Web 高效部署模型。在 Android 上,LiteRT 進一步優(yōu)化了這一點: 在可用時自動優(yōu)先使用 OpenCL 以實現(xiàn)峰值性能,同時保留 OpenGL 支持以實現(xiàn)更廣泛的覆蓋。

在 ML Drift 的支持下,LiteRT GPU 在效率上實現(xiàn)了顯著飛躍,提供了比傳統(tǒng)的 TFLite GPU 代理平均快 1.4 倍的性能提升,顯著減少了各種模型的延遲。更多基準(zhǔn)測試結(jié)果請參閱我們之前的文章。

之前的文章 https://developers.googleblog.com/en/litert-maximum-performance-simplified/#:~:text=MLDrift%3A%20Best%20GPU%20Acceleration%20Yet

為了實現(xiàn)高性能 AI 應(yīng)用,我們還引入了關(guān)鍵的技術(shù)升級來優(yōu)化端到端延遲,特別是異步執(zhí)行和零拷貝 (zero-copy) 緩沖區(qū)互操作性。這些功能顯著減少了不必要的 CPU 開銷并提高了整體性能,滿足了背景分割(Segmentation)和語音識別 (ASR) 等實時用例的嚴(yán)格要求。正如我們的分割示例應(yīng)用所展示的那樣,實際上,這些優(yōu)化可以帶來高達2 倍的性能提升。歡迎參閱我們的技術(shù)深度解析以了解更多詳細內(nèi)容。

分割示例應(yīng)用 https://github.com/google-ai-edge/litert-samples/tree/main/compiled_model_api/image_segmentation/c%2B%2B_segmentation

技術(shù)深度解析 https://developers.googleblog.com/en/litert-maximum-performance-simplified/#:~:text=Advanced%20Inference%20for%20Performance%20Optimization

以下示例演示了如何在 C++ 中使用新的CompiledModelAPI 輕松利用 GPU 加速:

// 1. Create a compiled model targeting GPU in C++.
autocompiled_model = CompiledModel::Create(env,"mymodel.tflite",
kLiteRtHwAcceleratorGpu);


// 2. Create an input TensorBuffer that wraps the OpenGL buffer (i.e. from
image pre-processing) with zero-copy.
autoinput_buffer = TensorBuffer::CreateFromGlBuffer(env, tensor_type,
opengl_buffer);
std::vector input_buffers{input_buffer};
autooutput_buffers = compiled_model.CreateOutputBuffers();


// 3. Execute the model.
compiled_model.Run(inputs, outputs);


// 4. Access model output, i.e. AHardwareBuffer.
autoahwb = output_buffer[0]->GetAhwb();

有關(guān)LiteRT 跨平臺開發(fā)和GPU 加速的更多說明,請訪問 LiteRT 官方網(wǎng)站。

LiteRT 跨平臺開發(fā)

https://ai.google.dev/edge/litert/overview#integrate-model

GPU 加速

https://ai.google.dev/edge/litert/next/gpu

簡化 NPU 集成,釋放峰值性能

雖然 CPU 和 GPU 為 AI 任務(wù)提供了廣泛的通用性,但 NPU 卻是實現(xiàn)現(xiàn)代應(yīng)用所需的流暢、響應(yīng)迅速和高速 AI 體驗的關(guān)鍵。然而,數(shù)百種 NPU SoC 變體之間的碎片化常常迫使開發(fā)者不得不應(yīng)對由不同編譯器和運行時組成的 "迷宮"。此外,由于傳統(tǒng)的機器學(xué)習(xí)基礎(chǔ)設(shè)施歷來缺乏與專用 NPU SDK 的深度集成,導(dǎo)致部署工作流程復(fù)雜多變且難以在生產(chǎn)環(huán)境中有效管理。

LiteRT 通過提供統(tǒng)一、簡化的 NPU 部署工作流程來應(yīng)對這些挑戰(zhàn),該工作流程抽象了底層的、供應(yīng)商專用的 SDK,并處理了眾多 SoC 變體之間的碎片化。我們已將其簡化為一個簡單的三步流程,助您輕松實現(xiàn)模型的 NPU 加速部署:

針對目標(biāo) SoC 進行 AOT 編譯(可選): 使用 LiteRT Python 庫為目標(biāo) SoC 預(yù)編譯您的.tflite模型。

通過 Google Play for On-device AI (PODAI) 部署 (Android 專用): 借助 PODAI 服務(wù),自動將模型文件及運行時環(huán)境分發(fā)至兼容設(shè)備。

使用 LiteRT 運行時進行推理: LiteRT 處理 NPU 委托 (delegation),并在需要時提供對 GPU 或 CPU 的穩(wěn)健回退機制。

有關(guān)完整的詳細指南,包括 Colab 和示例應(yīng)用,請查閱我們的LiteRT NPU 文檔。

LiteRT NPU 文檔

https://ai.google.dev/edge/litert/next/npu

為了提供適合您特定部署需求的靈活集成選項,LiteRT 提供提前編譯 (AOT)和端側(cè)即時編譯 (JIT)。這使您可以根據(jù)應(yīng)用的獨特需求選擇最佳策略:

AOT 編譯: 最適用于已知目標(biāo) SoC 的復(fù)雜模型。它最大限度地降低了啟動時的初始化耗時和內(nèi)存占用,以實現(xiàn) "即時啟動" 的體驗。

JIT 編譯: 最適合在各種平臺上分發(fā)小規(guī)模模型。它不需要準(zhǔn)備,盡管首次運行的初始化成本較高。

我們正在與業(yè)界領(lǐng)先的芯片制造商緊密合作,為開發(fā)者帶來高性能 NPU 加速。我們與聯(lián)發(fā)科 (MediaTek)和高通 (Qualcomm)的首批生產(chǎn)就緒型集成方案現(xiàn)已推出。請閱讀我們的技術(shù)深度解析,了解我們?nèi)绾螌崿F(xiàn)業(yè)界領(lǐng)先的 NPU 性能,其速度比CPU 快 100 倍,比GPU 快 10 倍:

聯(lián)發(fā)科 NPU 和 LiteRT: 賦能下一代端側(cè) AI

https://developers.googleblog.com/mediatek-npu-and-litert-powering-the-next-generation-of-on-device-ai/

通過 LiteRT 釋放高通 NPU 的峰值性能

https://developers.googleblog.com/unlocking-peak-performance-on-qualcomm-npu-with-litert/

△左圖: 一個實時、端側(cè)的中文助手,具有視覺和音頻多模態(tài)功能,由 Gemma 3n 2B 提供支持。運行在搭載聯(lián)發(fā)科天璣 9500 NPU 的 vivo 300 Pro 上。

△右圖: 使用 FastVLM 視覺模態(tài)進行場景理解,運行在搭載小米 17 Pro Max 的 Snapdragon 8 Elite Gen 5 上。

乘勢而上,我們正積極將 LiteRT 的 NPU 支持拓展至更廣泛的硬件生態(tài)。敬請期待后續(xù)公告!

卓越的跨平臺 GenAI 支持

開放模型提供了無與倫比的靈活性和定制化能力,但部署它們?nèi)匀皇且粋€充滿挑戰(zhàn)的過程。處理模型底層轉(zhuǎn)換、推理和基準(zhǔn)測試的復(fù)雜性通常需要大量的工程開銷。為了彌合這一差距并使開發(fā)者能夠高效地構(gòu)建自定義體驗,我們提供了以下集成技術(shù)棧:

b7fd6192-fcfd-11f0-92de-92fbcf53809c.png

LiteRT Torch Generative API: 一個 Python 模塊,旨在實現(xiàn)基于 transformer 的 PyTorch 模型的創(chuàng)作和轉(zhuǎn)換,使其適配 LiteRT/LiteRT-LM 格式。它提供了優(yōu)化的構(gòu)建模塊,可確保在邊緣設(shè)備上實現(xiàn)高性能執(zhí)行。

LiteRT-LM: 一個構(gòu)建在 LiteRT 之上的專用編排層 (orchestration layer),用于管理大語言模型 (LLM) 特有的復(fù)雜性。它是為 Google 產(chǎn)品 (包括 Chrome 和 Pixel Watch) 提供 Gemini Nano 部署支持的經(jīng)過實戰(zhàn)考驗的基礎(chǔ)設(shè)施。

LiteRT 轉(zhuǎn)換器與運行時: 這一基礎(chǔ)引擎提供了高效的模型轉(zhuǎn)換、運行時執(zhí)行和優(yōu)化,為跨 CPU、GPU 和 NPU 的高級硬件加速賦能,在邊緣平臺上提供最先進的性能。

LiteRT Torch Generative API https://github.com/google-ai-edge/litert-torch/tree/main/litert_torch/generative

LiteRT-LM https://github.com/google-ai-edge/LiteRT-LM

為 Google 產(chǎn)品 (包括 Chrome 和 Pixel Watch) 提供 Gemini Nano 部署支持 https://developers.googleblog.com/on-device-genai-in-chrome-chromebook-plus-and-pixel-watch-with-litert-lm/

LiteRT 轉(zhuǎn)換器與運行時 https://github.com/google-ai-edge/LiteRT

上述這些組件共同為運行熱門開放模型提供了具有領(lǐng)先性能的生產(chǎn)級路徑。為了證明這一點,我們在 Samsung Galaxy S25 Ultra 上對Gemma 3 1B進行了基準(zhǔn)測試,并將 LiteRT 與Llama.cpp進行了比較。

b85ee1ce-fcfd-11f0-92de-92fbcf53809c.jpg

Gemma 3 1B https://huggingface.co/litert-community/Gemma3-1B-IT

Llama.cpp https://github.com/ggml-org/llama.cpp

LiteRT 展現(xiàn)出明顯的性能優(yōu)勢,對于解碼階段 (內(nèi)存密集型),它在CPU上比 llama.cpp 快 3 倍,在GPU 上快 7 倍;對于預(yù)填充階段 (計算密集型),它在GPU 上快 19 倍。此外,LiteRT 的 NPU 加速在預(yù)填充階段比 GPU 額外提升了 2 倍性能,從而充分釋放了計算硬件的潛力。要詳細了解這些基準(zhǔn)測試背后的工程技術(shù),請閱讀我們對LiteRT 幕后優(yōu)化的深入探討。

LiteRT 幕后優(yōu)化

https://developers.googleblog.com/gemma-3-on-mobile-and-web-with-google-ai-edge/#:~:text=current%20activity%20level.-,Under%20the%20hood,-The%20performance%20results

LiteRT 支持廣泛且持續(xù)增長的主流開放權(quán)重模型,這些模型經(jīng)過精心優(yōu)化和預(yù)轉(zhuǎn)換,可立即部署,包括:

Gemma 模型系列: Gemma 3 (270M、1B)、Gemma 3n、EmbeddingGemma 和 FunctionGemma。

Qwen、Phi、FastVLM等。

△AI Edge Gallery 應(yīng)用演示,由 LiteRT 提供支持: TinyGarden (左) 和 Mobile Actions (右),使用FunctionGemma構(gòu)建。

這些模型可在LiteRT Hugging Face 社區(qū)獲取,并通過Android和iOS上的Google AI Edge Gallery 應(yīng)用進行交互式探索。

LiteRT Hugging Face 社區(qū) https://huggingface.co/litert-community

Android https://play.google.com/store/apps/details?id=com.google.ai.edge.gallery

iOS https://testflight.apple.com/join/nAtSQKTF

Google AI Edge Gallery 應(yīng)用 https://github.com/google-ai-edge/gallery

更多開發(fā)細節(jié),請參閱我們的LiteRT GenAI 文檔。

LiteRT GenAI 文檔

https://ai.google.dev/edge/litert/genai/overview

廣泛的機器學(xué)習(xí)框架支持

部署不應(yīng)受限于您所選用的訓(xùn)練框架。LiteRT 提供來自業(yè)界最主流機器學(xué)習(xí)框架的無縫模型轉(zhuǎn)換:PyTorch、TensorFlow 和 JAX。

PyTorch 支持: 借助AI Edge Torch 庫,您可以將 PyTorch 模型通過一個簡化的步驟直接轉(zhuǎn)換為.tflite格式。這確保了基于 PyTorch 的架構(gòu)可以立即充分利用 LiteRT 的高級硬件加速,省去了對復(fù)雜中間轉(zhuǎn)換的需求。

TensorFlow 和 JAX: LiteRT 持續(xù)為 TensorFlow 生態(tài)系統(tǒng)提供強大、一流的支持,并通過jax2tf橋接工具為 JAX 模型提供可靠的轉(zhuǎn)換路徑。這確保了來自 Google 任何核心機器學(xué)習(xí)庫的最先進研究都可以高效地部署到數(shù)十億設(shè)備上。

AI Edge Torch 庫

https://github.com/google-ai-edge/ai-edge-torch

通過整合這些路徑,無論您的開發(fā)環(huán)境如何,LiteRT 都能支持從研究到生產(chǎn)的快速實現(xiàn)。您可以在首選框架中構(gòu)建模型,并依賴 LiteRT 在 CPU、GPU 和 NPU 后端上實現(xiàn)卓越的性能交付。

要開始使用,請?zhí)剿鰽I Edge Torch Colab并親自嘗試轉(zhuǎn)換過程,或在此技術(shù)深度解析中深入了解我們 PyTorch 集成的技術(shù)細節(jié)。

AI Edge Torch Colab https://ai.google.dev/edge/litert/conversion/pytorch/overview

技術(shù)深度解析 https://developers.googleblog.com/en/ai-edge-torch-high-performance-inference-of-pytorch-models-on-mobile-devices/

值得信賴的可靠性和兼容性

盡管 LiteRT 的能力已顯著擴展,但我們對長期可靠性和跨平臺一致性的承諾保持不變。LiteRT 繼續(xù)建立在久經(jīng)考驗的.tflite模型格式之上,這是一種行業(yè)標(biāo)準(zhǔn)的單文件格式,可確保您現(xiàn)有的模型在 Android、iOS、macOS、Linux、Windows、Web 和 IOT 上保持可移植性和兼容性。

為了向開發(fā)者提供持續(xù)的體驗,LiteRT 為現(xiàn)有的和下一代推理路徑提供了強大的支持:

Interpreter API: 您現(xiàn)有的生產(chǎn)模型將繼續(xù)可靠運行,保持您所依賴的廣泛設(shè)備覆蓋范圍和堅如磐石的穩(wěn)定性。

新的 CompiledModel API: 此現(xiàn)代化接口專為下一代 AI 設(shè)計,提供了無縫路徑來釋放GPU和 NPU 加速的全部潛力,以滿足日益演進的新 AI 需求。有關(guān)選擇 CompiledModel API 的更多原因,請參閱文檔。

文檔

https://ai.google.dev/edge/litert/inference#why-compiled-model

未來計劃

準(zhǔn)備好構(gòu)建端側(cè) AI 的未來了嗎?歡迎您查看相關(guān)資料,輕松上手:

探索LiteRT 文檔以獲取全面的開發(fā)指南。

查看LiteRT GitHub和LiteRT 示例 Github以獲取示例代碼和實現(xiàn)細節(jié)。

訪問LiteRT Hugging Face 社區(qū)以獲取 Gemma 等即用型開放模型,并在Android和iOS上試用Google AI Edge Gallery 應(yīng)用來體驗實際運行中的 AI。

LiteRT 文檔 https://ai.google.dev/edge/litert

LiteRT GitHub https://github.com/google-ai-edge/litert

LiteRT 示例 Github https://github.com/google-ai-edge/litert-samples

LiteRT Hugging Face 社區(qū) https://huggingface.co/litert-community

Android https://play.google.com/store/apps/details?id=com.google.ai.edge.gallery

iOS https://testflight.apple.com/join/nAtSQKTF

Google AI Edge Gallery 應(yīng)用 https://github.com/google-ai-edge/gallery

歡迎您通過GitHub 頻道與我們進行交流,讓我們了解您的反饋和功能請求。我們迫不及待地想看到您用 LiteRT 創(chuàng)造出的精彩內(nèi)容!也歡迎您持續(xù)關(guān)注 "谷歌開發(fā)者" 微信公眾號,及時了解更多開發(fā)技術(shù)和產(chǎn)品更新等資訊動態(tài)。

GitHub 頻道

https://github.com/google-ai-edge/LiteRT/issues

致謝

感謝團隊成員和所有合作者為本次發(fā)布中取得的進步所做的貢獻: Advait Jain, Andrew Zhang, Andrei Kulik, Akshat Sharma, Arian Arfaian, Byungchul Kim, Changming Sun, Chunlei Niu, Chun-nien Chan, Cormac Brick, David Massoud, Dillon Sharlet, Fengwu Yao, Gerardo Carranza, Jingjiang Li, Jing Jin, Grant Jensen, Jae Yoo, Juhyun Lee, Jun Jiang, Kris Tonthat, Lin Chen, Lu Wang, Luke Boyer, Marissa Ikonomidis, Matt Kreileder, Matthias Grundmann, Majid Dadashi, Marko Risti?, Matthew Soulanille, Na Li, Ping Yu, Quentin Khan, Raman Sarokin, Ram Iyengar, Rishika Sinha, Sachin Kotwani, Shuangfeng Li, Steven Toribio, Suleman Shahid, Teng-Hui Zhu, Terry (Woncheol) Heo, Vitalii Dziuba, Volodymyr Kysenko, Weiyi Wang, Yu-Hui Chen, Pradeep Kuppala 和 gTech 團隊。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • Android
    +關(guān)注

    關(guān)注

    12

    文章

    4005

    瀏覽量

    133593
  • gpu
    gpu
    +關(guān)注

    關(guān)注

    28

    文章

    5165

    瀏覽量

    134883
  • AI
    AI
    +關(guān)注

    關(guān)注

    91

    文章

    39269

    瀏覽量

    300122

原文標(biāo)題:LiteRT | 釋放極致潛能,構(gòu)建下一代高性能端側(cè) AI

文章出處:【微信號:Google_Developers,微信公眾號:谷歌開發(fā)者】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    晶晨攜手谷歌,助力側(cè)大模型Gemini的硬件落地

    電子發(fā)燒友網(wǎng)報道 在科技飛速發(fā)展的當(dāng)下,側(cè)智能技術(shù)正以前所未有的速度滲透到各個領(lǐng)域。1月28日,晶晨股份透露,公司與谷歌有著長達十余年的深度合作基礎(chǔ)。作為谷歌
    的頭像 發(fā)表于 01-29 10:44 ?928次閱讀

    借助谷歌FunctionGemma模型構(gòu)建下一代側(cè)智能體

    對于 Gemma 模型系列而言,2025 年是充滿變革的年。我們的下載量已從 1 億次增長到超過 3 億次,同時還展現(xiàn)了開放模型的變革潛力: 從憑借 Gemma 3 定義最先進的單加速器性能,到通過 C2S Scale 計劃推動癌癥研究,皆是最佳佐證。
    的頭像 發(fā)表于 01-20 09:11 ?476次閱讀
    <b class='flag-5'>借助</b><b class='flag-5'>谷歌</b>FunctionGemma模型<b class='flag-5'>構(gòu)建</b><b class='flag-5'>下一代</b><b class='flag-5'>端</b><b class='flag-5'>側(cè)</b>智能體

    安霸半導(dǎo)體加速推進下一代無人機側(cè)AI創(chuàng)新

    憑借在航拍成像領(lǐng)域的深厚積淀,安霸正將業(yè)務(wù)重心拓展至側(cè) AI 領(lǐng)域,賦能快速增長的無人機應(yīng)用場景實現(xiàn)更高階自主化能力,其中便包括影翎公司推出的全球首款 360 度全景無人機A1。
    的頭像 發(fā)表于 12-29 15:08 ?334次閱讀

    泰凌微:布局端側(cè)AI,產(chǎn)品支持谷歌LiteRT、TVM開源模型

    ?電子發(fā)燒友網(wǎng)報道(文/李彎彎)泰凌微近日表示,公司與谷歌在智能家居、音頻等多個領(lǐng)域開展具體項目合作。其與谷歌已從單的遙控器芯片供應(yīng),發(fā)展為涵蓋音頻、智能家居、
    的頭像 發(fā)表于 12-15 08:21 ?1w次閱讀

    高算力、低功耗!下一代側(cè)AI芯片排隊進場

    提升了產(chǎn)品體驗,也開啟了AIoT產(chǎn)業(yè)的新輪增長周期。最近,瑞芯微、恒玄、炬芯幾家公司也公開談及對側(cè)AI的思考以及芯片進展和布局。 ?
    的頭像 發(fā)表于 12-12 08:58 ?9403次閱讀

    AI眼鏡或成為下一代手機?谷歌、蘋果等巨頭扎堆布局

    近年來,AI智能眼鏡賽道迎來爆發(fā)式增長。谷歌、蘋果、Meta、亞馬遜等科技巨頭紛紛加快布局,將AI眼鏡視為下一代人機交互的關(guān)鍵入口。從消費級產(chǎn)品到行業(yè)專用設(shè)備,多樣化的
    的頭像 發(fā)表于 11-05 17:44 ?702次閱讀

    安森美SiC器件賦能下一代AI數(shù)據(jù)中心變革

    安森美(onsemi)憑借其業(yè)界領(lǐng)先的Si和SiC技術(shù),從變電站的高壓交流/直流轉(zhuǎn)換,到處理器級的精準(zhǔn)電壓調(diào)節(jié),為下一代AI數(shù)據(jù)中心提供了從3kW到25-30kW HVDC的供電全環(huán)節(jié)高能效、高密度
    的頭像 發(fā)表于 10-31 13:47 ?655次閱讀

    Microchip推出下一代Switchtec Gen 6 PCIe交換芯片

    隨著人工智能(AI)工作負載和高性能計算(HPC)應(yīng)用對數(shù)據(jù)傳輸速度與低延遲的需求持續(xù)激增,Microchip Technology Inc.(微芯科技公司)宣布推出下一代Switchtec Gen 6 PCIe交換芯片。
    的頭像 發(fā)表于 10-18 11:12 ?1571次閱讀

    AI體驗躍遷,天璣9500用雙NPU開創(chuàng)側(cè)AI新時代

    AI 正從“嘗鮮”邁向“常用”,下一代體驗該由誰定義?聯(lián)發(fā)科天璣9500給出答案:行業(yè)首發(fā)將側(cè) AI 4K 文生圖帶到手機,引領(lǐng)移動影像與
    的頭像 發(fā)表于 09-24 14:47 ?647次閱讀
    <b class='flag-5'>AI</b>體驗躍遷,天璣9500用雙NPU開創(chuàng)<b class='flag-5'>端</b><b class='flag-5'>側(cè)</b><b class='flag-5'>AI</b>新時代

    玄鐵下一代旗艦處理器C930:雙算力引擎,助力 RISC-V高性能計算

    加速場景的C系列,安全和實時性方面的R系列,賦能測的E系列,以及搭建多核系統(tǒng)方案的玄鐵系列,還有DIC技術(shù)等等。 高性能CPU IP玄鐵C930 玄鐵下一代旗艦處理器C930采用15級亂序超標(biāo)量流水線設(shè)計,支持CHI協(xié)議,具備
    的頭像 發(fā)表于 07-18 13:35 ?3291次閱讀

    側(cè)AI需求大爆發(fā)!安謀科技發(fā)布新一代NPU IP,賦能AI終端應(yīng)用

    ,汽車自動駕駛的本地決策,都依賴算力提升,這對側(cè)AI SoC的性能帶來挑戰(zhàn),上游IP廠商的新品可以給SoC廠商帶來最新助力。 7月9日,在上海張江舉辦的
    的頭像 發(fā)表于 07-11 01:16 ?8638次閱讀
    <b class='flag-5'>端</b><b class='flag-5'>側(cè)</b><b class='flag-5'>AI</b>需求大爆發(fā)!安謀科技發(fā)布新<b class='flag-5'>一代</b>NPU IP,賦能<b class='flag-5'>AI</b>終端應(yīng)用

    下一代高速芯片晶體管解制造問題解決了!

    ,10埃)開始直使用到A7。 從這些外壁叉片晶體管的量產(chǎn)中獲得的知識可能有助于下一代互補場效應(yīng)晶體管(CFET)的生產(chǎn)。 目前,領(lǐng)先的芯片制造商——英特爾、臺積電和三星——正在利用其 18A、N2
    發(fā)表于 06-20 10:40

    英特爾與面壁智能宣布建立戰(zhàn)略合作伙伴關(guān)系,共同研發(fā)端側(cè)原生智能座艙,定義下一代車載AI

    今日,英特爾與面壁智能簽署合作備忘錄。雙方宣布達成戰(zhàn)略級合作伙伴關(guān)系,旨在打造端側(cè)原生智能座艙,定義下一代車載AI。目前,雙方已合作推出“英特爾&面壁智能車載大模型GUI智能體”,將
    的頭像 發(fā)表于 04-23 21:46 ?1071次閱讀
    英特爾與面壁智能宣布建立戰(zhàn)略合作伙伴關(guān)系,共同研發(fā)端<b class='flag-5'>側(cè)</b>原生智能座艙,定義<b class='flag-5'>下一代</b>車載<b class='flag-5'>AI</b>

    首創(chuàng)開源架構(gòu),天璣AI開發(fā)套件讓側(cè)AI模型接入得心應(yīng)手

    AI巨頭強強聯(lián)手,勢必為智能體化AI體驗時代按下超級加速鍵。 AI終端的下一步是“普適智能”,而不是“極限性能”。聯(lián)發(fā)科憑借天璣9400+強
    發(fā)表于 04-13 19:52

    通用汽車和NVIDIA合作構(gòu)建定制化AI系統(tǒng)

    通用汽車和 NVIDIA 宣布正在借助 AI、仿真和加速計算技術(shù),合作打造下一代汽車、工廠和機器人。
    的頭像 發(fā)表于 03-20 14:40 ?1655次閱讀