chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

后摩智能四篇論文入選三大國際頂會(huì)

后摩智能 ? 來源:后摩智能 ? 2025-05-29 15:37 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

2025 年上半年,繼年初被AAAI、ICLR、DAC 三大國際頂會(huì)收錄 5 篇論文后,后摩智能近期又有 4 篇論文入選CVPR、ICML、ACL三大國際頂會(huì),面向大模型的編碼、量化、壓縮與微調(diào)等技術(shù)難題提出創(chuàng)新性解決方案,為大模型的性能提升、多場(chǎng)景部署建構(gòu)了可行路徑。

眾所周知,CVPR作為計(jì)算機(jī)視覺領(lǐng)域國際頂級(jí)會(huì)議,專注于圖像和視頻的感知與理解;ICML作為機(jī)器學(xué)習(xí)領(lǐng)域頂會(huì),強(qiáng)調(diào)算法、理論與模型創(chuàng)新;ACL作為自然語言處理領(lǐng)域頂會(huì),聚焦語言理解與生成。這三大會(huì)議分別代表了人工智能的三個(gè)核心子領(lǐng)域,是全球?qū)W術(shù)界和產(chǎn)業(yè)界高度關(guān)注的重要學(xué)術(shù)交流平臺(tái)。

本文將簡(jiǎn)要概述近期被收錄論文的關(guān)鍵工作。

01【CVPR-2025】PillarHist:AQuantization-aware PillarFeature Encoderbased onHeight-aware Histogram

PillarHist:一種基于高度直方圖的高效 pillar 特征編碼方法

自動(dòng)駕駛機(jī)器人等對(duì)實(shí)時(shí)感知要求較高的場(chǎng)景中,基于LiDAR的3D目標(biāo)檢測(cè)技術(shù)近年來得到了廣泛關(guān)注。Pillar-based方法因其結(jié)構(gòu)簡(jiǎn)單、計(jì)算效率高,成為了當(dāng)前主流的輕量級(jí)三維檢測(cè)方案之一。然而,我們?cè)谡{(diào)研和實(shí)驗(yàn)中發(fā)現(xiàn),現(xiàn)有的pillar特征編碼模塊(PFE)在處理高度信息和模型量化方面仍存在一定局限。

研究動(dòng)機(jī)

當(dāng)前大多數(shù)PFE模塊采用max pooling等方式對(duì)點(diǎn)云特征進(jìn)行匯聚,這種策略雖然計(jì)算高效,但容易造成細(xì)粒度信息的丟失,特別是在高度維度上的表達(dá)不夠充分。此外,由于輸入特征量綱差異大,直接量化后模型性能往往下降較為明顯。

為了解決上述問題,我們提出了一種新的pillar特征編碼方法——PillarHist,旨在在保持高效率的同時(shí),增強(qiáng)模型對(duì)高度信息的建模能力,并提升其在低比特量化下的魯棒性。

方法簡(jiǎn)介

PillarHist的核心思想是通過高度離散直方圖來替代傳統(tǒng)的點(diǎn)級(jí)特征匯聚方式。具體而言,我們將每個(gè)pillar在高度方向劃分為若干個(gè)區(qū)間(bin),統(tǒng)計(jì)每個(gè)區(qū)間內(nèi)的點(diǎn)數(shù)以及反射強(qiáng)度的加權(quán)平均值,從而構(gòu)建出包含幾何與語義信息的直方圖特征表示。同時(shí),結(jié)合pillar的中心坐標(biāo)信息,我們通過一個(gè)輕量的線性層將其映射為最終的pillar特征向量。

與傳統(tǒng)PFE模塊相比,PillarHist具有以下優(yōu)勢(shì):

更強(qiáng)的高度建模能力:保留了點(diǎn)云在高度維度上的結(jié)構(gòu)信息;

避免信息丟失:不再依賴max pooling,減少特征壓縮帶來的損失;

計(jì)算更高效:特征提取操作在pillar級(jí)別完成,降低了總體計(jì)算開銷;

量化友好:特征值范圍穩(wěn)定,INT8量化后性能下降更小。

實(shí)驗(yàn)結(jié)果

我們?cè)贙ITTI、nuScenes和Waymo等多個(gè)公開數(shù)據(jù)集上對(duì)PillarHist進(jìn)行了驗(yàn)證。在多個(gè)主流pillar-based檢測(cè)框架(如PointPillars、CenterPoint、PillarNet等)中引入PillarHist后,模型在精度和推理速度方面均有不同程度的提升。其中,在nuScenes上平均提升約1%的NDS,同時(shí)推理延遲降低4~9ms。在8-bit量化實(shí)驗(yàn)中,PillarHist有效減少了量化帶來的性能損失,表現(xiàn)出良好的硬件適應(yīng)性。

總結(jié)

PillarHist作為一種結(jié)構(gòu)簡(jiǎn)單但有效的PFE模塊,能夠在不改變?cè)袡z測(cè)框架的前提下,提升模型對(duì)高度信息的表達(dá)能力,并增強(qiáng)其在實(shí)際部署中的可用性。我們希望這一工作能為三維目標(biāo)檢測(cè)尤其是輕量化和部署友好的設(shè)計(jì)提供一種可行的方向。

02【ICML-2025】RWKVQuant: Quantizing the RWKV Family with Proxy Guided Hybrid of Scalar and Vector Quantization

RWKVQuant:首個(gè)面向RWKV模型的高效量化框架

在大模型時(shí)代,Transformer架構(gòu)獨(dú)領(lǐng)風(fēng)騷,但近年來一種融合了RNN與Transformer優(yōu)勢(shì)的新型架構(gòu)——RWKV,正在悄然崛起。RWKV模型以其推理高效、結(jié)構(gòu)簡(jiǎn)潔等特性,在語言和視覺任務(wù)上均展現(xiàn)出媲美主流大模型的性能。然而,RWKV在部署到邊緣設(shè)備或資源受限場(chǎng)景時(shí),仍面臨模型體積大、計(jì)算開銷高等現(xiàn)實(shí)挑戰(zhàn)。

為此,我們重磅推出RWKVQuant——首個(gè)專為RWKV模型設(shè)計(jì)的后訓(xùn)練量化(Post-Training Quantization,簡(jiǎn)稱PTQ)框架,以應(yīng)對(duì)RWKV模型在部署過程中的性能瓶頸!

研究動(dòng)機(jī)

盡管已有許多PTQ方法在Transformer類模型中取得了成功,例如GPTQ、AWQ、GPTVQ等,但直接將這些方法應(yīng)用于RWKV模型時(shí),效果卻大打折扣:

非線性操作阻礙了參數(shù)融合:RWKV結(jié)構(gòu)中含有Token Shift、Sigmoid、指數(shù)函數(shù)等非線性模塊,導(dǎo)致SmoothQuant、QuaRot等方法無法像在Transformer中那樣高效融合參數(shù),反而引入了額外計(jì)算開銷;

權(quán)重分布更均勻,聚類難度大:RWKV權(quán)重呈現(xiàn)更強(qiáng)的均勻性,這對(duì)傳統(tǒng)基于聚類的向量量化(VQ)方法構(gòu)成挑戰(zhàn),聚類效果不佳,精度下降嚴(yán)重。

方法簡(jiǎn)介

RWKVQuant創(chuàng)新性地提出代理引導(dǎo)的標(biāo)量-向量混合量化策略,實(shí)現(xiàn)高壓縮率和高保真度的完美平衡:

1. 粗到細(xì)的雙層代理機(jī)制

粗粒度代理(Information Entropy):衡量權(quán)重整體的均勻性。當(dāng)權(quán)重分布不均時(shí),直接采用VQ;

細(xì)粒度代理(高階中心矩):即使整體均勻,也能識(shí)別局部異常值。若存在離群點(diǎn),仍優(yōu)先選擇VQ;否則使用SQ。

此機(jī)制極大提升了量化策略的適應(yīng)性和智能決策能力。

2. 針對(duì)RWKV結(jié)構(gòu)優(yōu)化的codebook生成

RWKV在所有投影層中大量使用逐元素乘法操作,而現(xiàn)有VQ方法多針對(duì)矩陣乘法模塊。RWKVQuant首創(chuàng)了適用于逐元素乘法的codebook優(yōu)化算法,通過激活值加權(quán)KMeans聚類,有效降低量化誤差。

實(shí)驗(yàn)結(jié)果

RWKVQuant在多個(gè)RWKV模型上進(jìn)行了驗(yàn)證,取得了顯著成果:

量化比特?cái)?shù)降低至約3-bit,精度損失小于1%;

RWKV-6-14B模型內(nèi)存占用減少至原來的1/3;

推理速度提升高達(dá)2.14倍;

在LAMBADA等語言理解任務(wù)上,PPL下降、Zero-shot準(zhǔn)確率提升,遠(yuǎn)超GPTQ、AWQ、GPTVQ等主流方法;

在ImageNet、COCO和ADE20K等視覺任務(wù)上,RWKVQuant同樣表現(xiàn)出色。

總結(jié)

RWKVQuant的推出,標(biāo)志著RWKV模型在輕量化部署領(lǐng)域邁出了關(guān)鍵一步。我們相信,這一創(chuàng)新性的量化框架不僅能推動(dòng)RWKV在語言與視覺任務(wù)中的廣泛應(yīng)用,也將為大模型在資源受限環(huán)境下的落地提供全新可能。

03【ICML-2025】MoEQuant: Enhancing Quantization for Mixture-of-Experts Large Language Models via Expert-Balanced Sampling and Affinity Guidance

解鎖MoE大模型部署新范式:MoEQuant讓壓縮不再“犧牲性能”

近年來,大語言模型(LLMs)在自然語言處理領(lǐng)域取得了突破性進(jìn)展,尤其是引入“專家混合”(Mixture-of-Experts, MoE)架構(gòu)的模型,以其高效、可擴(kuò)展的特性,成為推動(dòng)模型性能與計(jì)算效率雙贏的重要方向。

然而,MoE模型也帶來了新的挑戰(zhàn):激活參數(shù)稀疏,存儲(chǔ)壓力巨大,尤其在推理階段,雖然只激活少數(shù)專家,但所有專家參數(shù)必須常駐顯存,導(dǎo)致部署成本居高不下。如何讓MoE大模型“瘦身”而又不“失智”,成為業(yè)界亟待解決的問題。

研究動(dòng)機(jī)

傳統(tǒng)PTQ方法如 GPTQ 和 AWQ 在標(biāo)準(zhǔn)LLMs中表現(xiàn)出色,但在應(yīng)用到MoE模型時(shí)卻顯得力不從心。其原因在于:MoE架構(gòu)的稀疏激活和動(dòng)態(tài)路由機(jī)制,打破了常規(guī)量化對(duì)樣本分布和重要性評(píng)估的假設(shè),導(dǎo)致量化后模型性能急劇下降。

為此,MoEQuant 識(shí)別并解決了兩個(gè)核心問題:

專家間不平衡 (Inter-expert imbalance):部分專家在校準(zhǔn)過程中被頻繁激活,而另一些專家?guī)缀醣缓雎裕瑢?dǎo)致量化精度失衡;

專家內(nèi)相關(guān)性不一致(Intra-expert imbalance):不同樣本與專家之間的“親和度”差異顯著,傳統(tǒng)量化忽略了這種動(dòng)態(tài)關(guān)系,導(dǎo)致權(quán)重更新失真。

方法簡(jiǎn)介

MoEQuant 引入如下兩項(xiàng)關(guān)鍵技術(shù),有效解決上述挑戰(zhàn):

Expert-Balanced Self-Sampling(EBSS)

傳統(tǒng)量化依賴固定校準(zhǔn)集(如 WikiText2),在 MoE 中容易出現(xiàn)樣本分布偏差。EBSS 利用模型自采樣機(jī)制,在確保語義合理的前提下,引導(dǎo)生成覆蓋各專家的均衡樣本集,顯著提升校準(zhǔn)質(zhì)量。

Affinity-Guided Quantization (AGQ)

AGQ 首次將“樣本-專家親和度”納入量化過程,為每個(gè)樣本分配權(quán)重,引導(dǎo)誤差優(yōu)化方向,并重新定義Hessian矩陣計(jì)算方式,使量化更加精細(xì)化、感知MoE動(dòng)態(tài)特性。

實(shí)驗(yàn)結(jié)果

在Qwen-MoE-14B、DeepSeek-MoE-16B 和 Mixtral-8x7B 三大知名 MoE 模型上,MoEQuant 實(shí)現(xiàn)了令人矚目的成果:

HumanEval 編程任務(wù)準(zhǔn)確率提升超10個(gè)百分點(diǎn);

在 GSM8K、MMLU、BoolQ 等推理任務(wù)上表現(xiàn)全面優(yōu)于 GPTQ 和 AWQ;

部署效率提升:平均推理速度提升 1.2×,顯存節(jié)省 3.2×,支持在消費(fèi)級(jí)GPU(如 RTX 4090)部署大模型。

更令人驚喜的是,在指令微調(diào)版本(Chat模型)中,MoEQuant 依然保持高精度,部分任務(wù)甚至超過全精度模型性能,這對(duì)實(shí)際應(yīng)用部署具有重大意義。

總結(jié)

MoEQuant 的提出,不僅是大模型量化技術(shù)的一次飛躍,更是向“高性能+低成本”大模型部署目標(biāo)邁出的堅(jiān)實(shí)一步。在未來的AI應(yīng)用場(chǎng)景中,無論是邊緣設(shè)備部署,還是云端推理優(yōu)化,MoEQuant 都將成為不可或缺的“壓縮利器”。

04【ACL-2025】GSQ-Tuning: Group-Shared Exponents Integer in Fully Quantized Training for LLMs On-Device Fine-tuning

GSQ-Tuning:探索資源受限設(shè)備上的大模型微調(diào)新路徑

近年來,大語言模型(LLM)在自然語言處理、代碼生成、多模態(tài)理解等領(lǐng)域取得了突破性進(jìn)展。然而,隨著模型規(guī)模的不斷擴(kuò)大,將其部署到資源受限的邊緣設(shè)備,仍面臨諸多挑戰(zhàn)。傳統(tǒng)的微調(diào)方式通常依賴大規(guī)模浮點(diǎn)運(yùn)算,不僅計(jì)算資源需求高,而且在涉及隱私數(shù)據(jù)時(shí)存在上傳云端的風(fēng)險(xiǎn)。

為此,我們提出了一種全新的大模型微調(diào)方法 GSQ-Tuning(Group-Shared Exponents Quantization Tuning),旨在實(shí)現(xiàn)低浮點(diǎn)依賴、端到端整數(shù)化的大模型微調(diào)流程,更適配隱私敏感與資源受限的終端場(chǎng)景。

方法簡(jiǎn)介

GSQ-Tuning 的關(guān)鍵技術(shù)在于我們?cè)O(shè)計(jì)的 Group-Shared Exponents Integer(GSE)格式。針對(duì)傳統(tǒng)浮點(diǎn)格式中指數(shù)位冗余的問題,GSE 通過在一組參數(shù)中共享指數(shù)位,實(shí)現(xiàn)更高效的低比特整數(shù)表示。具體而言:

每組數(shù)據(jù)共享一個(gè) 5-bit 指數(shù)位;

替代浮點(diǎn)的隱式前導(dǎo) 1 表示,采用顯式整數(shù)表示;

通過指數(shù)共享,大幅減少了存儲(chǔ)與計(jì)算時(shí)的元數(shù)據(jù)開銷。

這一表示方式不僅保留了數(shù)據(jù)的動(dòng)態(tài)范圍,還提升了表示密度,尤其適用于具有空間局部性特征的神經(jīng)網(wǎng)絡(luò)權(quán)重和激活值。

1.整數(shù)化算子支持:Forward & Backward

在算子層面,GSQ-Tuning 不僅支持前向傳播的整數(shù)矩陣乘法,還將整數(shù)計(jì)算擴(kuò)展至反向傳播與梯度更新階段,實(shí)現(xiàn)真正意義上的 Fully Quantized Training。我們采用了經(jīng)典的 Quantize-Compute-Dequantize(QCD) 流程:

量化:將輸入權(quán)重、激活與梯度從高精度(如 BF16)轉(zhuǎn)換為 GSE-INT 格式;

計(jì)算:在整數(shù)域中完成乘加運(yùn)算(MAC),利用共享指數(shù)實(shí)現(xiàn)高效縮放;

反量化:必要時(shí)將輸出轉(zhuǎn)換回高精度格式做后處理或損失計(jì)算。

這一流程不僅適配 INT5/INT6 等低比特精度,還顯著提升了對(duì)整數(shù)計(jì)算硬件(如手機(jī) NPU、FPGA、邊緣 AI 芯片)的利用率。

2.與 LoRA 的結(jié)合:高效參數(shù)微調(diào)

為了進(jìn)一步降低訓(xùn)練開銷,我們將 GSQ-Tuning 與主流的 LoRA(Low-Rank Adaptation) 方法結(jié)合,僅對(duì)少量低秩矩陣進(jìn)行更新。不同于 QLoRA 仍需在 BF16 精度下更新 LoRA 參數(shù),我們?cè)?LoRA 分支同樣采用整數(shù)化表示與更新,使整個(gè)訓(xùn)練流程真正實(shí)現(xiàn)浮點(diǎn)“歸零”。

我們還提出了 位寬與秩的協(xié)同優(yōu)化策略(Bits-Rank Pareto Frontier),根據(jù)資源預(yù)算靈活選擇參數(shù)配置,在精度與效率間找到最優(yōu)平衡。

實(shí)驗(yàn)結(jié)果

我們?cè)诙鄠€(gè) LLaMA 系列模型(3B~70B)、多種微調(diào)數(shù)據(jù)集(Alpaca、CS170K)和任務(wù)(BoolQ、PIQA、HellaSwag 等)上進(jìn)行了驗(yàn)證:

在 6-bit 設(shè)置下,GSQ-Tuning 的精度與 FP16 微調(diào)幾乎持平,平均僅下降不到 1%;

與 FP8 相比,在相同任務(wù)精度下,功耗降低約 5 倍,芯片面積減少約 11 倍;

內(nèi)存使用方面,GSQ-Tuning 比 QLoRA 至少節(jié)省 40%~50% 的顯存開銷。

此外,在多模態(tài)任務(wù)(如 LLaVA-v1.5)中,我們也觀察到 GSE 格式在視覺-語言聯(lián)合學(xué)習(xí)中具有良好的遷移與泛化能力。

總結(jié)

GSQ-Tuning 是我們?cè)诖竽P投藗?cè)部署探索過程中的一次初步嘗試。通過全流程整數(shù)化、參數(shù)高效更新和硬件友好設(shè)計(jì),我們希望為大模型在本地化、個(gè)性化、隱私保護(hù)等應(yīng)用場(chǎng)景提供一種更實(shí)際、更落地的技術(shù)路徑。

上述4篇論文聚焦模型的編碼、量化、壓縮與微調(diào)等技術(shù)瓶頸,從性能提升到場(chǎng)景部署,多維展現(xiàn)了后摩智能在AI技術(shù)創(chuàng)新與應(yīng)用上的前瞻性與深度思考。研究成果從理解準(zhǔn)確率、空間占用率、推理速率、部署效率等多方面,為大模型的輕量化部署、端側(cè)部署以及邊緣設(shè)備部署提供了更多可行方案。

接下來,我們將依序發(fā)布4篇論文深度解析,詳盡分享每篇論文的創(chuàng)新思路等,歡迎關(guān)注。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 機(jī)器學(xué)習(xí)

    關(guān)注

    66

    文章

    8499

    瀏覽量

    134314
  • 自然語言處理
    +關(guān)注

    關(guān)注

    1

    文章

    628

    瀏覽量

    14083
  • 后摩智能
    +關(guān)注

    關(guān)注

    0

    文章

    34

    瀏覽量

    1343
  • 大模型
    +關(guān)注

    關(guān)注

    2

    文章

    3085

    瀏覽量

    3963

原文標(biāo)題:后摩前沿 | 后摩智能4篇論文入選CVPR、ICML、ACL三大國際頂會(huì),攻關(guān)大模型端邊側(cè)部署關(guān)鍵技術(shù)

文章出處:【微信號(hào):后摩智能,微信公眾號(hào):后摩智能】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    智能入圍工信部算力強(qiáng)基揭榜行動(dòng)

    近日,工業(yè)和信息化部(以下簡(jiǎn)稱“工信部”)辦公廳印發(fā)《關(guān)于公布算力強(qiáng)基揭榜行動(dòng)入圍名單的通知》,智能憑借 “高能效比邊端側(cè)大模型推理加速處理器” 成功入圍。這是國家行業(yè)管理部門對(duì)
    的頭像 發(fā)表于 06-26 18:00 ?297次閱讀

    云知聲論文入選自然語言處理會(huì)ACL 2025

    結(jié)果正式公布。云知聲在此次國際學(xué)術(shù)盛會(huì)中表現(xiàn)卓越,共有4論文被接收,其中包括2會(huì)論文(Ma
    的頭像 發(fā)表于 05-26 14:15 ?426次閱讀
    云知聲<b class='flag-5'>四</b><b class='flag-5'>篇</b><b class='flag-5'>論文</b><b class='flag-5'>入選</b>自然語言處理<b class='flag-5'>頂</b><b class='flag-5'>會(huì)</b>ACL 2025

    智能NPU適配通義千問Qwen3系列模型

    近日,阿里云重磅推出Qwen3 系列開源混合推理模型。用時(shí)不到1天,智能自研NPU迅速實(shí)現(xiàn)Qwen3 系列模型(Qwen3 0.6B-14B)在端邊側(cè)的高效部署。這一成果充分彰顯了
    的頭像 發(fā)表于 05-07 16:46 ?471次閱讀

    智能入選中國移動(dòng)AI能力聯(lián)合艦隊(duì)

    在第八屆數(shù)字中國建設(shè)峰會(huì)期間,中國移動(dòng)正式發(fā)布 “AI 能力聯(lián)合艦隊(duì)”。作為存算一體芯片領(lǐng)域的先鋒,智能憑借顛覆式創(chuàng)新技術(shù)與強(qiáng)勁的算力支持能力,成功入選中國移動(dòng) “AI 能力聯(lián)合艦
    的頭像 發(fā)表于 05-06 17:14 ?478次閱讀

    匯川技術(shù)大國際展會(huì)圓滿收官

    近年來,匯川技術(shù)持續(xù)推動(dòng)全球化發(fā)展戰(zhàn)略,依托強(qiáng)大的技術(shù)研發(fā)與智能制造能力,積極布局海外市場(chǎng),持續(xù)推出符合各地標(biāo)準(zhǔn)的創(chuàng)新產(chǎn)品。 近日,匯川技術(shù)攜最新產(chǎn)品和解決方案再度亮相大國際展會(huì)——法國雷恩食品
    的頭像 發(fā)表于 03-26 15:17 ?578次閱讀

    智能5論文入選國際會(huì)

    2025年伊始,智能在三大國際會(huì)(AAAI、ICLR、DAC)中斬獲佳績(jī),共有5
    的頭像 發(fā)表于 02-19 14:02 ?692次閱讀
    <b class='flag-5'>后</b><b class='flag-5'>摩</b><b class='flag-5'>智能</b>5<b class='flag-5'>篇</b><b class='flag-5'>論文</b><b class='flag-5'>入選</b><b class='flag-5'>國際</b><b class='flag-5'>頂</b><b class='flag-5'>會(huì)</b>

    智能接連斬獲項(xiàng)大獎(jiǎng)

    由清科創(chuàng)業(yè)與投資界共同發(fā)起的 2024 VENTURE50 評(píng)選結(jié)果重磅揭曉。智能憑借過硬的技術(shù)水準(zhǔn)和創(chuàng)新產(chǎn)品,成功躋身 2024 投資界硬科技 VENTURE50 榜單,凸顯了公司在半導(dǎo)體領(lǐng)域
    的頭像 發(fā)表于 01-17 11:26 ?692次閱讀

    經(jīng)緯恒潤(rùn)功能安全AI 智能論文成功入選EMNLP 2024!

    近日,經(jīng)緯恒潤(rùn)在智能體(AIAgent)領(lǐng)域再獲佳績(jī),其論文《Aegis
    的頭像 發(fā)表于 10-18 08:00 ?676次閱讀
    經(jīng)緯恒潤(rùn)功能安全AI <b class='flag-5'>智能</b>體<b class='flag-5'>論文</b>成功<b class='flag-5'>入選</b>EMNLP 2024!

    智能首款存算一體智駕芯片獲評(píng)突出創(chuàng)新產(chǎn)品獎(jiǎng)

    近日,2024年6月29日,由深圳市汽車電子行業(yè)協(xié)會(huì)主辦的「第十三屆國際汽車電子產(chǎn)業(yè)峰會(huì)暨2023年度汽車電子科學(xué)技術(shù)獎(jiǎng)?lì)C獎(jiǎng)典禮」在深圳寶安隆重舉行。智能首款存算一體智駕芯片——
    的頭像 發(fā)表于 09-24 16:51 ?851次閱讀

    精彩集錦|艾邁斯攜第代LC/LF電專用內(nèi)接件亮相中國會(huì)

    2024年9月16日,為期4天的第22屆中國國際摩托車博覽會(huì)圓滿收官。作為低壓大電流內(nèi)接連接器參展商,艾邁斯在現(xiàn)場(chǎng)展示了自主研發(fā)的第代電專用內(nèi)接連接器LC/LF系列新品,備受參觀者
    的頭像 發(fā)表于 09-18 11:04 ?766次閱讀
    精彩集錦|艾邁斯攜第<b class='flag-5'>四</b>代LC/LF電<b class='flag-5'>摩</b>專用內(nèi)接件亮相中國<b class='flag-5'>摩</b>博<b class='flag-5'>會(huì)</b>

    智能與聯(lián)想攜手共創(chuàng)AI PC新紀(jì)元

    近日,國內(nèi)領(lǐng)先的存算一體AI芯片創(chuàng)新企業(yè)智能與全球知名科技企業(yè)聯(lián)想集團(tuán)正式簽署戰(zhàn)略合作協(xié)議,標(biāo)志著雙方在AI PC技術(shù)創(chuàng)新與應(yīng)用領(lǐng)域的深度合作正式啟航。此次合作,旨在融合
    的頭像 發(fā)表于 08-02 16:11 ?842次閱讀

    智能與聯(lián)想集團(tuán)簽署戰(zhàn)略協(xié)議 共同探索AI PC技術(shù)創(chuàng)新與應(yīng)用

    ? 近日,智能與聯(lián)想集團(tuán)宣布簽署戰(zhàn)略合作協(xié)議,雙方將共同探索AI PC的技術(shù)創(chuàng)新與應(yīng)用。根據(jù)協(xié)議約定,
    的頭像 發(fā)表于 07-31 17:24 ?1230次閱讀

    地平線科研論文入選國際計(jì)算機(jī)視覺會(huì)ECCV 2024

    近日,地平線兩論文入選國際計(jì)算機(jī)視覺會(huì)ECCV 2024,自動(dòng)駕駛算法技術(shù)再有新突破。
    的頭像 發(fā)表于 07-27 11:10 ?1417次閱讀
    地平線科研<b class='flag-5'>論文</b><b class='flag-5'>入選</b><b class='flag-5'>國際</b>計(jì)算機(jī)視覺<b class='flag-5'>頂</b><b class='flag-5'>會(huì)</b>ECCV 2024

    芯動(dòng)力科技論文入選ISCA 2024,與國際巨頭同臺(tái)交流研究成果

    布宜諾斯艾利斯舉行的ISCA 2024會(huì)議上發(fā)表演講,與Intel、AMD等國際知名企業(yè)同臺(tái)交流。 本屆ISCA共收到來自全球423高質(zhì)量論文投稿,經(jīng)過嚴(yán)謹(jǐn)?shù)脑u(píng)審流程
    的頭像 發(fā)表于 07-18 11:16 ?1023次閱讀
    芯動(dòng)力科技<b class='flag-5'>論文</b><b class='flag-5'>入選</b>ISCA 2024,與<b class='flag-5'>國際</b>巨頭同臺(tái)交流研究成果

    谷歌DeepMind被曝抄襲開源成果,論文還中了流會(huì)議

    谷歌DeepMind一中了流新生代會(huì)議CoLM 2024的論文被掛了,瓜主直指其抄襲了一年前就掛在arXiv上的一項(xiàng)研究。開源的那種。
    的頭像 發(fā)表于 07-16 18:29 ?850次閱讀
    谷歌DeepMind被曝抄襲開源成果,<b class='flag-5'>論文</b>還中了<b class='flag-5'>頂</b>流會(huì)議