chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

Topbots總結(jié)了2018年里10篇最為重要的AI研究論文

jmiy_worldofai ? 來源:lq ? 2019-01-09 17:00 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

Topbots總結(jié)了他們眼中 2018年里 10篇最為重要的AI研究論文,帶領(lǐng)大家領(lǐng)略過去的一年中機器學習領(lǐng)域的關(guān)鍵進展?,F(xiàn)在點開了這份清單的人顯然是極為幸運的,獲得了一個精彩瞬間回放的機會。

不得不說,考慮到這個領(lǐng)域極快的發(fā)展速度和極多的論文數(shù)量,肯定還有一些值得閱讀的突破性論文沒能包括在這份榜單中。不過這份清單是一個好的開始。

1. Universal Language Model Fine-tuning for Text Classification

「用于文本分類的通用語言模型的精細調(diào)節(jié)」

論文地址

https://arxiv.org/abs/1801.06146

內(nèi)容概要

兩位作者 Jeremy Howard和Sebastian Ruder提出了可以用預訓練的模型解決多種NLP任務(wù)的想法。通過這種方法,研究人員不需要為自己的任務(wù)從零開始訓練模型,只需要對已有的模型做精細調(diào)節(jié)。他們的方法,通用語言模型精細調(diào)節(jié)ULMFiT ,得到了當時最好的結(jié)果,比其他模型的錯誤率降低了 18%到 24%。更令人欽佩的是,ULMFiT 只用了 100個有標簽樣本得到的結(jié)果就可以和用 10K有標簽數(shù)據(jù)從零開始訓練的模型一樣好。

論文思想要點

為了應(yīng)對缺乏標注數(shù)據(jù)的問題,以及讓NLP分類任務(wù)更輕松、更省時,他們提出了把遷移學習用在NLP問題中。這樣,研究人員們不再需要從零開始訓練新模型,只需要找到一個已經(jīng)在相似的任務(wù)上訓練完畢的模型作為基礎(chǔ),然后為新的具體問題微調(diào)這個模型即可。

然而,為了讓這樣的做法發(fā)揮出理想的效果,這個微調(diào)過程有幾個細節(jié)需要注意:

網(wǎng)絡(luò)中不同的層應(yīng)該為不同的內(nèi)容進行微調(diào),因為它們捕捉的信息的類別也是有所不同的;

把模型參數(shù)向新的具體任務(wù)適配時,讓學習率先線性增加,再線性衰減,學習的效率會比較高;

一次微調(diào)所有的層會帶來災(zāi)難性的遺忘問題。所以,比較好的做法是一開始只更新最后一層的參數(shù),然后逐步讓前面的層也參與到微調(diào)中來。

領(lǐng)域內(nèi)學者評價

可以輕易得到的預訓練ImageNet模型已經(jīng)給整個計算機視覺界帶來了巨大的改變。ULMFiT也可以在NLP任務(wù)中起到同樣的重要作用;

這種方法可以用于任意語言上的任意NLP任務(wù)。全世界的研究人員們已經(jīng)在德語、波蘭語、海地語、印度尼西亞語、中文、馬來語等許多語言上進行了嘗試,同樣得到了大幅進步的結(jié)果。

未來可能的相關(guān)研究

繼續(xù)改善語言模型預訓練以及精細調(diào)節(jié);

把這種方法用于其它新的任務(wù)以及模型上(比如序列標注,自然語言生成,概括或者問答)。

2. Obfuscated Gradients Give a False Sense of Security: Circumventing Defenses to Adversarial Examples

「模糊梯度防御帶來的只是安全的假象:繞過對抗性樣本的防御」

論文地址

https://arxiv.org/abs/1802.00420

內(nèi)容概要

研究人員們發(fā)現(xiàn),對于對抗性樣本的防御,目前主要使用的是梯度模糊方法,但這種方法并不能帶來真正的安全,因為它可以被輕松規(guī)避。這篇論文了研究了三種使用了梯度模糊的防御方法,并展示了可以繞過梯度模糊防御的技巧。他們的發(fā)現(xiàn)可以幫助目前使用了梯度模糊防御的組織機構(gòu)考慮如何強化自己的方法。

論文思想要點

目前有三種常見的梯度模糊做法:

梯度破碎(shattered gradients),防御方法會有意地(通過不可微的運算)或者無意地(通過數(shù)值的不穩(wěn)定性)提供不正確的梯度,或者不提供梯度;

通過隨機防御提供隨機梯度;

通過非常深的深度神經(jīng)網(wǎng)絡(luò)評估帶來消失梯度/爆炸梯度。

基于梯度的方法有一些問題,我們可以看到下面這些跡象:

一步式的攻擊比迭代式的攻擊效果更好;

黑盒攻擊比白盒攻擊的效果更好;

無限制攻擊也無法達到 100% 成功率;

隨機采樣也可以找到對抗性樣本;

提高圖像扭曲的容忍度并不能提高攻擊成功率。

論文的關(guān)鍵成果是,通過實驗表明如今使用的大多數(shù)防御技術(shù)都還很脆弱。ICLR 2018 接收論文中的 9 種防御技術(shù)中,有 7 種都使用了梯度模糊,而論文作者們提出的新攻擊方法可以完全繞過 7 種中的 6 種防御,并部分繞過最后 1 種。

領(lǐng)域內(nèi)學者評價

這篇論文獲得了 ICML 2018 的最佳論文獎;

這篇論文清晰地展示出了我們現(xiàn)有技術(shù)的優(yōu)點和缺點

未來可能的相關(guān)研究

我們需要考慮在細致、全面的評價方式下構(gòu)建新的防御技術(shù),目標是不僅能夠防御現(xiàn)有的攻擊方式,還要能夠防御以后有可能開發(fā)出的新的防御方式。

3. Deep Contextualized Word Representations

「深度上下文依賴的單詞表征」

論文地址

https://arxiv.org/abs/1802.05365

內(nèi)容概要

來自艾倫人工智能研究院(Allen Institute for Artificial Intelligence)的作者們介紹了一種新型的深度上下文依賴單詞表征:Embeddings from Language Models (ELMo)。在使用了 ELMo 強化的模型中,每個單詞的向量化都是基于它所在的整篇文本而進行的。把 ELMo 添加到現(xiàn)有的 NLP 系統(tǒng)中可以帶來的效果有:1,錯誤率相對下降 6% 到 20%;2,訓練模型所需的 epoch 數(shù)目顯著降低;3,訓練模型達到基準模型表現(xiàn)時所需的訓練數(shù)據(jù)量顯著減小

論文思想要點

在很大的文本語料庫上預訓練一個深度雙向語言模型(biLM),用它生成單詞嵌入,這些嵌入來自這個模型的內(nèi)部狀態(tài)的加權(quán)和;

嵌入中包括了 biLM 的所有層的表征,因為網(wǎng)絡(luò)中不同的層表征了不同類型的信息;

ELMo 的表征被設(shè)計為基于字符的,這樣網(wǎng)絡(luò)還可以利用單詞拼寫的信息,更好地理解訓練中未曾見過的超出詞匯表的單詞的意思。

領(lǐng)域內(nèi)學者評價

這篇論文獲得了 NAACL 的杰出論文獎;

這篇論文提出的方法也被認為是近幾年來 NLP 領(lǐng)域最大的突破之一。

未來可能的相關(guān)研究

可以把這種方法集成到特定任務(wù)中,方式是把 ELMo 和不依賴上下文的單詞嵌入級聯(lián)起來;

也可以嘗試把 ELMo 和模型輸出級聯(lián)起來。

4. An Empirical Evaluation of Generic Convolutional and Recurrent Networks for Sequence Modeling

「一般卷積網(wǎng)絡(luò)和循環(huán)網(wǎng)絡(luò)用語序列建模的實證評價研究」

論文地址

https://arxiv.org/abs/1803.01271

內(nèi)容概要

領(lǐng)域內(nèi)有種常見的假設(shè):對于序列建模問題來說,選擇一個循環(huán)網(wǎng)絡(luò)架構(gòu)作為出發(fā)點是默認的做法。這篇論文的作者們就對這種假設(shè)提出了質(zhì)疑。他們的結(jié)果表明,一般的時序卷積網(wǎng)絡(luò)(TCN)能在許多種不同的序列建模任務(wù)中穩(wěn)定地超出 LSTM 以及 GRU 之類的典型的循環(huán)神經(jīng)網(wǎng)絡(luò)。

論文思想要點

在近期發(fā)現(xiàn)的最佳實踐做法(比如空洞卷積和殘差連接)的幫助下設(shè)計出的時序卷積網(wǎng)絡(luò)(Temporal convolutional networks)可以許多復雜的序列建模任務(wù)中發(fā)揮出超過一般循環(huán)網(wǎng)絡(luò)架構(gòu)的表現(xiàn);

TCN 表現(xiàn)出的記憶能力比循環(huán)網(wǎng)絡(luò)明顯更長,也就更適合那些需要很長的歷史記錄的序列建模任務(wù)。

領(lǐng)域內(nèi)學者評價

特斯拉 AI 總監(jiān)Andrej Karpathy 評論:「在用 RNN 之前一定要先試試 CNN。CNN 的表現(xiàn)會好到你驚訝的?!?/p>

未來可能的相關(guān)研究

為了在不同的序列建模任務(wù)上進一步提高 TCN 的表現(xiàn),我們還需要更多的架構(gòu)探索、算法探索方面的合作。

5. Delayed Impact of Fair Machine Learning

「公平的機器學習的影響是有延遲的」

論文地址

https://arxiv.org/abs/1803.04383

內(nèi)容概要

這篇論文的目標是想要確保,當使用一個機器學習算法生成分數(shù)來決定不同的人是否能夠得到某些機會(比如貸款、獎學金、工作等)時,人口統(tǒng)計學角度分出的不同族群可以被公平地對待。UC伯克利人工智能實驗室(BAIR)的研究人員們表明,使用常見的公平性條件實際上有可能傷害到弱勢群體,這是由于某些后果的出現(xiàn)是有延遲的。通過這項研究他們希望鼓勵大家在設(shè)計公平的機器學習系統(tǒng)時考慮它的長期后果。

論文思想要點

作者們考慮了施加公平性條件之后出現(xiàn)的有延遲的結(jié)果,結(jié)果表明,這些條件對于想要保護的群體來說可能長期看來是有害的(比如借款人的信用分數(shù)長期來看會變低,因為他會還不上貸款,而這筆貸款在無限制的條件下其實一開始就不會發(fā)放給他);

由于公平性條件有可能會主動地給弱勢群體帶來傷害,可以考慮一些額外的解決方案,比如使用一個會顯式地最大化結(jié)果的決策規(guī)則,或者使用一個結(jié)果模型。

領(lǐng)域內(nèi)學者評價

這篇論文獲得了ICML 2018的最佳論文獎;

這項研究澄清了一個誤區(qū):即便是好的出發(fā)點的區(qū)別對待也有可能會起到壞的效果。

未來可能的相關(guān)研究

對于結(jié)果評價的考量,可以考慮群體均值變化之外的其它因素(比如方差、個體級別的結(jié)果);

針對建模和測量誤差,研究結(jié)果優(yōu)化方法的魯棒性。

6. World Models

「世界模型」

論文地址

https://arxiv.org/abs/1803.10122

內(nèi)容概要

DavidHa和JurgenSchmidhuber開發(fā)了一個世界模型,它可以用無監(jiān)督的方式快速訓練,學到所處環(huán)境的空間和時間表示。這個智能體可以成功地在賽車地圖中導航,并且在VizDoom環(huán)境中躲開怪物發(fā)射的火球。而這些任務(wù)對于此前的方法來說都難以解決。

論文思想要點

論文所提的解決方案包含三個獨立的部分:

一個變分自動編碼器(VAE),它負責捕捉視覺信息。它會把RGB形式表示的輸入圖像壓縮為一個服從 高斯分布的 32維隱含向量。這樣,這個智能體只需要處理一個環(huán)境的很小的表示,從而大幅提高了學習效率。

一個循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN),它負責前饋思考。這是一個起到記憶作用的組件,它會在給定前一幀圖像和前一個動作的條件下嘗試預測視覺部分看到的下一幀圖像可能是什么樣子。

一個控制器,它負責選擇動作。它是一個非常簡單的神經(jīng)網(wǎng)絡(luò),它把VAE的輸出和RNN的隱含狀態(tài)級聯(lián)起來,然后選擇一個好的動作。

領(lǐng)域內(nèi)學者評價

這篇論文在AI研究者間得到了廣泛的討論,它是一項設(shè)計優(yōu)美的使用神經(jīng)網(wǎng)絡(luò)做強化學習的研究,而且讓智能體在自己「幻想」出的世界中進行訓練。

未來可能的相關(guān)研究

為了讓智能體探索更加復雜的世界,可以把小的RNN換成有更大容量的模型,或者集成一個外部存儲模塊。

論文中使用的規(guī)劃方法是逐時間步的,可以考慮嘗試更通用化的方法,也就可以使用層次化的規(guī)劃方法。

7. Taskonomy: Disentangling Task Transfer Learning

「任務(wù)學:任務(wù)遷移學習的解耦」

論文地址

https://arxiv.org/abs/1804.08328

內(nèi)容概要

自從現(xiàn)代計算機科學發(fā)展的早期以來,就有許多研究者們提出不同的視覺任務(wù)之間具有某種結(jié)構(gòu)?,F(xiàn)在,Amir Zamir和他的團隊終于做出了尋找這種結(jié)構(gòu)的嘗試。他們使用一個完全計算性的方式進行建模,發(fā)現(xiàn)了不同視覺任務(wù)之間的許多有用的聯(lián)系(甚至包括一些非平凡的視覺任務(wù))。他們也表明了可以利用這些相互依賴關(guān)系進行遷移學習,只需要大約 1/3的標注數(shù)據(jù)就可以達到相同的模型表現(xiàn)。

論文思想要點

一個了解不同視覺任務(wù)之間關(guān)系的模型需要的監(jiān)督可以更少,需要的計算量可以更小,而且它的行為也更容易預測。

人們更喜歡用這樣的完全計算性的方法發(fā)現(xiàn)不同視覺任務(wù)之間的關(guān)系,因為它可以避免引入人類的先驗假設(shè)。人類的先驗假設(shè)來自于直覺或者分析性的知識;這些假設(shè)完全可能是錯誤的,而神經(jīng)網(wǎng)絡(luò)可能是以完全不同的法則運行的。

領(lǐng)域內(nèi)學者評價

這篇論文獲得了 CVPR2018最佳論文獎;

論文的結(jié)果意義重大,因為大多數(shù)的真實世界任務(wù)中都沒辦法獲得大規(guī)模標注數(shù)據(jù)集。

未來可能的相關(guān)研究

目前論文中研究的常見視覺任務(wù)都是完全由人類定義的,下一步可以嘗試新的模式,那就是首先用計算性的方法發(fā)掘一些隱含的子任務(wù),而人類定義的視覺任務(wù)就是對它們觀察后得到的采樣;

探索是否有可能把模型學到的東西遷移到不完全屬于視覺領(lǐng)域的任務(wù)中,比如遷移到機器人控制。

8. Know What You Don't Know: Unanswerable Questions for SQuAD

「知道你不知道的:SQuAD 中無法回答的問題」

論文地址

https://arxiv.org/abs/1806.03822

內(nèi)容概要

斯坦福大學的一組研究人員們拓展了著名的斯坦福問答數(shù)據(jù)集 SQuAD,在其中增加了超過 5萬個無法回答的問題。這些問題的答案是無法從給出的文本段落中找到的,無法給出回答,但這些問題又和那些可以回答的問題看起來非常相似。更進一步的是,給出的文本段落中會含有仿佛相符但實際上并不正確的答案,這進一步提高了數(shù)據(jù)集的難度。升級后得到的 SQuAD 2.0也就成為了現(xiàn)有頂尖模型的重大挑戰(zhàn):一個在原版的SQuAD上可以得到 86%準確率的強有力的神經(jīng)網(wǎng)絡(luò)模型,如今在SQuAD 2.0上只能得到 66%的準確率。

論文思想要點

目前的自然語言理解系統(tǒng)與真正的語言理解還相距甚遠,其中一項根本原因就是目前的問答數(shù)據(jù)集都是僅僅針對「給出的文本段落里必然包含了正確答案」這一種情況設(shè)計的;

為了讓問答數(shù)據(jù)集變得真正有難度,「無法回答的問題」應(yīng)當滿足這兩種條件:

它們和給出的文本段落之間有一些聯(lián)系;

給出的文本段落中包含了看起來仿佛相符的答案,它包含的信息和提問想要獲得的信息是同一類型的,但并不正確。

領(lǐng)域內(nèi)學者評價

這篇論文獲得了 ACL2018最佳短論文獎;

這個新數(shù)據(jù)集提高了自然語言理解領(lǐng)域研究的問題的復雜度,會為這個領(lǐng)域的模型訓練結(jié)果提升起到直接的推動作用。

未來可能的相關(guān)研究

未來可以繼續(xù)開發(fā)出新種類的模型,它們要能夠「知道自己不知道什么」,從而對自然語言有更好的理解。

9. Large Scale GAN Training for High Fidelity Natural Image Synthesis

「用于高保真度自然圖像生成的大規(guī)模 GAN的訓練」

論文地址

https://arxiv.org/abs/1809.11096

內(nèi)容概要

DeepMind 的一個研究團隊認為目前的深度學習技術(shù)就已經(jīng)足以從現(xiàn)有的ImageNet、JFT-300M之類的圖形數(shù)據(jù)集生成高分辨率的、多樣化的圖像。具體來說,他們展示了生成式對抗性網(wǎng)絡(luò)(GANs)如果以非常大的規(guī)模訓練的話,可以生成看起來非常真實的圖像。這個「非常大的規(guī)?!褂卸啻竽??相比于以往的實驗,他們的模型的參數(shù)數(shù)量是 2到 4倍,訓練所用的批量大小也達到了 8倍。這種大規(guī)模的GANs,他們稱為BigGANs,已經(jīng)稱為了分類別圖像生成的最新頂級模型。

論文思想要點

選取更大的批量大小和參數(shù)數(shù)目以后,GANs的表現(xiàn)可以得到明顯的提升;

在生成器中加入正交正則化可以讓模型對某種特定的技術(shù)更為敏感(就是「截斷法」),這讓研究人員們有辦法控制樣本保真度和樣本多變性之間的平衡。

領(lǐng)域內(nèi)學者評價

這篇論文已經(jīng)投遞到了ICLR 2019;

BigGAN的生成器自從在TFHub上發(fā)布就受到了全世界AI研究人員們的追捧,(研究以及娛樂性質(zhì)地)用它生成貓狗、手表、泳裝、蒙娜麗莎、海岸等等各種內(nèi)容的圖像。

未來可能的相關(guān)研究

嘗試用更大的數(shù)據(jù)集訓練模型,進一步緩和GAN的穩(wěn)定性問題;

探索是否有可能降低GANs生成的奇怪樣本的數(shù)量。

10. BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding

「BERT:用于語言理解的深度雙向Transformer模型的預訓練」

論文地址

https://arxiv.org/abs/1810.04805

內(nèi)容概要

谷歌AI團隊展示了一個新的用于自然語言處理的前沿模型:BERT(BidirectionalEncoderRepresentations fromTransformers,用于Transformer模型的雙向編碼器表征)。它的設(shè)計可以讓模型同時從左以及從右處理文本內(nèi)容。雖然概念上說起來很簡單,但BERT帶來了驚人的實際表現(xiàn),它刷新了 11項不同的自然語言處理任務(wù)的最好成績,包括問答、命名實體識別以及其他一些和通用語言理解相關(guān)的任務(wù)。

論文思想要點

訓練一個深度雙向模型,在訓練過程中隨機地遮蔽一定比例的輸入字符。這種做法避免了在不同的訓練循環(huán)中模型可以間接地看到曾經(jīng)被掩蔽的字符。

同時也預訓練了一個句子關(guān)系模型,這個模型需要做一個二分類任務(wù),預測句子B是否緊接著句子A。這種設(shè)計讓BERT能夠更好地理解不同句子之間的關(guān)系。

用大量的數(shù)據(jù)(33億詞的語料庫)訓練一個非常大的模型(24個Transformer模塊,1024個隱層,3.4億個參數(shù))。

領(lǐng)域內(nèi)學者評價

BERT模型標志了NLP領(lǐng)域內(nèi)一個新時代的到來;

簡單來說,僅僅需要同時做兩個無監(jiān)督學習任務(wù)(「單詞填空」和「猜 B 是不是在 A 后面」)就可以在許多自然語言處理任務(wù)中取得良好成績;

使用經(jīng)過預訓練的語言模型也成為了新的標準做法。

未來可能的相關(guān)研究

在更多不同的任務(wù)上測試BERT;

測試BERT模型是否捕捉到了各種各樣的語言現(xiàn)象。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4814

    瀏覽量

    103539
  • 機器學習
    +關(guān)注

    關(guān)注

    66

    文章

    8501

    瀏覽量

    134565
  • nlp
    nlp
    +關(guān)注

    關(guān)注

    1

    文章

    490

    瀏覽量

    22613

原文標題:2018 年 Top 10 影響力 AI 研究論文

文章出處:【微信號:worldofai,微信公眾號:worldofai】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    格靈深瞳六論文入選ICCV 2025

    近日,國際頂級會議ICCV 2025(計算機視覺國際大會)公布論文錄用結(jié)果,格靈深瞳團隊共有6論文入選。
    的頭像 發(fā)表于 07-07 18:23 ?416次閱讀

    理想汽車八論文入選ICCV 2025

    近日,ICCV 2025(國際計算機視覺大會)公布論文錄用結(jié)果,理想汽車共有8論文入選,其中5來自自動駕駛團隊,3來自基座模型團隊。I
    的頭像 發(fā)表于 07-03 13:58 ?250次閱讀

    后摩智能四論文入選三大國際頂會

    2025 上半年,繼年初被 AAAI、ICLR、DAC 三大國際頂會收錄 5 論文后,后摩智能近期又有 4 論文入選CVPR、ICML
    的頭像 發(fā)表于 05-29 15:37 ?362次閱讀

    云知聲四論文入選自然語言處理頂會ACL 2025

    結(jié)果正式公布。云知聲在此次國際學術(shù)盛會中表現(xiàn)卓越,共有4論文被接收,其中包括2主會論文(Main Paper)和2Findings。入
    的頭像 發(fā)表于 05-26 14:15 ?544次閱讀
    云知聲四<b class='flag-5'>篇</b><b class='flag-5'>論文</b>入選自然語言處理頂會ACL 2025

    【「零基礎(chǔ)開發(fā)AI Agent」閱讀體驗】+ 入門學習

    很高興又有機會學習ai技術(shù),這次試讀的是「零基礎(chǔ)開發(fā)AI Agent」,作者葉濤、管鍇、張心雨。 大模型的普及是近三來的一件大事,萬物皆可大模型已成為趨勢。作為大模型開發(fā)應(yīng)用中重要
    發(fā)表于 05-02 09:26

    美報告:中國芯片研究論文全球領(lǐng)先

    據(jù)新華社報道,美國喬治敦大學“新興技術(shù)觀察項目(ETO)”3日在其網(wǎng)站發(fā)布一份報告說,2018至2023間,在全球發(fā)表的芯片設(shè)計和制造相關(guān)論文中,中國
    的頭像 發(fā)表于 03-05 14:32 ?1092次閱讀

    后摩智能5論文入選國際頂會

    2025伊始,后摩智能在三大國際頂會(AAAI、ICLR、DAC)中斬獲佳績,共有5論文被收錄,覆蓋大語言模型(LLM)推理優(yōu)化、模型量化、硬件加速等前沿方向。
    的頭像 發(fā)表于 02-19 14:02 ?756次閱讀
    后摩智能5<b class='flag-5'>篇</b><b class='flag-5'>論文</b>入選國際頂會

    當我問DeepSeek AI爆發(fā)時代的FPGA是否重要?答案是......

    AI時代,F(xiàn)PGA(現(xiàn)場可編程門陣列)具有極其重要的地位,主要體現(xiàn)在以下幾個方面: 1.硬件加速與高效能 ? 并行處理能力:FPGA內(nèi)部由大量可編程邏輯單元組成,能夠?qū)崿F(xiàn)高度并行的數(shù)據(jù)處理。這種
    發(fā)表于 02-19 13:55

    2024AI開發(fā)者中間件工具生態(tài)全面總結(jié)

    進行多方位的總結(jié)和梳理。 在第二章《TOP 101-2024 大模型觀點》中,生成式 AI 開發(fā)者莫爾索總結(jié)了 2024 AI 開發(fā)者中
    的頭像 發(fā)表于 02-14 09:45 ?601次閱讀

    2024AI編程技術(shù)與工具發(fā)展總結(jié)

    數(shù)據(jù)進行多方位的總結(jié)和梳理。 在第二章《TOP 101-2024 大模型觀點》中,同濟大學特聘教授、CCF 杰出會員 朱少民 對 2024 AI 編程技術(shù)與工具發(fā)展進行了總結(jié)。 全
    的頭像 發(fā)表于 02-13 09:11 ?669次閱讀
    2024<b class='flag-5'>年</b><b class='flag-5'>AI</b>編程技術(shù)與工具發(fā)展<b class='flag-5'>總結(jié)</b>

    特斯拉上海超級工廠五周年里程碑

    的本土化生產(chǎn)邁出了堅實的一步。 在過去的五年里,特斯拉上海超級工廠取得了令人矚目的成就。在剛剛過去的2024,該工廠實現(xiàn)了第300萬輛整車的下線,這一數(shù)字不僅彰顯了特斯拉在中國市場的強勁增長勢頭,也反映了其全球生產(chǎn)能力的顯
    的頭像 發(fā)表于 01-08 14:43 ?711次閱讀

    盤點NVIDIA 2024的創(chuàng)新成果

    在2024,AI 的影響力已經(jīng)擴展到加速計算和數(shù)據(jù)科學等多個關(guān)鍵領(lǐng)域,成為驅(qū)動各行各業(yè)技術(shù)革新和產(chǎn)業(yè)升級的關(guān)鍵因素。在這一年里,NVIDIA 又帶來了哪些創(chuàng)新成果,實現(xiàn)了哪些突破?跟隨本文一起盤點 NVIDIA 2024
    的頭像 發(fā)表于 01-02 14:32 ?672次閱讀

    微軟科技2025的新年祝福

    2024即將畫上句號,在過去的一年里,很微軟 AI持續(xù)創(chuàng)新和突破,并取得了矚目的成就。
    的頭像 發(fā)表于 01-02 09:09 ?571次閱讀

    AI for Science:人工智能驅(qū)動科學創(chuàng)新》第4章-AI與生命科學讀后感

    人們對AI for Science的關(guān)注推向了高潮。 2. 跨學科融合與科學研究新范式 AI與生命科學的結(jié)合,不僅推動了生命科學本身的進步,還促進了多個學科之間的交叉融合。這種跨學科的合作模式,打破
    發(fā)表于 10-14 09:21

    AI for Science:人工智能驅(qū)動科學創(chuàng)新》第二章AI for Science的技術(shù)支撐學習心得

    和數(shù)量直接影響到模型的準確性和可靠性。因此,數(shù)據(jù)獲取、處理、分析和質(zhì)量控制在AI for Science中至關(guān)重要。此外,數(shù)據(jù)驅(qū)動的研究范式也促使科學家從傳統(tǒng)的假設(shè)驅(qū)動轉(zhuǎn)向更加靈活和開放的研究
    發(fā)表于 10-14 09:16