完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>
標簽 > 深度學習
文章:4732個 瀏覽:122762次 帖子:173個
作為一個庫,Keras 仍然可以單獨使用,因此未來兩者可能會分道揚鑣。不過,因為谷歌官方支持 Keras 和 TensorFlow,所以似乎不太可能出現(xiàn)...
2018-10-31 標簽:深度學習TensorFlow 1.1萬 0
仍以VGG為例,由于前面采樣部分過大,有時候會導致后面進行反向卷積操作得到的結(jié)果分辨率較低,會出現(xiàn)細節(jié)丟失等問題。為此,F(xiàn)CN的解決方法是疊加第三、四、...
2014 年秋季,人工智能百年研究(OneHundred Year Study)項目啟動,這是一項對人工智能領(lǐng)域及其對人類、社區(qū)、社會影響的長期學術(shù)研究...
強化學習中如何高效地與環(huán)境互動?如何從經(jīng)驗中高效學習?
深度學習中的記憶總是非常有趣,科學家們經(jīng)歷了千辛萬苦,也很難找到一種結(jié)構(gòu)能打敗經(jīng)過良好調(diào)校的LSTM。但是,人類的記憶機制可不像LSTM。當我們從家開車...
Apache Spark的分布式深度學習框架BigDL的概述
該視頻概述了Apache Spark *的BigDL分布式深度學習框架。
2018-10-30 標簽:gpu大數(shù)據(jù)深度學習 3559 0
盡管地點映射本身就是一個困難的問題,足以專門寫一篇博客,人類的直覺能在很大程度上幫助解決這一問題??紤]上圖中訪問圣莫尼卡海灘的例子。稍微一瞥周邊地點,就...
深度文本匹配的簡介,深度文本匹配在智能客服中的應(yīng)用
隨著深度學習在計算機視覺、語音識別和推薦系統(tǒng)領(lǐng)域中的成功運用,近年來有很多研究致力于將深度神經(jīng)網(wǎng)絡(luò)模型應(yīng)用于自然語言處理任務(wù),以降低特征工程的成本。最早...
Keras實現(xiàn):用部分卷積補全圖像不規(guī)則缺損
其中⊙表示點乘,即每個矩陣元素對應(yīng)相乘,M是由0和1構(gòu)成的二進制掩碼。在每次完成部分卷積操作后,掩膜要進行一輪更新。這意味著如果卷積能夠在至少一個有效輸...
2018-10-26 標簽:神經(jīng)網(wǎng)絡(luò)圖像深度學習 4614 0
深度圖像和深度學習結(jié)合用于機器人抓取的Dex-Net、復(fù)雜目標分割以及讓機器人整理床鋪
目前常用的深度傳感器是結(jié)構(gòu)光傳感器,它可以用一種看不見的波長將一直物體的形狀投射到某場景中,比如我們熟知的Kinect。另一種深度感知的方法就是LIDA...
我們繼續(xù)以 NG 課題組提供的 sign 手勢數(shù)據(jù)集為例,學習如何通過Tensorflow快速搭建起一個深度學習項目。數(shù)據(jù)集標簽共有零到五總共 6 類標...
2018-10-25 標簽:神經(jīng)網(wǎng)絡(luò)深度學習tensorflow 7892 0
深度學習和神經(jīng)網(wǎng)絡(luò)的學習是什么樣的?
怎樣理解非線性變換和多層網(wǎng)絡(luò)后的線性可分,神經(jīng)網(wǎng)絡(luò)的學習就是學習如何利用矩陣的線性變換加激活函數(shù)的非線性變換。
2018-10-23 標簽:神經(jīng)網(wǎng)絡(luò)深度學習 4180 0
總結(jié)了18個Tips,讓你在瀏覽器里玩轉(zhuǎn)深度學習
控制模型的規(guī)模很重要。如果模型架構(gòu)太大太復(fù)雜,訓練和運行的速度都會降低,從瀏覽器載入模型度速度也會變慢。控制模型的規(guī)模說起來簡單,難的是取得準確率和模型...
2018-10-21 標簽:神經(jīng)網(wǎng)絡(luò)深度學習 2498 0
谷歌AI團隊新發(fā)布的BERT模型,BERT的創(chuàng)新點在哪里?
Transformer所使用的注意力機制的核心思想是去計算一句話中的每個詞對于這句話中所有詞的相互關(guān)系,然后認為這些詞與詞之間的相互關(guān)系在一定程度上反應(yīng)...
谷歌BERT模型的主體結(jié)構(gòu)和創(chuàng)新點介紹 雙向語言模型的引入
通俗地說就是在輸入一句話的時候,隨機地選一些要預(yù)測的詞,然后用一個特殊的符號來代替它們。盡管模型最終還是會看到所有位置上的輸入信息,但由于需要預(yù)測的詞已...
分布式文件系統(tǒng)的必要性,Python在分布式文件系統(tǒng)中的支持情況
這里通過收集或生成更多訓練數(shù)據(jù)而得到的可預(yù)測投資回報率(ROI)比上面的概念稍復(fù)雜。首先,你需要收集到足夠多的數(shù)據(jù),如下圖所示,使數(shù)據(jù)量超過“Small...
假設(shè)在下一次迭代i+1中,zc的分布偏移至pci+1。由于網(wǎng)絡(luò)層d的權(quán)重之前是根據(jù)pci更新的,但現(xiàn)在網(wǎng)絡(luò)層d面臨的輸入分布卻是pci+1。這一顯著差異...
2018-10-21 標簽:神經(jīng)網(wǎng)絡(luò)深度學習 4785 0
理解Batch Normalization中Batch所代表具體含義的知識基礎(chǔ)
所謂“Mini-Batch”,是指的從訓練數(shù)據(jù)全集T中隨機選擇的一個訓練數(shù)據(jù)子集合。假設(shè)訓練數(shù)據(jù)集合T包含N個樣本,而每個Mini-Batch的Batc...
到底誰可以產(chǎn)生更好的圖像修復(fù)結(jié)果?什么是圖像修補?
在自動識別方法中:排名第一的是深度學習方法-基于生成的圖像修復(fù)方法。但這不是一次壓倒性的勝利,因為這個算法從未達到我們研究中任何圖像的最佳分數(shù)。 “城市...
語音合成技術(shù)簡介,深度學習技術(shù)對合成技術(shù)發(fā)展的影響
第一階段:錦上添花。從 2012 年開始,深度學習技術(shù)在語音領(lǐng)域逐漸開始受到關(guān)注并得以應(yīng)用。這一階段,深度學習技術(shù)的主要作用,是替換原有的統(tǒng)計模型,提升...
編輯推薦廠商產(chǎn)品技術(shù)軟件/工具OS/語言教程專題
電機控制 | DSP | 氮化鎵 | 功率放大器 | ChatGPT | 自動駕駛 | TI | 瑞薩電子 |
BLDC | PLC | 碳化硅 | 二極管 | OpenAI | 元宇宙 | 安森美 | ADI |
無刷電機 | FOC | IGBT | 逆變器 | 文心一言 | 5G | 英飛凌 | 羅姆 |
直流電機 | PID | MOSFET | 傳感器 | 人工智能 | 物聯(lián)網(wǎng) | NXP | 賽靈思 |
步進電機 | SPWM | 充電樁 | IPM | 機器視覺 | 無人機 | 三菱電機 | ST |
伺服電機 | SVPWM | 光伏發(fā)電 | UPS | AR | 智能電網(wǎng) | 國民技術(shù) | Microchip |
Arduino | BeagleBone | 樹莓派 | STM32 | MSP430 | EFM32 | ARM mbed | EDA |
示波器 | LPC | imx8 | PSoC | Altium Designer | Allegro | Mentor | Pads |
OrCAD | Cadence | AutoCAD | 華秋DFM | Keil | MATLAB | MPLAB | Quartus |
C++ | Java | Python | JavaScript | node.js | RISC-V | verilog | Tensorflow |
Android | iOS | linux | RTOS | FreeRTOS | LiteOS | RT-THread | uCOS |
DuerOS | Brillo | Windows11 | HarmonyOS |