chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

專訪Keras之父:從何開始對深度學習感興趣、Keras的創(chuàng)建背后的動機

DPVg_AI_era ? 來源:未知 ? 作者:李倩 ? 2018-11-19 09:29 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

本文是對Keras的創(chuàng)造者、谷歌AI研究員Francois Chollet的專訪,內(nèi)容包括Fran?ois從何開始對深度學習感興趣、Keras的創(chuàng)建背后的動機,F(xiàn)ran?ois對TensorFlow等其他框架的看法、給初學者的建議等。

本文作者Sanyam Bhutani專訪了一系列他心目中的“AI英雄”,包括GAN的創(chuàng)造者Ian Goodfellow、最年輕的Kaggle Grandmasters等等。

這次,他的采訪對象是機器學習社區(qū)最偉大的貢獻者之一、Keras的創(chuàng)造者,也是最好的深度學習書籍的作者之一:Francois Chollet。

Francois Chollet目前是Google AI的研究員,也是Keras開發(fā)的核心人物。

Francois Chollet

Sanyam Bhutani:你好,F(xiàn)ran?ois,非常感謝你抽出時間參加這次采訪。能和你談話真是我的榮幸。

Francois Chollet:謝謝你邀請我,我很樂意回答你的問題。

問:你現(xiàn)在在 Google AI Research工作,并且你創(chuàng)建了最受歡迎的深度學習庫之一。你能告訴我們你是怎么開始的嗎?是什么讓你對深度學習開始感興趣?

Francois Chollet:我研究人工智能已經(jīng)有很長一段時間了,但在我還是學生時,我對學習視覺感知的層疊、模塊化、層次化表示的這些具體問題很感興趣。當時,Jeff Hawkins寫了一本相當發(fā)人深省的書(書名是:On Intelligence),內(nèi)容包括大腦中的分層信息處理,MIT的一些人一直在研究受人類視覺皮層啟發(fā)的視覺感知層級模型,就是HMAX模型家族。

這些觀點給我的印象非常深刻,并且我認為是正確的,所以我開始研究自己的算法。那時我沒有使用神經(jīng)網(wǎng)絡,我開始使用基于矩陣分解的堆疊特征學習器。我想要學習的不僅僅是視覺特征的層次結(jié)構(gòu),而是視覺-時間特征的層次結(jié)構(gòu),我想找到視覺特征與時間的相關(guān)性,而不僅僅是與空間的相關(guān)性。2012年年中,當我在東京大學做研究時,我獲得了一些初步的成功——我將我的設置應用到無監(jiān)督的few-shot手勢識別中,并取得了一些非常好的結(jié)果。幾個月后,Hinton的實驗室贏得了ImageNet競賽冠軍(我在東京大學的實驗室也參加了這個競賽),他們在GPU上訓練深度卷積神經(jīng)網(wǎng)絡(deep convnet),因此我對這種方法很感興趣。

這是人們現(xiàn)在已經(jīng)忽略的東西,但是用反向傳播訓練的端到端可微模型只是學習感知的模塊化層次表示問題的一種解決方案,還有其他途徑尚未得到探索。這個問題本身只是AI領域的眾多問題之一。

問:你能分享一下創(chuàng)建Keras的最初動機嗎?你有沒有想到它會變得如此受歡迎?

Fran?ois Chollet:沒有,我絕對沒想到它會變得如此之大。我最初是希望它能在當時使用深度學習的一小群人中引起一些轟動,那是在2015年3月(做深度學習的可能有幾千人),但當時沒有人知道深度學習能在接下來的幾年里變得如此熱門。

我開始創(chuàng)建Keras是為了我自己。我當時在業(yè)余進行自然語言處理的研究,希望找到一個好的工具來使用RNNs。LSTM算法在當時基本上還不為人所知,但隨著神經(jīng)網(wǎng)絡在機器學習領域日益突出,一些人開始研究LSTM在自然語言處理中的應用。據(jù)我所知,當時LSTM還沒有可重用的開源實現(xiàn),所以我用Theano做了一個。后來我做了更多的層。它就變成了一個框架。我把它命名為Keras,并且開源了它,一切是從那里發(fā)展起來的。

使它與眾不同的原因是:與其他框架相比,它非常易于得到,也易于使用;它支持RNNs和convnets(我想它是第一個支持convnets的框架),并且它允許你通過Python代碼而不是通過配置文件來定義模型(在這之前,通過配置文件來定義模型是最流行的方法,特別是對于Caffe和PyLearn2)。

問:你對Keras成為TensorFlow 2.0的默認API有何看法?你為什么覺得這是有必要的?

Francois Chollet:TensorFlow是一個非常強大的框架,但是它長期以來一直受到可用性問題的困擾,特別是它是一個龐大的、有時令人困惑的API。TensorFlow 2在很大程度上解決了這些問題。TensorFlow 2改進的核心是兩件事:eager execution和Keras API。 Eager execution為TensorFlow帶來了一種命令式的編碼風格,使其更直觀、更易于調(diào)試。Keras API將使用模式整合到一個連貫的、真正高效且令人愉快的workflows中,適合于從研究到應用程序開發(fā)到部署的各種用戶配置文件。我對即將發(fā)布的內(nèi)容感到非常興奮。你應該很快就會看到了!

問:除了TF和Keras之外,你認為還有哪些框架看起來很有前景?

Francois Chollet:我認為MXNet和它的高級APIGluon很有前景,它們都受到Keras和Chainer的啟發(fā)。MXNet利用了許多與TensorFlow 2一致的想法—— eager execution和symbolic execution的混合。與TensorFlow一樣,它是為數(shù)不多的具有實際生產(chǎn)級和可擴展性的框架。MXNet背后有很多工程力量——亞馬遜有一個龐大的團隊在做這件事。這是一個嚴肅的項目,有一些非常好的想法和可靠的執(zhí)行力。

問:對于那些懷著有朝一日在谷歌工作的夢想而對深度學習感興趣的讀者和初學者,你有什么建議?

Fran?ois Chollet:我認為你不應該把你的夢想和外在的身份標志聯(lián)系在一起,比如為一家知名公司工作,或者賺一筆錢,或者獲得某個特別的title。要弄清楚你生命的價值是什么,然后堅持你的價值觀。永遠不必為某一個決定后悔。

問:你能告訴我們你生命里的一天是什么樣的嗎?

Francois Chollet:不是很吸引人,主要是review代碼,與人交談,寫設計文檔,等等。我仍然編寫大量的代碼。

問:人們普遍認為,要在深度學習中取得重大成果,需要有大量資源。你認為一個人如果沒有谷歌研究員可能擁有的資源,能夠?qū)@個領域做出重大貢獻嗎?

Francois Chollet:當然,有一些類型的問題需要行業(yè)規(guī)模的訓練資源。但是,有很多問題只需要有一個GPU,就能取得重大進展。目前阻礙AI研究的主要原因不是缺乏硬件,而是缺乏多樣化的思維。如果你的資源有限,那么不要把時間花在擔心GPU上,而是擔心你是否在處理正確的問題,是否在提出正確的問題。

問:你一直是“AI倫理”的倡導者。你能分享一些在構(gòu)建“AI產(chǎn)品”時必須注意的方面嗎?

Francois Chollet:其他人對機器學習的倫理問題的討論比我好得多。比如Kate Crawford,還有Meredith Whittaker。我想對此感興趣的人都應該看看他們的作品。

問:你覺得機器學習被過度炒作了嗎?

Fran?ois Chollet:在某種程度上,的確是。我認為機器學習在某種程度上既被高估了,也被低估了。一方面,人們往往過度高估了當前機器學習系統(tǒng)的智能和泛化能力,將機器學習視為一根魔杖,遇到任意問題只要揮揮魔杖,問題就能消失。當然,這在很大程度上是錯誤的,我們的算法中很少有真正的智能,它們的應用范圍非常狹窄。

但與此同時,大多數(shù)人仍然低估了今天的相對粗糙的系統(tǒng)所能取得的成就,如果我們系統(tǒng)地將它們應用于它們可能解決的每一個問題的話。在某種程度上,機器學習是我們這個時代的蒸汽動力:這是一種非?;镜臋C制,但如果大規(guī)模使用,它仍有可能深刻地改變世界。

問:你認為博士或碩士學位的專業(yè)水平是必要的嗎,還是一個人可以在不成為“專家”的情況下對深度學習領域做出貢獻?

Francois Chollet:當今在深度學習領域很多重要貢獻的人都沒有博士學位。要想對一個領域做出有意義的貢獻,無論是系統(tǒng)開發(fā)還是新研究,你必須要有一定水平的專業(yè)知識。但很明顯,你不需要通過博士課程就能獲得專業(yè)知識,而擁有博士學位并不能保證你在任何領域都能做出有意義的貢獻——理論上應該是這樣,但就我所知,現(xiàn)實與這個理論不太相符。

事實上,除非你的目標是成為一名學者,否則我認為獲得博士學位并不是獲得專業(yè)知識的最佳途徑。最好的道路是能讓你快速、開放地成長的道路。在團隊合作和專家密切指導下開展各種項目,你能最快地學到知識。在實踐中,典型的博士項目不是那樣的。

問:在我們結(jié)束之前,對于那些對如何開啟深度學習感到不知所措的初學者,你有什么建議嗎?

Fran?ois Chollet:10年后,你能買到一本教科書,上面會可以很好地總結(jié)2010年到2020年期間AI的進展。今天發(fā)布的大量內(nèi)容可能看起來很重要,但其中大部分都是噪音。要專注于大問題。

Sanyam Bhutani:非常感謝你接受這個采訪。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 神經(jīng)網(wǎng)絡

    關(guān)注

    42

    文章

    4829

    瀏覽量

    106809
  • 機器學習
    +關(guān)注

    關(guān)注

    66

    文章

    8541

    瀏覽量

    136236

原文標題:專訪Keras之父:關(guān)于深度學習、Keras的誕生和給初學者的建議

文章出處:【微信號:AI_era,微信公眾號:新智元】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    11 月的 KiCon Asia 前開發(fā)者希望了解下中國用戶最感興趣的功能、需求

    “ ? 11 月的 KiCon Asia 前開發(fā)者希望了解下中國用戶最感興趣的功能、需求。大家可以把自己的想法填在這個文檔中(或點擊閱讀原文): https://docs.qq.com/sheet
    的頭像 發(fā)表于 10-24 11:20 ?314次閱讀

    如何在機器視覺中部署深度學習神經(jīng)網(wǎng)絡

    人士而言往往難以理解,人們也常常誤以為需要扎實的編程技能才能真正掌握并合理使用這項技術(shù)。事實上,這種印象忽視了該技術(shù)為機器視覺(乃至生產(chǎn)自動化)帶來的潛力,因為深度學習并非只屬于計算機科學家或程序員。 從頭開始:什么
    的頭像 發(fā)表于 09-10 17:38 ?703次閱讀
    如何在機器視覺中部署<b class='flag-5'>深度</b><b class='flag-5'>學習</b>神經(jīng)網(wǎng)絡

    自動駕駛中Transformer大模型會取代深度學習嗎?

    持續(xù)討論。特別是在自動駕駛領域,部分廠商開始嘗試將多模態(tài)大模型(MLLM)引入到感知、規(guī)劃與決策系統(tǒng),引發(fā)了“傳統(tǒng)深度學習是否已過時”的激烈爭論。然而,從技術(shù)原理、算力成本、安全需求與實際落地路徑等維度來看,Transforme
    的頭像 發(fā)表于 08-13 09:15 ?3923次閱讀
    自動駕駛中Transformer大模型會取代<b class='flag-5'>深度</b><b class='flag-5'>學習</b>嗎?

    Nordic收購 Neuton.AI 關(guān)于產(chǎn)品技術(shù)的分析

    示例和支持,方便開發(fā)者在 Nordic 的各類芯片上實現(xiàn)高效的邊緣 AI 應用; 如果對這個AI人工智能應用感興趣,請評論區(qū)聯(lián)系我們.
    發(fā)表于 06-28 14:18

    入行嵌入式難度大不大?

    技術(shù)的不斷進步,嵌入式工程師需要不斷學習新的技術(shù),如人工智能、物聯(lián)網(wǎng)等。同時,提升自己的項目經(jīng)驗和解決問題的能力,也有助于提高薪資待遇和職業(yè)發(fā)展空間。 (四)感興趣入行 如果你對嵌入式領域感興趣,那么
    發(fā)表于 04-17 10:14

    學硬件好還是學軟件好?

    ,如電路板、處理器、內(nèi)存等。硬件工程師通常負責設計、測試和維護這些設備。如果你對電子工程、物理或集成電路設計等領域感興趣,那么學習硬件可能是一個不錯的選擇。硬件行業(yè)的就業(yè)機會通常與電子產(chǎn)品制造、通信設備
    發(fā)表于 04-07 15:27

    基于stm32h743IIK在cubeai上部署keras模型,模型輸出結(jié)果都是同一組概率數(shù)組,為什么?

    基于stm32h743IIK,在cubeai上部署keras模型,模型輸出結(jié)果都是同一組概率數(shù)組,一點也搞不明白,看社區(qū)也有相同的問題,但沒有解決方案
    發(fā)表于 03-10 06:42

    將YOLOv4模型轉(zhuǎn)換為IR的說明,無法將模型轉(zhuǎn)換為TensorFlow2格式怎么解決?

    遵照 將 YOLOv4 模型轉(zhuǎn)換為 IR 的 說明,但無法將模型轉(zhuǎn)換為 TensorFlow2* 格式。 將 YOLOv4 darknet 轉(zhuǎn)換為 Keras 模型時,收到 TypeError: buffer is too small for requested array 錯誤。
    發(fā)表于 03-07 07:14

    如何將Keras H5模型轉(zhuǎn)換為中間表示 (IR) 格式?

    第 1 步: 將 Keras H5 模型轉(zhuǎn)換為保存的型號格式 安裝 依賴關(guān)系: cd deployment_toolsmodel_optimizerinstall_prerequisites
    發(fā)表于 03-07 06:11

    與OpenVINO?推斷時遇到“Runtimeeror: Can Can Constant Fold Eltwise節(jié)點”錯誤怎么解決?

    使用模型優(yōu)化器將自定義 Keras 模型轉(zhuǎn)換為中間表示 (IR): mo --use_new_frontend --framework tf --input_shape
    發(fā)表于 03-05 07:53

    轉(zhuǎn)換Keras H5模型,為什么無法確定--input_shape參數(shù)的值?

    使用以下命令轉(zhuǎn)換 Keras H5 模型: mo --saved_model_dir model/ 遇到以下錯誤: [ ERROR ] Shape [-1 30 30 3
    發(fā)表于 03-05 07:51

    基于高光譜深度特征的油菜葉片鋅含量檢測

    為了實現(xiàn)油菜葉片鋅含量的快速無損檢測,該研究采用一種基于高光譜成像技術(shù)結(jié)合深度遷移學習算法的高精度檢測方法,通過無土栽培的方式,利用高光譜成像設備采集油菜葉片樣本高光譜圖像信息,并將整個葉片作為感興趣區(qū)域獲取其平均光譜信息。
    的頭像 發(fā)表于 02-24 18:03 ?631次閱讀
    基于高光譜<b class='flag-5'>深度</b>特征的油菜葉片鋅含量檢測

    軍事應用中深度學習的挑戰(zhàn)與機遇

    人工智能尤其是深度學習技術(shù)的最新進展,加速了不同應用領域的創(chuàng)新與發(fā)展。深度學習技術(shù)的發(fā)展深刻影響了軍事發(fā)展趨勢,導致戰(zhàn)爭形式和模式發(fā)生重大變化。本文將概述
    的頭像 發(fā)表于 02-14 11:15 ?825次閱讀

    馬斯克明確表態(tài):對收購TikTok不感興趣

    近日,馬斯克在德國一場技術(shù)峰會的線上視頻中,首次公開表達了他對收購TikTok的立場——“不感興趣”。這一表態(tài)迅速引發(fā)了業(yè)界的廣泛關(guān)注和討論。 在峰會視頻連線環(huán)節(jié),馬斯克明確表示:“我沒有參與
    的頭像 發(fā)表于 02-10 09:53 ?824次閱讀

    KerasHub統(tǒng)一、全面的預訓練模型庫

    深度學習領域正在迅速發(fā)展,在處理各種類型的任務中,預訓練模型變得越來越重要。Keras 以其用戶友好型 API 和對易用性的重視而聞名,始終處于這一動向的前沿。Keras 擁有專用的內(nèi)
    的頭像 發(fā)表于 12-20 10:32 ?776次閱讀