chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

谷歌Transformer八子全部“出逃”,他們創(chuàng)作了ChatGPT中的“T”

半導(dǎo)體產(chǎn)業(yè)縱橫 ? 來源:半導(dǎo)體產(chǎn)業(yè)縱橫 ? 2023-07-16 15:03 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

各自上路,改寫AI故事。

谷歌人工智能領(lǐng)域最有影響力的論文之一《Attention Is All You Need》的共同作者之一的人工智能研究員Llion Jones證實,他將于本月晚些時候離開谷歌日本公司并計劃在休假后創(chuàng)辦一家公司。

Llion Jones對媒體表示:"離開谷歌并不是一個容易的決定,與谷歌一起度過了美妙的十年,但現(xiàn)在是時候嘗試一些不同的東西了??紤]到人工智能的發(fā)展勢頭和進展,我覺得現(xiàn)在也是建立新公司的好時機"。

自2017年出版以來,《Attention Is All You Need》轟動硅谷。該論文介紹了Transformer的概念,這種系統(tǒng)可以幫助人工智能模型將其正在分析的數(shù)據(jù)中最重要的信息歸零。Transformer 現(xiàn)在是大型語言模型的關(guān)鍵構(gòu)建塊,該技術(shù)是 OpenAI 的 ChatGPT 等流行人工智能產(chǎn)品的基礎(chǔ)。

隨著Llion Jones的離開,這篇論文所有八位作者都已離開谷歌。

人們也許不認識他們的臉,或者沒聽過他的名字,但只需要5秒鐘,就可以介紹他們的身份——“他們創(chuàng)作了ChatGPT中的“T”。

0c96a4e6-2391-11ee-962d-dac502259ad0.png

來源:PitchBook

谷歌為何失去“Transformer八子”

Transfomer是谷歌最重要的發(fā)明之一,它最初是在午餐時設(shè)計出來的。2017年,Alphabet公司加利福尼亞山景城總部的研究人員在中午用餐時談?wù)撊绾巫層嬎銠C更高效地生成文本。在接下來的5個月里,他們進行了實驗,并在沒有意識到他們所發(fā)現(xiàn)的問題的重要性的情況下,將他們的發(fā)現(xiàn)寫成了一篇名為 《Attention is All You Need 》的研究論文。

隨后,他們帶來了人工智能的飛躍。

這篇論文的八位作者創(chuàng)建了Transformer系統(tǒng),使機器能夠比以往任何時候都更高效地生成類似人類的文本、圖像、DNA序列和許多其他類型的數(shù)據(jù)。他們的論文最終被其他研究人員引用了8萬多次,他們設(shè)計的人工智能架構(gòu)為OpenAI的ChatGPT("T "代表Transformer)、Midjourney等圖像生成工具提供了基礎(chǔ)。

谷歌與全世界分享了這一發(fā)現(xiàn),科技公司經(jīng)常開源新技術(shù),以獲得反饋、吸引人才和建立支持者社區(qū)。

但谷歌本身并沒有立即使用這項新技術(shù)。在谷歌努力將其尖端研究成果轉(zhuǎn)化為可用服務(wù)的過程中,該系統(tǒng)處于相對休眠狀態(tài)長達數(shù)年之久。但另一家公司OpenAI,它利用了谷歌的發(fā)明,對這家搜索巨頭發(fā)起了多年來最嚴重的威脅。

谷歌哪里出了問題?

一個明顯的問題是規(guī)模。根據(jù)人工智能公司 Glass.ai 的估計,谷歌擁有一支由 7,133 名員工組成的隊伍,而其員工總數(shù)約為 140,000 人。Glass.ai 今年早些時候掃描了 LinkedIn 的個人資料,以識別大型科技公司的人工智能員工。相比之下,OpenAI 引發(fā)了一場 AI 軍備競賽,其員工規(guī)模要小得多——到 2023 年,大約 375 名員工中約有 150 名 AI 研究人員。

谷歌的龐大規(guī)模意味著科學(xué)家和工程師在創(chuàng)建 Transformer 時必須經(jīng)過多層管理才能批準想法。谷歌智庫(該公司主要人工智能部門之一)的研究人員也缺乏明確的戰(zhàn)略方向,導(dǎo)致許多人沉迷于職業(yè)發(fā)展和研究論文的知名度。

另一個問題在于,將創(chuàng)意轉(zhuǎn)化為新產(chǎn)品的門檻也非常高。25 歲的伊利亞·波洛蘇欣 (Illia Polosukhin) 第一次與研究員同事阿什什·瓦斯瓦尼 (Ashish Vaswani) 和雅各布·烏茲科雷特 (Jakob Uszkoreit) 在谷歌食堂坐下來時說道,“除非(一個想法)能成為一項價值十億美元的業(yè)務(wù),否則谷歌不會采取行動?!钡⒁粋€價值十億美元的業(yè)務(wù)需要不斷的迭代和面對大量問題,這是谷歌并不總是容忍的。

谷歌的一位女發(fā)言人表示,該公司 "為我們在Transformer的行業(yè)定義性、突破性工作感到自豪,并為它所創(chuàng)造的人工智能生態(tài)系統(tǒng)而感到振奮,包括讓我們的研究員在谷歌公司外推進他們的研究與其他人合作并且發(fā)現(xiàn)新機會。"

德語流利的 Uszkoreit 注意到,這項新技術(shù)可以比谷歌翻譯更準確地將英語翻譯成德語。但谷歌本身花了很長時間才將該技術(shù)應(yīng)用到其免費翻譯工具或其語言模型 BERT 中,而且該公司從未將其部署在任何人都可以測試的聊天機器人中。也就是說,直到 2022 年底 ChatGPT 的推出才迫使谷歌在 2023 年 3 月迅速發(fā)布了Bard。

多年來,這些研究員們見證了他們的想法被其他人應(yīng)用到一系列任務(wù)中,從 OpenAI 的 ChatGPT 早期迭代到 DALL-E,從 Midjourney 的圖像工具到 DeepMind 的蛋白質(zhì)折疊系統(tǒng) AlphaFold。很難不注意到最令人興奮的創(chuàng)新發(fā)生在山景城之外。

在某種程度上,谷歌成為了自身成功的受害者。它的隊伍中有像 Geoffrey Hinton 這樣的傳奇人工智能科學(xué)家,并且在 2017 年就已經(jīng)在使用尖端的人工智能技術(shù)來處理文本。許多研究人員的心態(tài)是“如果它沒有壞,就不要修理它?!?/p>

價值40億美元的AI巨星們

共同撰寫2017年論文的研究人員離開谷歌后,他們繼續(xù)創(chuàng)辦創(chuàng)業(yè)公司,包括生產(chǎn)企業(yè)軟件的Cohere,以及由Noam Shazeer創(chuàng)辦的Character.ai,Noam Shazeer是該小組中在谷歌任職時間最長的人,曾被視為公司的人工智能傳奇人物。

根據(jù)研究公司Pitchbook和價格追蹤網(wǎng)站CoinMarketCap的估值統(tǒng)計,他們的企業(yè)總價值約為41億美元??梢哉f,他們是硅谷的人工智能的“貴族”。

0d23867c-2391-11ee-962d-dac502259ad0.png

八位作者在谷歌的工作時長

Polosukhin此后創(chuàng)辦了一家區(qū)塊鏈公司。Vaswani和 Niki Parmar 創(chuàng)辦了企業(yè)軟件公司 Essential.ai。Uszkoreit 喜歡挑戰(zhàn)人工智能研究的現(xiàn)狀——他的觀點是,如果它還沒有被打破,那就打破它,此后他與他人共同創(chuàng)立了一家名為 Inceptive Nucleics 的生物技術(shù)公司。

2016 年,Uszkoreit探索了人工智能中“注意力”的概念,即計算機區(qū)分數(shù)據(jù)集中最重要的信息。一年后的午餐時,三人討論了如何利用這個想法來更有效地翻譯單詞。當(dāng)時的谷歌翻譯很笨拙,尤其是對于非拉丁語言?!皾h語轉(zhuǎn)俄語太糟糕了,”Polosukhin回憶道。

其中一個問題在于循環(huán)神經(jīng)網(wǎng)絡(luò)處理序列中的單詞。它很慢并且沒有充分利用可以同時處理大量任務(wù)的芯片。家用計算機中的 CPU 可能有四個“核心”,用于處理和執(zhí)行指令,但用于處理人工智能系統(tǒng)的服務(wù)器中的 CPU 有數(shù)千個核心。這意味著人工智能模型可以同時“讀取”句子中的許多單詞。沒有人充分利用這一點。

Uszkoreit 會在 Google 辦公室里走來走去,在白板上畫出新架構(gòu)的圖表,并且經(jīng)常遭到懷疑。瓊斯說,他的團隊希望刪除當(dāng)時使用的循環(huán)神經(jīng)網(wǎng)絡(luò)中的“循環(huán)”部分,這“聽起來很瘋狂”。但隨著Parmar, Aidan Gomez和 Lukasz Kaiser等其他一些研究人員加入該小組,他們開始看到進展。

曾經(jīng),硅谷“八叛逆”改變了集成電路的歷史,如今谷歌的“八叛逆”會給世界帶來怎樣的變化?

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 人工智能
    +關(guān)注

    關(guān)注

    1812

    文章

    49536

    瀏覽量

    259285
  • ChatGPT
    +關(guān)注

    關(guān)注

    30

    文章

    1595

    瀏覽量

    9936

原文標題:谷歌Transformer八子全部“出逃”,他們創(chuàng)作了ChatGPT中的“T”

文章出處:【微信號:ICViews,微信公眾號:半導(dǎo)體產(chǎn)業(yè)縱橫】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    自動駕駛Transformer大模型會取代深度學(xué)習(xí)嗎?

    [首發(fā)于智駕最前沿微信公眾號]近年來,隨著ChatGPT、Claude、文心一言等大語言模型在生成文本、對話交互等領(lǐng)域的驚艷表現(xiàn),“Transformer架構(gòu)是否正在取代傳統(tǒng)深度學(xué)習(xí)”這一話題一直被
    的頭像 發(fā)表于 08-13 09:15 ?3793次閱讀
    自動駕駛<b class='flag-5'>中</b><b class='flag-5'>Transformer</b>大模型會取代深度學(xué)習(xí)嗎?

    Transformer架構(gòu)編碼器的工作流程

    編碼器是Transformer體系結(jié)構(gòu)的基本組件。編碼器的主要功能是將輸入標記轉(zhuǎn)換為上下文表示。與早期獨立處理token的模型不同,Transformer編碼器根據(jù)整個序列捕獲每個token的上下文。
    的頭像 發(fā)表于 06-10 14:27 ?674次閱讀
    <b class='flag-5'>Transformer</b>架構(gòu)<b class='flag-5'>中</b>編碼器的工作流程

    Transformer架構(gòu)概述

    由于Transformer模型的出現(xiàn)和快速發(fā)展,深度學(xué)習(xí)領(lǐng)域正在經(jīng)歷一場翻天覆地的變化。這些突破性的架構(gòu)不僅重新定義了自然語言處理(NLP)的標準,而且拓寬了視野,徹底改變了AI的許多方面。
    的頭像 發(fā)表于 06-10 14:24 ?721次閱讀
    <b class='flag-5'>Transformer</b>架構(gòu)概述

    和安信可Ai-M61模組對話?手搓一個ChatGPT 語音助手 #人工智能 #

    ChatGPT
    jf_31745078
    發(fā)布于 :2025年03月12日 15:56:59

    OpenAI免費開放ChatGPT搜索功能

    近日,OpenAI宣布了一項重大決策:向所有用戶免費開放ChatGPT搜索功能。這一舉措無疑將為用戶帶來更加高效、智能的搜索體驗。 與谷歌等傳統(tǒng)搜索引擎的收錄模式相比,ChatGPT搜索展現(xiàn)出了獨特
    的頭像 發(fā)表于 02-06 14:35 ?713次閱讀

    如何使用MATLAB構(gòu)建Transformer模型

    Transformer 模型在 2017 年由 Vaswani 等人在論文《Attentionis All You Need》首次提出。其設(shè)計初衷是為了解決自然語言處理(Nature
    的頭像 發(fā)表于 02-06 10:21 ?5368次閱讀
    如何使用MATLAB構(gòu)建<b class='flag-5'>Transformer</b>模型

    transformer專用ASIC芯片Sohu說明

    2022年,我們打賭說transformer會統(tǒng)治世界。 我們花了兩年時間打造Sohu,這是世界上第一個用于transformerChatGPT的“
    的頭像 發(fā)表于 01-06 09:13 ?1566次閱讀
    <b class='flag-5'>transformer</b>專用ASIC芯片Sohu說明

    ChatGPT深度融入蘋果Mac軟件生態(tài)

    近日,科技界迎來了一項重要更新。當(dāng)?shù)貢r間12月19日,OpenAI宣布了一項重大進展,其研發(fā)的ChatGPT已深度集成于蘋果Mac電腦的操作系統(tǒng)軟件,為用戶帶來了全新的使用體驗。 此次更新
    的頭像 發(fā)表于 12-23 10:50 ?938次閱讀

    ChatGPT新增實時搜索與高級語音功能

    在OpenAI的第天技術(shù)分享直播,ChatGPT的搜索功能迎來了重大更新。此次更新不僅豐富了ChatGPT的功能體系,更提升了其實用性和競爭力。 新增的實時搜索功能,是此次更新的亮
    的頭像 發(fā)表于 12-17 14:08 ?852次閱讀

    Transformer模型的具體應(yīng)用

    如果想在 AI 領(lǐng)域引領(lǐng)一輪新浪潮,就需要使用到 Transformer。
    的頭像 發(fā)表于 11-20 09:28 ?2176次閱讀
    <b class='flag-5'>Transformer</b>模型的具體應(yīng)用

    Transformer模型能夠做什么

    盡管名為 Transformer,但它們不是電視銀幕上的變形金剛,也不是電線桿上垃圾桶大小的變壓器。
    的頭像 發(fā)表于 11-20 09:27 ?1329次閱讀
    <b class='flag-5'>Transformer</b>模型能夠做什么

    ChatGPT服務(wù)中斷,OpenAI正積極恢復(fù)

    回應(yīng),表示他們正在積極調(diào)查問題的原因,并努力盡快恢復(fù)ChatGPT的功能。他們深知這一服務(wù)對用戶的重要性,因此全力以赴地投入到問題的解決。 經(jīng)過一段時間的緊急處理,OpenAI最新回
    的頭像 發(fā)表于 11-11 13:38 ?1019次閱讀

    自動駕駛中一直說的BEV+Transformer到底是個啥?

    在很多車企的自動駕駛介紹,都會聽到一個關(guān)鍵技術(shù),那就是BEV+Transformer,那BEV+Transformer到底是個啥?為什么很多車企在自動駕駛技術(shù)中都十分追捧這項技術(shù)?其實“BEV
    的頭像 發(fā)表于 11-07 11:19 ?1901次閱讀
    自動駕駛中一直說的BEV+<b class='flag-5'>Transformer</b>到底是個啥?

    OpenAI在ChatGPT增添搜索功能

    近日,OpenAI宣布為其旗艦產(chǎn)品ChatGPT增添全新的搜索功能,此舉標志著該公司對Alphabet旗下谷歌的直接挑戰(zhàn)進一步升級。OpenAI周四正式揭曉了這一名為“ChatGPT搜索”的新功能
    的頭像 發(fā)表于 11-01 17:01 ?902次閱讀

    ChatGPT:怎樣打造智能客服體驗的重要工具?

    和優(yōu)化ChatGPT模型。2.模型訓(xùn)練和調(diào)優(yōu):使用收集到的數(shù)據(jù)對ChatGPT進行訓(xùn)練,以使其能夠理解和生成自然語言對話。通過迭代訓(xùn)練和調(diào)優(yōu),提高模型在客服場景的表現(xiàn)。3.針對特定任務(wù)的微調(diào):根據(jù)特定
    的頭像 發(fā)表于 11-01 11:12 ?565次閱讀
    <b class='flag-5'>ChatGPT</b>:怎樣打造智能客服體驗的重要工具?