chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

騰訊自然語(yǔ)言處理面試問(wèn)題

深度學(xué)習(xí)自然語(yǔ)言處理 ? 來(lái)源:深度學(xué)習(xí)自然語(yǔ)言處理 ? 作者:ink ? 2020-11-03 18:02 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

師兄在騰訊,就讓師兄內(nèi)推了一下騰訊自然語(yǔ)言處理的實(shí)習(xí)。在內(nèi)推前,簡(jiǎn)單把李航的統(tǒng)計(jì)學(xué)習(xí)方法,簡(jiǎn)歷涉及的知識(shí)點(diǎn)都過(guò)了一遍,整理了一下,同時(shí)leetcode刷了大概100題。 準(zhǔn)備過(guò)后就把簡(jiǎn)歷給師兄了。投完簡(jiǎn)歷當(dāng)天下午就收到了騰訊的短信約晚上面試(這也太效率了= =)。下面簡(jiǎn)單記錄一些面試的問(wèn)題(很多問(wèn)題都是項(xiàng)目涉及的知識(shí)點(diǎn),每個(gè)人可能都不一樣)。

一面(技術(shù)面) 基本就是把簡(jiǎn)歷過(guò)了一遍,問(wèn)問(wèn)一些項(xiàng)目上的細(xì)節(jié)。

1、先簡(jiǎn)單自我介紹一下吧。
2、看你之前實(shí)習(xí)過(guò),說(shuō)說(shuō)當(dāng)時(shí)實(shí)習(xí)都做了些啥。
3、介紹一下transformer吧,除了self-attention還知道哪些attention。
4、看你用了反向翻譯,簡(jiǎn)單介紹一下吧,除了這個(gè)還知道哪些數(shù)據(jù)擴(kuò)充的方法嗎,每個(gè)方法有什么區(qū)別?
5、介紹一下R2L-Rerank吧。
6、講一講bert,roberta吧,BPE和word piece有什么區(qū)別?
7、介紹一下FGM。
8、介紹一下Focal loss。
9、python的迭代器和生成器。
10、算法題:打印二叉樹(shù)從右邊看能看到的節(jié)點(diǎn)。 一面還算順利結(jié)束后第二天就接到了二面的電話(huà)。

二面(技術(shù)面) 基本也是把項(xiàng)目比賽過(guò)一遍,然后問(wèn)一些細(xì)節(jié)。
1、簡(jiǎn)單介紹一下自己吧。
2、介紹一下AUC吧,和準(zhǔn)確率有啥區(qū)別。
3、介紹一下F-score,Macro-F1和micro-F1有啥區(qū)別。
4、bert如果輸入超過(guò)512怎么辦。
5、那你介紹一下transformer-xl吧。
6、如果你自己訓(xùn)練輸入長(zhǎng)度為1024的bert,使用的顯存會(huì)是原來(lái)的幾倍。
7、你在投的論文做的是什么,介紹一下,看你是用fairseq框架寫(xiě)的,具體修改了哪些模塊。
8、算法題:最長(zhǎng)上升子序列。
9、用過(guò)單機(jī)多卡或者多機(jī)多卡訓(xùn)練嗎?講一講。
10、你有什么要問(wèn)我的嗎? 二面也比較順利,第二天就接到了三面的電話(huà)。

三面(技術(shù)面) 我當(dāng)時(shí)看面經(jīng)別人都是兩面,我居然有三面= = ,三面應(yīng)該是一個(gè)leader面的。
1、之前實(shí)習(xí)是負(fù)責(zé)什么的,大概開(kāi)發(fā)的流程是什么樣的。
2、你做的這些項(xiàng)目是偏實(shí)驗(yàn)的的還是有一定的工業(yè)落地的,比如做了一個(gè)網(wǎng)站或者api等。
3、你們平常打比賽的時(shí)候,隊(duì)伍是怎么合作的?
4、你做的項(xiàng)目里的公開(kāi)數(shù)據(jù)集你知道是怎么采集的嗎?它會(huì)不會(huì)有很多臟數(shù)據(jù)?這些臟數(shù)據(jù)對(duì)模型有什么影響?你是怎么處理它們的?
5、有看過(guò)模型的bad case嗎?針對(duì)bad case做了哪些提升?
6、系統(tǒng)地介紹一下你研究的這個(gè)方向。最近你這個(gè)方向效果最好的論文是哪篇?它是怎么做的?
7、你有什么想問(wèn)的嗎?

三面沒(méi)有算法題,感覺(jué)問(wèn)的是一些方法論的東西。答得也還不錯(cuò),沒(méi)過(guò)幾天就接到了HR的電話(huà)。 HR面 HR很親切,面試體驗(yàn)很棒,上來(lái)先給我介紹了一下他們部門(mén)的一些發(fā)展歷史和現(xiàn)在的情況,然后了解了一下我的實(shí)驗(yàn)室,實(shí)驗(yàn)室的研究方向,之前的實(shí)習(xí)情況,大概詢(xún)問(wèn)了可以入職的時(shí)間。整個(gè)面試下來(lái)感覺(jué)平時(shí)的積累很重要,之后有空了也準(zhǔn)備把之前整理的資料慢慢寫(xiě)成博客。

責(zé)任編輯:xj

原文標(biāo)題:騰訊自然語(yǔ)言處理實(shí)習(xí)面經(jīng)

文章出處:【微信公眾號(hào):深度學(xué)習(xí)自然語(yǔ)言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 騰訊
    +關(guān)注

    關(guān)注

    7

    文章

    1678

    瀏覽量

    50288
  • 自然語(yǔ)言處理
    +關(guān)注

    關(guān)注

    1

    文章

    628

    瀏覽量

    14154
  • 自然語(yǔ)言
    +關(guān)注

    關(guān)注

    1

    文章

    292

    瀏覽量

    13654

原文標(biāo)題:騰訊自然語(yǔ)言處理實(shí)習(xí)面經(jīng)

文章出處:【微信號(hào):zenRRan,微信公眾號(hào):深度學(xué)習(xí)自然語(yǔ)言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    如何優(yōu)化自然語(yǔ)言處理模型的性能

    優(yōu)化自然語(yǔ)言處理(NLP)模型的性能是一個(gè)多方面的任務(wù),涉及數(shù)據(jù)預(yù)處理、特征工程、模型選擇、模型調(diào)參、模型集成與融合等多個(gè)環(huán)節(jié)。以下是一些具體的優(yōu)化策略: 一、數(shù)據(jù)預(yù)處理優(yōu)化 文本清洗
    的頭像 發(fā)表于 12-05 15:30 ?1696次閱讀

    如何使用自然語(yǔ)言處理分析文本數(shù)據(jù)

    使用自然語(yǔ)言處理(NLP)分析文本數(shù)據(jù)是一個(gè)復(fù)雜但系統(tǒng)的過(guò)程,涉及多個(gè)步驟和技術(shù)。以下是一個(gè)基本的流程,幫助你理解如何使用NLP來(lái)分析文本數(shù)據(jù): 1. 數(shù)據(jù)收集 收集文本數(shù)據(jù) :從各種來(lái)源(如社交
    的頭像 發(fā)表于 12-05 15:27 ?1572次閱讀

    自然語(yǔ)言處理與機(jī)器學(xué)習(xí)的關(guān)系 自然語(yǔ)言處理的基本概念及步驟

    自然語(yǔ)言處理(Natural Language Processing,簡(jiǎn)稱(chēng)NLP)是人工智能和語(yǔ)言學(xué)領(lǐng)域的一個(gè)分支,它致力于研究如何讓計(jì)算機(jī)能夠理解、解釋和生成人類(lèi)語(yǔ)言。機(jī)器學(xué)習(xí)(Ma
    的頭像 發(fā)表于 12-05 15:21 ?1976次閱讀

    語(yǔ)音識(shí)別與自然語(yǔ)言處理的關(guān)系

    在人工智能的快速發(fā)展中,語(yǔ)音識(shí)別和自然語(yǔ)言處理(NLP)成為了兩個(gè)重要的技術(shù)支柱。語(yǔ)音識(shí)別技術(shù)使得機(jī)器能夠理解人類(lèi)的語(yǔ)音,而自然語(yǔ)言處理則讓機(jī)器能夠理解、解釋和生成人類(lèi)
    的頭像 發(fā)表于 11-26 09:21 ?1493次閱讀

    什么是LLM?LLM在自然語(yǔ)言處理中的應(yīng)用

    隨著人工智能技術(shù)的飛速發(fā)展,自然語(yǔ)言處理(NLP)領(lǐng)域迎來(lái)了革命性的進(jìn)步。其中,大型語(yǔ)言模型(LLM)的出現(xiàn),標(biāo)志著我們對(duì)語(yǔ)言理解能力的一次飛躍。LLM通過(guò)深度學(xué)習(xí)和海量數(shù)據(jù)訓(xùn)練,使得
    的頭像 發(fā)表于 11-19 15:32 ?3640次閱讀

    ASR與自然語(yǔ)言處理的結(jié)合

    ASR(Automatic Speech Recognition,自動(dòng)語(yǔ)音識(shí)別)與自然語(yǔ)言處理(NLP)是人工智能領(lǐng)域的兩個(gè)重要分支,它們?cè)谠S多應(yīng)用中緊密結(jié)合,共同構(gòu)成了自然語(yǔ)言理解和生成的技術(shù)體系
    的頭像 發(fā)表于 11-18 15:19 ?1025次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)在自然語(yǔ)言處理中的應(yīng)用

    自然語(yǔ)言處理是人工智能領(lǐng)域的一個(gè)重要分支,它致力于使計(jì)算機(jī)能夠理解、解釋和生成人類(lèi)語(yǔ)言。隨著深度學(xué)習(xí)技術(shù)的發(fā)展,卷積神經(jīng)網(wǎng)絡(luò)(CNNs)作為一種強(qiáng)大的模型,在圖像識(shí)別和語(yǔ)音處理等領(lǐng)域取
    的頭像 發(fā)表于 11-15 14:58 ?802次閱讀

    循環(huán)神經(jīng)網(wǎng)絡(luò)在自然語(yǔ)言處理中的應(yīng)用

    自然語(yǔ)言處理(NLP)是人工智能領(lǐng)域的一個(gè)重要分支,它致力于使計(jì)算機(jī)能夠理解、解釋和生成人類(lèi)語(yǔ)言。隨著深度學(xué)習(xí)技術(shù)的發(fā)展,循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)因其在處理序列數(shù)據(jù)方面的優(yōu)勢(shì)而在NLP中
    的頭像 發(fā)表于 11-15 09:41 ?813次閱讀

    使用LSTM神經(jīng)網(wǎng)絡(luò)處理自然語(yǔ)言處理任務(wù)

    自然語(yǔ)言處理(NLP)是人工智能領(lǐng)域的一個(gè)重要分支,它旨在使計(jì)算機(jī)能夠理解、解釋和生成人類(lèi)語(yǔ)言。隨著深度學(xué)習(xí)技術(shù)的發(fā)展,特別是循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)及其變體——長(zhǎng)短期記憶(LSTM)網(wǎng)絡(luò)的出現(xiàn)
    的頭像 發(fā)表于 11-13 09:56 ?1157次閱讀

    自然語(yǔ)言處理的未來(lái)發(fā)展趨勢(shì)

    隨著技術(shù)的進(jìn)步,自然語(yǔ)言處理(NLP)已經(jīng)成為人工智能領(lǐng)域的一個(gè)重要分支。NLP的目標(biāo)是使計(jì)算機(jī)能夠理解、解釋和生成人類(lèi)語(yǔ)言,這不僅涉及到語(yǔ)言的表層形式,還包括
    的頭像 發(fā)表于 11-11 10:37 ?1723次閱讀

    自然語(yǔ)言處理與機(jī)器學(xué)習(xí)的區(qū)別

    在人工智能的快速發(fā)展中,自然語(yǔ)言處理(NLP)和機(jī)器學(xué)習(xí)(ML)成為了兩個(gè)核心的研究領(lǐng)域。它們都致力于解決復(fù)雜的問(wèn)題,但側(cè)重點(diǎn)和應(yīng)用場(chǎng)景有所不同。 1. 自然語(yǔ)言處理(NLP) 定義:
    的頭像 發(fā)表于 11-11 10:35 ?1539次閱讀

    自然語(yǔ)言處理的應(yīng)用實(shí)例

    在當(dāng)今數(shù)字化時(shí)代,自然語(yǔ)言處理(NLP)技術(shù)已經(jīng)成為我們?nèi)粘I畹囊徊糠帧闹悄苁謾C(jī)的語(yǔ)音助手到在線客服機(jī)器人,NLP技術(shù)的應(yīng)用無(wú)處不在。 1. 語(yǔ)音識(shí)別與虛擬助手 隨著Siri、Google
    的頭像 發(fā)表于 11-11 10:31 ?1608次閱讀

    使用LLM進(jìn)行自然語(yǔ)言處理的優(yōu)缺點(diǎn)

    自然語(yǔ)言處理(NLP)是人工智能和語(yǔ)言學(xué)領(lǐng)域的一個(gè)分支,它致力于使計(jì)算機(jī)能夠理解、解釋和生成人類(lèi)語(yǔ)言。大型語(yǔ)言模型(LLM)是NLP領(lǐng)域的一
    的頭像 發(fā)表于 11-08 09:27 ?2443次閱讀

    AI智能化問(wèn)答:自然語(yǔ)言處理技術(shù)的重要應(yīng)用

    自然語(yǔ)言處理(NLP)是人工智能領(lǐng)域的一個(gè)重要分支,它致力于使計(jì)算機(jī)能夠理解、解釋和生成人類(lèi)語(yǔ)言。問(wèn)答系統(tǒng)作為NLP的一個(gè)重要應(yīng)用,能夠精確地解析用戶(hù)以自然語(yǔ)言提出的問(wèn)題,并從包含豐富
    的頭像 發(fā)表于 10-12 10:58 ?1094次閱讀
    AI智能化問(wèn)答:<b class='flag-5'>自然語(yǔ)言</b><b class='flag-5'>處理</b>技術(shù)的重要應(yīng)用

    圖像識(shí)別技術(shù)包括自然語(yǔ)言處理

    圖像識(shí)別技術(shù)與自然語(yǔ)言處理是人工智能領(lǐng)域的兩個(gè)重要分支,它們?cè)诤芏喾矫嬗兄芮械穆?lián)系,但也存在一些區(qū)別。 一、圖像識(shí)別技術(shù)與自然語(yǔ)言處理的關(guān)系 1.1 圖像識(shí)別技術(shù)的定義 圖像識(shí)別技術(shù)
    的頭像 發(fā)表于 07-16 10:54 ?1562次閱讀