師兄在騰訊,就讓師兄內(nèi)推了一下騰訊自然語(yǔ)言處理的實(shí)習(xí)。在內(nèi)推前,簡(jiǎn)單把李航的統(tǒng)計(jì)學(xué)習(xí)方法,簡(jiǎn)歷涉及的知識(shí)點(diǎn)都過(guò)了一遍,整理了一下,同時(shí)leetcode刷了大概100題。 準(zhǔn)備過(guò)后就把簡(jiǎn)歷給師兄了。投完簡(jiǎn)歷當(dāng)天下午就收到了騰訊的短信約晚上面試(這也太效率了= =)。下面簡(jiǎn)單記錄一些面試的問(wèn)題(很多問(wèn)題都是項(xiàng)目涉及的知識(shí)點(diǎn),每個(gè)人可能都不一樣)。
一面(技術(shù)面) 基本就是把簡(jiǎn)歷過(guò)了一遍,問(wèn)問(wèn)一些項(xiàng)目上的細(xì)節(jié)。
1、先簡(jiǎn)單自我介紹一下吧。
2、看你之前實(shí)習(xí)過(guò),說(shuō)說(shuō)當(dāng)時(shí)實(shí)習(xí)都做了些啥。
3、介紹一下transformer吧,除了self-attention還知道哪些attention。
4、看你用了反向翻譯,簡(jiǎn)單介紹一下吧,除了這個(gè)還知道哪些數(shù)據(jù)擴(kuò)充的方法嗎,每個(gè)方法有什么區(qū)別?
5、介紹一下R2L-Rerank吧。
6、講一講bert,roberta吧,BPE和word piece有什么區(qū)別?
7、介紹一下FGM。
8、介紹一下Focal loss。
9、python的迭代器和生成器。
10、算法題:打印二叉樹(shù)從右邊看能看到的節(jié)點(diǎn)。 一面還算順利結(jié)束后第二天就接到了二面的電話(huà)。
二面(技術(shù)面) 基本也是把項(xiàng)目比賽過(guò)一遍,然后問(wèn)一些細(xì)節(jié)。
1、簡(jiǎn)單介紹一下自己吧。
2、介紹一下AUC吧,和準(zhǔn)確率有啥區(qū)別。
3、介紹一下F-score,Macro-F1和micro-F1有啥區(qū)別。
4、bert如果輸入超過(guò)512怎么辦。
5、那你介紹一下transformer-xl吧。
6、如果你自己訓(xùn)練輸入長(zhǎng)度為1024的bert,使用的顯存會(huì)是原來(lái)的幾倍。
7、你在投的論文做的是什么,介紹一下,看你是用fairseq框架寫(xiě)的,具體修改了哪些模塊。
8、算法題:最長(zhǎng)上升子序列。
9、用過(guò)單機(jī)多卡或者多機(jī)多卡訓(xùn)練嗎?講一講。
10、你有什么要問(wèn)我的嗎? 二面也比較順利,第二天就接到了三面的電話(huà)。
三面(技術(shù)面) 我當(dāng)時(shí)看面經(jīng)別人都是兩面,我居然有三面= = ,三面應(yīng)該是一個(gè)leader面的。
1、之前實(shí)習(xí)是負(fù)責(zé)什么的,大概開(kāi)發(fā)的流程是什么樣的。
2、你做的這些項(xiàng)目是偏實(shí)驗(yàn)的的還是有一定的工業(yè)落地的,比如做了一個(gè)網(wǎng)站或者api等。
3、你們平常打比賽的時(shí)候,隊(duì)伍是怎么合作的?
4、你做的項(xiàng)目里的公開(kāi)數(shù)據(jù)集你知道是怎么采集的嗎?它會(huì)不會(huì)有很多臟數(shù)據(jù)?這些臟數(shù)據(jù)對(duì)模型有什么影響?你是怎么處理它們的?
5、有看過(guò)模型的bad case嗎?針對(duì)bad case做了哪些提升?
6、系統(tǒng)地介紹一下你研究的這個(gè)方向。最近你這個(gè)方向效果最好的論文是哪篇?它是怎么做的?
7、你有什么想問(wèn)的嗎?
三面沒(méi)有算法題,感覺(jué)問(wèn)的是一些方法論的東西。答得也還不錯(cuò),沒(méi)過(guò)幾天就接到了HR的電話(huà)。 HR面 HR很親切,面試體驗(yàn)很棒,上來(lái)先給我介紹了一下他們部門(mén)的一些發(fā)展歷史和現(xiàn)在的情況,然后了解了一下我的實(shí)驗(yàn)室,實(shí)驗(yàn)室的研究方向,之前的實(shí)習(xí)情況,大概詢(xún)問(wèn)了可以入職的時(shí)間。整個(gè)面試下來(lái)感覺(jué)平時(shí)的積累很重要,之后有空了也準(zhǔn)備把之前整理的資料慢慢寫(xiě)成博客。
責(zé)任編輯:xj
原文標(biāo)題:騰訊自然語(yǔ)言處理實(shí)習(xí)面經(jīng)
文章出處:【微信公眾號(hào):深度學(xué)習(xí)自然語(yǔ)言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。
-
騰訊
+關(guān)注
關(guān)注
7文章
1678瀏覽量
50288 -
自然語(yǔ)言處理
+關(guān)注
關(guān)注
1文章
628瀏覽量
14154 -
自然語(yǔ)言
+關(guān)注
關(guān)注
1文章
292瀏覽量
13654
原文標(biāo)題:騰訊自然語(yǔ)言處理實(shí)習(xí)面經(jīng)
文章出處:【微信號(hào):zenRRan,微信公眾號(hào):深度學(xué)習(xí)自然語(yǔ)言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。
發(fā)布評(píng)論請(qǐng)先 登錄
如何優(yōu)化自然語(yǔ)言處理模型的性能
如何使用自然語(yǔ)言處理分析文本數(shù)據(jù)
自然語(yǔ)言處理與機(jī)器學(xué)習(xí)的關(guān)系 自然語(yǔ)言處理的基本概念及步驟
語(yǔ)音識(shí)別與自然語(yǔ)言處理的關(guān)系
什么是LLM?LLM在自然語(yǔ)言處理中的應(yīng)用
ASR與自然語(yǔ)言處理的結(jié)合
卷積神經(jīng)網(wǎng)絡(luò)在自然語(yǔ)言處理中的應(yīng)用
循環(huán)神經(jīng)網(wǎng)絡(luò)在自然語(yǔ)言處理中的應(yīng)用
使用LSTM神經(jīng)網(wǎng)絡(luò)處理自然語(yǔ)言處理任務(wù)
自然語(yǔ)言處理的未來(lái)發(fā)展趨勢(shì)
自然語(yǔ)言處理與機(jī)器學(xué)習(xí)的區(qū)別
自然語(yǔ)言處理的應(yīng)用實(shí)例
使用LLM進(jìn)行自然語(yǔ)言處理的優(yōu)缺點(diǎn)
AI智能化問(wèn)答:自然語(yǔ)言處理技術(shù)的重要應(yīng)用

評(píng)論