完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>
標(biāo)簽 > 語言模型
文章:546個(gè) 瀏覽:10727次 帖子:4個(gè)
大語言模型事實(shí)性幻象的實(shí)驗(yàn)性分析
盡管大語言模型能力不斷提升,但一個(gè)持續(xù)存在的挑戰(zhàn)是它們具有產(chǎn)生幻象的傾向。本文構(gòu)建了幻象評(píng)測(cè)基準(zhǔn)HaluEval 2.0,并基于該評(píng)測(cè)框架從預(yù)訓(xùn)練/有監(jiān)...
對(duì)于先行者來說,范式轉(zhuǎn)變可能是很顯然的。然而,出于科學(xué)的嚴(yán)謹(jǐn)性, 我們確實(shí)需要非常明確的理由來說明為什么人們應(yīng)該轉(zhuǎn)向大型語言模型,即使這些模型昂貴、難以...
在 2018 年至 2022 年期間,NLP、CV 和通用機(jī)器學(xué)習(xí)領(lǐng)域有大量關(guān)于分布偏移/對(duì)抗魯棒性/組合生成的研究,人們發(fā)現(xiàn)當(dāng)測(cè)試集分布與訓(xùn)練分布不同...
2023-02-21 標(biāo)簽:語言模型機(jī)器學(xué)習(xí)nlp 766 0
模型與人類的注意力視角下參數(shù)規(guī)模擴(kuò)大與指令微調(diào)對(duì)模型語言理解的作用
近期的大語言模型(LLM)在自然語言理解和生成上展現(xiàn)出了接近人類的強(qiáng)大能力,遠(yuǎn)遠(yuǎn)優(yōu)于先前的BERT等預(yù)訓(xùn)練模型(PLM)。
本文提出了一種將視覺語言模型(VLM)轉(zhuǎn)換為端到端導(dǎo)航策略的具體框架。不依賴于感知、規(guī)劃和控制之間的分離,而是使用VLM在一步中直接選擇動(dòng)作。驚訝的是,...
Subword算法如今已經(jīng)成為了一個(gè)重要的NLP模型性能提升方法。自從2018年BERT橫空出世橫掃NLP界各大排行榜之后,各路預(yù)訓(xùn)練語言模型如同雨后春...
不同于單模態(tài)模型編輯,多模態(tài)模型編輯需要考慮更多的模態(tài)信息。文章出發(fā)點(diǎn)依然從單模態(tài)模型編輯入手,將單模態(tài)模型編輯拓展到多模態(tài)模型編輯,主要從以下三個(gè)方面...
在RTX 4090被限制的時(shí)代下,讓大模型使用RLHF更高效的方法來了
今年,以 ChatGPT 為首的大語言模型(Large Language Models, LLMs) 在各個(gè)方面大放光彩,由此引發(fā)了學(xué)術(shù)界和商業(yè)界對(duì) G...
重新審視Prompt優(yōu)化問題,預(yù)測(cè)偏差讓語言模型上下文學(xué)習(xí)更強(qiáng)
Prompt tuning 的關(guān)鍵思想是將任務(wù)特定的 embedding 注入隱藏層,然后使用基于梯度的優(yōu)化來調(diào)整這些 embeddings。然而,這些...
2023-04-03 標(biāo)簽:語言模型 730 0
GPT是一種基于Transformer的預(yù)訓(xùn)練語言模型,可以用于自然語言處理中的各種任務(wù)。在態(tài)勢(shì)感知中,GPT可以用來對(duì)文本進(jìn)行分類和情感分析,從而幫...
如何利用位置編碼實(shí)現(xiàn)長(zhǎng)度外推?
無論是縮放位置索引還是修改基地,所有token都變得彼此更接近,這將損害LLM區(qū)分相近token的位置順序的能力。結(jié)合他們對(duì)RoPE的波長(zhǎng)的觀察,存在一...
2024-01-08 標(biāo)簽:語言模型Transformer位置編碼器 710 0
通過循環(huán)訓(xùn)練實(shí)現(xiàn)忠實(shí)的低資源數(shù)據(jù)文本生成
從結(jié)構(gòu)化數(shù)據(jù)中自然語言生成(NLG)往往會(huì)產(chǎn)生多種錯(cuò)誤,從而限制了這些模型在面向客戶的應(yīng)用中的實(shí)用性。當(dāng)NLG 模型在生成的輸出文本時(shí)注入與輸入結(jié)構(gòu)化數(shù)...
2023-08-24 標(biāo)簽:數(shù)據(jù)庫(kù)模型語言模型 700 0
華南理工賈奎團(tuán)隊(duì)ICCV'23新作:支持重新照明、編輯和物理仿真
現(xiàn)有的文本到三維模型的生成方法通常使用NeRF等隱式表達(dá),通過體積渲染將幾何和外觀耦合在一起,但在恢復(fù)更精細(xì)的幾何結(jié)構(gòu)和實(shí)現(xiàn)逼真渲染方面存在不足,所以在...
OpenAI用GPT-4解釋了GPT-2三十萬個(gè)神經(jīng)元:智慧原來是這個(gè)樣子
可解釋性研究的一種簡(jiǎn)單方法是首先了解 AI 模型各個(gè)組件(神經(jīng)元和注意力頭)在做什么。傳統(tǒng)的方法是需要人類手動(dòng)檢查神經(jīng)元,以確定它們代表數(shù)據(jù)的哪些特征。...
在當(dāng)今人工智能飛速發(fā)展的時(shí)代,大型語言模型(LLMs)正以其強(qiáng)大的語言理解和生成能力,改變著我們的生活和工作方式。在最近的一項(xiàng)研究中,科學(xué)家們?yōu)榱松钊肓?..
AGI離我們還有多遠(yuǎn)?大模型不是最終解,世界模型才是未來
大型語言模型(如 GPT-4)在解決特定任務(wù)和提取因果關(guān)系方面表現(xiàn)出色,但缺乏抽象的因果推理能力。它們傾向于從數(shù)據(jù)中提取已知的因果模式,而無法生成新的因果見解。
GPT-4推理提升1750%!清華姚班校友提出全新ToT框架
那么,這樣一個(gè)簡(jiǎn)單的機(jī)制能否足以建立一個(gè)通向「解決通用問題的語言模型」?如果不是,哪些問題會(huì)挑戰(zhàn)當(dāng)前的范式,真正的替代機(jī)制應(yīng)該是什么?
使用Splashtop解鎖對(duì)企業(yè)生成AI的安全訪問
當(dāng)然,有些商業(yè)生成式AI SaaS產(chǎn)品承諾不使用提交的數(shù)據(jù)來改進(jìn)其公共模型。但是,并非所有公司都愿意將私人數(shù)據(jù)發(fā)送到他們幾乎無法控制的cloud 服務(wù)中...
編輯推薦廠商產(chǎn)品技術(shù)軟件/工具OS/語言教程專題
電機(jī)控制 | DSP | 氮化鎵 | 功率放大器 | ChatGPT | 自動(dòng)駕駛 | TI | 瑞薩電子 |
BLDC | PLC | 碳化硅 | 二極管 | OpenAI | 元宇宙 | 安森美 | ADI |
無刷電機(jī) | FOC | IGBT | 逆變器 | 文心一言 | 5G | 英飛凌 | 羅姆 |
直流電機(jī) | PID | MOSFET | 傳感器 | 人工智能 | 物聯(lián)網(wǎng) | NXP | 賽靈思 |
步進(jìn)電機(jī) | SPWM | 充電樁 | IPM | 機(jī)器視覺 | 無人機(jī) | 三菱電機(jī) | ST |
伺服電機(jī) | SVPWM | 光伏發(fā)電 | UPS | AR | 智能電網(wǎng) | 國(guó)民技術(shù) | Microchip |
Arduino | BeagleBone | 樹莓派 | STM32 | MSP430 | EFM32 | ARM mbed | EDA |
示波器 | LPC | imx8 | PSoC | Altium Designer | Allegro | Mentor | Pads |
OrCAD | Cadence | AutoCAD | 華秋DFM | Keil | MATLAB | MPLAB | Quartus |
C++ | Java | Python | JavaScript | node.js | RISC-V | verilog | Tensorflow |
Android | iOS | linux | RTOS | FreeRTOS | LiteOS | RT-THread | uCOS |
DuerOS | Brillo | Windows11 | HarmonyOS |