完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>
標(biāo)簽 > 語言模型
文章:543個 瀏覽:10618次 帖子:4個
行人摔倒檢測-在英特爾開發(fā)套件上基于OpenVINO? C# API部署PP-Human
OpenVINO 2023.1 于 2023 年 9 月 18 日發(fā)布,該工具包帶來了挖掘生成人工智能全部潛力的新功能。生成人工智能的覆蓋范圍得到了擴展...
2023-10-13 標(biāo)簽:英特爾視頻監(jiān)控語言模型 998 0
清華&港大提出LanguageMPC:將大語言模型和MPC相結(jié)合的新型類人智駕系統(tǒng)
LanguageMPC首次將LLM應(yīng)用于駕駛場景,并設(shè)計了將文字形式高層決策轉(zhuǎn)化為可操作駕駛行為的方法。我們定量的證明了LanguageMPC在路口和環(huán)...
DISC-LawLLM:復(fù)旦大學(xué)團隊發(fā)布中文智慧法律系統(tǒng),構(gòu)建司法評測基準,開源30萬微調(diào)數(shù)據(jù)
DISC-LawLLM是基于我們構(gòu)建的高質(zhì)量數(shù)據(jù)集DISC-Law-SFT在通用領(lǐng)域中文大模型Baichuan-13B上進行全參指令微調(diào)得到的法律大模型...
華為提出Sorted LLaMA:SoFT代替SFT,訓(xùn)練多合一大語言模型
而這一切的背后,是一項名為Sorted Fine-Tuning(SoFT)的新訓(xùn)練技術(shù)。SoFT讓我們可以在一個訓(xùn)練周期內(nèi)產(chǎn)出多個子模型,無需任何額外的...
DreamLLM:多功能多模態(tài)大型語言模型,你的DreamLLM~
由于固有的模態(tài)缺口,如CLIP語義主要關(guān)注模態(tài)共享信息,往往忽略了可以增強多模態(tài)理解的模態(tài)特定知識。因此,這些研究并沒有充分認識到多模式創(chuàng)造和理解之間潛...
最新研究綜述——探索基礎(chǔ)模型中的“幻覺”現(xiàn)象
這種“幻覺”現(xiàn)象可能是無意中產(chǎn)生的,它可以由多種因素導(dǎo)致,包括訓(xùn)練數(shù)據(jù)集中存在的偏見、模型不能獲取最新的信息,或是其在理解和生成準確回應(yīng)時的固有限制。為...
人們很容易認為,所有與 GPT 相關(guān)的東西都只是在追逐宣傳熱潮,而關(guān)于這個話題的文章,尤其是那些顯然不可能實現(xiàn)的說法(就像這個案例一樣),只不過是點擊率...
面對推測性解碼的復(fù)雜性,研究人員推出了Medusa技術(shù),這個框架回歸了Transformer模型的本質(zhì),減少了復(fù)雜度,增強了效率,讓每個生成階段都能快速...
2023-09-20 標(biāo)簽:神經(jīng)網(wǎng)絡(luò)語言模型LLM 920 0
TextBind:在開放世界中多輪交織的多模態(tài)指令跟隨
語言模型能夠執(zhí)行各種任務(wù),包括根據(jù)一組圖像創(chuàng)作引人入勝的故事,比較多個圖像中的共同和不同之處,用生動的圖像解釋概念,生成帶有插圖的長篇連貫故事等等。最有...
Falcon-7B大型語言模型在心理健康對話數(shù)據(jù)集上使用QLoRA進行微調(diào)
使用領(lǐng)域適應(yīng)技術(shù)對預(yù)訓(xùn)練LLM進行微調(diào)可以提高在特定領(lǐng)域任務(wù)上的性能。但是,進行完全微調(diào)可能會很昂貴,并且可能會導(dǎo)致CUDA內(nèi)存不足錯誤。當(dāng)進行完全微調(diào)...
2023-09-19 標(biāo)簽:模型語言模型數(shù)據(jù)集 761 0
從原理到代碼理解語言模型訓(xùn)練和推理,通俗易懂,快速修煉LLM
要理解大語言模型(LLM),首先要理解它的本質(zhì),無論預(yù)訓(xùn)練、微調(diào)還是在推理階段,核心都是next token prediction,也就是以自回歸的方式...
開源大模型FLM-101B:訓(xùn)練成本最低的超100B參數(shù)大模型
近期,一支來自中國的研究團隊正是針對這些問題提出了解決方案,他們推出了FLM-101B模型及其配套的訓(xùn)練策略。FLM-101B不僅大幅降低了訓(xùn)練成本,而...
AI Agents的框架構(gòu)成以及LLMs的基礎(chǔ)知識
智能代理(AI Agents)長期以來都被視為通往人工通用智能(AGI)的一條希望途徑,預(yù)期中其能夠通過自主規(guī)劃和指令來自動完成相關(guān)任務(wù)。然而,早期的代...
FPGA加速器支撐ChatGPT類大語言模型創(chuàng)新
作者:Bill Jenkins,Achronix人工智能/機器學(xué)習(xí)產(chǎn)品營銷總監(jiān) 探索FPGA加速語言模型如何通過更快的推理、更低的延遲和更好的語言理解來...
中科大&字節(jié)提出UniDoc:統(tǒng)一的面向文字場景的多模態(tài)大模型
如上圖所示,UniDoc基于預(yù)訓(xùn)練的視覺大模型及大語言模型,將文字的檢測、識別、spotting(圖中未畫出)、多模態(tài)理解等四個任務(wù),通過多模態(tài)指令微調(diào)...
2023-08-31 標(biāo)簽:語言模型數(shù)據(jù)集大模型 1804 0
通過循環(huán)訓(xùn)練實現(xiàn)忠實的低資源數(shù)據(jù)文本生成
從結(jié)構(gòu)化數(shù)據(jù)中自然語言生成(NLG)往往會產(chǎn)生多種錯誤,從而限制了這些模型在面向客戶的應(yīng)用中的實用性。當(dāng)NLG 模型在生成的輸出文本時注入與輸入結(jié)構(gòu)化數(shù)...
2023-08-24 標(biāo)簽:數(shù)據(jù)庫模型語言模型 625 0
這對知識表示領(lǐng)域來說是一個巨大的步驟。長時間以來,人們關(guān)注的是明確的知識,例如嵌入在文本中的知識,有時也被稱為非結(jié)構(gòu)化數(shù)據(jù),以及以結(jié)構(gòu)化形式存在的知識,...
大型語言模型(如 GPT-4)在解決特定任務(wù)和提取因果關(guān)系方面表現(xiàn)出色,但缺乏抽象的因果推理能力。它們傾向于從數(shù)據(jù)中提取已知的因果模式,而無法生成新的因果見解。
中科大提出:LLMs的個性化綜述,詳述大模型與個性化的挑戰(zhàn)與機遇
因此,我們認為現(xiàn)在是時候?qū)徱晜€性化服務(wù)的挑戰(zhàn)以及用大型語言模型來解決它們的機會了。特別是,我們在這篇展望性論文中專門討論了以下幾個方面:現(xiàn)有個性化系統(tǒng)的...
編輯推薦廠商產(chǎn)品技術(shù)軟件/工具OS/語言教程專題
電機控制 | DSP | 氮化鎵 | 功率放大器 | ChatGPT | 自動駕駛 | TI | 瑞薩電子 |
BLDC | PLC | 碳化硅 | 二極管 | OpenAI | 元宇宙 | 安森美 | ADI |
無刷電機 | FOC | IGBT | 逆變器 | 文心一言 | 5G | 英飛凌 | 羅姆 |
直流電機 | PID | MOSFET | 傳感器 | 人工智能 | 物聯(lián)網(wǎng) | NXP | 賽靈思 |
步進電機 | SPWM | 充電樁 | IPM | 機器視覺 | 無人機 | 三菱電機 | ST |
伺服電機 | SVPWM | 光伏發(fā)電 | UPS | AR | 智能電網(wǎng) | 國民技術(shù) | Microchip |
Arduino | BeagleBone | 樹莓派 | STM32 | MSP430 | EFM32 | ARM mbed | EDA |
示波器 | LPC | imx8 | PSoC | Altium Designer | Allegro | Mentor | Pads |
OrCAD | Cadence | AutoCAD | 華秋DFM | Keil | MATLAB | MPLAB | Quartus |
C++ | Java | Python | JavaScript | node.js | RISC-V | verilog | Tensorflow |
Android | iOS | linux | RTOS | FreeRTOS | LiteOS | RT-THread | uCOS |
DuerOS | Brillo | Windows11 | HarmonyOS |