Google DeepMind 和 Meta 的研究人員發(fā)表論文《Language Modeling Is Compression》,他們發(fā)現(xiàn) DeepMind 的大語言模型 Chinchilla 70B 在圖像和音頻的無損壓縮上超過了 PNG 和 FLAC。

論文提到,Chinchilla 70B 能將 ImageNet 圖像數(shù)據(jù)庫中的圖像無損壓縮到原始大小 43.4%,超過了 PNG 算法的 58.5%。
Chinchilla 能將 LibriSpeech 音頻數(shù)據(jù)集中的樣本無損壓縮到原始大小 16.4%,超過 FLAC 算法的 30.3%。

據(jù)介紹,Chinchilla 70B 主要是訓(xùn)練用于處理文本,但它在壓縮其它類型的數(shù)據(jù)集上的效果也表現(xiàn)優(yōu)異,甚至優(yōu)于專門的算法。
下面的例子比較了 gzip 和 Chinchilla 在示例文本上的壓縮效果??梢钥吹?,gzip 的輸出沒有可讀性。

編輯:黃飛
-
無損壓縮
+關(guān)注
關(guān)注
0文章
12瀏覽量
8585 -
FLAC
+關(guān)注
關(guān)注
0文章
4瀏覽量
8726 -
png
+關(guān)注
關(guān)注
0文章
14瀏覽量
4665 -
大模型
+關(guān)注
關(guān)注
2文章
3432瀏覽量
4952
原文標(biāo)題:大模型在無損壓縮方面超越PNG和FLAC
文章出處:【微信號:OSC開源社區(qū),微信公眾號:OSC開源社區(qū)】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
發(fā)布評論請先 登錄
如何利用NPU與模型壓縮技術(shù)優(yōu)化邊緣AI
利用自壓縮實(shí)現(xiàn)大型語言模型高效縮減
小白學(xué)大模型:從零實(shí)現(xiàn) LLM語言模型
?VLM(視覺語言模型)?詳細(xì)解析
大語言模型的解碼策略與關(guān)鍵優(yōu)化總結(jié)
LZO Data Compression,高性能LZO無損數(shù)據(jù)壓縮加速器介紹,F(xiàn)PGA&ASIC
LZO Data Compression,高性能LZO無損數(shù)據(jù)壓縮加速器介紹,F(xiàn)PGA&ASIC

大語言模型無損壓縮方面超越PNG和FLAC
評論