chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線(xiàn)課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

StrucTexTv2:端到端文檔圖像理解預(yù)訓(xùn)練框架

CVer ? 來(lái)源:CSIG文檔圖像分析與識(shí)別專(zhuān) ? 2023-04-10 11:29 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

本文簡(jiǎn)要介紹ICLR 2023錄用論文“StrucTexTv2: Masked Visual-Textual Prediction for Document Image Pre-training”的主要工作。針對(duì)當(dāng)前主流多模態(tài)文檔理解預(yù)訓(xùn)練模型需要同時(shí)輸入文檔圖像和OCR結(jié)果,導(dǎo)致欠缺端到端的表達(dá)能力且推理效率偏低等問(wèn)題,論文提出了一種全新的端到端文檔圖像多模態(tài)表征學(xué)習(xí)預(yù)訓(xùn)練框架StrucTexTv2。該框架設(shè)計(jì)了一種基于詞粒度圖像區(qū)域掩碼、多模態(tài)自監(jiān)督預(yù)訓(xùn)練任務(wù)(MIM+MLM),僅需要圖像單模態(tài)輸入,使得編碼器網(wǎng)絡(luò)能在大規(guī)模無(wú)標(biāo)注文檔圖像上充分學(xué)習(xí)視覺(jué)和語(yǔ)言聯(lián)合特征表達(dá),并在多個(gè)下游任務(wù)的公開(kāi)基準(zhǔn)上取得SOTA效果。

一、研究背景

視覺(jué)富文檔理解技術(shù)例如文檔分類(lèi)、版式分析、表單理解、OCR以及信息提取,逐漸成為文檔智能領(lǐng)域一個(gè)熱門(mén)研究課題。為了有效處理這些任務(wù),前沿的方法大多利用視覺(jué)和文本線(xiàn)索,將圖像、文本、布局等信息輸入到參數(shù)網(wǎng)絡(luò),并基于大規(guī)模數(shù)據(jù)上的自監(jiān)督預(yù)訓(xùn)練挖掘出文檔的多模態(tài)特征。由于視覺(jué)和語(yǔ)言之間的模態(tài)差異較大,如圖1所示,主流的文檔理解預(yù)訓(xùn)練方法大致可分為兩類(lèi):a)掩碼語(yǔ)言建模(Masked Language Modeling)[9],對(duì)輸入的掩碼文本Token進(jìn)行語(yǔ)言建模,運(yùn)行時(shí)文本的獲取依賴(lài)于OCR引擎,整個(gè)系統(tǒng)的性能提升需要對(duì)OCR引擎和文檔理解模型兩個(gè)部件進(jìn)行同步優(yōu)化;b)掩碼圖像建模(Masked Image Modeling)[10],對(duì)輸入的掩碼圖像塊區(qū)進(jìn)行像素重建,此類(lèi)方法傾向應(yīng)用于圖像分類(lèi)和版式分析等任務(wù)上,對(duì)文檔強(qiáng)語(yǔ)義理解能力欠佳。針對(duì)上述兩種預(yù)訓(xùn)練方案呈現(xiàn)的瓶頸,本文提出了StrucTexTv2:c)統(tǒng)一圖像重建與語(yǔ)言建模方式,在大規(guī)模文檔圖像上學(xué)習(xí)視覺(jué)和語(yǔ)言聯(lián)合特征表達(dá)。

b763a806-d6f2-11ed-bfe3-dac502259ad0.png

圖1 主流文檔圖像理解預(yù)訓(xùn)練框架比較

二、方法原理簡(jiǎn)述

b78e650a-d6f2-11ed-bfe3-dac502259ad0.png

圖2 整體框架圖

圖2描繪了StrucTexTv2的整體框架,主要包含編碼器網(wǎng)絡(luò)和預(yù)訓(xùn)練任務(wù)分支兩部分。編碼器網(wǎng)絡(luò),主要通過(guò)FPN結(jié)構(gòu)串聯(lián)CNN組件和Transformer組件構(gòu)成;預(yù)訓(xùn)練分支則包含了掩碼語(yǔ)言建模(MLM)和掩碼圖像建模(MIM)雙預(yù)訓(xùn)練任務(wù)頭。

2.1 編碼器網(wǎng)絡(luò)

StrucTexTv2采用CNN和Transformer的串聯(lián)編碼器來(lái)提取文檔圖像的視覺(jué)和語(yǔ)義特征。文檔圖像首先經(jīng)過(guò)ResNet網(wǎng)絡(luò)以獲取1/4到1/32的四個(gè)不同尺度的特征圖。隨后采用一個(gè)標(biāo)準(zhǔn)的Transformer網(wǎng)絡(luò)接收最小尺度的特征圖并加上1D位置編碼向量,提取出包含全局上下文的語(yǔ)義特征。該特征被重新轉(zhuǎn)化為2D形態(tài)后,與CNN的其余三個(gè)尺度特征圖通過(guò)FPN[6]融合成4倍下采樣的特征圖,作為整圖的多模態(tài)特征表示。

2.2 預(yù)訓(xùn)練策略

為了統(tǒng)一建模MLM和MIM兩種模態(tài)預(yù)訓(xùn)練方式,論文提出了一種基于詞粒度圖像區(qū)域掩碼預(yù)測(cè)方式來(lái)學(xué)習(xí)視覺(jué)和語(yǔ)言聯(lián)合特征表達(dá)。首先,隨機(jī)篩選30%的詞粒度OCR預(yù)測(cè)結(jié)果(僅在預(yù)訓(xùn)練階段使用),根據(jù)OCR的位置信息直接在原圖對(duì)應(yīng)位置像素進(jìn)行掩碼操作(比如填充0值)。接著,掩碼后的文檔圖像直接送入編碼器網(wǎng)絡(luò)去獲得整圖的多模態(tài)特征表示。最后,再次根據(jù)選中的OCR位置信息,采用ROIAlign[11]操作去獲得每個(gè)掩碼區(qū)域的多模態(tài)ROI特征。

掩碼語(yǔ)言建模:借鑒于BERT[9]構(gòu)建的掩碼語(yǔ)言模型思路,語(yǔ)言建模分支使用一個(gè)2層的MLP將詞區(qū)域的ROI特征映射到預(yù)定義的詞表類(lèi)別上,使用Cross Entropy Loss監(jiān)督。同時(shí)為了避免使用詞表對(duì)文本序列進(jìn)行標(biāo)記化時(shí)單個(gè)詞組被拆分成多個(gè)子詞導(dǎo)致的一對(duì)多匹配問(wèn)題,論文使用分詞后每個(gè)單詞的首個(gè)子詞作為分類(lèi)標(biāo)簽。此設(shè)計(jì)帶來(lái)的優(yōu)勢(shì)是:StrucTexTv2的語(yǔ)言建模無(wú)需文本作為輸入。

掩碼圖像建模:考慮到基于圖像Patch的掩碼重建在文檔預(yù)訓(xùn)練中展現(xiàn)出一定的潛力,但Patch粒度的特征表示難以恢復(fù)文本細(xì)節(jié)。因此,論文將詞粒度掩碼同時(shí)用作圖像重建,即預(yù)測(cè)被掩碼區(qū)域的原始像素值。詞區(qū)域的ROI特征首先通過(guò)一個(gè)全局池化操作被壓縮成特征向量。其次,為了提升圖像重建的視覺(jué)效果,論文將通過(guò)語(yǔ)言建模后的概率特征與池化特征進(jìn)行拼接,為圖像建模引入“Content”信息,使得圖像預(yù)訓(xùn)練專(zhuān)注于復(fù)原文本區(qū)域的“Style”部分。圖像建模分支由3個(gè)全卷積 Block構(gòu)成。每個(gè)Block包含一個(gè)Kernel=2×2,Stride=4的反卷積層,一個(gè)Kernel=1×1,以及兩個(gè)Kernel=3×1卷積層。最后,每個(gè)單詞的池化向量被映射成一個(gè)大小為64×64×3的圖像,并逐像素與原本的圖像區(qū)域做MSE Loss。

論文提供了Small和Large兩種參數(shù)規(guī)格的模型,并在IIT-CDIP數(shù)據(jù)集上使用百度通用高精OCR的文字識(shí)別結(jié)果預(yù)訓(xùn)練編碼網(wǎng)絡(luò)。

三、實(shí)驗(yàn)結(jié)果

論文在四個(gè)基準(zhǔn)數(shù)據(jù)集上測(cè)試模型對(duì)文檔理解的能力,在五個(gè)下游任務(wù)上使用不同的Head進(jìn)行Fine-tune并給出實(shí)驗(yàn)結(jié)論。表1給出模型在RVL-CDIP[13]驗(yàn)證文檔圖像分類(lèi)的效果。同比基于圖像單模態(tài)輸入的方法DiT[4],StrucTexTv2以更少的參數(shù)量取得了更優(yōu)的分類(lèi)精度。

表1 RVL-CDIP數(shù)據(jù)集上文檔圖像分類(lèi)的實(shí)驗(yàn)結(jié)果

b7a649f4-d6f2-11ed-bfe3-dac502259ad0.png

如表2和表3所示,論文結(jié)合預(yù)訓(xùn)練模型和Cascade R-CNN[1]框架fine-tune去檢測(cè)文檔中的版式元素以及表格結(jié)構(gòu),在PubLaynet[8]以及WWW[12]數(shù)據(jù)集上取得了當(dāng)前的最好性能。

表2 PubLaynet數(shù)據(jù)集上版式分析的檢測(cè)結(jié)果

b7c91768-d6f2-11ed-bfe3-dac502259ad0.png

表3 WWW數(shù)據(jù)集上表格結(jié)構(gòu)識(shí)別的性能對(duì)比

b7dc946e-d6f2-11ed-bfe3-dac502259ad0.png

在表4中,論文同時(shí)在FUNSD[3]數(shù)據(jù)集上進(jìn)行了端到端OCR和信息提取兩項(xiàng)實(shí)驗(yàn),在基準(zhǔn)測(cè)試中都取得了同期最優(yōu)的效果。對(duì)比如StrucTexTv1[5]和LayoutLMv3[2]等OCR+文檔理解的兩階段方法,證明了提出方法端到端優(yōu)化的優(yōu)越性。

表4 FUNSD數(shù)據(jù)集上端到端OCR以及信息抽取實(shí)驗(yàn)

b7f781de-d6f2-11ed-bfe3-dac502259ad0.png

接下來(lái),論文對(duì)比了SwinTransformer[7]、ViT[10]以及StrucTexTv2的編碼網(wǎng)絡(luò)。從表5對(duì)比結(jié)果來(lái)看,論文提出CNN+Transformer的串聯(lián)結(jié)構(gòu)更有效地支持預(yù)訓(xùn)練任務(wù)。同時(shí),論文給出了不同預(yù)訓(xùn)練配置的模型在文檔圖像分類(lèi)和版式分析的性能增益,對(duì)兩種模態(tài)預(yù)訓(xùn)練進(jìn)行了有效性驗(yàn)證。

表5 預(yù)訓(xùn)練任務(wù)以及編碼器結(jié)構(gòu)的消融實(shí)驗(yàn)

b805550c-d6f2-11ed-bfe3-dac502259ad0.png

同時(shí),論文中評(píng)估了模型在預(yù)測(cè)時(shí)的耗時(shí)和顯存開(kāi)銷(xiāo)。表6中給出了兩種OCR引擎帶來(lái)的開(kāi)銷(xiāo)以及并與現(xiàn)階段最優(yōu)的多模態(tài)方法LayoutLMv3進(jìn)行了比較。

表6 與兩階段的方法LayoutLMv3的資源開(kāi)銷(xiāo)對(duì)比

b822d208-d6f2-11ed-bfe3-dac502259ad0.png

最后,論文評(píng)估了表7所示在圖像重建預(yù)訓(xùn)練中使用不同的掩碼方式對(duì)下游任務(wù)的影響。在RVL-CDIP和PubLaynet兩個(gè)數(shù)據(jù)集上,基于詞粒度掩碼的策略可以獲取到更有效的視覺(jué)語(yǔ)義特征,確保更好的性能。

表7 預(yù)訓(xùn)練任務(wù)以及編碼器結(jié)構(gòu)的消融實(shí)驗(yàn)

b834a3e8-d6f2-11ed-bfe3-dac502259ad0.png

總結(jié)及討論

論文出的StructTexTv2模型用于端到端學(xué)習(xí)文檔圖像的視覺(jué)和語(yǔ)言聯(lián)合特征表達(dá),圖像單模態(tài)輸入條件下即可實(shí)現(xiàn)高效的文檔理解。論文提出的預(yù)訓(xùn)練方法基于詞粒度的圖像掩碼,能同時(shí)預(yù)測(cè)相應(yīng)的視覺(jué)和文本內(nèi)容,此外,所提出的編碼器網(wǎng)絡(luò)能夠更有效地挖掘大規(guī)模文檔圖像信息。實(shí)驗(yàn)表明,StructTexTv2在模型大小和推理效率方面對(duì)比之前的方法都有顯著提高。更多的方法原理介紹和實(shí)驗(yàn)細(xì)節(jié)請(qǐng)參考論文原文。

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 圖像
    +關(guān)注

    關(guān)注

    2

    文章

    1094

    瀏覽量

    42008
  • OCR
    OCR
    +關(guān)注

    關(guān)注

    0

    文章

    169

    瀏覽量

    16973

原文標(biāo)題:ICLR 2023 | StrucTexTv2:端到端文檔圖像理解預(yù)訓(xùn)練框架

文章出處:【微信號(hào):CVer,微信公眾號(hào):CVer】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    黑芝麻智能全棧式輔助駕駛系統(tǒng)的應(yīng)用場(chǎng)景

    黑芝麻智能推出的全新一代全棧輔助駕駛系統(tǒng),以武當(dāng)C1200系列高算力芯片為基石,深度融合自研感知算法,實(shí)現(xiàn)從場(chǎng)景感知車(chē)輛控制的完全閉環(huán)優(yōu)化——讓輔助駕駛系統(tǒng)學(xué)會(huì)
    的頭像 發(fā)表于 09-09 17:19 ?1877次閱讀

    Nullmax自動(dòng)駕駛最新研究成果入選ICCV 2025

    近日,國(guó)際計(jì)算機(jī)視覺(jué)大會(huì) ICCV 2025 正式公布論文錄用結(jié)果,Nullmax 感知團(tuán)隊(duì)在自動(dòng)駕駛方向的最新研究成果《HiP-AD: Hierarchical
    的頭像 發(fā)表于 07-05 15:40 ?1397次閱讀
    Nullmax<b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b>自動(dòng)駕駛最新研究成果入選ICCV 2025

    一文帶你厘清自動(dòng)駕駛架構(gòu)差異

    [首發(fā)于智駕最前沿微信公眾號(hào)]隨著自動(dòng)駕駛技術(shù)飛速發(fā)展,智能駕駛系統(tǒng)的設(shè)計(jì)思路也經(jīng)歷了從傳統(tǒng)模塊化架構(gòu)大模型轉(zhuǎn)變。傳統(tǒng)模塊化架構(gòu)將感知、預(yù)測(cè)、規(guī)劃和控制等子任務(wù)拆分開(kāi),分別由不
    的頭像 發(fā)表于 05-08 09:07 ?624次閱讀
    一文帶你厘清自動(dòng)駕駛<b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b>架構(gòu)差異

    小米汽車(chē)智駕技術(shù)介紹

    后起之秀,小米在宣布造車(chē)前被非常多的人質(zhì)疑,但在“真香”定律下,小米創(chuàng)下了很多友商所不能及的成就。作為科技企業(yè),小米也在智能駕駛領(lǐng)域也不斷研發(fā)及突破,并推送了自動(dòng)駕駛系統(tǒng)。 小米
    的頭像 發(fā)表于 03-31 18:17 ?4392次閱讀
    小米汽車(chē)<b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b>智駕技術(shù)介紹

    動(dòng)量感知規(guī)劃的自動(dòng)駕駛框架MomAD解析

    自動(dòng)駕駛框架實(shí)現(xiàn)了感知與規(guī)劃的無(wú)縫集成,但通常依賴(lài)于一次性軌跡預(yù)測(cè),這可能導(dǎo)致控制不穩(wěn)定,并且對(duì)單頓感知中的遮擋問(wèn)題較為敏感。為解決這一問(wèn)題,我們提出了動(dòng)量感知駕駛
    的頭像 發(fā)表于 03-18 09:31 ?1231次閱讀
    動(dòng)量感知規(guī)劃的<b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b>自動(dòng)駕駛<b class='flag-5'>框架</b>MomAD解析

    國(guó)產(chǎn)萬(wàn)兆以太網(wǎng)通信芯片提供的車(chē)載網(wǎng)絡(luò)解決方案

    國(guó)產(chǎn)萬(wàn)兆以太網(wǎng)通信芯片提供的車(chē)載網(wǎng)絡(luò)解決方案
    的頭像 發(fā)表于 02-28 10:01 ?734次閱讀
    國(guó)產(chǎn)萬(wàn)兆以太網(wǎng)通信芯片提供<b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b>的車(chē)載網(wǎng)絡(luò)解決方案

    詳解RAD強(qiáng)化學(xué)習(xí)后訓(xùn)練范式

    受限于算力和數(shù)據(jù),大語(yǔ)言模型預(yù)訓(xùn)練的 scalinglaw 已經(jīng)趨近于極限。DeepSeekR1/OpenAl01通過(guò)強(qiáng)化學(xué)習(xí)后訓(xùn)練涌現(xiàn)了強(qiáng)大的推理能力,掀起新一輪技術(shù)革新。
    的頭像 發(fā)表于 02-25 14:06 ?856次閱讀
    詳解RAD<b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b>強(qiáng)化學(xué)習(xí)后<b class='flag-5'>訓(xùn)練</b>范式

    自動(dòng)駕駛技術(shù)研究與分析

    編者語(yǔ):「智駕最前沿」微信公眾號(hào)后臺(tái)回復(fù):C-0450,獲取本文參考報(bào)告:《自動(dòng)駕駛行業(yè)研究報(bào)告》pdf下載方式。 自動(dòng)駕駛進(jìn)入2024年,
    的頭像 發(fā)表于 12-19 13:07 ?1201次閱讀

    在自動(dòng)泊車(chē)的應(yīng)用

    要做到15Hz以上。這樣就對(duì)存儲(chǔ)和算力需求降低很多。 上海交通大學(xué)的五位學(xué)生發(fā)表了一篇自動(dòng)泊車(chē)的論文:《ParkingE2E: Camera-based End-to-end P
    的頭像 發(fā)表于 12-18 11:38 ?1338次閱讀
    <b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b>在自動(dòng)泊車(chē)的應(yīng)用

    理想汽車(chē)智能駕駛團(tuán)隊(duì)調(diào)整:部門(mén)獨(dú)立

    整體負(fù)責(zé),并向郎咸朋匯報(bào)。經(jīng)過(guò)架構(gòu)調(diào)整后,智能駕駛團(tuán)隊(duì)被細(xì)分為三個(gè)主要部門(mén)。夏中譜將專(zhuān)注于“”模型算法的研發(fā)與落地工作;賈鵬則轉(zhuǎn)而負(fù)責(zé)世界模型部門(mén),其工作重心將更多地放在技術(shù)預(yù)
    的頭像 發(fā)表于 12-04 11:11 ?1125次閱讀

    爆火的如何加速智駕落地?

    編者語(yǔ):「智駕最前沿」微信公眾號(hào)后臺(tái)回復(fù):C-0551,獲取本文參考報(bào)告:《智能汽車(chē)技術(shù)研究報(bào)告》pdf下載方式。 “
    的頭像 發(fā)表于 11-26 13:17 ?1421次閱讀
    爆火的<b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b>如何加速智駕落地?

    連接視覺(jué)語(yǔ)言大模型與自動(dòng)駕駛

    自動(dòng)駕駛在大規(guī)模駕駛數(shù)據(jù)上訓(xùn)練,展現(xiàn)出很強(qiáng)的決策規(guī)劃能力,但是面對(duì)復(fù)雜罕見(jiàn)的駕駛場(chǎng)景,依然存在局限性,這是因?yàn)?b class='flag-5'>端
    的頭像 發(fā)表于 11-07 15:15 ?955次閱讀
    連接視覺(jué)語(yǔ)言大模型與<b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b>自動(dòng)駕駛

    讓智駕強(qiáng)者愈強(qiáng)時(shí)代來(lái)臨?

    到來(lái),智能駕駛技術(shù)也成為眾多車(chē)企研究的重點(diǎn)方向。而在這個(gè)過(guò)程中,架構(gòu)(End-to-End, E2E)作為核心技術(shù),逐漸嶄露頭角,成為推動(dòng)智能駕駛的關(guān)鍵力量。 ? 汽車(chē)智能化:從
    的頭像 發(fā)表于 10-24 09:25 ?1199次閱讀
    <b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b>讓智駕強(qiáng)者愈強(qiáng)時(shí)代來(lái)臨?

    InfiniBand網(wǎng)絡(luò)解決LLM訓(xùn)練瓶頸

    的,這需要大量的計(jì)算資源和高速數(shù)據(jù)傳輸網(wǎng)絡(luò)。InfiniBand(IB)網(wǎng)絡(luò)作為高性能計(jì)算和AI模型訓(xùn)練的理想選擇,發(fā)揮著重要作用。在本文中,我們將深入探討大型語(yǔ)言模型(LLM)
    的頭像 發(fā)表于 10-23 11:26 ?7765次閱讀
    <b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b>InfiniBand網(wǎng)絡(luò)解決LLM<b class='flag-5'>訓(xùn)練</b>瓶頸

    Mobileye自動(dòng)駕駛解決方案的深度解析

    自動(dòng)駕駛技術(shù)正處于快速發(fā)展之中,各大科技公司和汽車(chē)制造商均在爭(zhēng)相布局,試圖在這個(gè)新興領(lǐng)域占據(jù)一席之地。Mobileye作為全球自動(dòng)駕駛技術(shù)的領(lǐng)軍企業(yè)之一,憑借其獨(dú)特的自動(dòng)駕駛解決方案,展現(xiàn)了
    的頭像 發(fā)表于 10-17 09:35 ?1088次閱讀
    Mobileye<b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b>自動(dòng)駕駛解決方案的深度解析