chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線(xiàn)課程
  • 觀(guān)看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

DALL-E和生成式AI的未來(lái)

CVer ? 來(lái)源:機(jī)器之心 ? 2023-01-30 15:47 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

DALL-E 等生成式模型的「高光時(shí)刻」已經(jīng)出現(xiàn),作為發(fā)明者,Ramesh 表示:「我們第一次嘗試這個(gè)研究方向,是想看看能有什么作為。現(xiàn)在想來(lái),恍如昨日?!?/p>

在 DALL-E 2、Stable Diffusion 和 Midjourney 出現(xiàn)之前,該領(lǐng)域僅有一篇論文,即《零樣本文本到圖像生成》(Zero-Shot Text-to-Image Generation)。

2021 年 1 月 5 日,也就是兩年前,隨著這篇論文和網(wǎng)站演示的發(fā)布,OpenAI 推出了 DALL-E—— 可以「根據(jù)文本說(shuō)明為各種用自然語(yǔ)言表達(dá)的概念創(chuàng)建圖像」的神經(jīng)網(wǎng)絡(luò)。而據(jù)報(bào)道,OpenAI 近日正在就「估值為 290 億美元的收購(gòu)要約」進(jìn)行談判。

49928b48-9f76-11ed-bfe3-dac502259ad0.png

圖源自 DALL-E。

經(jīng)過(guò)訓(xùn)練,Transformer 語(yǔ)言模型 GPT-3 的 120 億參數(shù)版本可以使用文本圖像對(duì)數(shù)據(jù)集從文本描述中生成圖像。VentureBeat 記者 Khari Johnson 在描述時(shí)說(shuō),其「旨在喚起藝術(shù)家 Salvador Dali 和機(jī)器人 WALL-E」,并附上了 DALL-E 生成的「穿著芭蕾舞裙的小白蘿卜遛狗」的插圖。

OpenAI 研究員、DALL-E 的發(fā)明者和 DALL-E 2 的聯(lián)合開(kāi)發(fā)者 Aditya Ramesh 表示,自那以后,整個(gè)領(lǐng)域便取得了飛速的發(fā)展。鑒于過(guò)去一年生成式 AI 領(lǐng)域取得了飛速的發(fā)展,這算是一種很保守的說(shuō)辭。隨后便是擴(kuò)散模型的迅速崛起,其出現(xiàn)改變了去年 4 月發(fā)布的 DALL-E 2,以及它的開(kāi)源對(duì)手:Diffusion 和 Midjourney 原有的格局。

Ramesh 告訴 VentureBeat:「我們第一次嘗試這個(gè)研究方向,想看看能有什么作為,現(xiàn)在感覺(jué)恍如昨日。我知道這項(xiàng)技術(shù)將會(huì)對(duì)消費(fèi)者產(chǎn)生影響,也會(huì)幫助到并對(duì)許多不同的應(yīng)用程序,但我仍然對(duì)其發(fā)展速度之快感到驚訝?!?/p>

如今,生成式模型正在逐漸發(fā)展到「圖像生成和多種模態(tài)的高光時(shí)刻」。他說(shuō):「我很高興能夠?yàn)樗羞@些即將出現(xiàn)的應(yīng)用做點(diǎn)什么?!?/p>

與 CLIP 合作開(kāi)發(fā)的原創(chuàng)研究

CLIP 是與 DALL-E 1 研究共同開(kāi)發(fā)和公布的,它是一個(gè)基于零樣本學(xué)習(xí)的獨(dú)立模型,實(shí)際上算是 DALL-E 的秘密武器。CLIP 從互聯(lián)網(wǎng)上獲取了 4 億對(duì)帶有文字說(shuō)明的圖像進(jìn)行訓(xùn)練,能夠使用自然語(yǔ)言進(jìn)行分類(lèi)基準(zhǔn)測(cè)試并對(duì) DALL-E 結(jié)果進(jìn)行排名。

當(dāng)然,很多早期跡象表明,當(dāng)前即將迎來(lái)文字到圖像的進(jìn)步。英屬哥倫比亞大學(xué)(University of British Columbia)的計(jì)算機(jī)科學(xué)副教授 Jeff Clune 說(shuō)道:「多年來(lái)的研究顯示,這種未來(lái)近在咫尺。」2016 年,他的團(tuán)隊(duì)制作出了他所說(shuō)的第一批與真實(shí)圖像難以分辨的合成圖像。

他說(shuō):「我的意思是,幾年后,人們可以描述任何想要的圖像,然后由 AI 來(lái)生成它,比如特朗普面帶假笑地接受普京的賄賂。」

Air Street Capital 的合伙人 Nathan Benaich 認(rèn)為,生成式 AI 自始至終都是 AI 的核心部分。他在接受 VentureBeat 采訪(fǎng)時(shí)表示:「值得一提的是,2014 年生成式對(duì)抗網(wǎng)絡(luò)(GANs)的開(kāi)發(fā)和 DeepMind 2016 年的 WaveNet 等研究已經(jīng)開(kāi)始展示 AI 模型如何分別從頭生成新的圖像和音頻?!?/p>

盡管如此,最初的 DALL-E 論文「在當(dāng)時(shí)給人留下了深刻的印象」,未來(lái)學(xué)家、作家和 AI 研究員 Matt White 補(bǔ)充道。他說(shuō):「雖然這不是文本到圖像合成領(lǐng)域的首項(xiàng)工作,但 OpenAI 不僅僅向 AI 研究領(lǐng)域推廣他們工作的方法,更是將推廣范圍擴(kuò)大到公眾層面,這自然也是其頗受關(guān)注的原因所在?!?/p>

盡可能地推動(dòng) DALL-E 研究

Ramesh 說(shuō),他的初心始終是盡可能地推動(dòng)這項(xiàng)研究。

他說(shuō):「我們覺(jué)得文本到圖像的生成很有意思,作為人類(lèi),我們能夠通過(guò)一句話(huà)來(lái)描述我們?cè)诂F(xiàn)實(shí)生活中可能遇到的任何情況,也可以是不可能發(fā)生的幻想場(chǎng)景,或者是瘋狂的幻想。所以我們想看看我們訓(xùn)練的模型是否能得當(dāng)?shù)貜奈谋局猩蓤D像,并且和人類(lèi)一樣做出推斷?!?/p>

Ramesh 還補(bǔ)充道,對(duì)原始 DALL-E 的主要研究影響之一是 VQ-VAE,這是一種由 DeepMind 研究人員 Aaron van den Oord 首創(chuàng)的技術(shù):像語(yǔ)言模型所訓(xùn)練的 token 一樣,將圖像也分解為 token。

他解釋說(shuō):「所以我們可以采用像 GPT 這樣的 transformer,訓(xùn)練它的目的是為了預(yù)測(cè)下一個(gè)單詞,并用這些額外的圖像 token 來(lái)增強(qiáng)它的語(yǔ)言 token。這讓我們可以應(yīng)用同樣的技術(shù)來(lái)生成圖像?!?/p>

他說(shuō),DALL-E 會(huì)帶給人們驚喜,因?yàn)椤冈谡Z(yǔ)言模型中看到泛化的例子是一回事,但當(dāng)在圖像生成中看到它時(shí),它就會(huì)更加直觀(guān)且具有更深的影響力?!?/p>

DALL-E 2 向擴(kuò)散模型的轉(zhuǎn)變

但最初 DALL-E 研究發(fā)表時(shí),Ramesh 的 DALL-E 2 合著者 Alex Nichol 和 Prafulla Dhariwal 已經(jīng)在研究在 GLIDE(一種新的 OpenAI 擴(kuò)散模型)的修改版本中使用擴(kuò)散模型。

這導(dǎo)致 DALL-E 2 的架構(gòu)與第一次迭代的 DALL-E 完全不同。正如 Vasclav Kosar 解釋的那樣,「DALL-E 1 使用離散變分自編碼器 (dVAE)、下一個(gè) token 預(yù)測(cè)和 CLIP 模型重新排序,而 DALL-E 2 直接使用 CLIP 嵌入,并通過(guò)類(lèi)似 GLIDE 的擴(kuò)散來(lái)解碼圖像?!?/p>

Ramesh 說(shuō):「將擴(kuò)散模型和 DALL-E 結(jié)合起來(lái),看似是一件自然而然的事,因?yàn)閿U(kuò)散模型有很多優(yōu)點(diǎn),其中最明顯的特點(diǎn)是用擴(kuò)散模型能夠利落而又巧妙地修復(fù)圖像?!?/p>

他解釋道,在 DALL-E 2 中加入了在開(kāi)發(fā) GLIDE 時(shí)使用的一種特殊技術(shù) —— 無(wú)分類(lèi)器指導(dǎo) —— 這大大改進(jìn)了字幕的匹配度以及真實(shí)感。

「當(dāng) Alex 第一次嘗試時(shí),沒(méi)有人想到結(jié)果會(huì)有這么大的改善。我最初只期望 DALL-E 2 能成為 DALL-E 的更新版本,但讓我驚訝的是,它已經(jīng)開(kāi)始讓用戶(hù)受益了。」

2022 年 4 月 6 日,當(dāng) AI 社群和普通用戶(hù)第一次看到 DALL-E 2 的圖像輸出時(shí),他們中的大部分都驚嘆于圖像質(zhì)量的差異。

「競(jìng)爭(zhēng)激烈,喜憂(yōu)參半」

Hugging Face 的首席倫理科學(xué)家 Margaret Mitchell 在電子郵件告訴 VentureBeat,2021 年 1 月發(fā)布的 DALL-E 是第一波文本到圖像研究的浪潮,這些研究建立在語(yǔ)言和圖像處理的基本進(jìn)展之上,包括變分自動(dòng)編碼器和 autoregressive transformers。DALL-E 2 發(fā)布時(shí),「擴(kuò)散是我們行內(nèi)人意料之外的突破,它切實(shí)地提升了游戲質(zhì)量,」她說(shuō)。

她補(bǔ)充說(shuō),自從最初的 DALL-E 研究論文發(fā)表以來(lái),過(guò)去兩年一直是「競(jìng)爭(zhēng)激烈,喜憂(yōu)參半」。

「對(duì)如何建立語(yǔ)言和圖像模型的關(guān)注是以如何最好地獲取模型的數(shù)據(jù)為代價(jià)的,」她還指出,在現(xiàn)代文本到圖像的進(jìn)展中,個(gè)人權(quán)利和同意「幾乎被拋棄了」。目前的系統(tǒng)「基本上是在竊取藝術(shù)家的概念,而沒(méi)有為藝術(shù)家提供任何追索權(quán),」她如此總結(jié)道。

DALL-E 沒(méi)有公開(kāi)源代碼,這導(dǎo)致其他系統(tǒng)開(kāi)發(fā)了開(kāi)源的文本轉(zhuǎn)圖像選項(xiàng),這在 2022 年夏天前引起了轟動(dòng)。

最初的 DALL-E「很有意思,但無(wú)法使用」,Stability AI 的創(chuàng)始人 Emad Mostaque 說(shuō),他在 8 月發(fā)布了開(kāi)源文本到圖像生成器 Stable Diffusion 的第一個(gè)迭代,并說(shuō)「只有我的團(tuán)隊(duì)訓(xùn)練的模型可以稱(chēng)作開(kāi)源」。Mostaque 補(bǔ)充說(shuō):「我們從 2021 年夏天開(kāi)始積極資助和支持它?!?/p>

展望未來(lái),White 認(rèn)為,即使不久將要迎來(lái)新一代,DALL-E 的未來(lái)依舊任重而道遠(yuǎn)。

「DALL-E 2 在穩(wěn)定性、質(zhì)量和道德層面都存在問(wèn)題,」,他指出,這些問(wèn)題是相互交織且互相影響的,像「一只棕色的狗穿著紅襯衫」這樣的 prompt 可能會(huì)產(chǎn)生屬性顛倒的結(jié)果(即紅狗穿棕色襯衫,紅狗穿紅色襯衫或完全不同的顏色)。此外,他補(bǔ)充道,DALL-E 2 在面部和身體構(gòu)造、圖像文本生成的一致性方面仍然存在困難,「特別是當(dāng)遇到較長(zhǎng)的單詞時(shí)?!?/p>

DALL-E 和生成式 AI 的未來(lái)

Ramesh 希望更多的人了解到 DALL-E 2 的技術(shù)工作原理,這樣可以消除很多誤解。

他說(shuō):「在大眾眼里。這個(gè)模型的工作方式是:它在某處有個(gè)圖像數(shù)據(jù)庫(kù),它生成圖像的方式是將這些圖像片段剪切粘貼在一起,從而創(chuàng)造出新的東西。但實(shí)際上,它的工作方式更接近于人類(lèi),當(dāng)模型接受圖像訓(xùn)練時(shí),它會(huì)學(xué)習(xí)所有這些概念的抽象表征?!?/p>

他還解釋道:「在我們從頭開(kāi)始生成圖像時(shí),我們不再使用訓(xùn)練數(shù)據(jù)。擴(kuò)散模型從他們?cè)噲D生成物的模糊近似開(kāi)始,經(jīng)過(guò)多重步驟,逐步添加細(xì)節(jié),就像藝術(shù)家總是從一個(gè)粗略的草圖開(kāi)始發(fā)揮,隨著時(shí)間的推移再慢慢充實(shí)他的作品?!?/p>

他說(shuō),助藝術(shù)家創(chuàng)作一臂之力也是 DALL-E 自始至終的目標(biāo)。

「過(guò)去,我們熱切地希望這些模型能成為藝術(shù)家的得力助手 —— 成為可以讓許多日常任務(wù)變得更簡(jiǎn)單、更有效率的得力工具,就像 Codex 是程序員的副駕駛一樣。據(jù)我們所知,一些藝術(shù)家認(rèn)為在創(chuàng)建想法原型時(shí),DALL-E 非常有用,因?yàn)樗麄兺ǔ?huì)花幾個(gè)小時(shí)甚至幾天的時(shí)間來(lái)探索某個(gè)概念,隨后才決定采用它,而 DALL-E 可以將這個(gè)過(guò)程縮短至幾個(gè)小時(shí)甚至是幾分鐘?!?/p>

Ramesh 說(shuō),他希望越來(lái)越多的人能夠在學(xué)習(xí)和探索過(guò)程中逐漸學(xué)會(huì)應(yīng)用 DALL-E 和其他生成式 AI 工具。

「通過(guò)(OpenAI 的)ChatGPT,我認(rèn)為我們已經(jīng)極大地?cái)U(kuò)展了這些 AI 工具的功能,并讓很多人接觸到它。希望隨著時(shí)間的推移,那些想運(yùn)用我們的技術(shù)做事的人可以很毫不費(fèi)力地通過(guò)我們的網(wǎng)站獲取它,并找到方法來(lái)使用其構(gòu)建出他們心中所想。」

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀(guān)點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 圖像
    +關(guān)注

    關(guān)注

    2

    文章

    1096

    瀏覽量

    42259
  • 數(shù)據(jù)庫(kù)
    +關(guān)注

    關(guān)注

    7

    文章

    4005

    瀏覽量

    68171
  • 生成式AI
    +關(guān)注

    關(guān)注

    0

    文章

    537

    瀏覽量

    1059

原文標(biāo)題:DALL-E發(fā)明者:我對(duì)其兩年來(lái)產(chǎn)生的影響感到驚訝

文章出處:【微信號(hào):CVer,微信公眾號(hào):CVer】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    Alif Semiconductor的Ensemble MCU新增對(duì)ExecuTorch Runtime的支持,助力其推動(dòng)邊緣生成AI發(fā)展

    ·?Ensemble E4/E6/E8是業(yè)界首個(gè)為T(mén)ransformer網(wǎng)絡(luò)提供硬件加速的MCU系列,可在邊緣設(shè)備及終端設(shè)備上實(shí)現(xiàn)本地生成
    的頭像 發(fā)表于 11-04 11:44 ?1351次閱讀
    Alif Semiconductor的Ensemble MCU新增對(duì)ExecuTorch Runtime的支持,助力其推動(dòng)邊緣<b class='flag-5'>生成</b><b class='flag-5'>式</b><b class='flag-5'>AI</b>發(fā)展

    【「AI芯片:科技探索與AGI愿景」閱讀體驗(yàn)】+AI芯片的需求和挑戰(zhàn)

    AI的應(yīng)用多種多樣。比如:DALL-E2、Midjourney、Stable Diffusion等,不僅包括對(duì)話(huà)功能,還包括生成圖像、視頻、語(yǔ)音和程序代碼等功能。 竟然連代碼都可以生成
    發(fā)表于 09-12 16:07

    智能體化AI生成AI的區(qū)別

    生成 AI 的核心是“生成內(nèi)容” —— 比如用大模型寫(xiě)報(bào)告,是對(duì)輸入指令的被動(dòng)響應(yīng)。而智能體化 AI(Agentic
    的頭像 發(fā)表于 08-25 17:24 ?1484次閱讀

    【Sipeed MaixCAM Pro開(kāi)發(fā)板試用體驗(yàn)】基于MaixCAM-Pro的AI生成圖像鑒別系統(tǒng)

    1. 項(xiàng)目概述 本項(xiàng)目旨在開(kāi)發(fā)并部署一個(gè)高精度的深度學(xué)習(xí)模型,用于自動(dòng)鑒別一張圖片是由AI生成(如Stable Diffusion, DALL-E, Midjourney等工具生成)還
    發(fā)表于 08-21 13:59

    生成 AI 重塑自動(dòng)駕駛仿真:4D 場(chǎng)景生成技術(shù)的突破與實(shí)踐

    生成AI驅(qū)動(dòng)的4D場(chǎng)景技術(shù)正解決傳統(tǒng)方法效率低、覆蓋不足等痛點(diǎn),如何通過(guò)NeRF、3D高斯?jié)姙R等技術(shù)實(shí)現(xiàn)高保真動(dòng)態(tài)建模?高效生成極端天氣等長(zhǎng)尾場(chǎng)景?本文為您系統(tǒng)梳理
    的頭像 發(fā)表于 08-06 11:20 ?5037次閱讀
    <b class='flag-5'>生成</b><b class='flag-5'>式</b> <b class='flag-5'>AI</b> 重塑自動(dòng)駕駛仿真:4D 場(chǎng)景<b class='flag-5'>生成</b>技術(shù)的突破與實(shí)踐

    谷歌新一代生成AI媒體模型登陸Vertex AI平臺(tái)

    我們?cè)?Vertex AI 上推出新一代生成 AI 媒體模型: Imagen 4、Veo 3 和 Lyria 2。
    的頭像 發(fā)表于 06-18 09:56 ?1007次閱讀

    生成人工智能認(rèn)證:重構(gòu)AI時(shí)代的人才培養(yǎng)與職業(yè)躍遷路徑

    當(dāng)人類(lèi)站在生成人工智能(Generative AI)的技術(shù)奇點(diǎn)上回望,會(huì)發(fā)現(xiàn)這場(chǎng)革命早已超越了工具迭代的范疇——它正在重新定義人類(lèi)與技術(shù)的協(xié)作模式,重塑職業(yè)世界的運(yùn)行邏輯。生成
    的頭像 發(fā)表于 05-23 09:29 ?764次閱讀

    樹(shù)莓派 也能搞 AI 藝術(shù)?樹(shù)莓派遇上DALL-E,開(kāi)啟你的 AI 藝術(shù)創(chuàng)作之旅!

    本教程將向你展示如何使用DALL-EAPI從你的RaspberryPi上生成隨機(jī)的AI藝術(shù)。近年來(lái),人工智能(AI)是一個(gè)取得了巨大飛躍的領(lǐng)域,這在很大程度上要?dú)w功于OpenAI等團(tuán)隊(duì)
    的頭像 發(fā)表于 03-25 09:29 ?852次閱讀
    樹(shù)莓派 也能搞 <b class='flag-5'>AI</b> 藝術(shù)?樹(shù)莓派遇上<b class='flag-5'>DALL-E</b>,開(kāi)啟你的 <b class='flag-5'>AI</b> 藝術(shù)創(chuàng)作之旅!

    AI Agent 應(yīng)用與項(xiàng)目實(shí)戰(zhàn)》閱讀心得2——客服機(jī)器人、AutoGen框架 、生成代理

    及時(shí)處理。 第5章的斯坦福AI小鎮(zhèn)項(xiàng)目對(duì)生成代理技術(shù)做出了開(kāi)創(chuàng)性的探索。該項(xiàng)目的核心是將LLM與計(jì)算交互代理相結(jié)合,構(gòu)建了一個(gè)具有記憶、反思、規(guī)劃能力的智能體系統(tǒng)。在技術(shù)實(shí)現(xiàn)層面,記憶和檢索模塊采用
    發(fā)表于 02-25 21:59

    聚云科技獲亞馬遜云科技生成AI能力認(rèn)證

    近日,云管理服務(wù)提供商聚云科技成功獲得亞馬遜云科技生成AI能力認(rèn)證。此次認(rèn)證標(biāo)志著聚云科技在利用亞馬遜云科技全托管的生成
    的頭像 發(fā)表于 02-19 10:33 ?923次閱讀

    聚云科技榮獲亞馬遜云科技生成AI能力認(rèn)證

    助力企業(yè)加速生成AI應(yīng)用落地 北京2025年2月14日?/美通社/ -- 云管理服務(wù)提供商聚云科技獲得亞馬遜云科技生成
    的頭像 發(fā)表于 02-14 16:07 ?763次閱讀

    聚云科技榮獲亞馬遜云科技生成AI能力認(rèn)證 助力企業(yè)加速生成AI應(yīng)用落地

    北京 ——2025 年 2 月 14 日 云管理服務(wù)提供商聚云科技獲得亞馬遜云科技生成AI能力認(rèn)證,利用亞馬遜云科技全托管的生成
    發(fā)表于 02-14 13:41 ?377次閱讀

    涂鴉智能集成Mistral AI大模型,加速歐洲AI硬件革新

    。LeChat作為完全開(kāi)源的應(yīng)用,每秒可處理1100個(gè)token(約1000單詞),比ChatGPT快13倍,圖像生成能力超過(guò)DALL·E,還可同時(shí)支持iOS和An
    的頭像 發(fā)表于 02-13 20:58 ?658次閱讀
    涂鴉智能集成Mistral <b class='flag-5'>AI</b>大模型,加速歐洲<b class='flag-5'>AI</b>硬件革新

    中國(guó)生成AI軟件市場(chǎng)五年內(nèi)預(yù)計(jì)增長(zhǎng)超四倍

    131.18億元人民幣),這一數(shù)字不僅彰顯了生成AI技術(shù)在中國(guó)市場(chǎng)的巨大潛力,也預(yù)示著該領(lǐng)域未來(lái)的廣闊發(fā)展前景。 報(bào)告進(jìn)一步指出,盡管生成
    的頭像 發(fā)表于 02-08 10:45 ?837次閱讀

    OpenAI計(jì)劃開(kāi)發(fā)可替代手機(jī)的生成AI專(zhuān)用終端

    近日,據(jù)日經(jīng)報(bào)道,人工智能研究公司 OpenAI 的 CEO Sam Altman 在接受采訪(fǎng)時(shí)透露,OpenAI 計(jì)劃開(kāi)發(fā)一款可替代手機(jī)的生成 AI 專(zhuān)用終端。 據(jù)了解,OpenAI 在
    的頭像 發(fā)表于 02-05 14:50 ?1053次閱讀