chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

Stability AI開源圖像生成模型Stable Diffusion

倩倩 ? 來源:AI前線 ? 作者:Anthony Alford ? 2022-09-21 15:37 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

Stability AI 對外發(fā)布了 Stable Diffusion 的預(yù)訓練模型權(quán)重,這是一個文本至圖像的 AI 模型。根據(jù)文本提示,Stable Diffusion 能夠生成逼真的 512x512 像素的圖像以描述提示中的場景。

在模型權(quán)重公開發(fā)布之前,它的代碼已經(jīng)發(fā)布,模型權(quán)重也有限發(fā)布給了研究社區(qū)。在最新的版本中,任何用戶都可以在消費者級別的硬件中下載并運行 Stable Diffusion。除了文本至圖像的生成,該模型還支持圖像至圖像的風格轉(zhuǎn)換以及圖像質(zhì)量提升。在發(fā)布該版本的同時,Stable AI 還發(fā)布了 beta 版本的 API 以及模型的 Web UI,名為 DreamStudio。Stable AI 這樣說到:

Stable Diffusion 是一個文本至圖像的模型,它能讓數(shù)十億人在幾秒鐘內(nèi)創(chuàng)建出令人贊嘆的藝術(shù)品。在速度和質(zhì)量方面,它都有所突破,這意味著它能在消費者級別的 GPU 上運行……這能夠讓研究人員和……公眾在各種條件下運行,使圖像生成技術(shù)走向大眾。我們期待圍繞該模型和其他模型出現(xiàn)一個開放的生態(tài)系統(tǒng),以探索潛在空間的邊界。

Stable Diffusion 基于名為潛在擴散模型(latent diffusion models,LDMs)的圖像生成技術(shù)。與其他的流行的圖像合成方法不同,如生成對抗網(wǎng)絡(luò)(generative adversarial networks,GANs)和 DALL-E 使用的自動回歸技術(shù),LDMs 通過在一個潛在表示空間中迭代“去噪”數(shù)據(jù)來生成圖像,然后將表示結(jié)果解碼為完整的圖像。LDM 是由 Ludwig Maximilian University of Munich 的機器視覺與學習(Machine Vision and Learning)研究組開發(fā)的,并在最近的 IEEE / CVF 計算機視覺和模式識別會議(Computer Vision and Pattern Recognition Conference)上發(fā)表的一篇論文中進行了闡述。在今年早些時候,InfoQ 曾經(jīng)報道過谷歌的 Imagen 模型,它是另一個基于擴散的圖像生成 AI。

Stable Diffusion 模型支持多種操作。與 DALL-E 類似,它能夠根據(jù)所需圖像的文本描述,生成符合匹配該描述的高質(zhì)量圖像。它還可以根據(jù)一個簡單的草圖再加上所需圖像的文本描述,生成一個看起來更逼真的圖像。Meta AI 最近發(fā)布了名為 Make-A-Scene 的模型,具有類似的圖像至圖像的功能。

Stable Diffusion 的很多用戶已經(jīng)公開發(fā)布了生成圖像的樣例,Stability AI 的首席開發(fā)者 Katherine Crowson 在推特上分享了許多圖像?;?AI 的圖像合成可能會對藝術(shù)家和藝術(shù)領(lǐng)域帶來一定的影響,有些評論者對此感到不安。就在 Stable Diffusion 發(fā)布的同一周,一幅由 AI 生成的藝術(shù)品在科羅拉多州博覽會的藝術(shù)比賽中獲得了一等獎。Django 框架的共同創(chuàng)建者 Simon Williamson 認為:

我見過一種說法,認為 AI 藝術(shù)沒有資格獲得版權(quán)保護,因為“它必須歸功于全人類”——如果基于文本生成的設(shè)計尚不足以說服公眾的話,那 [圖像至圖像] 技術(shù)可能會打破這種平衡。

Stable AI 的創(chuàng)始人 Emad Mostaque 在推特上回答了一些關(guān)于該模型的問題。在回答一位試圖估算訓練模型所需的計算資源和成本的用戶時,Mostaque 說到:

實際上,我們?yōu)檫@個模型使用了 256 個 A100 顯卡,總共 15 萬小時,所以按市場價格計算為 60 萬美元。

Mostaque 給出了 Reddit 上一篇文章的鏈接,其中給出了如何最好地使用該模型來生成圖像的技巧。

Stable Diffusion 的代碼可以在 GitHub 上找到。模型的權(quán)重以及 Colab notebook 和示例 Web UI 都可以在 HuggingFace 上找到。

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • AI
    AI
    +關(guān)注

    關(guān)注

    91

    文章

    39793

    瀏覽量

    301443
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3752

    瀏覽量

    52111
  • 圖像生成
    +關(guān)注

    關(guān)注

    0

    文章

    25

    瀏覽量

    7169

原文標題:Stability AI 開源圖像生成模型 Stable Diffusion

文章出處:【微信號:AI前線,微信公眾號:AI前線】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    模型 ai coding 比較

    序 我主要用途是 ai coding,從各種渠道獲取到了很多 不同的大模型排序 最多的是 opus 4.6 > k2.5 > glm5 >
    發(fā)表于 02-19 13:43

    使用NORDIC AI的好處

    提升能效,適合音頻、圖像和高采樣率傳感器等更重的 AI 負載。[Axon NPU 技術(shù)頁] 模型更小、更快、更省電 Neuton 模型相較 TensorFlow Lite:* 內(nèi)存
    發(fā)表于 01-31 23:16

    從炫技到量產(chǎn),具身智能要突破哪些瓶頸?

    LingBot-VLA 開源,具身智能的 Stable Diffusion 來了?
    的頭像 發(fā)表于 01-28 17:12 ?8965次閱讀
    從炫技到量產(chǎn),具身智能要突破哪些瓶頸?

    使用Firebase AI Logic生成圖像模型的兩種新功能

    為您的應(yīng)用添加自定義圖像,能夠顯著改善和個性化用戶體驗,有效提高用戶參與度。本文將探討使用 Firebase AI Logic 生成圖像的兩種新功能: 其一是 Imagen 專屬編輯功
    的頭像 發(fā)表于 11-30 09:28 ?431次閱讀

    本地部署Stable Diffusion實現(xiàn)AI文字生成高質(zhì)量矢量圖片應(yīng)用于電子商務(wù)

    本地部署Stable Diffusion
    的頭像 發(fā)表于 11-28 07:19 ?745次閱讀

    openDACS 2025 開源EDA與芯片賽項 賽題七:基于大模型生成式原理圖設(shè)計

    (Large Language Models, LLMs)正逐步成為EDA工具變革的核心驅(qū)動力之一。近年來,以GPT、DeepSeek、通義千問等為代表的通用大模型在文本生成、語義理解、代碼生成、
    發(fā)表于 11-13 11:49

    AI模型的配置AI模型該怎么做?

    STM32可以跑AI,這個AI模型怎么搞,知識盲區(qū)
    發(fā)表于 10-14 07:14

    【「AI芯片:科技探索與AGI愿景」閱讀體驗】+AI芯片的需求和挑戰(zhàn)

    AI的應(yīng)用多種多樣。比如:DALL-E2、Midjourney、Stable Diffusion等,不僅包括對話功能,還包括生成圖像、視頻、
    發(fā)表于 09-12 16:07

    【Sipeed MaixCAM Pro開發(fā)板試用體驗】基于MaixCAM-Pro的AI生成圖像鑒別系統(tǒng)

    1. 項目概述 本項目旨在開發(fā)并部署一個高精度的深度學習模型,用于自動鑒別一張圖片是由AI生成(如Stable Diffusion, DAL
    發(fā)表于 08-21 13:59

    谷歌新一代生成AI媒體模型登陸Vertex AI平臺

    我們在 Vertex AI 上推出新一代生成AI 媒體模型: Imagen 4、Veo 3 和 Lyria 2。
    的頭像 發(fā)表于 06-18 09:56 ?1098次閱讀

    利用NVIDIA 3D引導生成AI Blueprint控制圖像生成

    AI 賦能的圖像生成技術(shù)突飛猛進,從早期模型生成手指過多的人類圖像,到現(xiàn)在能創(chuàng)造出令人驚嘆的逼
    的頭像 發(fā)表于 06-05 09:24 ?901次閱讀

    Gemini API集成Google圖像生成模型Imagen 3

    開發(fā)者現(xiàn)在可以通過 Gemini API 訪問 Google 最先進的圖像生成模型 Imagen 3。該模型最初僅對付費用戶開放,不久后也將面向免費用戶推出。
    的頭像 發(fā)表于 05-14 16:53 ?1268次閱讀

    首創(chuàng)開源架構(gòu),天璣AI開發(fā)套件讓端側(cè)AI模型接入得心應(yīng)手

    模型庫的限制,聯(lián)發(fā)科還首發(fā)了開源彈性架構(gòu)。區(qū)別于過往的開放接口,只能部署特定架構(gòu)模型,開放彈性架構(gòu)允許開發(fā)者直接調(diào)整平臺源代碼,無需等待芯片廠商的支持,即可完成目標或其他自研大模型輕松
    發(fā)表于 04-13 19:52

    ?Diffusion生成式動作引擎技術(shù)解析

    Diffusion生成式動作引擎 Diffusion生成式動作引擎是一種基于擴散模型Diffusion
    的頭像 發(fā)表于 03-17 15:14 ?3058次閱讀

    使用OpenVINO GenAI和LoRA適配器進行圖像生成

    借助生成AI 模型(如 Stable Diffusion 和 FLUX.1),用戶可以將平平無奇的文本提示詞轉(zhuǎn)換為令人驚艷的視覺效果。
    的頭像 發(fā)表于 03-12 13:49 ?1887次閱讀
    使用OpenVINO GenAI和LoRA適配器進行<b class='flag-5'>圖像</b><b class='flag-5'>生成</b>