chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

虹科分享 | 谷歌Vertex AI平臺(tái)使用Redis搭建大語(yǔ)言模型

廣州虹科電子 ? 來(lái)源: 廣州虹科電子 ? 作者: 廣州虹科電子 ? 2023-09-18 11:26 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

基礎(chǔ)模型和高性能數(shù)據(jù)層這兩個(gè)基本組件始終是創(chuàng)建高效、可擴(kuò)展語(yǔ)言模型應(yīng)用的關(guān)鍵,利用Redis搭建大語(yǔ)言模型,能夠?qū)崿F(xiàn)高效可擴(kuò)展的語(yǔ)義搜索、檢索增強(qiáng)生成、LLM 緩存機(jī)制、LLM記憶和持久化。有Redis加持的大語(yǔ)言模型可應(yīng)用于文檔檢索、虛擬購(gòu)物助手、客戶服務(wù)助理等,為企業(yè)帶來(lái)益處。

一、語(yǔ)言模型構(gòu)件

應(yīng)用程序生成、理解和使用人類(lèi)語(yǔ)言的能力正變得越來(lái)越重要,從客服機(jī)器人到虛擬助手,再到內(nèi)容生成,人們對(duì)AI應(yīng)用功能的需求橫跨眾多領(lǐng)域,而這一切的實(shí)現(xiàn),都要?dú)w功于谷歌的 PaLM 2 等基礎(chǔ)模型,這些模型經(jīng)過(guò)精心調(diào)教,可以生成類(lèi)似人類(lèi)表達(dá)風(fēng)格的內(nèi)容。

在這一動(dòng)態(tài)環(huán)境中,基礎(chǔ)模型和高性能數(shù)據(jù)層這兩個(gè)基本組件始終是創(chuàng)建高效、可擴(kuò)展語(yǔ)言模型應(yīng)用的關(guān)鍵。

1.基礎(chǔ)模型

基礎(chǔ)模型是生成式人工智能應(yīng)用的基石,大型語(yǔ)言模型(Large Language Model,LLM)是其中的一個(gè)子集。 LLM 通過(guò)大量的文本訓(xùn)練,使其能夠?yàn)楦鞣N任務(wù)生成具有上下文相關(guān)性的類(lèi)似人類(lèi)表達(dá)風(fēng)格的文本。改進(jìn)這些模型,使其更加復(fù)雜,從而使應(yīng)用可以更精煉、更有效地響應(yīng)用戶輸入。所選擇的語(yǔ)言模型會(huì)顯著影響應(yīng)用的性能、成本和服務(wù)質(zhì)量。

然而,PaLM 2 等模型雖然功能強(qiáng)大,但也有其局限性,例如當(dāng)缺乏特定領(lǐng)域的數(shù)據(jù)時(shí),模型可能不夠相關(guān),而且可能無(wú)法及時(shí)呈現(xiàn)新信息或準(zhǔn)確信息。 LLM 在提示(prompts)中可以處理的上下文長(zhǎng)度(即詞組數(shù)量)有硬性限制,此外,LLM 的訓(xùn)練或微調(diào)需要大量的計(jì)算資源,這會(huì)使成本劇增。要在這些限制和優(yōu)勢(shì)之間取得平衡,需要進(jìn)行謹(jǐn)慎的策略和強(qiáng)大基礎(chǔ)設(shè)施的支持。

2.高性能的數(shù)據(jù)層

高效的LLM 應(yīng)用程序由可擴(kuò)展的高性能數(shù)據(jù)層支撐,該組件可確保高速交易和低延遲,這對(duì)于保持用戶流暢交互至關(guān)重要。它在以下方面發(fā)揮關(guān)鍵作用:

·緩存預(yù)計(jì)算的請(qǐng)求響應(yīng)或嵌入

·對(duì)過(guò)去的交互歷史進(jìn)行持久化

·進(jìn)行語(yǔ)義搜索以檢索相關(guān)的上下文或知識(shí)

向量數(shù)據(jù)庫(kù)已成為一種流行的數(shù)據(jù)層解決方案。Redis 在向量搜索方面的投入遠(yuǎn)遠(yuǎn)早于當(dāng)下的向量數(shù)據(jù)庫(kù)熱潮,這反映了我們具有豐富的經(jīng)驗(yàn),尤其是在性能方面。Redis對(duì)于向量搜索的經(jīng)驗(yàn)在剛剛發(fā)布的 Redis 7.2 版本中得到了體現(xiàn),該版本包括可擴(kuò)展搜索功能預(yù)覽,與前一版本相比,每秒查詢次數(shù)提高了16倍。

基礎(chǔ)模型和向量數(shù)據(jù)庫(kù)在不同行業(yè)的LLM 應(yīng)用中發(fā)揮著至關(guān)重要的作用,因此引發(fā)了業(yè)界的極大興趣和炒作。例如,一些較新的獨(dú)立向量數(shù)據(jù)庫(kù)解決方案(如 Pinecone)宣布獲得巨額融資,并投入大量精力以贏得開(kāi)發(fā)人員的關(guān)注。然而,由于每周都有新的工具出現(xiàn),因此很難知道哪款工具真的能滿足企業(yè)需求。

GCP (Google’s Google Cloud Platform)的與眾不同之處在于其統(tǒng)一的產(chǎn)品,它將功能強(qiáng)大的基礎(chǔ)模型、可擴(kuò)展的基礎(chǔ)設(shè)施,以及一套用于調(diào)整、部署和維護(hù)這些模型的工具結(jié)合在一起,從而能夠確保最高級(jí)別的數(shù)據(jù)安全和隱私安全。

但是,要真正發(fā)揮這些進(jìn)展的潛力,一個(gè)高性能且可擴(kuò)展的數(shù)據(jù)層是不可或缺的,這就是Redis的作用所在。

3.可擴(kuò)展語(yǔ)言模型應(yīng)用的推理架構(gòu)
image.png

GCP 和 Redis Enterprise 用于語(yǔ)言模型應(yīng)用的推理架構(gòu)

這里所呈現(xiàn)的推理架構(gòu)適用于通用語(yǔ)言模型用例。它結(jié)合使用了Vertex AI(PaLM 2 基礎(chǔ)模型)、BigQuery 和 Redis Enterprise。

GCP 和 Redis Enterprise 用于語(yǔ)言模型應(yīng)用的推理架構(gòu)。

您可以按照開(kāi)源 GitHub 倉(cāng)庫(kù)中的Colab 筆記本逐步設(shè)置此 LLM 架構(gòu)。

1. 安裝庫(kù)和工具: 安裝所需的Python 庫(kù),使用 Vertex AI 進(jìn)行身份驗(yàn)證,并創(chuàng)建一個(gè) Redis 數(shù)據(jù)庫(kù)。

2. 創(chuàng)建 BigQuery 表格: 將數(shù)據(jù)集加載到您的GCP 項(xiàng)目中的 BigQuery 表格中。

3. 生成文本嵌入: 循環(huán)遍歷數(shù)據(jù)集中的記錄,使用PaLM 2 嵌入 API 創(chuàng)建文本嵌入。

4. 加載嵌入: 將文本嵌入和一些元數(shù)據(jù)加載到運(yùn)行中的Redis 服務(wù)器。

5. 創(chuàng)建向量索引 運(yùn)行Redis 命令來(lái)創(chuàng)建一個(gè)模式和一個(gè)新的索引結(jié)構(gòu),以實(shí)現(xiàn)實(shí)時(shí)搜索。

完成必要的設(shè)置步驟后,這個(gè)架構(gòu)就可以支持多種LLM 應(yīng)用,如聊天機(jī)器人和虛擬購(gòu)物助手。

二.在語(yǔ)言模型(LLM)應(yīng)用Redis

即使是經(jīng)驗(yàn)豐富的軟件開(kāi)發(fā)人員和應(yīng)用架構(gòu)師也可能對(duì)這個(gè)新的知識(shí)領(lǐng)域不了解,這個(gè)簡(jiǎn)短的總結(jié)應(yīng)該能幫助你迅速掌握要點(diǎn)。

1.利用Redis實(shí)現(xiàn)高效可擴(kuò)展的語(yǔ)義搜索

語(yǔ)義搜索從龐大的知識(shí)語(yǔ)料庫(kù)中提取語(yǔ)義相似的內(nèi)容。在這個(gè)過(guò)程中,知識(shí)被轉(zhuǎn)化為可以進(jìn)行比較的數(shù)值嵌入向量,以找到與用戶查詢最相關(guān)的上下文信息。

Redis 作為高性能向量數(shù)據(jù)庫(kù),擅長(zhǎng)索引非結(jié)構(gòu)化數(shù)據(jù),從而實(shí)現(xiàn)高效可擴(kuò)展的語(yǔ)義搜索。Redis 可以增強(qiáng)應(yīng)用程序迅速理解和響應(yīng)用戶查詢的能力,其強(qiáng)大的搜索索引能力有助于實(shí)現(xiàn)響應(yīng)迅速和準(zhǔn)確的用戶交互。

** 2.利用Redis實(shí)現(xiàn)檢索增強(qiáng)生成**

檢索增強(qiáng)生成(Retrieval-Augmented Generation,RAG)方法利用語(yǔ)義搜索等方法,在將提示發(fā)送到 LLM 之前動(dòng)態(tài)地注入事實(shí)知識(shí)。這種技術(shù)最大程度上減少了在專有或頻繁變動(dòng)的數(shù)據(jù)上對(duì) LLM 進(jìn)行微調(diào)的需求。RAG 允許對(duì) LLM 進(jìn)行上下文增強(qiáng),使其能夠更好地處理當(dāng)前的任務(wù),例如回答具體問(wèn)題、總結(jié)檢索內(nèi)容或生成新內(nèi)容。

作為向量數(shù)據(jù)庫(kù)和全文搜索引擎,Redis 有助于 RAG 工作流的順暢運(yùn)行。由于其低延遲的數(shù)據(jù)檢索能力,Redis 常常是執(zhí)行此任務(wù)的首選工具。它確保語(yǔ)言模型迅速而準(zhǔn)確地獲得所需的上下文,促進(jìn)了人工智能應(yīng)用高效的執(zhí)行任務(wù)。
image.png檢索增強(qiáng)生成(RAG)架構(gòu)示例

3.利用Redis實(shí)現(xiàn)LLM 的緩存機(jī)制

緩存是增強(qiáng)LLM 響應(yīng)能力和計(jì)算效率的強(qiáng)大技術(shù)手段。

標(biāo)準(zhǔn)緩存提供了一種機(jī)制,用于存儲(chǔ)并快速檢索預(yù)生成的常見(jiàn)查詢響應(yīng),從而降低計(jì)算負(fù)載和響應(yīng)時(shí)間。然而,在動(dòng)態(tài)對(duì)話背景中使用人類(lèi)語(yǔ)言時(shí),完全匹配的查詢很少,這就是語(yǔ)義緩存發(fā)揮作用的地方。

語(yǔ)義緩存可以理解并利用查詢的潛在語(yǔ)義。語(yǔ)義緩存識(shí)別并檢索與輸入查詢?cè)谡Z(yǔ)義上足夠相似的緩存響應(yīng)。這種能力極大地增加了緩存命中率,進(jìn)一步改善了響應(yīng)時(shí)間和資源利用率。

例如,在客戶服務(wù)場(chǎng)景中,多個(gè)用戶可能會(huì)使用不同的措辭詢問(wèn)類(lèi)似的常見(jiàn)問(wèn)題。語(yǔ)義緩存使得LLM 能夠在不進(jìn)行冗余計(jì)算的情況下迅速而準(zhǔn)確地回應(yīng)這些問(wèn)題。image.pngLLM緩存機(jī)制

Redis 非常適用于在 LLM 中實(shí)現(xiàn)緩存,其強(qiáng)大的功能集包括支持生存時(shí)間(TTL)和逐出策略,用于管理臨時(shí)數(shù)據(jù)。結(jié)合其向量數(shù)據(jù)庫(kù)的語(yǔ)義搜索能力,Redis 能夠高效快速地檢索緩存響應(yīng),從而顯著提升 LLM 的響應(yīng)速度和系統(tǒng)整體性能,即使在負(fù)載較重的情況下也能如此。

4.利用Redis實(shí)現(xiàn)內(nèi)存和持久化

保留過(guò)去的互動(dòng)和會(huì)話元數(shù)據(jù)對(duì)于確保上下文連貫和個(gè)性化對(duì)話至關(guān)重要,然而LLM 并沒(méi)有自適應(yīng)記憶,因此依賴一個(gè)可靠的系統(tǒng)進(jìn)行快速的對(duì)話數(shù)據(jù)存儲(chǔ)變得至關(guān)重要。

Redis 提供了一個(gè)強(qiáng)大的解決方案,用于管理 LLM 的記憶。它可以在大量需求下高效地訪問(wèn)聊天歷史和會(huì)話元數(shù)據(jù)。Redis使用其數(shù)據(jù)結(jié)構(gòu)存儲(chǔ)來(lái)處理傳統(tǒng)的內(nèi)存管理,同時(shí)其向量數(shù)據(jù)庫(kù)功能有助于提取語(yǔ)義相關(guān)的互動(dòng)內(nèi)容。

三、LLM 的應(yīng)用場(chǎng)景

1.文檔檢索

一些企業(yè)需要處理大量的文檔,而LLM 應(yīng)用可以成為文檔發(fā)現(xiàn)和檢索的強(qiáng)大工具,語(yǔ)義搜索有助于從廣泛的知識(shí)語(yǔ)料庫(kù)中精確定位相關(guān)信息。

2.虛擬購(gòu)物助手

LLM 可以支持復(fù)雜的電子商務(wù)虛擬購(gòu)物助手,通過(guò)上下文理解和語(yǔ)義搜索,它可以理解客戶的問(wèn)題,提供個(gè)性化的產(chǎn)品推薦,甚至實(shí)時(shí)模擬對(duì)話互動(dòng)。

3.客戶服務(wù)助理

將LLM 部署為客戶服務(wù)代理可以徹底改變客戶互動(dòng)方式,除了回答常見(jiàn)問(wèn)題外,系統(tǒng)還可以進(jìn)行復(fù)雜的對(duì)話,為客戶提供定制化的幫助,并從過(guò)去的客戶互動(dòng)中進(jìn)行學(xué)習(xí)。

四.Redis 和 Google Cloud:強(qiáng)強(qiáng)聯(lián)合

1.基于知識(shí)

GCP 和 Redis 讓 LLM 應(yīng)用不僅僅是先進(jìn)的文本生成器,通過(guò)在運(yùn)行時(shí)迅速注入來(lái)自您自己領(lǐng)域的特定知識(shí),它們確保您的應(yīng)用可以提供基于知識(shí)、準(zhǔn)確和有價(jià)值的交互,特別適應(yīng)于您的組織知識(shí)庫(kù)。

2.簡(jiǎn)化架構(gòu)

Redis 不僅僅是一個(gè)鍵值數(shù)據(jù)庫(kù),它是實(shí)時(shí)數(shù)據(jù)的多功能工具,通過(guò)消除為不同用例管理多個(gè)服務(wù)的需求,它極大地簡(jiǎn)化了您的體系架構(gòu)。作為許多組織已經(jīng)信任的緩存和其他需求的工具,Redis 在 LLM 應(yīng)用中的集成起到了無(wú)縫擴(kuò)展的效果。

3.優(yōu)化性能

Redis 是低延遲和高吞吐量數(shù)據(jù)結(jié)構(gòu)的代名詞。當(dāng)與具有超強(qiáng)計(jì)算能力的GCP結(jié)合時(shí) ,您將擁有一個(gè)不僅智能而且響應(yīng)迅速的 LLM 應(yīng)用,即使在負(fù)載較重的情況下也能如此。

4.企業(yè)級(jí)能力

Redis是經(jīng)過(guò)時(shí)間驗(yàn)證的開(kāi)源數(shù)據(jù)庫(kù)核心,可為全球財(cái)富100強(qiáng)公司提供可靠服務(wù)。在Redis Enterprise提供的五個(gè)九(99.999%)可用性的支持下,并由 GCP 強(qiáng)大的基礎(chǔ)架構(gòu)提供支持,您可以完全信任其可以完全滿足企業(yè)需求。

5.加速上市進(jìn)程

利用Redis Enterprise,您可以更專注于創(chuàng)建 LLM 應(yīng)用,而不必費(fèi)心進(jìn)行數(shù)據(jù)庫(kù)設(shè)置。這種集成的便利性加速了上市進(jìn)程,為您的組織提供了競(jìng)爭(zhēng)優(yōu)勢(shì)。

盡管新的向量數(shù)據(jù)庫(kù)和生成式AI 產(chǎn)品可能在市場(chǎng)上引起了很大的關(guān)注,但是 GCP 和 Redis 的可靠組合更加值得信任。這些經(jīng)過(guò)時(shí)間驗(yàn)證的解決方案不會(huì)很快消失,它們已經(jīng)準(zhǔn)備好為您的 LLM 應(yīng)用提供動(dòng)力,無(wú)論是今天還是未來(lái)的數(shù)年。

虹科是Redis原廠的中國(guó)區(qū)戰(zhàn)略合作伙伴。我們持續(xù)關(guān)注各行業(yè)當(dāng)下急切需求,專注于為企業(yè)解答疑問(wèn),制定專屬服務(wù),提供一站式數(shù)據(jù)庫(kù)和商業(yè)智能解決方案。了解更多【企業(yè)級(jí)數(shù)據(jù)庫(kù)解決方案】及【企業(yè)緩存指南】,歡迎前往虹科云科技官網(wǎng)!
image.png
虹科云科技 ,主要分享企業(yè)級(jí)云解決方案,包括云計(jì)算、數(shù)據(jù)庫(kù)、商業(yè)智能、數(shù)據(jù)可視化、高性能計(jì)算、數(shù)據(jù)管理、人工智能等相關(guān)知識(shí)、產(chǎn)品信息、應(yīng)用案例及行業(yè)信息,如Redis Enterprise、Weka、Domo、Visokio、Nimibix等,為學(xué)習(xí)者傳輸前沿知識(shí)、為技術(shù)工程師解答專業(yè)問(wèn)題、為企業(yè)找到最適合的云解決方案!

審核編輯 黃宇

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • AI
    AI
    +關(guān)注

    關(guān)注

    91

    文章

    41315

    瀏覽量

    302689
  • 語(yǔ)言模型
    +關(guān)注

    關(guān)注

    0

    文章

    575

    瀏覽量

    11345
  • LLM
    LLM
    +關(guān)注

    關(guān)注

    1

    文章

    350

    瀏覽量

    1397
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    算電協(xié)同新解法:PCAN-Ethernet Gateway DR 為 AI 數(shù)據(jù)中心打造更可靠的儲(chǔ)能系統(tǒng)

    當(dāng)OpenAI的GPT-5模型在云端完成一次推理,當(dāng)谷歌的搜索請(qǐng)求在毫秒間響應(yīng),背后都離不開(kāi)一座座AI數(shù)據(jù)中心里24小時(shí)不間斷運(yùn)轉(zhuǎn)的服務(wù)器。而支撐這些算力巨獸穩(wěn)定運(yùn)行的,是一套看不見(jiàn)的“電力
    的頭像 發(fā)表于 04-02 17:48 ?315次閱讀
    算電協(xié)同新解法:<b class='flag-5'>虹</b><b class='flag-5'>科</b>PCAN-Ethernet Gateway DR 為 <b class='flag-5'>AI</b> 數(shù)據(jù)中心打造更可靠的儲(chǔ)能系統(tǒng)

    動(dòng)態(tài) | 2026年1月精彩回顧

    2026年1月精彩速覽——正式成為廣州開(kāi)發(fā)區(qū)企業(yè)上市和新三板發(fā)展促進(jìn)會(huì)理事單位;友思特獲“國(guó)家高新技術(shù)企業(yè)”資質(zhì);宏集「雙人成行」伙伴招募計(jì)劃正式啟航...下面讓我們一起回顧1
    的頭像 發(fā)表于 02-02 11:01 ?728次閱讀
    <b class='flag-5'>虹</b><b class='flag-5'>科</b>動(dòng)態(tài) | 2026年1月精彩回顧

    動(dòng)態(tài) | 2025年12月精彩回顧

    2025年12月精彩速覽——PCAN-Explorer7發(fā)布;德思特成功入選廣東省2025年第一批高新技術(shù)企業(yè);宏集科技受邀參加賽峰蘇州飛機(jī)發(fā)動(dòng)機(jī)公司“數(shù)字周”活動(dòng)...感謝各
    的頭像 發(fā)表于 12-31 17:02 ?3785次閱讀
    <b class='flag-5'>虹</b><b class='flag-5'>科</b>動(dòng)態(tài) | 2025年12月精彩回顧

    PEAK解決方案

    PEAK解決方案
    發(fā)表于 12-19 14:45 ?0次下載

    泰凌微:布局端側(cè)AI,產(chǎn)品支持谷歌LiteRT、TVM開(kāi)源模型

    。 ? 公司發(fā)布的基于TL721X系列芯片的TL-EdgeAI平臺(tái),支持谷歌LiteRT、TVM等開(kāi)源模型,是目前世界上功耗最低的智能物聯(lián)網(wǎng)連接協(xié)議平臺(tái)。其芯片已在
    的頭像 發(fā)表于 12-15 08:21 ?1w次閱讀

    軟通動(dòng)力榮膺螞蟻數(shù)“領(lǐng)航AI Agent合作伙伴”

    。憑借在AI技術(shù)研發(fā)、場(chǎng)景化解決方案落地及生態(tài)共建領(lǐng)域的突出經(jīng)驗(yàn),軟通動(dòng)力榮膺“領(lǐng)航AI Agent合作伙伴”獎(jiǎng)杯,成為螞蟻數(shù)AI生態(tài)體系的核心共建者。 大會(huì)聚焦
    的頭像 發(fā)表于 12-12 21:52 ?1430次閱讀

    動(dòng)態(tài) | 2025年11月精彩回顧

    2025年11月精彩速覽——與CiA聯(lián)合主辦CANXL中國(guó)路演三城巡演;攜手長(zhǎng)城汽車(chē)舉辦技術(shù)交流日系列workshop;2025Pico免拆診斷技術(shù)峰會(huì)現(xiàn)場(chǎng)群英集結(jié)...下面讓
    的頭像 發(fā)表于 12-01 10:33 ?933次閱讀
    <b class='flag-5'>虹</b><b class='flag-5'>科</b>動(dòng)態(tài) | 2025年11月精彩回顧

    動(dòng)態(tài) | ×長(zhǎng)城汽車(chē)技術(shù)交流日?qǐng)A滿落幕!

    11月25日,攜手長(zhǎng)城汽車(chē)在保定·長(zhǎng)城技術(shù)中心成功舉辦“X長(zhǎng)城汽車(chē)技術(shù)交流日”系列workshop活動(dòng),與長(zhǎng)城技術(shù)中心的各位工程師共同展望行業(yè)發(fā)展前景,為雙方未來(lái)更多的生態(tài)合作
    的頭像 發(fā)表于 11-28 17:07 ?2274次閱讀
    <b class='flag-5'>虹</b><b class='flag-5'>科</b>動(dòng)態(tài) | <b class='flag-5'>虹</b><b class='flag-5'>科</b>×長(zhǎng)城汽車(chē)技術(shù)交流日?qǐng)A滿落幕!

    谷歌AlphaEarth和維智時(shí)空AI模型的核心差異

    谷歌AlphaEarth和維智時(shí)空AI模型在技術(shù)理念上存在諸多共性,但兩者在目標(biāo)尺度、數(shù)據(jù)來(lái)源、技術(shù)實(shí)現(xiàn)和應(yīng)用模式上存在顯著差異。
    的頭像 發(fā)表于 10-22 14:50 ?1075次閱讀

    谷歌AlphaEarth和維智時(shí)空AI模型的技術(shù)路徑

    谷歌AlphaEarth和維智時(shí)空AI模型在應(yīng)用場(chǎng)景和技術(shù)實(shí)現(xiàn)上各有側(cè)重,但兩者在底層技術(shù)理念上存在顯著共性。
    的頭像 發(fā)表于 10-22 14:48 ?1073次閱讀

    AI模型的配置AI模型該怎么做?

    STM32可以跑AI,這個(gè)AI模型怎么搞,知識(shí)盲區(qū)
    發(fā)表于 10-14 07:14

    動(dòng)態(tài) | 2025年8月精彩回顧

    2025年8月精彩速覽——攜高新技術(shù)方案亮相上海汽車(chē)測(cè)試展;成功舉辦汽車(chē)×AI×機(jī)器人技術(shù)融合研討會(huì)、LIN總線線下專場(chǎng)培訓(xùn);榮獲2025中國(guó)工業(yè)自動(dòng)化與數(shù)字化行業(yè)年度評(píng)選「優(yōu)秀產(chǎn)品獎(jiǎng)
    的頭像 發(fā)表于 09-02 10:13 ?1007次閱讀
    <b class='flag-5'>虹</b><b class='flag-5'>科</b>動(dòng)態(tài) | 2025年8月精彩回顧

    谷歌AI模型點(diǎn)亮開(kāi)發(fā)無(wú)限可能

    在 2025 年的 Google 谷歌開(kāi)發(fā)者大會(huì)上,AI 不是一門(mén)“技術(shù)”,更是一股徹底改變開(kāi)發(fā)范式的“力量”,助力開(kāi)發(fā)者們?cè)诤M馐袌?chǎng)更上一層樓。AI 已經(jīng)不僅僅是生成幾行代碼,它正在全面提升整個(gè)開(kāi)發(fā)過(guò)程。從
    的頭像 發(fā)表于 08-29 09:29 ?1317次閱讀

    軟智能商拍平臺(tái)PSAI上線AI服務(wù)助手

    全球電商格局正在AI技術(shù)沖擊下經(jīng)歷顛覆性變革,視覺(jué)領(lǐng)域亦不例外。軟科技旗下智能商拍平臺(tái)PSAI(PhotoStudio AI)于今日正式上線全新模塊——「
    的頭像 發(fā)表于 08-01 17:59 ?1898次閱讀

    谷歌新一代生成式AI媒體模型登陸Vertex AI平臺(tái)

    我們?cè)?Vertex AI 上推出新一代生成式 AI 媒體模型: Imagen 4、Veo 3 和 Lyria 2。
    的頭像 發(fā)表于 06-18 09:56 ?1325次閱讀