chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

中山大學提出新型行人重識別方法和史上最大最新評測基準

智能感知與物聯(lián)網技術研究所 ? 來源:通信信號處理研究所 ? 作者:通信信號處理研究 ? 2021-01-05 14:29 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

行人重識別,又稱行人再識別,是利用 CV 技術判斷圖像或視頻序列中是否存在特定行人的技術。常規(guī)的行人重識別方法往往需要高昂的人工標注成本,計算復雜度也很大。在本文中,中山大學研究者提出的弱監(jiān)督行人重識別方法恰恰克服了這兩方面的障礙,并發(fā)布了一個大型行人重識別數據集。

近期,中山大學發(fā)布了一種基于可微圖學習的弱監(jiān)督行人重識別(person re-ID)方法和一個大型數據集。該方法結合可微圖學習和弱監(jiān)督學習方法,為行人重識別深度神經網絡加入自動生成訓練標簽的模塊并與其一體訓練。相比普通的行人重識別方法,該方法不需要高昂的人工標注成本,并且?guī)缀醪辉黾佑嬎銖碗s度也能達到領先的模型性能。 正是因為標注的簡單,一個大型行人重識別數據集也誕生了,即 SYSU-30k。SYSU-30k 數據集包含 30,000 個行人身份類別,約是 CUHK03 和 Market-1501 的 20 倍。如果一個行人身份類別相當于一個物體類別的話,則 SYSU-30k 相當于 ImageNet 的 30 倍。該數據集總共包含 29,606,918 張圖像。 就原理而言,該方法首先將行人圖像按拍攝時間段分組成袋并分配袋類別標簽,然后結合圖模型和深度神經網絡捕獲一個袋中所有圖像之間的依賴關系,從而為每張圖像生成可靠的偽行人類別標簽,作為行人重識別模型訓練的監(jiān)督信息;接著進一步將圖模型可微化,實現圖模型和行人重識別模型的一體訓練;最后將圖模型損失和重識別損失的線性組合作為總損失函數,利用反向傳播算法更新網絡所有層的參數。相關論文發(fā)表在國際期刊 TNNLS 上。

背景 目前,行人重識別問題主要有三種實現方法:(1)提取判別特征;(2)學習一個穩(wěn)定的度量或子空間進行匹配;(3)聯(lián)合上述兩種方法。然而,大部分實現方法需要強監(jiān)督訓練標簽,即需要人工標注數據集中的每張圖像。 此外也有不需要人工標注的基于無監(jiān)督學習的行人重識別方法,這類方法使用局部顯著性匹配或聚類模型,但很難建??鐢z像機視圖的顯著差異,因此很難達到高精度。 相比之下,本文提出的弱監(jiān)督行人重識別方法是一種優(yōu)秀的訓練方法,不需要高昂的人工標注成本也能達到較高的精度。弱監(jiān)督行人重識別的問題定義如下圖 1 所示,其中圖 1(a)是常規(guī)全「監(jiān)督」行人重識別問題,圖 1(b)是弱監(jiān)督行人重識別問題,圖 1(c)是測試階段,兩種方式的測試階段一致。

4ffe8214-4458-11eb-8b86-12bb97331649.png

圖 1:弱監(jiān)督行人重識別的問題定義 具體而言,該方法主要包括以下四個過程:

將行人圖像按拍攝時間段分組成袋并分配袋類別標簽;

結合圖模型和深度神經網絡捕獲一個袋中所有圖像之間的依賴關系來為每張圖像生成可靠的偽行人類別標簽,作為行人重識別模型訓練的監(jiān)督信息;

進一步將圖模型可微化,實現圖模型和行人重識別模型的一體訓練;

將圖模型損失和重識別損失的線性組合作為總損失函數,利用反向傳播算法更新網絡所有層的參數。

本文的主要貢獻有以下幾點: 第一,研究者定義了一個弱監(jiān)督行人重識別問題,利用袋類別標簽代替常規(guī)行人重識別中的圖像類別標簽。這個問題值得進一步探討,因為弱監(jiān)督行人重識別問題可以大大減少標注代價,并為收集大尺度行人重識別數據集提供了可能。 第二,由于存在的基準數據集忽略了弱監(jiān)督行人重識別問題,研究者收集了一個新的大規(guī)模行人重識別數據集 SYSU-30k,為未來研究行人重識別問題提供了便利。SYSU-30k 數據集包含 30,000 個行人身份類別,大約是 CUHK03 數據集(1,300 個行人身份)和 Market-1501 數據集(1,500)的 20 倍,是 ImageNet(1,000 個類別)的 30 倍。SYSU-30k 包含 29,606,918 張圖像。SYSU-30k 數據集不僅僅是弱監(jiān)督行人重識別的一個評測平臺,更有一個和現實場景相似的挑戰(zhàn)性測試集。 第三,研究者引入了一個可微圖模型來處理弱監(jiān)督行人重識別中不精準的標注問題。

5050fd46-4458-11eb-8b86-12bb97331649.png

圖 2:方法示意圖 SYSU-30k 數據集 目前沒有公開發(fā)布的「弱監(jiān)督」行人重識別數據集。為了填補這個空白,研究者收集了一個新的大規(guī)模行人重識別數據 SYSU-30k,為未來行人重識別研究提供了便利。他們從網上下載了許多電視節(jié)目視頻??紤]電視節(jié)目視頻的原因有兩個:第一,電視節(jié)目中的行人通常是跨攝像機視角,它們是由多個移動的攝像機捕捉得到并經過后處理。因此,電視節(jié)目的行人識別是一個真實場景的行人重識別問題;第二,電視節(jié)目中的行人非常適合標注。在 SYSU-30k 數據集中,每一個視頻大約包含 30.5 個行人。 研究者最終共使用的原視頻共 1000 個。標注人員利用弱標注的方式對視頻進行標注。具體地,數據集被切成 84,930 個袋,然后標注人員記錄每個袋包含的行人身份。他們采用 YOLO-v2 進行行人檢測。三位標注人員查看檢測得到的行人圖像,并花費 20 天進行標注。最后,29,606,918(≈30M)個行人檢測框共 30,508(≈30k)個行人身份被標注。研究者選擇 2,198 個行人身份作為測試集,剩下的行人身份作為訓練集。訓練集和測試集的行人身份沒有交疊。 SYSU-30k 數據集的一些樣例如下圖 3 所示??梢钥吹剑琒YSU-30k 數據集包含劇烈的光照變化(第 2,7,9 行)、遮擋(第 6,8 行)、低像素(第 2,7,9 行)、俯視拍攝的攝像機(第 2,5,6,8,9 行)和真實場景下復雜的背景(第 2-10 行)。

50e10a6c-4458-11eb-8b86-12bb97331649.png

圖 3:SYSU-30k 數據集樣例。 SYSU-30k 數據集的統(tǒng)計特性 SYSU-30k 包含 29,606,918 張行人圖像,共計 30,508 個行人身份類別,被切分成 84,930 個袋(僅在訓練集中按袋切分)。圖 4(a)總結了袋的數量與每個袋含有的圖像數量的直方圖統(tǒng)計。每個袋平均有 2,885 張圖像。該直方圖展示了現實場景中袋的行人圖像數量分布,沒有經過人工手動細分和清理。這里,數據集的標簽是以袋級別進行標注的。

51b629a4-4458-11eb-8b86-12bb97331649.png

圖 4:數據集統(tǒng)計特性。 對比現有的行人重識別基準數據集 研究者對 SYSU-30k 和現有行人重識別數據集進行對比,包括 CUHK03、Market-1501、Duke、MSMT17、CUHK01、PRID、VIPeR 和 CAVIAR。圖 4(b)和 4(c)分別展示了圖像的數量和行人身份類別的數量。可以看出,SYSU-30k 數據集比已有的數據集都大很多。 為了評估弱監(jiān)督行人重識別的性能,研究者從 SYSU-30k 數據集中隨機選擇 2,198 個行人身份作為測試集。需要注意,這些行人身份類別沒有在訓練集中出現。研究者對該測試集進行精細的圖像級別的行人身份標注,并且也對測試集圖像的數量和行人身份類別數量進行了對比,如圖 4(b)和 4(c)。可以看出,SYSU-30k 的測試集比現有數據集更大更有挑戰(zhàn)性。多虧了袋級別的標注方式,SYSU-30k 測試集能夠反映真實場景的設置。SYSU-30k 不僅僅是弱監(jiān)督行人重識別的大型基準數據集,也是一個評估真實場景中全監(jiān)督行人重識別性能的標準平臺。 SYSU-30k 數據集和其他數據集的進一步對比如下表 1(a)所示,包括行人身份類別數量、場景、標注方式以及攝像機數量和圖像數量。 研究者總結出了 SYSU-30k 的新特色,有如下幾個方面:第一,SYSU-30k 是首個弱監(jiān)督行人重識別數據集;第二,SYSU-30k 的行人身份數量和圖像數量都是現有行人重識別數據集中最大的;第三,SYSU-30k 數據集更具挑戰(zhàn)性,包括攝像機數量、真實的室內環(huán)境和室外場景和不精準的袋級別標注;第四,SYSU-30k 的測試集不僅僅適合于弱監(jiān)督行人重識別問題,也是一個評估真實場景中全監(jiān)督行人重識別的標準平臺。

51ec3742-4458-11eb-8b86-12bb97331649.png

表 1(a):對比存在的行人重識別數據集。 除了和行人重識別社區(qū)的數據集對比之外,研究者還對比了 SYSU-30k 和通用圖像分類中著名的 ImageNet-1k 基準數據集。如下表 1(b)所示,SYSU-30k 有以下幾個吸引人的優(yōu)點:第一,SYSU-30k 比 ImageNet-1k 有更多的類別,即 30,000 對比 1,000;第二,由于有效的弱標注方法,SYSU-30k 標注需要的代價更低。

52250f68-4458-11eb-8b86-12bb97331649.png

表 1(b):對比 ImageNet-1k 數據集。 評估方式 SYSU-30k 的評估方式和先前常規(guī)行人重識別數據集的評估方式類似。研究者固定訓練集和測試集的劃分。在測試集中,他們從 1,000 個不同的行人身份類別中分別選擇一張行人圖像,共得到 1,000 張行人圖像作為查詢集。 此外,為了符合實際場景中行人重識別的可拓展性,研究者提供了一個包含大量干擾行人圖像的候選集。具體地,對于每張查詢圖,在候選集中僅含有一張圖像和該查詢圖身份類別一樣,其他 478,730 張行人圖像是不匹配的。因此,這個評估方式就類比于大海撈針,和真實場景中警察從大量監(jiān)控視頻中搜索疑犯一樣具有巨大的挑戰(zhàn)性。研究者采用 rank-1 準確率作為評估指標。 方法從有監(jiān)督行人重識別到弱監(jiān)督行人重識別 用 b 表示包含 p 張圖像的一個袋,即 b=x_1,x_2,…x_j…x_p,y=y_1,y_2,…y_j…y_p 為行人身份類別標簽,用 l表示袋類別標簽。有監(jiān)督行人重識別需要用行人身份類別標簽 y 監(jiān)督模型的分類預測;弱監(jiān)督行人重識別只有袋類別標簽 l 可用,需要先為每張圖像估計一個偽行人類別標簽,用一個概率向量Y表示。假設 包含 n個行人類別,整個訓練集共有 m個行人類別,用袋類別標簽限制Y,則每張圖像的行人類別標簽的概率向量為:

52744984-4458-11eb-8b86-12bb97331649.png

(1)

基于可微圖學習的弱監(jiān)督行人重識別

52961e7e-4458-11eb-8b86-12bb97331649.png

圖 5:可微圖學習模型。

1. 圖模型行人重識別

如上圖 5 所示,定義一個有向圖,每個節(jié)點代表一個袋中的一張圖像 x_i,每條邊代表圖像之間的關系,在圖上為節(jié)點 x分配行人類別標簽 y 的能量函數為:

52de2138-4458-11eb-8b86-12bb97331649.png

(2)

其中 U 和 V 分別表示節(jié)點和邊,530d319e-4458-11eb-8b86-12bb97331649.png是計算為圖像 x_i 分配標簽 y_i 的代價的一元項,5328416e-4458-11eb-8b86-12bb97331649.png是計算為圖像對?(x_i?, x_j)?分配標簽的懲罰的成對項。公式(2) 消除了弱監(jiān)督學習生成的錯誤的偽標簽。 ?

2. 一元項

公式 (2) 中的一元項定義為:

535361fa-4458-11eb-8b86-12bb97331649.png

(3)

其中P_i 是神經網絡為圖像 x_i 計算的行人類別標簽的概率,Y_i 是公式 (1) 表示的袋限制,

536df9b6-4458-11eb-8b86-12bb97331649.png

表示逐元素乘積,

53cc419c-4458-11eb-8b86-12bb97331649.png

表示向量索引。

3. 成對項

由于不同圖像的一元項輸出相互獨立,一元項不穩(wěn)定,需要用成對項平滑:

53f56aae-4458-11eb-8b86-12bb97331649.png

(4)

其中用一個基于 RGB 顏色的高斯核計算外表相似度,超參數5415da6e-4458-11eb-8b86-12bb97331649.png控制高斯核的尺寸,限制外表相似的圖像有相同的標簽;標簽兼容度55b9cd6c-4458-11eb-8b86-12bb97331649.png用玻茨模型表示: ?

55d97e28-4458-11eb-8b86-12bb97331649.png

(5)

4. 袋限制

實際上,袋類別標簽含有額外信息改善偽標簽的生成:將估計的偽標簽糾正為袋中預測分數最高的行人分類;促使部分圖像被分配到沒有被預測的行人類別。

5. 偽行人類別標簽的推理

通過最小化公式 (2) 可以得到每張圖像的偽行人類別標簽:

56129cbc-4458-11eb-8b86-12bb97331649.png

(6)

其中 {1,2,3…,m} 表示訓練集中所有的行人身份類別。 6. 圖學習可微化 上述弱監(jiān)督行人重識方法不是一體訓練的,因為首先需要用一個外部圖模型得到偽行人類別標簽,用于監(jiān)督行人重識別深度神經網絡的訓練。最小化公式 (2) 得到偽標簽的計算是不可微的,使得該圖模型與深度神經網絡不兼容,因此需要松弛公式 (2) 為:

563773ac-4458-11eb-8b86-12bb97331649.png

(7)

將離散5686d3c0-4458-11eb-8b86-12bb97331649.png的和56aba542-4458-11eb-8b86-12bb97331649.png連續(xù)化:

56dd9584-4458-11eb-8b86-12bb97331649.png

(8)

570a52b8-4458-11eb-8b86-12bb97331649.png

(9)

公式 (8) 和公式 (3) 的區(qū)別是,在不可微圖模型中,需要給能量函數輸入所有可能的 y,將能量最低的 y 作為最優(yōu)解;在可微圖模型中,直接將圖像 x 輸入深度神經網絡得到 y 的預測。公式 (9) 和公式 (4) 的區(qū)別是,用交叉熵項

5763c424-4458-11eb-8b86-12bb97331649.png

近似公式 (4) 中不可微的項57888a2a-4458-11eb-8b86-12bb97331649.png。

57b2dc4e-4458-11eb-8b86-12bb97331649.png

圖 6:整體框架圖 整體神經網絡結構 上圖 6 為訓練和推理的網絡結構,虛線表示訓練數據流,實線表示推理數據流,其中圖模型只參與訓練階段。整體結構包含三個主要模塊: 1.特征提取模塊 如圖 6(a),運用 ResNet-50 作為骨干網絡,去掉原始 ResNet-50 的最后一層,換成一個輸出為 512 維的全連接層(FC)、一個批規(guī)范化(BN)、一個帶泄露線性整流函數 (Leaky ReLU) 和一個 dropout 層。 2. 粗糙行人重識別模塊 如圖 6(b),在特征提取模塊的頂部再加一個輸出維度與行人類別數量相同的全連接層,再使用歸一化指數交叉熵作為損失函數。行人類別預測分數作為粗糙行人重識別估計,表示袋中圖像的行人類別的概率。 3. 精煉行人重識別模塊 如圖 6(c),按照公式 (8) 和(9)將粗糙行人重識別分數、外表和袋限制輸入圖模型,圖模型生成的偽標簽就能像人工標注的真實標簽一樣被用來更新網絡參數。 優(yōu)化 得到偽行人類別標簽就能計算整體損失值對于深度神經網絡參數的梯度,利用反向傳播算法,將梯度回傳給網絡的所有層,實現該弱監(jiān)督模型的所有參數的一體訓練。 1. 損失函數 本方法的優(yōu)化目標包含圖模型損失L_圖和分類 / 重識別損失L_分類,L_分類是偽標簽57eeaeea-4458-11eb-8b86-12bb97331649.png作為監(jiān)督的歸一化指數交叉熵損失函數: ?

58253da2-4458-11eb-8b86-12bb97331649.png

(10)

其中585e54ca-4458-11eb-8b86-12bb97331649.png表示將588296be-4458-11eb-8b86-12bb97331649.png轉換成獨熱向量的函數,表示一個袋中的圖片數量,P_i 表示神經網絡計算的行人類別的概率,是網絡輸出對數 z?的歸一化指數函數: ? ?

589f0f7e-4458-11eb-8b86-12bb97331649.png

(11)

其中 m表示訓練集的行人類別數量。 總損失函數 L 是這兩個損失函數的線性組合:

58e49dc8-4458-11eb-8b86-12bb97331649.png

(12)

其中w_分類和w_圖分別表示兩個損失的權重,本方法設置為 1 和 0.5。 實驗數據集。本文在 SYSU-30k 和 Market-1501 評估這種弱監(jiān)督行人重識別方法,更多數據集分析見原文。Market-1501 數據集是一個廣泛應用的大型行人重識別的基準數據集。Market-1501 數據集由 6 個攝像機拍攝得到,包含 32,668 張行人圖像,共 1,501 個行人身份類別。數據集劃分為兩部分:12,936 張行人圖像共 751 個行人身份類別作為訓練集,19,732 張圖像共 750 個行人身份作為測試集。在測試集中,3,368 張圖像共 750 個行人圖像通過手工截取作為查詢集。 實驗配置。研究者采用 ResNet-50 作為骨干網絡,使用 ImageNet 預訓練模型。其他參數使用正態(tài)分布進行初始化。實驗使用 SGD 優(yōu)化器。批次設置為 90,初始學習率為 0.01(全連接層初始學習率為 0.1)。沖量設置為 0.9,權重衰減設置為 0.0005,在單卡 GPU 上訓練 SYSU-30k 大約需要 10 天。 實驗結果 SYSU-30k 是一個弱監(jiān)督行人重識別數據集,本文方法是弱監(jiān)督行人重識別方法。由于傳統(tǒng)全監(jiān)督行人重識別方法不能直接在 SYSU-30k 數據集上訓練,研究者利用遷移學習的方法將傳統(tǒng)全監(jiān)督行人重識別方法應用到 SYSU-30k 數據集上。具體地,6 種經典的全監(jiān)督行人重識別模型(包括 DARI,DF,TriNet,Local CNN,MGN 和無 triplet 的 MGN)首先在 CUHK03 數據集上訓練。然后,模型被應用于 SYSU-30k 數據集上進行跨數據集評估。而本文的弱監(jiān)督行人重識別方法直接在 SYSU-30k 上訓練并在 SYSU-30k 的測試集上測試。 研究者在 SYSU-30k 數據集上對比最先進的方法。如下表 2 所示,雖然本文方法使用的是弱監(jiān)督學習方式,但 W-MGN 得到了最佳的效果(29.5%)。本文方法的有效性歸因于以下兩點:第一,圖模型學習可以產生可靠的偽類標來補償缺失的強標簽;第二,SYSU-30k 數據集提供了豐富的知識來提升模型的能力,即使是以弱標簽的方式給出。

5916eb84-4458-11eb-8b86-12bb97331649.png

研究者也提供了定性分析,可視化了 W-MGN 幾張查詢樣本的檢索結果,具體如下圖 8 所示。每一行代表一個查詢結果。第一張圖為查詢圖,后面緊接著是按照相似性從大到小依次排序的結果。紅色框代表和查詢圖身份類別匹配的行人圖像。在失敗的例子中,一些非匹配的行人圖像相似性排名比真實匹配的行人圖像還要高。非匹配的行人圖像看起來更像查詢圖的行人類別。

圖 8:SYSU-30k 數據集上 W-MGN 檢索結果樣例。 Market-1501 數據集是圖像級別標注的行人重識別數據集。為了進行弱監(jiān)督行人重識別評估,研究者利用該圖像級別標注的數據集模擬產生袋級別的弱監(jiān)督行人重識別數據集。具體而言,對于 Market-1501 的訓練集,利用弱標簽代替強標簽;對于 Market-1501 的測試集,則保持不變。研究者將本文方法和全監(jiān)督的行人重識別方法進行對比。對比方法包括 15 種經典的全監(jiān)督方法,包括 MSCAN、DF、SSM、SVDNet、GAN、PDF、TriNet、TriNet + Era. + reranking、PCB 和 MGN。 對比結果如下表 3 所示。可以看出,本文方法可以獲得競爭性的實驗結果。比如,W-MGN 和 W-Local CNN 得到 95.5% 和 95.7% 的 rank-1 準確率,比很多全監(jiān)督方法要好。這說明本文方法的有效性。

599c4568-4458-11eb-8b86-12bb97331649.png

表 3:Market-1501 數據集上對比最先進的方法。

原文標題:可微圖學習&弱監(jiān)督,中山大學提出新型行人重識別方法和史上最大最新評測基準

文章出處:【微信公眾號:通信信號處理研究所】歡迎添加關注!文章轉載請注明出處。

責任編輯:haq

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 神經網絡
    +關注

    關注

    42

    文章

    4825

    瀏覽量

    106734
  • 人工智能
    +關注

    關注

    1813

    文章

    49706

    瀏覽量

    261195
  • CV
    CV
    +關注

    關注

    0

    文章

    54

    瀏覽量

    17461

原文標題:可微圖學習&弱監(jiān)督,中山大學提出新型行人重識別方法和史上最大最新評測基準

文章出處:【微信號:tyutcsplab,微信公眾號:智能感知與物聯(lián)網技術研究所】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    電解電容極性的識別方法及注意事項

    電解電容器是一種具有極性的電子元件,正確識別其極性對電路安全與性能至關重要。若極性接反,可能導致電容漏液、發(fā)熱、爆炸甚至損壞整個電路。以下是電解電容極性的識別方法及注意事項: 一、外觀標識法(最常
    的頭像 發(fā)表于 11-11 15:37 ?894次閱讀
    電解電容極性的<b class='flag-5'>識別方法</b>及注意事項

    智匯虹科 | 中山大學原副校長李善民教授一行蒞臨虹科考察指導

    10月22日,中山大學原副校長、經管學部主任兼企業(yè)研究院理事長、博導李善民教授,教務部主任、高級金融研究院副院長、博導王彩萍教授,馬克思主義學院助理教授王思霓一行蒞臨虹科,與虹科CEO陳秋苑、政府
    的頭像 發(fā)表于 10-23 17:06 ?927次閱讀
    智匯虹科 | <b class='flag-5'>中山大學</b>原副校長李善民教授一行蒞臨虹科考察指導

    AI+IMS工業(yè)軟件新范式 | 盤古信息攜手中山大學驅動IMS系統(tǒng)全面智能化升級

    在全球產業(yè)智能化浪潮奔涌的今天,人工智能已成為驅動工業(yè)制造業(yè)深刻變革的核心引擎。__近日,廣東盤古信息科技股份有限公司與中山大學軟件工程學院達成可信大模型戰(zhàn)略合作,__此次合作積極響應2025年
    的頭像 發(fā)表于 10-20 09:15 ?167次閱讀
    AI+IMS工業(yè)軟件新范式 | 盤古信息攜手<b class='flag-5'>中山大學</b>驅動IMS系統(tǒng)全面智能化升級

    華為攜手復旦大學附屬中山醫(yī)院打造智慧醫(yī)療全球標桿

    今日,復旦大學附屬中山醫(yī)院(以下簡稱“中山醫(yī)院”)聯(lián)合華為技術有限公司(以下簡稱“華為”)、上海聯(lián)影智能醫(yī)療科技有限公司(以下簡稱“聯(lián)影智能”)共同打造的“元醫(yī)療模擬實驗室”建成揭牌。這是中山
    的頭像 發(fā)表于 09-16 10:35 ?730次閱讀

    中科曙光攜手中山大學附屬第一醫(yī)院打造精準醫(yī)學高性能計算平臺

    近日,中科曙光與中山大學附屬第一醫(yī)院聯(lián)合打造的精準醫(yī)學高性能計算平臺正式落地。作為多模態(tài)醫(yī)療數據智能分析、新型治療算法快速迭代等前沿場景的“算存網智”一體化算力基石,該平臺年均可支撐15項國家級精準醫(yī)學課題,并推動臨床研究數據產出效率提升300%,成為醫(yī)療數字化轉型標桿。
    的頭像 發(fā)表于 07-17 11:06 ?1098次閱讀

    洲明數字文化科技與中山大學旅游學院達成戰(zhàn)略合作

    近日,洲明集團旗下AI子公司——深圳市洲明數字文化科技有限公司與中山大學旅游學院正式簽署戰(zhàn)略合作意向書。
    的頭像 發(fā)表于 06-23 15:46 ?783次閱讀

    紫光同創(chuàng)攜手中山大學助力集成電路產業(yè)創(chuàng)新人才培養(yǎng)

    近日,紫光同創(chuàng)受邀參與中山大學電子與信息工程學院(微電子學院)開設的《專業(yè)與行業(yè)認知》課程,為現場近100名莘莘學子帶來了一場精彩的FPGA主題講座,助力集成電路產業(yè)創(chuàng)新人才培養(yǎng)。
    的頭像 發(fā)表于 06-20 17:36 ?1073次閱讀

    量子計算+醫(yī)療 玻色量子與中山大學附屬第三醫(yī)院達成戰(zhàn)略合作

    2025年3月28日,北京玻色量子科技有限公司(以下簡稱“玻色量子”)與中山大學附屬第三醫(yī)院在第四屆粵港澳大灣區(qū)腦科學論壇暨廣州市“腦科學與類腦研究”學術沙龍的大數據人工智能專場論壇上正式簽訂戰(zhàn)略
    的頭像 發(fā)表于 04-02 09:18 ?1324次閱讀

    行人識別演示時,無法縮小輸入視頻流的幀大小怎么解決?

    行人識別演示時,無法縮小輸入視頻流的幀大小。
    發(fā)表于 03-07 06:24

    中山大學:在柔性觸覺傳感電子皮膚研究進展

    【研究內容】 ? ? 中山大學衣芳教授團隊在" 科學通報"期刊上發(fā)表了題為“ 柔性觸覺傳感電子皮膚研究進展”的最新論文。本文主要綜述了近年來柔性觸覺傳感電子皮膚的研究進展, 重點歸納總結了上述三類
    的頭像 發(fā)表于 02-12 17:03 ?1634次閱讀
    <b class='flag-5'>中山大學</b>:在柔性觸覺傳感電子皮膚研究進展

    76歲解開電磁學哥德巴赫猜想——“中國微波之父”林為干

    、中山大學任教。1957年調至成都電訊工程學院(現電子科技大學),曾任院長助理、副院長等職。對我國電磁學、微波理論和技術的發(fā)展作出杰出貢獻,主要成就涉及閉合場理論、開放
    的頭像 發(fā)表于 01-22 17:33 ?1426次閱讀
    76歲解開電磁學哥德巴赫猜想——“中國微波之父”林為干

    聚焦AI語音!聲揚科技張偉彬博士受邀為中山大學深圳校區(qū)師生作分享

    近日,聲揚科技聯(lián)合創(chuàng)始人、總經理張偉彬博士受邀前往中山大學深圳校區(qū),為學校師生作“聲紋識別技術及其產業(yè)化應用”主題分享。憑借深厚的專業(yè)知識,結合前沿的產業(yè)落地實踐,張偉彬博士深入淺出地分享了聲紋識別
    的頭像 發(fā)表于 12-31 10:45 ?1336次閱讀
    聚焦AI語音!聲揚科技張偉彬博士受邀為<b class='flag-5'>中山大學</b>深圳校區(qū)師生作分享

    中山大學最新發(fā)布:27.30%效率背接觸BC電池的創(chuàng)新表征技術

    。LONGi公司使用異質結背接觸(HBC)技術實現了27.30%的世界紀錄效率。本研究運用簡化復合模型展開模擬分析,對異質結背接觸(HBC)太陽能電池的周長復合予以
    的頭像 發(fā)表于 12-30 09:03 ?1641次閱讀
    <b class='flag-5'>中山大學</b>最新發(fā)布:27.30%效率背接觸BC電池的創(chuàng)新表征技術

    中山大學:基于定制裂紋設計的超靈敏透氣水凝膠纖維應變傳感器及無線手語識別應用

    和地域多樣性可能會給不懂手語的人造成交流障礙。目前,各種識別人類手勢的技術,包括視覺圖像處理、肌電圖和可穿戴應變傳感器,在改善聾啞人群體的溝通方面發(fā)揮了重要作用。特別地,視覺圖像處理在手語識別中的準確性會
    的頭像 發(fā)表于 12-02 17:29 ?1202次閱讀
    <b class='flag-5'>中山大學</b>:基于定制裂紋設計的超靈敏透氣水凝膠纖維應變傳感器及無線手語<b class='flag-5'>識別</b>應用

    一種混合顏料光譜分區(qū)間識別方法

    古代彩繪顏料的分析是科技考古與文物保護研究的重要內容,高光譜是近年來發(fā)展迅速的新興技術,在物質識別上具有廣泛應用,提出一種基于高光譜分區(qū)間的混合顏料識別方法。 一種混合顏料光譜分區(qū)間識別方法
    的頭像 發(fā)表于 12-02 16:22 ?742次閱讀
    一種混合顏料光譜分區(qū)間<b class='flag-5'>識別方法</b>