chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

如何使用Transformer來做物體檢測?

中科院長春光機(jī)所 ? 來源:AI公園 ? 作者:Jacob Briones ? 2021-04-25 10:45 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

導(dǎo)讀

本文為一個Facebook的目標(biāo)檢測Transformer (DETR)的完整指南,詳細(xì)介紹了DETR架構(gòu)的內(nèi)部工作方式以及代碼。

介紹

DEtection TRansformer (DETR)是Facebook研究團(tuán)隊巧妙地利用了Transformer 架構(gòu)開發(fā)的一個目標(biāo)檢測模型。在這篇文章中,我將通過分析DETR架構(gòu)的內(nèi)部工作方式來幫助提供一些關(guān)于它的含義。下面,我將解釋一些結(jié)構(gòu),但是如果你只是想了解如何使用模型,可以直接跳到代碼部分。

結(jié)構(gòu)

DETR模型由一個預(yù)訓(xùn)練的CNN骨干(如ResNet)組成,它產(chǎn)生一組低維特征集。這些特征被格式化為一個特征集合并添加位置編碼,輸入一個由Transformer組成的編碼器和解碼器中,和原始的Transformer論文中描述的Encoder-Decoder的使用方式非常的類似。解碼器的輸出然后被送入固定數(shù)量的預(yù)測頭,這些預(yù)測頭由預(yù)定義數(shù)量的前饋網(wǎng)絡(luò)組成。每個預(yù)測頭的輸出都包含一個類預(yù)測和一個預(yù)測框。損失是通過計算二分匹配損失來計算的。

de1e84951e16f003cad41eb9d065b884.png

該模型做出了預(yù)定義數(shù)量的預(yù)測,并且每個預(yù)測都是并行計算的。

CNN主干

假設(shè)我們的輸入圖像,有三個輸入通道。CNN backbone由一個(預(yù)訓(xùn)練過的)CNN(通常是ResNet)組成,我們用它來生成_C_個具有寬度W和高度H的低維特征(在實踐中,我們設(shè)置_C_=2048, W=W?/32和H=H?/32)。這留給我們的是C個二維特征,由于我們將把這些特征傳遞給一個transformer,每個特征必須允許編碼器將每個特征處理為一個序列的方式重新格式化。這是通過將特征矩陣扁平化為H?W向量,然后將每個向量連接起來來實現(xiàn)的。

287bf2488bbde18c1bec3c4f78fd9329.png

扁平化的卷積特征再加上空間位置編碼,位置編碼既可以學(xué)習(xí),也可以預(yù)定義。

The Transformer

Transformer幾乎與原始的編碼器-解碼器架構(gòu)完全相同。不同之處在于,每個解碼器層并行解碼N個(預(yù)定義的數(shù)目)目標(biāo)。該模型還學(xué)習(xí)了一組N個目標(biāo)的查詢,這些查詢是(類似于編碼器)學(xué)習(xí)出來的位置編碼。

cfa6d245dd8b156b006edab65640f0a8.png

目標(biāo)查詢

下圖描述了N=20個學(xué)習(xí)出來的目標(biāo)查詢(稱為prediction slots)如何聚焦于一張圖像的不同區(qū)域。

964d2f602f92857bcc5274b7d0774bf1.png

“我們觀察到,在不同的操作模式下,每個slot 都會學(xué)習(xí)特定的區(qū)域和框大小?!?—— DETR的作者

理解目標(biāo)查詢的直觀方法是想象每個目標(biāo)查詢都是一個人。每個人都可以通過注意力來查看圖像的某個區(qū)域。一個目標(biāo)查詢總是會問圖像中心是什么,另一個總是會問左下角是什么,以此類推。

使用PyTorch實現(xiàn)簡單的DETR

import torchimport torch.nn as nnfrom torchvision.models import resnet50class SimpleDETR(nn.Module):“”“Minimal Example of the Detection Transformer model with learned positional embedding”“” def __init__(self, num_classes, hidden_dim, num_heads, num_enc_layers, num_dec_layers): super(SimpleDETR, self).__init__() self.num_classes = num_classes self.hidden_dim = hidden_dim self.num_heads = num_heads self.num_enc_layers = num_enc_layers self.num_dec_layers = num_dec_layers # CNN Backbone self.backbone = nn.Sequential( *list(resnet50(pretrained=True).children())[:-2]) self.conv = nn.Conv2d(2048, hidden_dim, 1) # Transformer self.transformer = nn.Transformer(hidden_dim, num_heads, num_enc_layers, num_dec_layers) # Prediction Heads self.to_classes = nn.Linear(hidden_dim, num_classes+1) self.to_bbox = nn.Linear(hidden_dim, 4) # Positional Encodings self.object_query = nn.Parameter(torch.rand(100, hidden_dim)) self.row_embed = nn.Parameter(torch.rand(50, hidden_dim // 2) self.col_embed = nn.Parameter(torch.rand(50, hidden_dim // 2)) def forward(self, X): X = self.backbone(X) h = self.conv(X) H, W = h.shape[-2:] pos_enc = torch.cat([ self.col_embed[:W].unsqueeze(0).repeat(H,1,1), self.row_embed[:H].unsqueeze(1).repeat(1,W,1)], dim=-1).flatten(0,1).unsqueeze(1) h = self.transformer(pos_enc + h.flatten(2).permute(2,0,1), self.object_query.unsqueeze(1)) class_pred = self.to_classes(h) bbox_pred = self.to_bbox(h).sigmoid() return class_pred, bbox_pred

二分匹配損失 (Optional)

讓為預(yù)測的集合,其中是包括了預(yù)測類別(可以是空類別)和包圍框的二元組,其中上劃線表示框的中心點, 和表示框的寬和高。設(shè)y為ground truth集合。假設(shè)y和_?_之間的損失為L,每一個y?和_?_?之間的損失為L?。由于我們是在集合的層次上工作,損失L必須是排列不變的,這意味著無論我們?nèi)绾闻判蝾A(yù)測,我們都將得到相同的損失。因此,我們想找到一個排列,它將預(yù)測的索引映射到ground truth目標(biāo)的索引上。在數(shù)學(xué)上,我們求解:

86dc5236fcca1b7bd7080630260c36d6.png

計算的過程稱為尋找最優(yōu)的二元匹配。這可以用匈牙利算法找到。但為了找到最優(yōu)匹配,我們需要實際定義一個損失函數(shù),計算和之間的匹配成本。

回想一下,我們的預(yù)測包含一個邊界框和一個類?,F(xiàn)在讓我們假設(shè)類預(yù)測實際上是一個類集合上的概率分布。那么第_i_個預(yù)測的總損失將是類預(yù)測產(chǎn)生的損失和邊界框預(yù)測產(chǎn)生的損失之和。作者在http://arxiv.org/abs/1906.05909中將這種損失定義為邊界框損失和類預(yù)測概率的差異:

992dad5a7a1dc3075cbcd33f150d10f7.png

其中,是的argmax,是是來自包圍框的預(yù)測的損失,如果,則表示匹配損失為0。

框損失的計算為預(yù)測值與ground truth的L?損失和的GIOU損失的線性組合。同樣,如果你想象兩個不相交的框,那么框的錯誤將不會提供任何有意義的上下文(我們可以從下面的框損失的定義中看到)。

183c84881c17d3e38dced802e8291566.png

其中,λ???和是超參數(shù)。注意,這個和也是面積和距離產(chǎn)生的誤差的組合。為什么會這樣呢?

可以把上面的等式看作是與預(yù)測相關(guān)聯(lián)的總損失,其中面積誤差的重要性是λ???,距離誤差的重要性是?,F(xiàn)在我們來定義GIOU損失函數(shù)。定義如下:

1d3224e47d3956fe8afbefa144918b38.png

由于我們從已知的已知類的數(shù)目來預(yù)測類,那么類預(yù)測就是一個分類問題,因此我們可以使用交叉熵?fù)p失來計算類預(yù)測誤差。我們將損失函數(shù)定義為每N個預(yù)測損失的總和:

0b00557f7e5daf116fe7264009ad9421.png

為目標(biāo)檢測使用DETR

在這里,你可以學(xué)習(xí)如何加載預(yù)訓(xùn)練的DETR模型,以便使用PyTorch進(jìn)行目標(biāo)檢測。

加載模型

首先導(dǎo)入需要的模塊。

# Import required modulesimport torchfrom torchvision import transforms as T import requests # for loading images from webfrom PIL import Image # for viewing imagesimport matplotlib.pyplot as plt

下面的代碼用ResNet50作為CNN骨干從torch hub加載預(yù)訓(xùn)練的模型。其他主干請參見DETR github:https://github.com/facebookresearch/detr

detr = torch.hub.load(‘facebookresearch/detr’, ‘detr_resnet50’, pretrained=True)

加載一張圖像

要從web加載圖像,我們使用requests庫:

url = ‘https://www.tempetourism.com/wp-content/uploads/Postino-Downtown-Tempe-2.jpg’ # Sample imageimage = Image.open(requests.get(url, stream=True).raw) plt.imshow(image)plt.show()

設(shè)置目標(biāo)檢測的Pipeline

為了將圖像輸入到模型中,我們需要將PIL圖像轉(zhuǎn)換為張量,這是通過使用torchvision的transforms庫來完成的。

transform = T.Compose([T.Resize(800), T.ToTensor(), T.Normalize([0.485, 0.456, 0.406], [0.229, 0.224, 0.225])])

上面的變換調(diào)整了圖像的大小,將PIL圖像進(jìn)行轉(zhuǎn)換,并用均值-標(biāo)準(zhǔn)差對圖像進(jìn)行歸一化。其中[0.485,0.456,0.406]為各顏色通道的均值,[0.229,0.224,0.225]為各顏色通道的標(biāo)準(zhǔn)差。我們裝載的模型是預(yù)先在COCO Dataset上訓(xùn)練的,有91個類,還有一個表示空類(沒有目標(biāo))的附加類。我們用下面的代碼手動定義每個標(biāo)簽

CLASSES = [‘N/A’, ‘Person’, ‘Bicycle’, ‘Car’, ‘Motorcycle’, ‘Airplane’, ‘Bus’, ‘Train’, ‘Truck’, ‘Boat’, ‘Traffic-Light’, ‘Fire-Hydrant’, ‘N/A’, ‘Stop-Sign’, ‘Parking Meter’, ‘Bench’, ‘Bird’, ‘Cat’, ‘Dog’, ‘Horse’, ‘Sheep’, ‘Cow’, ‘Elephant’, ‘Bear’, ‘Zebra’, ‘Giraffe’, ‘N/A’, ‘Backpack’, ‘Umbrella’, ‘N/A’, ‘N/A’, ‘Handbag’, ‘Tie’, ‘Suitcase’, ‘Frisbee’, ‘Skis’, ‘Snowboard’, ‘Sports-Ball’, ‘Kite’, ‘Baseball Bat’, ‘Baseball Glove’, ‘Skateboard’, ‘Surfboard’, ‘Tennis Racket’, ‘Bottle’, ‘N/A’, ‘Wine Glass’, ‘Cup’, ‘Fork’, ‘Knife’, ‘Spoon’, ‘Bowl’, ‘Banana’, ‘Apple’, ‘Sandwich’, ‘Orange’, ‘Broccoli’, ‘Carrot’, ‘Hot-Dog’, ‘Pizza’, ‘Donut’, ‘Cake’, ‘Chair’, ‘Couch’, ‘Potted Plant’, ‘Bed’, ‘N/A’, ‘Dining Table’, ‘N/A’,‘N/A’, ‘Toilet’, ‘N/A’, ‘TV’, ‘Laptop’, ‘Mouse’, ‘Remote’, ‘Keyboard’, ‘Cell-Phone’, ‘Microwave’, ‘Oven’, ‘Toaster’, ‘Sink’, ‘Refrigerator’, ‘N/A’, ‘Book’, ‘Clock’, ‘Vase’, ‘Scissors’, ‘Teddy-Bear’, ‘Hair-Dryer’, ‘Toothbrush’]

如果我們想輸出不同顏色的邊框,我們可以手動定義我們想要的RGB格式的顏色

COLORS = [ [0.000, 0.447, 0.741], [0.850, 0.325, 0.098], [0.929, 0.694, 0.125], [0.494, 0.184, 0.556], [0.466, 0.674, 0.188], [0.301, 0.745, 0.933] ]

格式化輸出

我們還需要重新格式化模型的輸出。給定一個轉(zhuǎn)換后的圖像,模型將輸出一個字典,包含100個預(yù)測類的概率和100個預(yù)測邊框。每個包圍框的形式為(x, y, w, h),其中(x,y)為包圍框的中心(包圍框是單位正方形[0,1]×[0,1]), w, h為包圍框的寬度和高度。因此,我們需要將邊界框輸出轉(zhuǎn)換為初始和最終坐標(biāo),并重新縮放框以適應(yīng)圖像的實際大小。下面的函數(shù)返回邊界框端點:

# Get coordinates (x0, y0, x1, y0) from model output (x, y, w, h)def get_box_coords(boxes): x, y, w, h = boxes.unbind(1) x0, y0 = (x - 0.5 * w), (y - 0.5 * h) x1, y1 = (x + 0.5 * w), (y + 0.5 * h) box = [x0, y0, x1, y1] return torch.stack(box, dim=1)

我們還需要縮放了框的大小。下面的函數(shù)為我們做了這些:

# Scale box from [0,1]x[0,1] to [0, width]x[0, height]def scale_boxes(output_box, width, height): box_coords = get_box_coords(output_box) scale_tensor = torch.Tensor( [width, height, width, height]).to( torch.cuda.current_device()) return box_coords * scale_tensor

現(xiàn)在我們需要一個函數(shù)來封裝我們的目標(biāo)檢測pipeline。下面的detect函數(shù)為我們完成了這項工作。

# Object Detection Pipelinedef detect(im, model, transform): device = torch.cuda.current_device() width = im.size[0] height = im.size[1] # mean-std normalize the input image (batch-size: 1) img = transform(im).unsqueeze(0) img = img.to(device) # demo model only support by default images with aspect ratio between 0.5 and 2 assert img.shape[-2] 《= 1600 and img.shape[-1] 《= 1600, # propagate through the model outputs = model(img) # keep only predictions with 0.7+ confidence probas = outputs[‘pred_logits’].softmax(-1)[0, :, :-1] keep = probas.max(-1).values 》 0.85 # convert boxes from [0; 1] to image scales bboxes_scaled = scale_boxes(outputs[‘pred_boxes’][0, keep], width, height) return probas[keep], bboxes_scaled

現(xiàn)在,我們需要做的是運行以下程序來獲得我們想要的輸出:

probs, bboxes = detect(image, detr, transform)

繪制結(jié)果

現(xiàn)在我們有了檢測到的目標(biāo),我們可以使用一個簡單的函數(shù)來可視化它們。

# Plot Predicted Bounding Boxesdef plot_results(pil_img, prob, boxes,labels=True): plt.figure(figsize=(16,10)) plt.imshow(pil_img) ax = plt.gca() for prob, (x0, y0, x1, y1), color in zip(prob, boxes.tolist(), COLORS * 100): ax.add_patch(plt.Rectangle((x0, y0), x1 - x0, y1 - y0, fill=False, color=color, linewidth=2)) cl = prob.argmax() text = f‘{CLASSES[cl]}: {prob[cl]:0.2f}’ if labels: ax.text(x0, y0, text, fontsize=15, bbox=dict(facecolor=color, alpha=0.75)) plt.axis(‘off’) plt.show()

現(xiàn)在可以可視化結(jié)果:

plot_results(image, probs, bboxes, labels=True)

英文原文:https://medium.com/swlh/object-detection-with-transformers-437217a3d62e

編輯:jq

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 函數(shù)
    +關(guān)注

    關(guān)注

    3

    文章

    4413

    瀏覽量

    67199
  • 代碼
    +關(guān)注

    關(guān)注

    30

    文章

    4956

    瀏覽量

    73492
  • cnn
    cnn
    +關(guān)注

    關(guān)注

    3

    文章

    355

    瀏覽量

    23289
  • pytorch
    +關(guān)注

    關(guān)注

    2

    文章

    813

    瀏覽量

    14781

原文標(biāo)題:實操教程|如何使用Transformer來做物體檢測?DETR模型完整指南

文章出處:【微信號:cas-ciomp,微信公眾號:中科院長春光機(jī)所】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    體檢測儀的應(yīng)用領(lǐng)域:CCUS碳捕集全程氣體檢測方案

    例如深圳瑞達(dá)同生提供的手持式氣體檢測儀,具備多氣體同步檢測能力、長續(xù)航和輕便易攜的特點,并集成了聲光震三重報警,非常適合現(xiàn)場技術(shù)人員對封存區(qū)周邊環(huán)境
    的頭像 發(fā)表于 01-13 16:27 ?75次閱讀
    氣<b class='flag-5'>體檢測</b>儀的應(yīng)用領(lǐng)域:CCUS碳捕集全程氣<b class='flag-5'>體檢測</b>方案

    2026年月氣體檢測儀好用榜單:深度評測揭秘

    【瑞達(dá)同生】 —— 智能氣體檢測研發(fā)專家 核心優(yōu)勢:依托強(qiáng)大技術(shù)團(tuán)隊和持續(xù)研發(fā)創(chuàng)新,提供先進(jìn)可靠的氣體檢測與監(jiān)測方案。
    的頭像 發(fā)表于 01-06 16:24 ?312次閱讀
    2026年月氣<b class='flag-5'>體檢測</b>儀好用榜單:深度評測揭秘

    體檢測儀的應(yīng)用:地下管廊有毒氣體檢測解決方案

    事故,對城市基礎(chǔ)設(shè)施構(gòu)成持續(xù)風(fēng)險。因此,建立一套可靠、高效的氣體檢測與預(yù)警系統(tǒng),是實現(xiàn)地下管廊安全管理的核心任務(wù)。傳統(tǒng)檢測方式在應(yīng)對復(fù)雜的地下管廊環(huán)境時,常常面臨
    的頭像 發(fā)表于 01-05 15:29 ?82次閱讀
    氣<b class='flag-5'>體檢測</b>儀的應(yīng)用:地下管廊有毒氣<b class='flag-5'>體檢測</b>解決方案

    礦用氣體檢測儀怎么選?這份避坑指南請收好

    在礦井深處,一臺可靠的氣體檢測儀是礦工生命的守護(hù)神。礦山環(huán)境復(fù)雜危險,選擇正確的設(shè)備至關(guān)重要。本文將為您梳理如何挑選礦用氣體檢測儀。2024年,全球重工氣體探測器市場規(guī)模已達(dá)到67.2億美元,其中
    的頭像 發(fā)表于 12-31 16:12 ?146次閱讀
    礦用氣<b class='flag-5'>體檢測</b>儀怎么選?這份避坑指南請收好

    博通薄膜熱釋電雙通道傳感器:氣體檢測新利器

    博通薄膜熱釋電雙通道傳感器:氣體檢測新利器 電子工程師在設(shè)計氣體檢測及物質(zhì)濃度測量相關(guān)設(shè)備時,傳感器的性能往往起著決定性作用。今天要給大家介紹的是博通(Broadcom)的薄膜熱釋電紅外(IR
    的頭像 發(fā)表于 12-30 16:05 ?141次閱讀

    MTCH9010液體檢測芯片技術(shù)解析:雙模傳感與低功耗設(shè)計的完美結(jié)合

    Microchip Technology MTCH9010液體檢測器提供數(shù)字和原始數(shù)據(jù)輸出,是一種在不同傳感器上檢測液體是否存在的靈活方式。該檢測器支持各種形狀和尺寸的傳感器。合適的MTCH9010液體探測器允許系統(tǒng)運行電容式或
    的頭像 發(fā)表于 09-28 11:22 ?670次閱讀
    MTCH9010液<b class='flag-5'>體檢測</b>芯片技術(shù)解析:雙模傳感與低功耗設(shè)計的完美結(jié)合

    設(shè)計信息賦能 - AI 讓半導(dǎo)體檢測與診斷更給力

    人工智能(AI)的進(jìn)步正為包括半導(dǎo)體制造在內(nèi)的多個行業(yè)帶來革命性變革。利用AI開展半導(dǎo)體檢測與診斷工作,已成為一種可能改變行業(yè)格局的策略,有助于提高生產(chǎn)效率、識別以往無法察覺的缺陷,并縮短產(chǎn)品上市
    的頭像 發(fā)表于 08-19 13:45 ?1250次閱讀
    設(shè)計信息賦能 - AI 讓半導(dǎo)<b class='flag-5'>體檢測</b>與診斷更給力

    如何在 M55M1 系列微控制器上以低功耗模式使用運動檢測功能?

    如何在 M55M1 系列微控制器上以低功耗模式使用運動檢測功能。根據(jù)物體檢測結(jié)果,系統(tǒng)將動態(tài)啟用或禁用運動檢測塊,以實現(xiàn)最佳性能和能效。
    發(fā)表于 08-19 06:56

    【嘉楠堪智K230開發(fā)板試用體驗】01 Studio K230開發(fā)板Test2——手掌,手勢檢測,字符檢測

    理解: 它不僅能檢測圖像內(nèi)容,更能進(jìn)行精確的識別和定位。例如: 人臉檢測與定位(位置和尺寸)。 物體檢測、識別(分類)、定位(位置和尺寸)。 高性能: 其計算能力顯著提升,官方數(shù)據(jù)顯示其性能是前代
    發(fā)表于 07-10 09:45

    【HarmonyOS 5】VisionKit人臉活體檢測詳解

    【HarmonyOS 5】VisionKit人臉活體檢測詳解 ##鴻蒙開發(fā)能力 ##HarmonyOS SDK應(yīng)用服務(wù)##鴻蒙金融類應(yīng)用 (金融理財# 一、VisionKit人臉活體檢測
    的頭像 發(fā)表于 06-21 11:52 ?796次閱讀
    【HarmonyOS 5】VisionKit人臉活<b class='flag-5'>體檢測</b>詳解

    云南恩田有毒有害氣體檢測系統(tǒng)# 的安全#隧道施工#有毒有害氣體檢測

    體檢測
    恩田智能設(shè)備
    發(fā)布于 :2025年05月15日 15:06:40

    漢威科技推出新款便攜式氣體檢測

    便攜式氣體檢測儀是石油、化工、燃?xì)?、環(huán)境監(jiān)測、應(yīng)急救援等領(lǐng)域日常巡檢、有限空間作業(yè)的必備工具。
    的頭像 發(fā)表于 04-25 17:30 ?1146次閱讀

    便攜式+多功能+可定制!工廠直發(fā),重新定義氣體檢測效率

    體檢測
    奕帆科技
    發(fā)布于 :2025年04月25日 15:05:25

    體檢漏儀如何操作?注意事項有哪些?

    體檢漏儀 ,從名稱上就能看出,這是一種用于檢測氣體泄漏情況的專業(yè)設(shè)備,在工業(yè)、環(huán)保等領(lǐng)域中有著廣泛的應(yīng)用潛力。那么,氣體檢漏儀如何操作?注意事項有哪些?為方便大家了解,下面就讓小編
    發(fā)表于 03-12 15:08

    要設(shè)計CH氣體檢測設(shè)備應(yīng)用的激光源波長為3370nm,請問DMD微鏡的反射波長是多少?

    請問:我現(xiàn)在要設(shè)計CH氣體檢測設(shè)備應(yīng)用的激光源波長為3370nm,請問貴司的DMD微鏡的反射波長是多少?我們的要求能滿足嗎?
    發(fā)表于 02-24 08:08