Ultralytics YOLOv8 基于深度學(xué)習(xí)和計算機視覺領(lǐng)域的尖端技術(shù),在速度和準(zhǔn)確性方面具有無與倫比的性能。其流線型設(shè)計使其適用于各種應(yīng)用,并可輕松適應(yīng)從邊緣設(shè)備到云 API 等不同硬件平臺。YOLOv8 OBB 模型是 YOLOv8 系列模型最新推出的任意方向的目標(biāo)檢測模型,可以檢測任意方向的對象,大大提高了物體檢測的精度。同時官方發(fā)布的模型已經(jīng)支持 OpenVINO 部署工具加速模型推理,因此在該項目中,我們將結(jié)合之前開發(fā)的 OpenVINO C# API 部署 YOLOv8 OBB 模型實現(xiàn)旋轉(zhuǎn)物體對象檢測。
01
1.1
OpenVINO C# API
英特爾發(fā)行版 OpenVINO 工具套件基于 oneAPI 而開發(fā),可以加快高性能計算機視覺和深度學(xué)習(xí)視覺應(yīng)用開發(fā)速度工具套件,適用于從邊緣到云的各種英特爾平臺上,幫助用戶更快地將更準(zhǔn)確的真實世界結(jié)果部署到生產(chǎn)系統(tǒng)中。通過簡化的開發(fā)工作流程,OpenVINO 可賦能開發(fā)者在現(xiàn)實世界中部署高性能應(yīng)用程序和算法。

OpenVINO 2023.2 于 2023 年 11 月 16 日發(fā)布,該工具包帶來了挖掘生成人工智能全部潛力的新功能。更多的生成式 AI 覆蓋和框架集成,以最大限度地減少代碼更改,并且擴展了對直接 PyTorch 模型轉(zhuǎn)換的模型支持。支持更多新的模型,包括 LLaVA、chatGLM、Bark 和 LCM 等著名模型。支持更廣泛的大型語言模型(LLM)和更多模型壓縮技術(shù),運行推理時支持 INT4/INT8 以及 NF4 權(quán)重壓縮的模型格式,通過神經(jīng)網(wǎng)絡(luò)壓縮框架(NNCF) 進(jìn)行本機 Int4 壓縮等一系列新的功能。
OpenVINO C# API 是一個 OpenVINO 的 .Net wrapper,應(yīng)用最新的 OpenVINO 庫開發(fā),通過 OpenVINO C API 實現(xiàn) .Net 對 OpenVINO Runtime 調(diào)用,使用習(xí)慣與 OpenVINO C++ API 一致。OpenVINO C# API 由于是基于 OpenVINO 開發(fā),所支持的平臺與 OpenVINO 完全一致,具體信息可以參考 OpenVINO。通過使用 OpenVINO C# API,可以在 .NET、.NET Framework 等框架下使用 C# 語言實現(xiàn)深度學(xué)習(xí)模型在指定平臺推理加速。
1.2
YOLOv8 OBB 模型
目標(biāo)檢測是計算機視覺中的一項基本任務(wù),目前許多研究都是采用水平邊界框來定位圖像中的物體。然而,圖像中的物體通常是任意方向的。因此,使用水平邊界框來檢測目標(biāo)會引起物體檢測框通常包含許多背景區(qū)域,檢測框內(nèi)存在過多的背景區(qū)域,不僅增加了分類任務(wù)的難度,而且會導(dǎo)致目標(biāo)范圍表示不準(zhǔn)確的問題。其次,水平邊界框會導(dǎo)致檢測框之間出現(xiàn)重疊,降低檢測精度。

通過使用帶有角度信息的旋轉(zhuǎn)檢測框可以有效解決上述問題,它引入了一個額外的角度來更準(zhǔn)確地定位圖像中的物體。Ultralytics YOLOv8 基于深度學(xué)習(xí)和計算機視覺領(lǐng)域的尖端技術(shù),在速度和準(zhǔn)確性方面具有無與倫比的性能。其流線型設(shè)計使其適用于各種應(yīng)用,并可輕松適應(yīng)從邊緣設(shè)備到云 API 等不同硬件平臺。
YOLOv8 OBB 模型是 YOLOv8 系列模型最新推出的任意方向的目標(biāo)檢測模型,其模型輸出結(jié)果是一組旋轉(zhuǎn)的邊界框,這些邊界框精確地包圍了圖像中的物體,同時還包括每個邊界框的類標(biāo)簽和置信度分?jǐn)?shù)。當(dāng)你需要識別場景中感興趣的物體,但又不需要知道物體的具體位置或確切形狀時,物體檢測是一個不錯的選擇。

02
YOLOv8 OBB 模型下載與轉(zhuǎn)換
2.1
安裝模型下載與轉(zhuǎn)換環(huán)境
此處主要安裝 YOLOv8 OBB 模型導(dǎo)出環(huán)境以及 OpenVINO 模型轉(zhuǎn)換環(huán)境,使用 Anaconda 進(jìn)行環(huán)境創(chuàng)建,依次輸入以下指令:
conda create -n yolo python=3.10 conda activate yolo pip install ultralytics pip install --upgrade openvino-nightly
此處只需要安裝以上兩個程序包即可。
2.2
導(dǎo)出 YOLOv8 OBB 模型
接下來以 Yolov8s-obb 模型到處為例,演示如何快速導(dǎo)出官方提供的預(yù)訓(xùn)練模型,首先在創(chuàng)建的虛擬環(huán)境中輸入以下命令:
yolo export model=yolov8s-obb.pt format=onnx
下圖展示了模型導(dǎo)出命令輸出情況:

接下來查看導(dǎo)出的 Yolov8s-obb 模型的結(jié)構(gòu)情況,通過 Netron 可以進(jìn)行查看,如下所示:

模型識別類別:由于官方模型是在 DOTAv1 數(shù)據(jù)集上預(yù)訓(xùn)練的,因此導(dǎo)出的模型可以識別出 15 種類別,分別是:plane 、ship storage tank、baseball diamond、tennis court、basketball court、ground track field、harbor、bridge、large vehicle、small vehicle、helicopter、roundabout、soccer ball field、swimming pool。
DOTAv1:
https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/DOTAv1.yaml
模型輸入:
模型輸入名稱為“image”,輸入大小為 1×3×1024×1024 的歸一化后的圖像數(shù)據(jù),數(shù)據(jù)類型為 float。
模型輸出:
模型的輸出名稱為“output0”,輸出大小為 1×20×21504,輸出數(shù)據(jù)為 float。其中“20”表示為 [x, y, w, h, sorce0, ···, sorce14, angle] 的數(shù)組,數(shù)組中 0~3 這四個參數(shù)為預(yù)測框的矩形位置,數(shù)組中 4~18 這 15 個參數(shù)表示 15 各類別的分類置信度,數(shù)組中 19 這個參數(shù)表示預(yù)測框的旋轉(zhuǎn)角度;“21504”表示輸入為 1024 的模型三個檢測頭的輸出大小,總共有 21504 (1024÷8=128,1024÷16=64,1024÷32=32,128×128+64×64+32×32=21504) 種結(jié)果。
2.3
轉(zhuǎn)換 IR 模型
接下來直接使用 OpenVINO 工具直接進(jìn)行模型轉(zhuǎn)換,在 CMD 中輸入以下指令即可:
ovc yolov8s-obb.onnx
模型導(dǎo)出輸出如下圖所示。

03
YOLOv8 OBB 項目配置
(OpenCvSharp)
此處項目創(chuàng)建與運行演示使用 dotnet 工具進(jìn)行,大家也可以通過 Visual Studio 等 IDE 工具進(jìn)行項目創(chuàng)建與運行。首先講解一下使用 OpenCvSharp 作為圖像處理工具的代碼程序。
3.1
項目創(chuàng)建
首先使用 dotnet 工具創(chuàng)建一個控制臺應(yīng)用,在 CMD 中輸入以下指令:
dotnet new console --framework net6.0 --use-program-main -o yolov8_obb_opencvsharp cd yolov8_obb_opencvsharp
項目創(chuàng)建后輸出為:

3.2
添加項目依賴
此處以 Windows 平臺為例安裝項目依賴,首先是安裝 OpenVINO C# API 項目依賴,在命令行中輸入以下指令即可:
dotnet add package OpenVINO.CSharp.API dotnet add package OpenVINO.runtime.win dotnet add package OpenVINO.CSharp.API.Extensions dotnet add package OpenVINO.CSharp.API.Extensions.OpenCvSharp
接下來安裝使用到的圖像處理庫 OpenCvSharp,在命令行中輸入以下指令即可:
dotnet add package OpenCvSharp4 dotnet add package OpenCvSharp4.Extensions dotnet add package OpenCvSharp4.runtime.win
添加完成項目依賴后,項目的配置文件如下所示:
Exe net6.0 enable enable
3.3
定義預(yù)測方法
Yolov8 Obb 模型部署流程與方式與 Yolov8 Det 基本一致,其主要不同點在與其結(jié)果的后處理方式,本項目所定義的 Yolov8 Obb 模型推理代碼如下所示:
static void yolov8_obb(string model_path, string image_path, string device)
{
// -------- Step 1. Initialize OpenVINO Runtime Core --------
Core core = new Core();
// -------- Step 2. Read inference model --------
Model model = core.read_model(model_path);
OvExtensions.printf_model_info(model);
// -------- Step 3. Loading a model to the device --------
CompiledModel compiled_model = core.compile_model(model, device);
// -------- Step 4. Create an infer request --------
InferRequest infer_request = compiled_model.create_infer_request();
// -------- Step 5. Process input images --------
Mat image = new Mat(image_path); // Read image by opencvsharp
int max_image_length = image.Cols > image.Rows ? image.Cols : image.Rows;
Mat max_image = Mat.Zeros(new OpenCvSharp.Size(max_image_length, max_image_length), MatType.CV_8UC3);
Rect roi = new Rect(0, 0, image.Cols, image.Rows);
image.CopyTo(new Mat(max_image, roi));
float factor = (float)(max_image_length / 1024.0);
// -------- Step 6. Set up input data --------
Tensor input_tensor = infer_request.get_input_tensor();
Shape input_shape = input_tensor.get_shape();
Mat input_mat = CvDnn.BlobFromImage(max_image, 1.0 / 255.0, new OpenCvSharp.Size(input_shape[2], input_shape[3]), 0, true, false);
float[] input_data = new float[input_shape[1] * input_shape[2] * input_shape[3]];
Marshal.Copy(input_mat.Ptr(0), input_data, 0, input_data.Length);
input_tensor.set_data(input_data);
// -------- Step 7. Do inference synchronously --------
infer_request.infer();
// -------- Step 8. Get infer result data --------
Tensor output_tensor = infer_request.get_output_tensor();
int output_length = (int)output_tensor.get_size();
float[] output_data = output_tensor.get_data(output_length);
// -------- Step 9. Process reault --------
Mat result_data = new Mat(20, 21504, MatType.CV_32F, output_data);
result_data = result_data.T();
float[] d = new float[output_length];
result_data.GetArray(out d);
// Storage results list
List position_boxes = new List();
List class_ids = new List();
List confidences = new List();
List rotations = new List();
// Preprocessing output results
for (int i = 0; i < result_data.Rows; i++)
? ?{
? ? ? ?Mat classes_scores = new Mat(result_data, new Rect(4, i, 15, 1));
? ? ? ?OpenCvSharp.Point max_classId_point, min_classId_point;
? ? ? ?double max_score, min_score;
? ? ? ?// Obtain the maximum value and its position in a set of data
? ? ? ?Cv2.MinMaxLoc(classes_scores, out min_score, out max_score,
? ? ? ? ? ?out min_classId_point, out max_classId_point);
? ? ? ?// Confidence level between 0 ~ 1
? ? ? ?// Obtain identification box information
? ? ? ?if (max_score > 0.25)
{
float cx = result_data.At(i, 0);
float cy = result_data.At(i, 1);
float ow = result_data.At(i, 2);
float oh = result_data.At(i, 3);
double x = (cx - 0.5 * ow) * factor;
double y = (cy - 0.5 * oh) * factor;
double width = ow * factor;
double height = oh * factor;
Rect2d box = new Rect2d();
box.X = x;
box.Y = y;
box.Width = width;
box.Height = height;
position_boxes.Add(box);
class_ids.Add(max_classId_point.X);
confidences.Add((float)max_score);
rotations.Add(result_data.At(i, 19));
}
}
// NMS non maximum suppression
int[] indexes = new int[position_boxes.Count];
CvDnn.NMSBoxes(position_boxes, confidences, 0.25f, 0.7f, out indexes);
List rotated_rects = new List();
for (int i = 0; i < indexes.Length; i++)
? ?{
? ? ? ?int index = indexes[i];
? ? ? ?float w = (float)position_boxes[index].Width;
? ? ? ?float h = (float)position_boxes[index].Height;
? ? ? ?float x = (float)position_boxes[index].X + w / 2;
? ? ? ?float y = (float)position_boxes[index].Y + h / 2;
? ? ? ?float r = rotations[index];
? ? ? ?float w_ = w > h ? w : h;
float h_ = w > h ? h : w;
r = (float)((w > h ? r : (float)(r + Math.PI / 2)) % Math.PI);
RotatedRect rotate = new RotatedRect(new Point2f(x, y), new Size2f(w_, h_), (float)(r * 180.0 / Math.PI));
rotated_rects.Add(rotate);
}
for (int i = 0; i < indexes.Length; i++)
? ?{
? ? ? ?int index = indexes[i];
? ? ? ?Point2f[] points = rotated_rects[i].Points();
? ? ? ?for (int j = 0; j < 4; j++)
? ? ? ?{
? ? ? ? ? ?Cv2.Line(image, (Point)points[j], (Point)points[(j + 1) % 4], new Scalar(255, 100, 200), 2);
? ? ? ?}
? ? ? ?Cv2.PutText(image, class_lables[class_ids[index]] + "-" + confidences[index].ToString("0.00"),
? ? ? ? ? ?(Point)points[0], HersheyFonts.HersheySimplex, 0.8, new Scalar(0, 0, 0), 2);
? ?}
? ?string output_path = Path.Combine(Path.GetDirectoryName(Path.GetFullPath(image_path)),
? ? ? ?Path.GetFileNameWithoutExtension(image_path) + "_result.jpg");
? ?Cv2.ImWrite(output_path, image);
? ?Slog.INFO("The result save to " + output_path);
? ?Cv2.ImShow("Result", image);
? ?Cv2.WaitKey(0);
}
Yolov8 Obb 模型的一條預(yù)測結(jié)果輸出為 [x, y, w, h, sorce0, ···, sorce14, angle],其中前 19 個數(shù)據(jù)與 Yolov8 Det 模型的數(shù)據(jù)處理方式是一致的,主要是多了一個預(yù)測框旋轉(zhuǎn)角度,因此在處理時需要同時記錄旋轉(zhuǎn)角度這一個數(shù)據(jù)。
3.4
預(yù)測方法調(diào)用
定義好上述方法后,便可以直接在主函數(shù)中調(diào)用該方法,只需要在主函數(shù)中增加以下代碼即可:
yolov8_obb("yolov8s-obb.xml", "test_image.png", "AUTO");
如果開發(fā)者自己沒有進(jìn)行模型下載與轉(zhuǎn)換,又同時想快速體驗該項目,我此處提供了在線的轉(zhuǎn)換后的模型以及帶預(yù)測圖片,開發(fā)者可以直接在主函數(shù)中增加以下代碼,便可以直接自動下載模型以及推理數(shù)據(jù),并調(diào)用推理方法,實現(xiàn)程序直接運行。
static void Main(string[] args)
{
string model_path = "";
string image_path = "";
string device = "AUTO";
if (args.Length == 0)
{
if (!Directory.Exists("./model"))
{
Directory.CreateDirectory("./model");
}
if (!File.Exists("./model/yolov8s-obb.bin") && !File.Exists("./model/yolov8s-obb.bin"))
{
if (!File.Exists("./model/yolov8s-obb.tar"))
{
_ = Download.download_file_async("https://github.com/guojin-yan/OpenVINO-CSharp-API-Samples/releases/download/Model/yolov8s-obb.tar",
"./model/yolov8s-obb.tar").Result;
}
Download.unzip("./model/yolov8s-obb.tar", "./model/");
}
if (!File.Exists("./model/plane.png"))
{
_ = Download.download_file_async("https://github.com/guojin-yan/OpenVINO-CSharp-API-Samples/releases/download/Image/plane.png",
"./model/plane.png").Result;
}
model_path = "./model/yolov8s-obb.xml";
image_path = "./model/plane.png";
}
else if (args.Length >= 2)
{
model_path = args[0];
image_path = args[1];
device = args[2];
}
else
{
Console.WriteLine("Please enter the correct command parameters, for example:");
Console.WriteLine("> 1. dotnet run");
Console.WriteLine("> 2. dotnet run ");
}
// -------- Get OpenVINO runtime version --------
OpenVinoSharp.Version version = Ov.get_openvino_version();
Slog.INFO("---- OpenVINO INFO----");
Slog.INFO("Description : " + version.description);
Slog.INFO("Build number: " + version.buildNumber);
Slog.INFO("Predict model files: " + model_path);
Slog.INFO("Predict image files: " + image_path);
Slog.INFO("Inference device: " + device);
Slog.INFO("Start yolov8 model inference.");
yolov8_obb(model_path, image_path, device);
}
04
YOLOv8 OBB 項目配置
相信有不少開發(fā)者在 C# 中進(jìn)行圖像處理時,使用的是 Emgu.CV 工具,因此,在此處我們同時提供了使用 Emgu.CV 作為圖像處理工具的 YOLOv8 OBB 模型部署代碼。項目的創(chuàng)建方式與流程與上一節(jié)中一致,此處不再進(jìn)行演示:
4.1
添加項目依賴
此處以 Windows 平臺為例安裝項目依賴,首先是安裝 OpenVINO C# API 項目依賴,在命令行中輸入以下指令即可:
dotnet add package OpenVINO.CSharp.API dotnet add package OpenVINO.runtime.win dotnet add package OpenVINO.CSharp.API.Extensions dotnet add package OpenVINO.CSharp.API.Extensions.EmguCV
接下來安裝使用到的圖像處理庫 Emgu.CV,在命令行中輸入以下指令即可:
dotnet add package Emgu.CV dotnet add package Emgu.CV.runtime.windows
添加完成項目依賴后,項目的配置文件如下所示:
Exe net6.0 enable enable
4.2
定義預(yù)測方法
Yolov8 Obb 模型部署流程與上一節(jié)中的流程一致,主要是替換了圖像處理方式,其實現(xiàn)代碼如下:
static void yolov8_obb(string model_path, string image_path, string device)
{
// -------- Step 1. Initialize OpenVINO Runtime Core --------
Core core = new Core();
// -------- Step 2. Read inference model --------
OpenVinoSharp.Model model = core.read_model(model_path);
OvExtensions.printf_model_info(model);
// -------- Step 3. Loading a model to the device --------
CompiledModel compiled_model = core.compile_model(model, device);
// -------- Step 4. Create an infer request --------
InferRequest infer_request = compiled_model.create_infer_request();
// -------- Step 5. Process input images --------
Mat image = new Mat(image_path); // Read image by opencvsharp
int max_image_length = image.Cols > image.Rows ? image.Cols : image.Rows;
Mat max_image = Mat.Zeros(max_image_length, max_image_length, DepthType.Cv8U, 3);
Rectangle roi = new Rectangle(0, 0, image.Cols, image.Rows);
image.CopyTo(new Mat(max_image, roi));
float factor = (float)(max_image_length / 1024.0);
// -------- Step 6. Set up input data --------
Tensor input_tensor = infer_request.get_input_tensor();
Shape input_shape = input_tensor.get_shape();
Mat input_mat = DnnInvoke.BlobFromImage(max_image, 1.0 / 255.0, new Size((int)input_shape[2], (int)input_shape[3]), new MCvScalar(0), true, false);
float[] input_data = new float[input_shape[1] * input_shape[2] * input_shape[3]];
//Marshal.Copy(input_mat.Ptr, input_data, 0, input_data.Length);
input_mat.CopyTo(input_data);
input_tensor.set_data(input_data);
// -------- Step 7. Do inference synchronously --------
infer_request.infer();
// -------- Step 8. Get infer result data --------
Tensor output_tensor = infer_request.get_output_tensor();
int output_length = (int)output_tensor.get_size();
float[] output_data = output_tensor.get_data(output_length);
// -------- Step 9. Process reault --------
Mat result_data = new Mat(20, 21504, DepthType.Cv32F, 1,
Marshal.UnsafeAddrOfPinnedArrayElement(output_data, 0), 4 * 21504);
result_data = result_data.T();
List position_boxes = new List();
List class_ids = new List();
List confidences = new List();
List rotations = new List();
// Preprocessing output results
for (int i = 0; i < result_data.Rows; i++)
? ?{
? ? ? ?Mat classes_scores = new Mat(result_data, new Rectangle(4, i, 15, 1));//GetArray(i, 5, classes_scores);
? ? ? ?Point max_classId_point = new Point(), min_classId_point = new Point();
? ? ? ?double max_score = 0, min_score = 0;
? ? ? ?CvInvoke.MinMaxLoc(classes_scores, ref min_score, ref max_score,
? ? ? ? ? ?ref min_classId_point, ref max_classId_point);
? ? ? ?if (max_score > 0.25)
{
Mat mat = new Mat(result_data, new Rectangle(0, i, 20, 1));
float[,] data = (float[,])mat.GetData();
float cx = data[0, 0];
float cy = data[0, 1];
float ow = data[0, 2];
float oh = data[0, 3];
int x = (int)((cx - 0.5 * ow) * factor);
int y = (int)((cy - 0.5 * oh) * factor);
int width = (int)(ow * factor);
int height = (int)(oh * factor);
Rectangle box = new Rectangle();
box.X = x;
box.Y = y;
box.Width = width;
box.Height = height;
position_boxes.Add(box);
class_ids.Add(max_classId_point.X);
confidences.Add((float)max_score);
rotations.Add(data[0, 19]);
}
}
// NMS non maximum suppression
int[] indexes = DnnInvoke.NMSBoxes(position_boxes.ToArray(), confidences.ToArray(), 0.5f, 0.5f);
List rotated_rects = new List();
for (int i = 0; i < indexes.Length; i++)
? ?{
? ? ? ?int index = indexes[i];
? ? ? ?float w = (float)position_boxes[index].Width;
? ? ? ?float h = (float)position_boxes[index].Height;
? ? ? ?float x = (float)position_boxes[index].X + w / 2;
? ? ? ?float y = (float)position_boxes[index].Y + h / 2;
? ? ? ?float r = rotations[index];
? ? ? ?float w_ = w > h ? w : h;
float h_ = w > h ? h : w;
r = (float)((w > h ? r : (float)(r + Math.PI / 2)) % Math.PI);
RotatedRect rotate = new RotatedRect(new PointF(x, y), new SizeF(w_, h_), (float)(r * 180.0 / Math.PI));
rotated_rects.Add(rotate);
}
for (int i = 0; i < indexes.Length; i++)
? ?{
? ? ? ?int index = indexes[i];
? ? ? ?PointF[] points = rotated_rects[i].GetVertices();
? ? ? ?for (int j = 0; j < 4; j++)
? ? ? ?{
? ? ? ? ? ?CvInvoke.Line(image, new Point((int)points[j].X, (int)points[j].Y),
? ? ? ? ? ? ? ?new Point((int)points[(j + 1) % 4].X, (int)points[(j + 1) % 4].Y), new MCvScalar(255, 100, 200), 2);
? ? ? ?}
? ? ? ?CvInvoke.PutText(image, class_lables[class_ids[index]] + "-" + confidences[index].ToString("0.00"),
? ? ? ? ? ?new Point((int)points[0].X, (int)points[0].Y), FontFace.HersheySimplex, 0.8, new MCvScalar(0, 0, 0), 2);
? ?}
? ?string output_path = Path.Combine(Path.GetDirectoryName(Path.GetFullPath(image_path)),
? ? ? ?Path.GetFileNameWithoutExtension(image_path) + "_result.jpg");
? ?CvInvoke.Imwrite(output_path, image);
? ?Slog.INFO("The result save to " + output_path);
? ?CvInvoke.Imshow("Result", image);
? ?CvInvoke.WaitKey(0);
}
05
項目編譯與運行
5.1
項目文件編譯
接下來輸入項目編譯指令進(jìn)行項目編譯,輸入以下指令即可:
dotnet build
程序編譯后輸出為:

5.2
項目文件運行
接下來運行編譯后的程序文件,在 CMD 中輸入以下指令,運行編譯后的項目文件:
dotnet run --no-build
運行后項目輸出為:


06
總結(jié)
在該項目中,我們結(jié)合之前開發(fā)的 OpenVINO C# API 項目部署 YOLOv8 OBB 模型,成功實現(xiàn)了旋轉(zhuǎn)對象目標(biāo)檢測,并且根據(jù)不同開發(fā)者的使用習(xí)慣,同時提供了 OpenCvSharp 以及 Emgu.CV 兩種版本,供各位開發(fā)者使用。
審核編輯:劉清
-
LCM
+關(guān)注
關(guān)注
6文章
59瀏覽量
35372 -
計算機視覺
+關(guān)注
關(guān)注
9文章
1715瀏覽量
47544 -
深度學(xué)習(xí)
+關(guān)注
關(guān)注
73文章
5594瀏覽量
124156 -
生成式AI
+關(guān)注
關(guān)注
0文章
537瀏覽量
1059 -
OpenVINO
+關(guān)注
關(guān)注
0文章
118瀏覽量
736
原文標(biāo)題:在 Windows 上使用 OpenVINO? C# API 部署 Yolov8-obb 實現(xiàn)任意方向的目標(biāo)檢測 | 開發(fā)者實戰(zhàn)
文章出處:【微信號:英特爾物聯(lián)網(wǎng),微信公眾號:英特爾物聯(lián)網(wǎng)】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
發(fā)布評論請先 登錄
【NPU實戰(zhàn)】在迅為RK3588上玩轉(zhuǎn)YOLOv8:目標(biāo)檢測與語義分割一站式部署指南
使用ROCm?優(yōu)化并部署YOLOv8模型
單板挑戰(zhàn)4路YOLOv8!米爾瑞芯微RK3576開發(fā)板性能實測
RV1126 yolov8訓(xùn)練部署教程
RV1126 yolov8訓(xùn)練部署教程
labview調(diào)用yolo目標(biāo)檢測、分割、分類、obb
在Visual Studio中使用OpenVINO? C API時無法讀取網(wǎng)絡(luò)怎么解決?
如何部署OpenVINO?工具套件應(yīng)用程序?
在Windows上安裝OpenVINO?運行時遇到錯誤怎么解決?
是否可以使用OpenVINO?部署管理器在部署機器上運行Python應(yīng)用程序?
C#集成OpenVINO?:簡化AI模型部署
在英特爾AIPC上利用LabVIEW與YOLOv11實現(xiàn)目標(biāo)檢測
C#中使用OpenVINO?:輕松集成AI模型!
在Windows上使用OpenVINO? C# API部署Yolov8-obb實現(xiàn)任意方向的目標(biāo)檢測
評論