Skip to content

from ultralytics import YOLO

# Load a model
model = YOLO("yolo11n.yaml")  # build a new model from YAML
model = YOLO("yolo11n.pt")  # load a pretrained model (recommended for training)
model = YOLO("yolo11n.yaml").load("yolo11n.pt")  # build from YAML and transfer weights

# Train the model
results = model.train(data="coco8.yaml", epochs=100, imgsz=640)
用以上代码即可简单的执行。

其中yolo11n.pt是预训练的模型,节省时间。

其中主要知识在: yolov11使用

YOLOv11 功能介绍

YOLOv11 提供了多种计算机视觉任务的支持,包括目标检测、分割、分类、姿态估计和定向边界框检测。下面是各个功能的详细说明:

1. Detect(目标检测)

功能:检测图像或视频中的目标,并标注其边界框(Bounding Box)以及类别。

  • 输出:目标的位置(边界框)和类别(例如:人、车、猫)。
  • 典型用途:监控摄像头、自动驾驶中的行人检测等。

2. Segment(实例/语义分割)

功能:对图像中的像素级别进行分类,将每个像素标记为属于特定目标。

  • 输出分割掩膜(Segmentation Mask),像素级别的分类。
  • 语义分割:所有相同类别的对象(如所有“狗”)共享一个标签。
  • 实例分割:区分同类别的不同实例(如3只狗分成3个实例)。
  • 典型用途:医学影像分析、精细对象边界分割(如抠图)等。

3. Classify(分类)

功能:预测整个图像或某个区域的类别标签。

  • 输入:一张图像或裁剪的感兴趣区域(ROI)。
  • 输出:图像或区域的类别标签及其对应的概率分布。
  • 典型用途:猫狗分类、手写数字识别等。

4. Pose(姿态估计)

功能:估计人体或物体的关键点位置,通常用于分析姿势。

  • 输出:关键点(如关节点或物体特征点)的位置。
  • 典型用途
  • 人体姿态估计:检测人体关节点,如肩膀、肘部、膝盖。
  • 手势识别:手指关键点检测。
  • 物体姿态估计:分析物体的3D姿态。

5. OBB(定向边界框,Oriented Bounding Box)

功能:检测具有方向信息的边界框。

  • 与传统边界框的区别:OBB允许边界框以任意角度旋转,适用于不规则方向的目标
  • 输出:包含方向信息的边界框参数(如:中心点、宽度、高度、旋转角度)。
  • 典型用途
  • 遥感图像分析:检测旋转目标如建筑物、飞机。
  • OCR(文字检测):对斜体或旋转文本进行检测。

总结

功能 描述 输出 典型用途
Detect 目标检测 边界框、类别 行人检测、车辆识别等
Segment 实例/语义分割 分割掩膜(像素级分类) 医学影像、物体分割等
Classify 分类 类别标签、概率分布 图像分类、手写识别等
Pose 姿态估计 关键点位置(关节、物体特征点) 人体姿势、物体姿态等
OBB 定向边界框(旋转目标检测) 包含方向信息的边界框参数 遥感分析、OCR、车牌识别等

这些功能广泛应用于自动驾驶、机器人、安防、医疗影像等领域。

labelimg

alt text