from ultralytics import YOLO
# Load a model
model = YOLO("yolo11n.yaml") # build a new model from YAML
model = YOLO("yolo11n.pt") # load a pretrained model (recommended for training)
model = YOLO("yolo11n.yaml").load("yolo11n.pt") # build from YAML and transfer weights
# Train the model
results = model.train(data="coco8.yaml", epochs=100, imgsz=640)
其中yolo11n.pt是预训练的模型,节省时间。
其中主要知识在: yolov11使用
YOLOv11 功能介绍¶
YOLOv11 提供了多种计算机视觉任务的支持,包括目标检测、分割、分类、姿态估计和定向边界框检测。下面是各个功能的详细说明:
1. Detect(目标检测)¶
功能:检测图像或视频中的目标,并标注其边界框(Bounding Box)以及类别。
- 输出:目标的位置(边界框)和类别(例如:人、车、猫)。
- 典型用途:监控摄像头、自动驾驶中的行人检测等。
2. Segment(实例/语义分割)¶
功能:对图像中的像素级别进行分类,将每个像素标记为属于特定目标。
- 输出:分割掩膜(Segmentation Mask),像素级别的分类。
- 语义分割:所有相同类别的对象(如所有“狗”)共享一个标签。
- 实例分割:区分同类别的不同实例(如3只狗分成3个实例)。
- 典型用途:医学影像分析、精细对象边界分割(如抠图)等。
3. Classify(分类)¶
功能:预测整个图像或某个区域的类别标签。
- 输入:一张图像或裁剪的感兴趣区域(ROI)。
- 输出:图像或区域的类别标签及其对应的概率分布。
- 典型用途:猫狗分类、手写数字识别等。
4. Pose(姿态估计)¶
功能:估计人体或物体的关键点位置,通常用于分析姿势。
- 输出:关键点(如关节点或物体特征点)的位置。
- 典型用途:
- 人体姿态估计:检测人体关节点,如肩膀、肘部、膝盖。
- 手势识别:手指关键点检测。
- 物体姿态估计:分析物体的3D姿态。
5. OBB(定向边界框,Oriented Bounding Box)¶
功能:检测具有方向信息的边界框。
- 与传统边界框的区别:OBB允许边界框以任意角度旋转,适用于不规则方向的目标。
- 输出:包含方向信息的边界框参数(如:中心点、宽度、高度、旋转角度)。
- 典型用途:
- 遥感图像分析:检测旋转目标如建筑物、飞机。
- OCR(文字检测):对斜体或旋转文本进行检测。
总结¶
功能 | 描述 | 输出 | 典型用途 |
---|---|---|---|
Detect | 目标检测 | 边界框、类别 | 行人检测、车辆识别等 |
Segment | 实例/语义分割 | 分割掩膜(像素级分类) | 医学影像、物体分割等 |
Classify | 分类 | 类别标签、概率分布 | 图像分类、手写识别等 |
Pose | 姿态估计 | 关键点位置(关节、物体特征点) | 人体姿势、物体姿态等 |
OBB | 定向边界框(旋转目标检测) | 包含方向信息的边界框参数 | 遥感分析、OCR、车牌识别等 |
这些功能广泛应用于自动驾驶、机器人、安防、医疗影像等领域。