Nothing Special   »   [go: up one dir, main page]

Ir al contenido

Ultralytics YOLO11 Modos

Ultralytics YOLO ecosistema e integraciones

Introducci贸n

Ultralytics YOLO11 no es s贸lo otro modelo de detecci贸n de objetos; es un marco vers谩til dise帽ado para cubrir todo el ciclo de vida de los modelos de aprendizaje autom谩tico, desde la ingesta de datos y el entrenamiento del modelo hasta la validaci贸n, el despliegue y el seguimiento en el mundo real. Cada modo sirve a un prop贸sito espec铆fico y est谩 dise帽ado para ofrecerle la flexibilidad y eficiencia necesarias para diferentes tareas y casos de uso.



Observa: Ultralytics Modos Tutorial: Entrenar, Validar, Predecir, Exportar y Comparar.

Resumen de los modos

Comprender los diferentes modos que admite Ultralytics YOLO11 es fundamental para sacar el m谩ximo partido a sus modelos:

  • Modo de entrenamiento: Ajuste su modelo en conjuntos de datos personalizados o precargados.
  • Modo Val: Un punto de control posterior al entrenamiento para validar el rendimiento del modelo.
  • Modo Predicci贸n: Libera el poder predictivo de tu modelo con datos del mundo real.
  • Modo de exportaci贸n: Prepara tu modelo para el despliegue en varios formatos.
  • Modo de seguimiento: Ampl铆e su modelo de detecci贸n de objetos a aplicaciones de seguimiento en tiempo real.
  • Modo Benchmark: Analice la velocidad y precisi贸n de su modelo en diversos entornos de implantaci贸n.

Esta completa gu铆a pretende ofrecerle una visi贸n general y pr谩ctica de cada modo, ayud谩ndole a aprovechar todo el potencial de YOLO11.

Tren

El modo Entrenar se utiliza para entrenar un modelo YOLO11 en un conjunto de datos personalizado. En este modo, el modelo se entrena utilizando el conjunto de datos y los hiperpar谩metros especificados. El proceso de entrenamiento consiste en optimizar los par谩metros del modelo para que pueda predecir con precisi贸n las clases y ubicaciones de los objetos en una imagen.

Ejemplos de trenes

Val

El modo Val se utiliza para validar un modelo YOLO11 despu茅s de haberlo entrenado. En este modo, el modelo se eval煤a en un conjunto de validaci贸n para medir su precisi贸n y su rendimiento de generalizaci贸n. Este modo puede utilizarse para ajustar los hiperpar谩metros del modelo con el fin de mejorar su rendimiento.

Val Ejemplos

Predecir

El modo Predicci贸n se utiliza para realizar predicciones utilizando un modelo YOLO11 entrenado sobre nuevas im谩genes o v铆deos. En este modo, el modelo se carga desde un archivo de control y el usuario puede proporcionar im谩genes o v铆deos para realizar la inferencia. El modelo predice las clases y ubicaciones de los objetos en las im谩genes o v铆deos de entrada.

Predecir Ejemplos

Exportar

El modo de exportaci贸n se utiliza para exportar un modelo YOLO11 a un formato que pueda utilizarse para su despliegue. En este modo, el modelo se convierte a un formato que puede ser utilizado por otras aplicaciones de software o dispositivos de hardware. Este modo es 煤til cuando se despliega el modelo en entornos de producci贸n.

Ejemplos de exportaci贸n

Pista

El modo Track se utiliza para el seguimiento de objetos en tiempo real mediante un modelo YOLO11 . En este modo, el modelo se carga desde un archivo de puntos de control, y el usuario puede proporcionar un flujo de v铆deo en directo para realizar el seguimiento de objetos en tiempo real. Este modo es 煤til para aplicaciones como los sistemas de vigilancia o los coches autoconducidos.

Ejemplos de v铆as

Punto de referencia

El modo Benchmark se utiliza para perfilar la velocidad y precisi贸n de varios formatos de exportaci贸n para YOLO11. Los puntos de referencia proporcionan informaci贸n sobre el tama帽o del formato exportado, su mAP50-95 m茅tricas (para detecci贸n de objetos, segmentaci贸n y pose) o accuracy_top5 (para clasificaci贸n), y el tiempo de inferencia en milisegundos por imagen en varios formatos como ONNX, OpenVINO, TensorRT, y otros. Esta informaci贸n puede ayudar a los usuarios a elegir el formato de exportaci贸n 贸ptimo para su caso de uso espec铆fico en funci贸n de sus requisitos de velocidad y precisi贸n.

Ejemplos de puntos de referencia

PREGUNTAS FRECUENTES

驴C贸mo entreno un modelo de detecci贸n de objetos personalizado con Ultralytics YOLO11 ?

Para entrenar un modelo de detecci贸n de objetos personalizado con Ultralytics YOLO11 es necesario utilizar el modo de entrenamiento. Necesita un conjunto de datos formateado en YOLO , que contenga im谩genes y los archivos de anotaci贸n correspondientes. Utilice el siguiente comando para iniciar el proceso de entrenamiento:

Ejemplo

from ultralytics import YOLO

# Load a pre-trained YOLO model (you can choose n, s, m, l, or x versions)
model = YOLO("yolo11n.pt")

# Start training on your custom dataset
model.train(data="path/to/dataset.yaml", epochs=100, imgsz=640)
# Train a YOLO model from the command line
yolo train data=path/to/dataset.yaml epochs=100 imgsz=640

Para obtener instrucciones m谩s detalladas, puede consultar la Gu铆a del trenUltralytics .

驴Qu茅 m茅tricas utiliza Ultralytics YOLO11 para validar el rendimiento del modelo?

Ultralytics YOLO11 utiliza varias m茅tricas durante el proceso de validaci贸n para evaluar el rendimiento del modelo. Entre ellas se incluyen:

  • mAP (Precisi贸n media): Eval煤a la precisi贸n de la detecci贸n de objetos.
  • IOU (Intersecci贸n sobre Uni贸n): Mide el solapamiento entre los cuadros delimitadores predichos y los reales.
  • Precisi贸n y recuperaci贸n: La precisi贸n mide la relaci贸n entre las detecciones positivas verdaderas y el total de positivas detectadas, mientras que la recuperaci贸n mide la relaci贸n entre las detecciones positivas verdaderas y el total de positivas reales.

Puede ejecutar el siguiente comando para iniciar la validaci贸n:

Ejemplo

from ultralytics import YOLO

# Load a pre-trained or custom YOLO model
model = YOLO("yolo11n.pt")

# Run validation on your dataset
model.val(data="path/to/validation.yaml")
# Validate a YOLO model from the command line
yolo val data=path/to/validation.yaml

Consulte la Gu铆a de Validaci贸n para m谩s detalles.

驴C贸mo puedo exportar mi modelo YOLO11 para desplegarlo?

Ultralytics YOLO11 ofrece la funcionalidad de exportaci贸n para convertir su modelo entrenado en varios formatos de despliegue como ONNX, TensorRT, CoreML, y m谩s. Utilice el siguiente ejemplo para exportar su modelo:

Ejemplo

from ultralytics import YOLO

# Load your trained YOLO model
model = YOLO("yolo11n.pt")

# Export the model to ONNX format (you can specify other formats as needed)
model.export(format="onnx")
# Export a YOLO model to ONNX format from the command line
yolo export model=yolo11n.pt format=onnx

En la Gu铆a de exportaci贸n encontrar谩 los pasos detallados para cada formato de exportaci贸n.

驴Para qu茅 sirve el modo "benchmark" en Ultralytics YOLO11 ?

El modo Benchmark de Ultralytics YOLO11 se utiliza para analizar la velocidad y la precisi贸n de varios formatos de exportaci贸n como ONNX, TensorRT y OpenVINO. Proporciona m茅tricas como el tama帽o del modelo, mAP50-95 para la detecci贸n de objetos y el tiempo de inferencia en diferentes configuraciones de hardware, lo que le ayudar谩 a elegir el formato m谩s adecuado para sus necesidades de implantaci贸n.

Ejemplo

from ultralytics.utils.benchmarks import benchmark

# Run benchmark on GPU (device 0)
# You can adjust parameters like model, dataset, image size, and precision as needed
benchmark(model="yolo11n.pt", data="coco8.yaml", imgsz=640, half=False, device=0)
# Benchmark a YOLO model from the command line
# Adjust parameters as needed for your specific use case
yolo benchmark model=yolo11n.pt data='coco8.yaml' imgsz=640 half=False device=0

Para m谩s detalles, consulte la Gu铆a de evaluaci贸n comparativa.

驴C贸mo puedo realizar el seguimiento de objetos en tiempo real utilizando Ultralytics YOLO11 ?

El seguimiento de objetos en tiempo real puede realizarse utilizando el modo de seguimiento de Ultralytics YOLO11 . Este modo ampl铆a las capacidades de detecci贸n de objetos para realizar un seguimiento de objetos a trav茅s de fotogramas de v铆deo o transmisiones en directo. Utilice el siguiente ejemplo para activar el seguimiento:

Ejemplo

from ultralytics import YOLO

# Load a pre-trained YOLO model
model = YOLO("yolo11n.pt")

# Start tracking objects in a video
# You can also use live video streams or webcam input
model.track(source="path/to/video.mp4")
# Perform object tracking on a video from the command line
# You can specify different sources like webcam (0) or RTSP streams
yolo track source=path/to/video.mp4

Para obtener instrucciones detalladas, visite la Gu铆a de pistas.

Creado hace 1 a帽o 鉁忥笍 Actualizado hace 1 mes

Comentarios