Nothing Special   »   [go: up one dir, main page]

ES2955056T3 - Simulaciones médicas - Google Patents

Simulaciones médicas Download PDF

Info

Publication number
ES2955056T3
ES2955056T3 ES17382210T ES17382210T ES2955056T3 ES 2955056 T3 ES2955056 T3 ES 2955056T3 ES 17382210 T ES17382210 T ES 17382210T ES 17382210 T ES17382210 T ES 17382210T ES 2955056 T3 ES2955056 T3 ES 2955056T3
Authority
ES
Spain
Prior art keywords
virtual
needle
pad
orientation
image scanner
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES17382210T
Other languages
English (en)
Inventor
Créixams Xavier Serres
Ortiz Antonio Miguel Torrente
Fernàndez Santiago Fort
Nadal Miquel Àngel Adrover
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fundacio Hospital Universitari Vall dHebron Institut de Recerca FIR VHIR
Fundacio Eurecat
Original Assignee
Fundacio Hospital Universitari Vall dHebron Institut de Recerca FIR VHIR
Fundacio Eurecat
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fundacio Hospital Universitari Vall dHebron Institut de Recerca FIR VHIR, Fundacio Eurecat filed Critical Fundacio Hospital Universitari Vall dHebron Institut de Recerca FIR VHIR
Application granted granted Critical
Publication of ES2955056T3 publication Critical patent/ES2955056T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B23/00Models for scientific, medical, or mathematical purposes, e.g. full-sized devices for demonstration purposes
    • G09B23/28Models for scientific, medical, or mathematical purposes, e.g. full-sized devices for demonstration purposes for medicine
    • G09B23/286Models for scientific, medical, or mathematical purposes, e.g. full-sized devices for demonstration purposes for medicine for scanning or photography techniques, e.g. X-rays, ultrasonics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2215/00Indexing scheme for image rendering
    • G06T2215/16Using real world measurements to influence rendering

Landscapes

  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Computational Mathematics (AREA)
  • Mathematical Optimization (AREA)
  • Medical Informatics (AREA)
  • Medicinal Chemistry (AREA)
  • Chemical & Material Sciences (AREA)
  • Algebra (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Mathematical Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Mathematical Physics (AREA)
  • Pure & Applied Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Theoretical Computer Science (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Instructional Devices (AREA)

Abstract

La descripción se refiere a un método de entrenamiento de intervenciones guiadas por imágenes mediante un sistema de control que tiene asociada una pantalla y que puede conectarse a un sistema de simulación. El sistema de simulación comprende una plataforma; un simulador de escáner de imágenes que comprende un primer sensor de posición y que está configurado para moverse sobre la plataforma; un dispositivo de seguimiento de posición configurado para rastrear la posición y orientación del simulador con respecto a la plataforma ubicando el primer sensor de posición. El método comprende generar al menos un tejido orgánico virtual en cualquier posición dentro de un espacio virtual correspondiente al espacio físico ocupado por la almohadilla; para cada movimiento del simulador, recibir su posición y orientación, siendo obtenidas por el dispositivo de seguimiento a partir de la ubicación del primer sensor de posición; para cada posición y orientación recibida del simulador, obtener un plano de sección virtual en el espacio virtual; generar una imagen simulada a partir del plano obtenido, que comprende una sección de al menos un tejido orgánico virtual si el plano corta el tejido en el espacio virtual; mostrando la imagen en la pantalla. (Traducción automática con Google Translate, sin valor legal)

Description

DESCRIPCIÓN
Simulaciones médicas
La presente memoria se refiere a métodos y sistemas para el entrenamiento de intervenciones guiadas por imagen. ANTECEDENTES
La ecografía es una técnica de diagnóstico por imagen que permite visualizar el cuerpo humano en tiempo real. Mediante esta técnica se puede puncionar con una aguja para realizar biopsias de tumores, ablaciones tumorales o drenajes de forma segura y mínimamente invasiva.
Para realizar este tipo de intervenciones en los pacientes se necesitan conocimientos avanzados y, en consecuencia, personal muy entrenado y con gran experiencia.
Así, por ejemplo, la solicitud de patente internacional WO2011/001299 con el título "Sistema de entrenamiento para la ablación de tumores" se refiere a sistemas de entrenamiento médico (más particularmente a dispositivos de intervención guiada) que incluyen un sujeto fantoma capaz de ser visualizado en una pantalla. Un sistema de rastreo espacial está configurado para rastrear un instrumento de intervención en el espacio del sujeto fantoma. Un sistema de simulación está configurado para generar una anomalía simulada en el espacio del fantoma y simular interacciones con la anomalía simulada para proporcionar retroalimentación e información de evaluación a un usuario para entrenar al usuario en un procedimiento asociado relacionado con la anomalía.
Básicamente, un sistema divulgado en este documento requiere un escáner real (por ejemplo, un escáner de ultrasonidos, un escáner de TC, un escáner de IRM, etc.); una aguja; un fantoma que imite tejido (es decir, el espacio del fantoma comprende órganos internos de un sujeto), compatible con imágenes de ecografías, TC u otras imágenes; y un software que se ejecute en una estación de trabajo. El software está configurado para adquirir, procesar y mostrar imágenes de un escáner de ultrasonidos en tiempo real, crear y visualizar en tiempo real tumores virtuales en ecografías, y realizar un rastreo espacial de las posiciones de la sonda de ultrasonidos y la sonda de aguja en relación con los tumores virtuales visualizados conjuntamente con la imagen, de forma que se muestre visualmente una ablación simulada realizada en una localización de la sonda de aguja para proporcionar retroalimentación para entrenar un usuario.
Sin embargo, un sistema como el descrito en el documento puede tener varios inconvenientes.
En primer lugar, los sujetos fantomas descritos (por ejemplo, fantomas que imitan tejidos) son muy difíciles de fabricar y, en consecuencia, muy caros. El coste del sistema aumenta si el fantoma debe ser compatible con la imagen de ecografía, TC u otras técnicas de imagen. Además, cada fantoma puede representar una parte diferente de un cuerpo y, dependiendo de la parte del cuerpo sobre la que se pretenda realizar cada entrenamiento, puede ser necesario más de un fantoma.
Por otro lado, el sistema divulgado en el documento requiere superponer en tiempo real un tumor virtual en una imagen real obtenida por el escáner y esto puede llegar a ser muy difícil porque cada movimiento del escáner sobre el fantoma puede generar una nueva imagen real y, en consecuencia, el tumor virtual debe reposicionarse constantemente en función de las nuevas imágenes capturadas. De este modo, la estación de trabajo en la que se ejecuta el software requiere importantes capacidades de procesamiento. Esta característica incrementa aún más el coste de dicho sistema.
Además, el uso de escáneres reales aumenta aún más el coste del sistema debido al coste del escáner real y su mantenimiento.
El documento WO2013/150436 divulga métodos y dispositivos para simular procedimientos de ultrasonidos y para entrenar a usuarios en ultrasonidos.
El documento WO2011001299 describe un sistema y método que incluye un sujeto fantoma capaz de ser visualizado en una pantalla.
En consecuencia, hay una necesidad de métodos y sistemas que resuelvan, al menos parcialmente, los problemas mencionados anteriormente.
SUMARIO
La presente invención proporciona un método según la reivindicación 1. En las reivindicaciones dependientes se exponen diversas realizaciones.
La presente invención proporciona además un sistema de control según la reivindicación 9.
Según un primer aspecto, se proporciona un método de entrenamiento de intervenciones guiadas por imagen mediante un sistema de control que tiene asociada al menos una pantalla y que puede conectarse a un sistema de simulación. El sistema de simulación puede comprender una almohadilla (por ejemplo, que simula el cuerpo de un sujeto o una parte del mismo); un simulador de escáner de imágenes que comprende un primer sensor de posición y está configurado para moverse sobre la almohadilla; un dispositivo de rastreo de posición configurado para rastrear la posición y orientación del simulador de escáner de imágenes con respecto a la almohadilla mediante la localización del primer sensor de posición. El método puede comprender, durante el entrenamiento:
- generar al menos un tejido orgánico virtual en cualquier posición dentro de un espacio virtual correspondiente al espacio físico ocupado por la almohadilla;
- para cada movimiento del simulador de escáner de imágenes, recibir su posición y orientación, siendo obtenidas dicha posición y orientación por el dispositivo de rastreo a partir de la localización del primer sensor de posición cuando se encuentra sobre o cerca de la almohadilla;
- para cada posición y orientación recibidas del simulador de escáner de imágenes, obtener un plano de sección virtual en el espacio virtual de la almohadilla;
- generar una imagen simulada a partir del plano de sección virtual obtenido, que comprende una sección de al menos uno de los tejidos orgánicos virtuales generados si el plano de sección virtual obtenido corta el tejido orgánico virtual en el espacio virtual;
- visualizar la imagen generada en la pantalla.
De este modo, el simulador de escáner de imágenes no se utiliza para obtener imágenes reales del interior de la almohadilla, sino para obtener un plano de sección virtual en el espacio virtual de la almohadilla a partir de la posición y orientación recibidas del simulador de escáner de imágenes. El dispositivo de rastreo obtiene su posición y orientación a partir de la localización del primer sensor de posición comprendido en el simulador de escáner de imágenes. En consecuencia, la no presencia de un escáner de imágenes real reduce tanto el coste de fabricación como el mantenimiento del sistema de simulación. Además, la almohadilla no debe ser compatible con imágenes de ecografía, TC u otras técnicas de obtención de imágenes, lo que también reduce el coste del sistema de simulación. Por otro lado, la provisión de la etapa de generar al menos un tejido orgánico virtual en cualquier posición dentro de un espacio virtual correspondiente al espacio físico ocupado por la almohadilla permite posicionar tejidos orgánicos virtuales (por ejemplo, tumores) dentro del espacio virtual en base a unos ejes de coordenadas de dicho espacio virtual. Así, es posible obtener un plano de sección virtual a partir de la posición y orientación recibidas del simulador de escáner de imagen y determinar si dicho plano corta alguno de los tejidos orgánicos virtuales generados posicionados dentro del espacio virtual. En consecuencia, es posible generar una imagen simulada a partir del plano de sección virtual obtenido, comprendiendo dicha imagen simulada la sección transversal de cualquier tejido orgánico virtual cortado por el plano.
Los tejidos orgánicos virtuales pueden representarse dentro del espacio virtual por medio de, por ejemplo, formas geométricas, dibujos tridimensionales de órganos, imágenes de ecografías volumétricas, imágenes de tomografía computerizada y/o imágenes de resonancia magnética.
Además, un tejido orgánico virtual puede ser, por ejemplo, un elemento anómalo virtual que represente una anomalía médica (puede requerir intervención o no) o un modelo virtual de un órgano interno.
En algunos ejemplos, el simulador de escáner de imágenes puede comprender un primer elemento de identificación configurado para identificar el tipo de simulador de escáner de imágenes comprendido en el sistema de simulación. El método puede comprender recibir al menos una señal de control o de datos desde el primer elemento de identificación para identificar el tipo de simulador de escáner de imágenes comprendido en el sistema de simulación. El simulador de escáner de imágenes puede ser del tipo representado, por ejemplo, por un transductor lineal estrecho, un transductor lineal ancho, un transductor convexo o un transductor intracavitario.
Por otro lado, la almohadilla puede comprender un segundo elemento de identificación configurado para identificar el tipo de almohadilla comprendido en el sistema de simulación. El método puede comprender recibir al menos una señal de control o de datos desde el segundo elemento de identificación para identificar el tipo de almohadilla comprendida en el sistema de simulación. Por ejemplo, la almohadilla puede ser una almohadilla básica con, por ejemplo, una forma cúbica o puede simular el cuerpo de un sujeto o una parte del mismo. Entre otras, la almohadilla puede simular un hígado, un pecho (puede ser de diferentes volúmenes y/o texturas), un brazo, etc.
A partir del primer elemento de identificación asociado al simulador de escáner de imágenes y del segundo elemento de identificación asociado a la almohadilla, el sistema de control y/o el sistema de simulación pueden generar avisos o similares si el simulador de escáner de imágenes utilizado no es apropiado para la almohadilla incluido en el sistema de simulación o viceversa.
Para generar los avisos, el sistema de control y/o el sistema de simulación pueden comprender un módulo de avisos, que puede comprender al menos uno de los siguientes submódulos:
- un primer submódulo que comprende al menos un elemento de aviso para generar un aviso acústico (por ejemplo, un altavoz, un zumbador, etc.);
- un segundo submódulo que comprende al menos un elemento de aviso para generar un aviso visual (por ejemplo, una pantalla de visualización (por ejemplo, LCD), una pluralidad de LED (diodo emisor de luz), etc.);
- un tercer submódulo que incluye al menos un elemento de aviso para generar un aviso háptico (por ejemplo, un motor vibrador).
En algunos ejemplos, la almohadilla puede comprender al menos un segundo sensor de posición. El dispositivo de rastreo de posición también puede estar configurado para rastrear la posición y orientación de la almohadilla mediante la localización del segundo sensor de posición. El método puede comprender:
- para cada movimiento de la almohadilla, recibir su posición y orientación, siendo obtenidas dicha posición y orientación por el dispositivo de rastreo a partir de la localización del segundo sensor de posición;
- para cada posición y orientación recibidas de la almohadilla y la posición y orientación recibidas del simulador de escáner de imágenes, obtener un plano de sección virtual en el espacio virtual de la almohadilla de acuerdo con el movimiento de la almohadilla;
- generar una imagen simulada a partir del plano de sección virtual obtenido, que comprende una sección de al menos uno de los tejidos orgánicos virtuales generados si el plano de sección virtual obtenido corta el tejido orgánico virtual en el espacio virtual;
- visualizar la imagen generada en la pantalla.
De esta forma, la disposición del segundo sensor de posición (por ejemplo, en el interior de la almohadilla) permite obtener una almohadilla movible, es decir, cualquier movimiento aplicado a la almohadilla puede ser trasladado a los ejes de coordenadas del espacio virtual correspondiente al espacio físico ocupado por la almohadilla y a las coordenadas de los tejidos orgánicos virtuales generados en cualquier posición dentro de dicho espacio virtual. Entonces, el método puede comprender, para cada posición y orientación recibidas de la almohadilla, determinar el movimiento en el espacio virtual del al menos un tejido orgánico virtual generado de acuerdo con la posición y orientación recibidas de la almohadilla.
En algunos ejemplos, el entrenamiento puede comprender al menos uno de los siguientes ejercicios no intrusivos: - determinar el número de tejidos orgánicos virtuales generados en el espacio virtual de la almohadilla;
- obtener la imagen simulada que comprende más tejidos orgánicos virtuales generados en el espacio virtual; - determinar el tejido orgánico virtual más grande generado en el espacio virtual;
- determinar el tejido orgánico virtual más pequeño generado en el espacio virtual;
- determinar el tejido orgánico virtual más ecogénico/brillante/denso/de mayor intensidad de señal generado en el espacio virtual;
- determinar el tejido orgánico virtual menos ecogénico/brillante/denso/de menor intensidad de señal generado en el espacio virtual;
- determinar el diámetro/volumen de al menos uno de los tejidos orgánicos virtuales generados en el espacio virtual.
El método puede comprender además:
- generar un elemento virtual asociado al simulador de escáner de imágenes dentro del espacio virtual;
- para cada posición y orientación recibidas del simulador de escáner de imágenes, obtener un plano de sección virtual en el espacio virtual de la almohadilla;
- generar una imagen simulada a partir del plano de sección virtual obtenido, que comprenda al menos una sección del elemento virtual generado asociado al simulador de escáner de imágenes si el plano de sección virtual obtenido corta el elemento virtual en el espacio virtual;
- visualizar la imagen generada en la pantalla.
En algunos ejemplos, un tejido orgánico virtual generado dentro del espacio virtual puede ser un tubo o similar y el elemento virtual asociado al simulador de escáner de imágenes puede ser un anillo o similar con una superficie interior mayor que la sección transversal del tubo o similar. El entrenamiento puede comprender al menos uno de los siguientes ejercicios no intrusivos:
- identificar un plano de sección axial de un primer extremo del tubo o similar y, manteniendo la sección transversal del tubo o similar dentro de la sección transversal del anillo o similar, seguir el tubo o similar a lo largo de su eje longitudinal con el anillo o similar desde el primer extremo hasta el otro extremo del tubo o similar;
- identificar un plano de sección sagital de un primer extremo del tubo o similar y, manteniendo la sección longitudinal del tubo o similar dentro de la sección longitudinal del anillo o similar, siguiendo el tubo o similar a lo largo de su eje longitudinal con el anillo o similar desde el primer extremo hasta el otro extremo del tubo o similar;
- identificar un plano de sección coronal de un primer extremo del tubo o similar y, manteniendo la sección longitudinal del tubo o similar dentro de la sección longitudinal del anillo o similar, seguir el tubo o similar a lo largo de su eje longitudinal con el anillo o similar desde el primer extremo hasta el otro extremo del tubo o similar.
En este punto es importante señalar que el tubo o similar (por ejemplo, una barra) generado dentro del espacio virtual puede ser recto o puede ser curvo o multicurvo.
Según algunos ejemplos, pueden generarse al menos dos tejidos orgánicos virtuales dentro del espacio virtual. Cada tejido orgánico virtual generado puede ser un tubo o similar. El entrenamiento puede comprender un ejercicio no intrusivo para identificar el plano perpendicular a un plano teórico que une el eje longitudinal de los dos tubos o similares, siendo el plano perpendicular paralelo y equidistante a los tubos o similares.
Además, para realizar ejercicios intrusivos, el sistema de simulación puede comprender una aguja. La aguja puede incluir un tercer sensor de posición. La aguja puede estar configurada para insertarse en el espacio físico de la almohadilla. El dispositivo de rastreo de posición también puede estar configurado para rastrear la posición y orientación de la aguja en relación con la almohadilla mediante la localización del tercer sensor de posición. El método puede comprender, durante el entrenamiento:
- para cada movimiento de la aguja, recibir su posición y orientación, siendo obtenidas dicha posición y orientación por el dispositivo de rastreo a partir de la localización del tercer sensor de posición cuando la aguja se inserta en o sobre el espacio físico de la almohadilla;
- para cada posición y orientación recibidas de la aguja, generar una aguja virtual dentro del espacio virtual en una posición y orientación de acuerdo con dicha posición y orientación recibidas de la aguja;
- a partir de la última posición y orientación recibidas del simulador de escáner de imágenes, obtener un plano de sección virtual en el espacio virtual de la almohadilla;
- generar una imagen simulada a partir del plano de sección virtual obtenido, que comprende una sección de la aguja virtual si el plano de sección virtual obtenido corta la aguja virtual en el espacio virtual;
- visualizar la imagen generada en la pantalla.
Un primer sensor de posición está dispuesto en la punta de la aguja.
De esta forma, la disposición del tercer sensor de posición en la punta permite marcar la trayectoria de la punta de la aguja dentro de la almohadilla y esto es importante porque la punta de la aguja (más concretamente, la punta de la aguja virtual) es la que interactúa con los tejidos orgánicos virtuales y con los obstáculos virtuales dispuestos para dificultar el acceso a los tejidos orgánicos virtuales.
Si el sistema de simulación comprende una aguja, el entrenamiento puede comprender un ejercicio intrusivo para disponer la punta de la aguja virtual lo más cerca posible del centro de un tejido orgánico virtual generado en el espacio virtual, insertando la aguja en el espacio físico de la almohadilla. De esta manera, se puede realizar un entrenamiento para técnicas de punción de tumores, vasos y/o nervios (representados por los tejidos orgánicos virtuales generados dentro del espacio virtual).
Según algunos ejemplos, la aguja puede comprender un primer elemento accionable por un usuario configurado para generar una señal de control o de datos a tener en cuenta durante el entrenamiento (o más específicamente durante la realización de un ejercicio comprendido en el entrenamiento). El método puede comprender recibir al menos una señal de control o de datos generada por el primer elemento accionable comprendido en la aguja cuando es accionado por un usuario. Básicamente, dicho primer elemento accionable puede ser utilizado durante la realización de los ejercicios. Por ejemplo, el primer elemento accionable puede ser utilizado para accionar una aguja de biopsia, para desencadenar la ablación de un tumor, para desencadenar la ablación de un tumor mediante la técnica de disparo en movimiento, para desencadenar la administración de anestesia o para desencadenar la administración de glucosa sérica para realizar la hidrodisección.
Dependiendo del momento de la realización o ejecución de un ejercicio dicho primer elemento puede representar diferentes funciones, es decir, a lo largo de la realización de un ejercicio el primer elemento accionable por un usuario puede generar diferentes señales de control o datos.
En algunos ejemplos, el entrenamiento puede comprender un ejercicio intrusivo para disponer la punta de la aguja virtual lo más cerca posible de la superficie externa de un tejido orgánico virtual, insertando la aguja en el espacio físico de la almohadilla, y, tras recibir al menos una señal de control o de datos generada por el primer elemento accionable, simular la captura de una parte de tejido del tejido orgánico virtual en función de la posición de la punta de la aguja virtual. De este modo, puede implementarse el entrenamiento para realizar biopsias de tumores.
En algunos ejemplos, el entrenamiento puede comprender un ejercicio intrusivo para, hasta llenar un tejido orgánico virtual generado, insertar la punta de la aguja virtual más allá del tejido orgánico virtual, insertando la aguja en el espacio físico de la almohadilla, y, para una señal de control o de datos recibida y generada por el primer elemento accionable, simular la generación automática de una bola de calor o similar que cubra todo el volumen del tejido orgánico virtual para que el tejido orgánico virtual y el tejido a su alrededor puedan ser ablacionados virtual y totalmente (es decir, una ablación completa) del tejido orgánico virtual objetivo. De este modo, se puede realizar un entrenamiento para técnicas de ablación de tumores.
En algunos ejemplos, el entrenamiento puede comprender un ejercicio intrusivo para, hasta llenar un tejido orgánico virtual generado, introducir la punta de la aguja virtual en el tejido orgánico virtual, insertando la aguja en el espacio físico de la almohadilla (la aguja virtual siempre se introduce en el tejido orgánico virtual durante la realización del ejercicio), y, manteniendo la acción sobre el primer elemento accionable durante un tiempo, simular la generación de una bola de calor o similar en el interior del tejido orgánico virtual. De esta forma, se pueden generar una pluralidad de bolas de calor hasta cubrir la totalidad del tejido orgánico virtual sin atravesar la superficie del mismo. De este modo, se puede realizar un entrenamiento para técnicas de ablación de tumores por disparo en movimiento.
En cualquier caso, el entrenamiento puede comprender uno o varios de los ejercicios descritos anteriormente u otros. En caso de que haya más de un ejercicio, los ejercicios pueden ejecutarse según un orden predeterminado (por ejemplo, según la dificultad de los ejercicios) o pueden ejecutarse de forma aleatoria.
Además, el progreso en el entrenamiento puede requerir una evaluación positiva en el presente ejercicio para pasar al siguiente. Alternativamente, cada ejercicio puede realizarse pero el entrenamiento no se completa hasta que cada ejercicio o la mayoría de ellos tengan una evaluación positiva. Además, cada ejercicio puede tener diferentes niveles de dificultad.
Por otra parte, puede requerirse el inicio de sesión de un usuario (por ejemplo, un profesor, un instructor o un estudiante, tal como un radiólogo o, en general, un profesional médico). El inicio de sesión puede realizarse basándose en una identificación de usuario, parámetros biométricos, etc. De esta forma, la información relativa a la realización de los ejercicios puede ser almacenada asociada al usuario (por ejemplo, si el usuario es un estudiante). Dicha información podrá ser vista por el profesor o instructor, por ejemplo, para evaluar la realización de los ejercicios. La aguja comprende un segundo sensor de posición dispuesto en el otro extremo de la aguja o cerca de él. El dispositivo de rastreo de posición también puede estar configurado para rastrear la posición y orientación del otro extremo de la aguja con respecto a la almohadilla mediante la localización del segundo sensor de posición. El método puede comprender, a partir de cada posición y orientación recibidas del primer sensor de posición de la aguja y de la correspondiente posición y orientación recibidas del segundo sensor de posición de la aguja, determinar cuánto se deforma la aguja durante su inserción en el espacio físico. Además, también es posible obtener la posición y orientación de la aguja con mayor precisión.
Según algunos ejemplos, el segundo sensor de posición puede estar dispuesto en el mango de la aguja. A partir de esta configuración, es posible determinar si el primer y segundo sensor de posición están alineados o desalineados. En algunos ejemplos, la aguja puede comprender un tercer elemento de identificación configurado para identificar el tipo de aguja comprendida en el sistema de simulación. El método puede comprender recibir al menos una señal de control o de datos desde el tercer elemento de identificación para identificar el tipo de aguja comprendida en el sistema de simulación. De este modo, el tercer elemento de identificación puede representar diferentes longitudes de la aguja, es decir, por ejemplo, una aguja de 5 cm, una aguja de 7 cm, una aguja de 15 cm o una aguja de 20 cm.
De este modo, a partir de la combinación entre el primer elemento de identificación, el segundo elemento de identificación y/o el tercer elemento de identificación, es posible generar avisos o similares. De este modo, puede generarse un aviso si la aguja comprendida en el sistema de simulación no es apropiada para la almohadilla presente en el sistema de simulación o si la aguja no es apropiada para el simulador de escáner de imágenes presente en el sistema de simulación. Básicamente, el objetivo puede ser determinar incompatibilidades entre la aguja, la almohadilla y/o el simulador de escáner de imágenes.
El método puede comprender además aplicar un movimiento respiratorio durante la generación de la imagen simulada a partir del plano de sección virtual obtenido. El movimiento respiratorio puede basarse en al menos un perfil respiratorio. Básicamente, el motor de simulación puede tener un sistema de respiración paramétrico que controle diferentes patrones de inspiración y expiración y el efecto de éstos en la geometría de los tejidos orgánicos virtuales. Por ejemplo, un control de voz podrá detener/minimizar temporalmente el movimiento como con los pacientes reales. Los ejes de movimiento y compresión serán configurables y estarán relacionados con las cualidades físicas de los tejidos orgánicos virtuales considerados.
En algunos ejemplos, el método puede comprender además recibir al menos una señal de control o de datos para iniciar/detener el movimiento respiratorio aplicado durante la generación de la imagen simulada a partir del plano de sección virtual obtenido. La señal de control o de datos para iniciar/detener el movimiento respiratorio puede recibirse, por ejemplo, desde al menos uno de los siguientes elementos: un pedal, un micrófono (por ejemplo, mediante un control de voz), un mando a distancia, un ratón o un teclado.
El método puede comprender, durante la realización de cada ejercicio del entrenamiento, grabar las imágenes simuladas generadas o de cualquier otro tipo de imágenes obtenidas a partir de las imágenes simuladas.
Además, el método puede comprender, durante la realización de cada ejercicio del entrenamiento, obtener datos relativos a la realización de cada ejercicio.
Según algunos ejemplos, el método también puede comprender grabar los datos obtenidos relativos a la realización de cada ejercicio comprendido en el entrenamiento.
En algunos ejemplos, el método puede comprender evaluar cada ejercicio del entrenamiento a partir de los datos obtenidos relativos a la realización del ejercicio.
En algunos ejemplos, el dispositivo de rastreo de posición puede comprender al menos un dispositivo de rastreo óptico o un dispositivo de rastreo electromagnético. Alternativa o complementariamente, el dispositivo de rastreo de posición puede comprender sensores ópticos y/o sensores inerciales (es decir, las medidas de aceleración y velocidad angular pueden realizarse mediante, por ejemplo, acelerómetros, giroscopios y/o magnetómetros).
En el caso de un dispositivo de rastreo electromagnético, el dispositivo puede comprender un emisor de campo magnético y cada sensor de posición puede comprender un sensor de posición electromagnético.
En otro aspecto, se proporciona un programa informático. El programa informático puede comprender instrucciones de programa para hacer que un sistema de control realice un método como el descrito anteriormente de entrenamiento de intervenciones guiadas por imagen. El programa informático puede estar incorporado en un medio de almacenamiento (por ejemplo, un CD-ROM, un DVD, una unidad uSb , en una memoria de ordenador o en una memoria de sólo lectura) o transportado en una señal portadora (por ejemplo, en una señal portadora eléctrica u óptica).
Según otro aspecto, se proporciona un sistema de control para el entrenamiento de intervenciones guiadas por imagen. El sistema de control puede tener asociada al menos una pantalla y puede ser conectable a un sistema de simulación. El sistema de simulación puede comprender una almohadilla (por ejemplo, una almohadilla que simula el cuerpo de un sujeto o una parte del mismo); un simulador de escáner de imágenes que comprende un primer sensor de posición y está configurado para moverse sobre la almohadilla; un dispositivo de rastreo de posición configurado para rastrear la posición y orientación del simulador de escáner de imágenes en relación con la almohadilla mediante la localización del primer sensor de posición. El sistema de control puede comprender:
- medios para generar al menos un tejido orgánico virtual en cualquier posición dentro de un espacio virtual correspondiente al espacio físico ocupado por la almohadilla;
- medios para recibir su posición y orientación, siendo obtenidas dicha posición y orientación por el dispositivo de rastreo a partir de la localización del primer sensor de posición cuando se encuentra sobre o cerca de la almohadilla; - medios para obtener un plano de sección virtual en el espacio virtual de la almohadilla;
- medios para generar una imagen simulada a partir del plano de sección virtual obtenido, que comprende una sección de al menos uno de los tejidos orgánicos virtuales generados si el plano de sección virtual obtenido corta el tejido orgánico virtual en el espacio virtual;
- medios para visualizar la imagen generada en la pantalla.
En otro aspecto, se proporciona un sistema de control. El sistema de control puede comprender:
- un módulo de comunicación configurado para conectar el sistema de control a un sistema de simulación, comprendiendo el sistema de simulación:
- una almohadilla (por ejemplo, simulando el cuerpo de un sujeto o una parte del mismo);
- un simulador de escáner de imágenes que comprende un primer sensor de posición y que está configurado para moverse sobre la almohadilla;
- un dispositivo de rastreo de posición configurado para rastrear la posición y orientación del simulador de escáner de imágenes en relación con la almohadilla mediante la localización del primer sensor de posición;
- un módulo configurado para asociar el módulo de control a al menos una pantalla;
- una memoria y un procesador, que incorporan instrucciones almacenadas en la memoria y ejecutables por el procesador, las instrucciones comprenden funcionalidad para ejecutar un método como el descrito anteriormente de entrenamiento de intervenciones guiadas por imagen.
Otros objetos, ventajas y características de las realizaciones de la invención resultarán evidentes para los expertos en la materia al examinar la descripción dentro del ámbito de las reivindicaciones adjuntas.
BREVE DESCRIPCIÓN DE LOS DIBUJOS
A continuación se describirán ejemplos no limitativos de la presente divulgación, con referencia a los dibujos adjuntos, en los que:
La figura 1 muestra un diagrama esquemático de un sistema de control conectado a un sistema de simulación y que tiene asociada una pantalla, según algunos ejemplos;
La figura 2 muestra un diagrama esquemático de una imagen simulada generada en un método de entrenamiento de intervenciones guiadas por imagen, según algunos ejemplos;
La figura 3 muestra un diagrama esquemático de un sistema de control conectado a un sistema de simulación que ejecuta un primer ejercicio no intrusivo de entrenamiento;
La figura 4 muestra un diagrama esquemático de un sistema de control conectado a un sistema de simulación que ejecuta un segundo ejercicio no intrusivo de entrenamiento;
La figura 5 muestra un diagrama esquemático de un sistema de control conectado a un sistema de simulación que ejecuta un tercer ejercicio no intrusivo de entrenamiento;
La figura 6 muestra un diagrama esquemático de un sistema de control conectado a un sistema de simulación que ejecuta un cuarto ejercicio no intrusivo de entrenamiento;
La figura 7 muestra un diagrama esquemático de un sistema de control conectado a un sistema de simulación que ejecuta un quinto ejercicio no intrusivo de entrenamiento;
La figura 8 muestra un diagrama esquemático de un sistema de control conectado a un sistema de simulación que ejecuta un sexto ejercicio no intrusivo de entrenamiento;
La figura 9 muestra un diagrama esquemático de un sistema de simulación que ejecuta un primer ejercicio intrusivo de entrenamiento (Punciones);
La figura 10 muestra un diagrama esquemático de un sistema de simulación que ejecuta un segundo ejercicio intrusivo de entrenamiento (Biopsias);
La figura 11 muestra un diagrama esquemático de un sistema de simulación que ejecuta un tercer ejercicio intrusivo de entrenamiento (Ablaciones);
La figura 12 muestra un diagrama esquemático de un sistema de simulación que ejecuta un cuarto ejercicio intrusivo de entrenamiento (Técnicas de disparo en movimiento).
DESCRIPCIÓN DETALLADA DE EJEMPLOS
En la figura 1, se muestra un sistema de control 10. El sistema de control 10 puede comprender o estar implementado por medios electrónicos, medios informáticos o una combinación de ellos, es decir, dichos medios electrónicos o informáticos pueden utilizarse indistintamente de modo que una parte de los medios descritos pueden ser medios electrónicos y la otra parte pueden ser medios informáticos, o todos los medios descritos pueden ser medios electrónicos o todos los medios descritos pueden ser medios informáticos.
Ejemplos de un sistema de control 10 que comprende sólo medios electrónicos (es decir, una configuración puramente electrónica) puede ser un dispositivo electrónico programable como un CPLD (Complex Programmable Logic Device), un FPGA (Field Programmable Gate Array) o un ASIC (Application-Specific Integrated Circuit).
Ejemplos de un sistema de control 10 que comprende únicamente medios informáticos puede ser un sistema informático, que puede comprender una memoria y un procesador, estando la memoria adaptada para almacenar un conjunto de instrucciones de programa informático, y estando el procesador adaptado para ejecutar estas instrucciones almacenadas en la memoria con el fin de generar los diversos eventos y acciones para los que se ha programado el sistema de control.
El programa informático puede comprender instrucciones de programa para hacer que el sistema de control 10 ejecute un método de entrenamiento de intervenciones guiadas por imagen que se describirá más adelante. El programa informático puede estar incorporado en un medio de almacenamiento (por ejemplo, un CD-ROM, un DVD, una unidad USB, en una memoria de ordenador o en una memoria de sólo lectura) o transportado en una señal portadora (por ejemplo, en una señal portadora eléctrica u óptica).
El programa informático puede estar en forma de código fuente, código objeto, un código intermedio entre código fuente y código objeto, como por ejemplo en forma parcialmente compilada, o en cualquier otra forma adecuada para su uso en la implementación del método. El portador puede ser cualquier entidad o dispositivo capaz de transportar el programa informático.
Por ejemplo, el soporte puede ser un medio de almacenamiento (puede ser el propio medio de almacenamiento del sistema de control 10 o un medio de almacenamiento externo conectable al sistema de control), como una ROM, por ejemplo, un CD ROM o una ROM semiconductora; un medio de grabación magnética, por ejemplo un disco duro; un disco de estado sólido (SSD); una unidad flash USB (por ejemplo, un pen drive); o una tarjeta de memoria no volátil, como una tarjeta SD, miniSD o microSD. Además, el portador puede ser un portador transmisible, como una señal eléctrica u óptica, que puede transportarse a través de un cable eléctrico u óptico o por radio u otros medios.
Cuando el programa informático está incorporado en una señal que puede ser transportada directamente por un cable u otro dispositivo o medio, el soporte puede estar constituido por dicho cable u otro dispositivo o medio.
Alternativamente, el portador puede ser un circuito integrado en el que está embebido el programa informático, estando el circuito integrado adaptado para realizar, o para su uso en la realización de, los métodos pertinentes.
Además, el sistema de control 10 también puede tener una configuración híbrida entre medios informáticos y electrónicos. En este caso, el sistema puede comprender una memoria y un procesador para implementar computacionalmente parte de sus funcionalidades y ciertos circuitos electrónicos para implementar las funcionalidades restantes.
Por otra parte, el sistema de control 10 puede comprender uno o varios subsistemas, cada uno de los cuales puede realizar una parte de los eventos y acciones para los que se ha programado el sistema de control en su conjunto. Si los subsistemas están lo suficientemente cerca, pueden estar cableados (por ejemplo, mediante tecnología Ethernet) o pueden estar conectados mediante tecnologías de comunicación de corto alcance, por ejemplo, Bluetooth (por ejemplo, BLE - Bluetooth Low Energy), NFC, Zigbee o tecnología WiFi. Si los subsistemas están lejos, pueden estar conectados a través de tecnologías de comunicación inalámbricas de largo alcance, como GSM, GPRs , 3G, 4G o tecnología por satélite, o tecnologías cableadas (por ejemplo, a través de fibra óptica, ADSL, etc.).
Además, el sistema de control 10 puede comprender un módulo de comunicación para su conexión a un sistema de simulación 11 que se describirá más adelante.
El sistema de control 10 también puede tener asociada una pantalla 12, de modo que la pantalla puede estar cerca del sistema de control 10 (por ejemplo, la pantalla puede estar incluida en el sistema de control o puede estar conectada por cable al sistema de control) y/o puede estar dispuesta a distancia.
En los presentes ejemplos, el sistema de control es un sistema informático 10, tal como un ordenador portátil o de sobremesa.
En este punto es importante señalar que puede ser necesario el inicio de sesión de un usuario (por ejemplo, un profesor, un instructor o un estudiante, tal como un radiólogo o, en general, un profesional médico) en el sistema de control. El inicio de sesión puede realizarse basándose en una identificación de usuario y una contraseña, parámetros biométricos, etc. De este modo, la información relativa a la realización de los ejercicios puede almacenarse, por ejemplo, en un repositorio (por ejemplo, una base de datos), asociada a cada usuario (por ejemplo, si el usuario es un estudiante). Dicha información podrá ser vista por el profesor o instructor para evaluar la realización de los ejercicios. Por otra parte, el sistema de control puede comprender un sistema de gestión del aprendizaje (LMS) a través del cual el instructor o profesor puede entregar material a los estudiantes (por ejemplo, vídeos en línea para ayudar a realizar los ejercicios), realizar un seguimiento del progreso de los estudiantes y gestionar el mantenimiento de registros. Además, el sistema de control puede tener asociada una cámara para grabar o capturar imágenes relativas a la realización de un ejercicio. De esta forma, el profesor o instructor puede evaluar al alumno teniendo en cuenta las imágenes grabadas o puede ayudar o rectificar al alumno durante la realización de un ejercicio si el profesor o instructor está recibiendo imágenes en tiempo real. Además, el alumno puede ver las imágenes grabadas o capturadas después de la realización de un ejercicio para mejorar sus habilidades.
Con referencia al sistema de simulación 11, puede comprender:
- una almohadilla 13;
- un simulador de escáner de imágenes 14;
- un dispositivo de rastreo de posición 15.
Además, el sistema de simulación 11 puede comprender un módulo de comunicación para conectar todos o algunos elementos (por ejemplo, la almohadilla, el simulador de escáner de imágenes y/o el dispositivo de rastreo de posición) al sistema de control 10.
La almohadilla 13 puede ser una matriz homogénea (por ejemplo, con forma cúbica) que puede estar cubierta con una membrana duradera y opaca. La almohadilla puede ajustarse (o no) en una caja 16 (por ejemplo, una caja rígida) o similar (por ejemplo, una carcasa). La almohadilla puede simular el cuerpo de un sujeto o una parte del mismo. Entre otros, la almohadilla puede simular un hígado, un pecho (puede ser de diferentes volúmenes y/o texturas), un brazo, testículos, un cuello, una pierna, un abdomen, un cerebro, etc. La almohadilla 13 puede ser una almohadilla antropomórfica o una almohadilla básica. De este modo, la almohadilla puede comprender internamente elementos que simulen huesos, venas, arterias, músculos, etc.
Además, la almohadilla 13 puede comprender un elemento de identificación configurado para identificar el tipo de almohadilla (es decir, un hígado, un pecho (volumen y/o textura), unos testículos, etc.) comprendida en el sistema de simulación 11. Por ejemplo, dicho elemento de identificación puede ser una etiqueta RFID que contenga información almacenada electrónicamente relativa al tipo de almohadilla. La etiqueta RFID puede estar fijada a la almohadilla o dispuesta en su interior. El elemento de identificación también puede ser mecánico, neumático o cualquier otra solución que permita identificar el tipo de almohadilla utilizada en el sistema de simulación 11. En consecuencia, la almohadilla puede ser intercambiable en función del ejercicio de entrenamiento que se vaya a realizar.
En cualquier caso, el tipo de almohadilla 13 debe proporcionarse al sistema de control 10. De este modo, la almohadilla puede ser inalámbrica (por ejemplo, en caso de que el elemento de identificación sea una etiqueta RFID, el sistema de control puede incluir un lector RFID) o estar conectada por cable (por ejemplo, a través del módulo de comunicación del sistema de simulación 11) al sistema de control.
En función del tipo de almohadilla 13 recibida, el sistema de control 10 puede generar un espacio virtual correspondiente al espacio físico ocupado por la almohadilla. De este modo, el sistema de control puede generar al menos un tejido orgánico virtual en cualquier posición dentro del espacio virtual generado para el entrenamiento, como se describirá más adelante.
Por otro lado, la almohadilla 13 puede disponer de al menos un sensor de posición (por ejemplo, puede estar dispuesto en el interior de la almohadilla o adherido al mismo) para ser rastreado (por ejemplo, su posición y orientación) por el dispositivo de rastreo de posición 15. Dicho sensor de posición puede permitir que la almohadilla sea movible, es decir, que cualquier movimiento aplicado a la almohadilla se traslade a los ejes de coordenadas del espacio virtual correspondiente al espacio físico ocupado por la almohadilla y a las coordenadas de los tejidos orgánicos virtuales generados en cualquier posición dentro de dicho espacio virtual. En consecuencia, el dispositivo de rastreo de posición también puede estar configurado para rastrear la posición y orientación de la almohadilla mediante la localización de su correspondiente sensor de posición.
Normalmente, las almohadillas conocidas en el estado de la técnica son estáticas, por lo que las coordenadas en las que se sitúan los tejidos orgánicos virtuales (por ejemplo, tumores, obstáculos, etc.) son también estáticas. De esta forma, en algunos ejemplos, la presencia del sensor de posición de la almohadilla permite trasladar los movimientos de la almohadilla a las coordenadas que han permitido definir el espacio virtual correspondiente al espacio físico ocupado por la almohadilla. Además, los tejidos orgánicos virtuales generados en el espacio virtual pueden ser reposicionados dentro del mismo.
La caja o carcasa 16 en la que se puede disponer la almohadilla 13 también puede contener un espacio en el que se pueden instalar todas las partes electrónicas, por ejemplo, un emisor de campo magnético (por ejemplo, en caso de que el dispositivo de rastreo de posición sea un dispositivo electromagnético), el propio dispositivo de rastreo de posición 14, un módulo de aviso y/o un módulo de comunicación (por ejemplo, el módulo de comunicación anteriormente divulgado configurado para conectar el sistema de simulación 11 con el sistema de control 10 o viceversa).
El módulo de aviso puede comprender al menos uno de los siguientes submódulos:
- un primer submódulo que comprende al menos un elemento de aviso para generar un aviso acústico (por ejemplo, un altavoz, un zumbador, etc.);
- un segundo submódulo que comprende al menos un elemento de aviso para generar un aviso visual (por ejemplo, una pantalla de visualización (por ejemplo, LCD), una pluralidad de LED (diodo emisor de luz), etc.);
- un tercer submódulo que comprende al menos un elemento de aviso para generar un aviso háptico (por ejemplo, un motor vibrador).
De este modo, por ejemplo, puede generarse un aviso (por ejemplo, por el sistema de control 10 o el propio sistema de simulación 11) si el tipo de simulador de escáner de imágenes 14 no es apropiado para la almohadilla 13 incluida en el sistema de simulación 11 o viceversa.
Además, o alternativamente al aviso, el sistema puede impedir el inicio de un ejercicio de entrenamiento hasta que la almohadilla 13 y/o el simulador de escáner de imágenes 14 sean los adecuados.
El módulo de comunicación puede estar o no en el sistema de simulación y puede tener diferentes configuraciones de acuerdo con los elementos (por ejemplo, la almohadilla 13, el simulador de escáner de imágenes 14 o el dispositivo de rastreo de posición 15) comprendidos en el sistema de simulación. De este modo, todos o parte de los elementos pueden estar conectados directamente al sistema de control 10 (por ejemplo, mediante una conexión por cable o inalámbrica) o pueden estar conectados a través del módulo de comunicación divulgado.
En cualquier caso, la conexión entre el sistema de control 10 y los diferentes elementos del sistema de simulación 11 puede ser por cable o inalámbrica.
En caso de conexión por cable, en algunos ejemplos, el sistema de simulación 11 (por ejemplo, todos o parte de sus elementos) y el sistema de control 10 pueden comprender un módulo de comunicación por cable (para el sistema de simulación, puede ser el módulo de comunicación descrito anteriormente) basado, por ejemplo, en un puerto serie, tal como USB, micro USB, mini USB, Firewire o Ethernet.
En caso de conexión inalámbrica, en algunos ejemplos, el sistema de simulación 11 (por ejemplo, todos o parte de sus elementos) y el sistema de control 10 pueden comprender un módulo de comunicación de corto alcance (para el sistema de simulación, puede ser el módulo de comunicación descrito anteriormente) basado, por ejemplo, en tecnología Bluetooth (por ejemplo, BLE - Bluetooth 4.0 Low Energy), NFC, Zigbee o WiFi. Evidentemente, el módulo de comunicación del sistema de control y el módulo de comunicación del sistema de simulación deben ser compatibles para establecer la comunicación entre ambos sistemas.
Alternativa o complementariamente, el sistema de simulación 11 (por ejemplo, todos o parte de sus elementos) y el sistema de control 10 pueden comprender un módulo de comunicación de largo alcance (para el sistema de simulación, puede ser el módulo de comunicación descrito anteriormente) basado, por ejemplo, en tecnología GSM, GPRS, 3G, 4G o satélite. Estos módulos de comunicación también pueden estar basados en fibra óptica, ADSL, etc. En cualquier caso, el sistema de simulación y el sistema de control pueden estar alejados el uno del otro.
Más concretamente, en los presentes ejemplos, el sistema de control 10 y el sistema de simulación 11 están interconectados a través módulos de comunicación por cable basados, por ejemplo, en un protocolo USB.
Además, la comunicación entre el sistema de control 10 y el sistema de simulación 11 (o todos o una parte de sus elementos) puede asegurarse mediante, por ejemplo, claves criptográficas y/o un túnel SSL establecido entre ellos. En resumen, todos, ninguno o una parte de los elementos (es decir, por ejemplo, la almohadilla 13, el simulador de escáner de imágenes 14 o el dispositivo de rastreo de posición 15) comprendidos en el sistema de simulación 11 pueden estar conectados directamente al sistema de control 10. Los elementos no conectados directamente al sistema de control pueden estar conectados al sistema de control a través de un módulo de comunicación comprendido en el sistema de simulación.
Con respecto al simulador de escáner de imágenes 14, el objeto es simular un transductor de ultrasonidos real o similar.
El simulador de escáner de imágenes 14 puede comprender un elemento de identificación configurado para identificar el tipo de simulador de escáner de imágenes conectado o comprendido en el sistema de simulación 11. El simulador de escáner de imágenes puede ser del tipo representado, por ejemplo, por un transductor lineal estrecho, un transductor lineal ancho, un transductor convexo o un transductor intracavitario. En consecuencia, el simulador de escáner de imágenes puede ser intercambiable en función del ejercicio de formación que se vaya a realizar.
Dicho elemento de identificación puede ser, por ejemplo, una etiqueta RFID que contenga información almacenada electrónicamente relativa al tipo de transductor simulado. La etiqueta RFID puede estar fijada al simulador de escáner de imágenes o dispuesta en su interior. El elemento de identificación también puede ser mecánico, neumático o cualquier otra solución que permita identificar el tipo de simulador de escáner de imágenes utilizado en el sistema de simulación. En cualquier caso, el sistema de control 10 debe recibir el tipo de simulador de escáner de imágenes 13 utilizado en el sistema de simulación 11.
Además, el simulador de escáner de imágenes 14 puede comprender al menos un sensor de posición (por ejemplo, puede estar dispuesto dentro del simulador de escáner de imágenes o fijado a él) para ser rastreado (por ejemplo, su posición y orientación) por el dispositivo de rastreo de posición 15, es decir, el dispositivo de rastreo de posición también puede estar configurado para rastrear la posición y orientación del simulador de escáner de imágenes localizando su correspondiente sensor de posición.
En consecuencia, el dispositivo de rastreo de posición 15 también puede estar configurado para posicionar el simulador de escáner de imágenes 14 dentro del marco de coordenadas y coordinar los movimientos con las imágenes simuladas en pantalla que representan un plano de sección del espacio virtual correspondiente al espacio físico ocupado por la almohadilla 13.
Por ejemplo, el dispositivo de rastreo de posición 15 puede ser un dispositivo de rastreo electromagnético como un dispositivo de rastreo electromagnético 3D Guidance trakSTAR 3D (de la empresa Northern Digital Inc.). Este dispositivo puede utilizarse para el rastreo 3D de marcadores sin requisitos de línea de visión y proporcionando una tecnología de rastreo de posición y orientación de alta precisión.
Básicamente, el dispositivo trakSTAR tiene una precisión de 1,4 mm RMS, 0,5 grados RMS y admite hasta cuatro sensores 6DoF (6 grados de libertad) por dispositivo, hasta 16 en total (es decir, cuatro dispositivos). Su frecuencia de actualización por defecto es de 80 Hz, pero es configurable por el usuario entre 20 y 255 Hz. Además, el dispositivo dispone de puertos USB y RS-232. De este modo, el dispositivo puede conectarse al sistema de control 10 por medio de cualquiera de estos puertos. Por ejemplo, en los presentes ejemplos, la conexión al sistema de control 10 puede realizarse a través del puerto USB. Cada uno de los sensores se conecta al trakSTAR mediante conexiones por cable. El dispositivo trakSTAR funciona en conjunción con un transmisor (es decir, el emisor de campo magnético anteriormente descrito) que establece el marco de coordenadas y el volumen de rastreo. Dicho transmisor puede ser:
• Transmisor de alcance medio (MRT): proporciona un mayor volumen de rastreo (con una distancia máxima de rastreo de 660 mm (para el sensor modelo 800 (se describirá más adelante); en el eje X positivo));
• Transmisor de corto alcance (SRT): proporciona un volumen menor para el rastreo selectivo (con una distancia máxima de rastreo de 410 mm (para el sensor del modelo 800; en el eje X positivo));
• Transmisor de amplio alcance (WRT): proporciona un volumen de rastreo de hasta 2 metros (7 pies).
El emisor de campo magnético puede estar dispuesto, por ejemplo, en el interior de la caja 16 comprendida en el sistema de simulación 11. En los presentes ejemplos puede utilizarse un emisor de alcance medio.
Al menos un sensor (un sensor de posición como el descrito anteriormente) puede estar embebido en el simulador de escáner de imágenes 14 y en la almohadilla 13, el cual rastrea (permite conseguir datos de posición y orientación del sensor) sus movimientos en los seis grados de libertad (6DoF), sin requisitos de línea de visión. Cada movimiento dentro del volumen de rastreo se rastrea en tiempo real.
En referencia a dichos sensores 6DoF, se presentan en varios tamaños, incluido el sensor de referencia de uso general que consta de una sección transversal cuadrada de 8 mm hasta el sensor cilíndrico de 0,56 mm de diámetro para su uso en las herramientas más pequeñas. Más concretamente, se puede utilizar el sensor modelo 55 (Diámetro exterior del sensor = 0,56 mm máx.; Diámetro exterior del cable = 3,8 mm; Longitud del sensor = 300 mm; Longitud del cable = 2,2 m), el sensor modelo 90 (Diámetro exterior del sensor = 0,9 mm; Diámetro exterior del cable = 0,6 mm; Longitud del sensor = 7,25 mm; Longitud del cable = 3,3 m), el sensor modelo 130 (Diámetro exterior del sensor = 1.5 mm; diámetro exterior del cable = 1,2 mm; longitud del sensor = 7,7 mm; longitud del cable = 3,3 m), el modelo de sensor 180 (diámetro exterior del sensor = 2,0 mm; diámetro exterior del cable = 1,2 mm; longitud del sensor = 9,9 mm; longitud del cable = 3,3 m) o el modelo de sensor 800 (diámetro exterior del sensor = 7,9 mm; diámetro exterior del cable = 3,8 mm; longitud del sensor = 19,8 mm; longitud del cable = 3,3 m).
En consecuencia, si el dispositivo de rastreo de posición 15 es un dispositivo trakSTAR como el descrito anteriormente, el sensor de posición del simulador de escáner de imágenes 14 y de la almohadilla 13 puede ser cualquiera de los sensores 6DoF descritos anteriormente (por ejemplo, un modelo de sensor 90).
En caso de utilizar un dispositivo electromagnético de rastreo de posición, si el elemento de identificación es una etiqueta RFID o cualquier otro elemento electromagnético, probablemente dicho elemento de identificación pueda requerir protección para evitar problemas con, por ejemplo, los datos almacenados en el elemento de identificación. Alternativamente, el dispositivo de rastreo de posición 15 puede tener una configuración óptica, es decir, puede ser un dispositivo de rastreo óptico. Por ejemplo, el dispositivo de rastreo de posición 15 puede ser un sistema de rastreo óptico Polaris (por ejemplo, un sistema Polaris Spectra o Polaris Vicra), que rastrea la posición 3D y la orientación de marcadores activos o pasivos fijados a herramientas quirúrgicas (por ejemplo, la almohadilla 13 y/o el simulador de escáner de imágenes 14).
Dado que los sensores pueden estar conectados por cable o de forma inalámbrica al dispositivo de rastreo de posición 15, puede ser necesaria una conexión por cable o inalámbrica entre la almohadilla 13 (si comprende un sensor de posición) y el dispositivo de rastreo de posición para obtener la posición y la orientación de la almohadilla. Del mismo modo, también puede ser necesaria una conexión por cable o inalámbrica entre el simulador de escáner de imágenes 14 y el dispositivo de rastreo de posición para obtener la posición y la orientación del simulador de escáner de imágenes. La posición y orientación obtenidas de la almohadilla y/o del simulador de escáner de imágenes 13 pueden enviarse desde el dispositivo de rastreo de posición al sistema de control 10.
Alternativa o complementariamente, el dispositivo de rastreo de posición puede comprender sensores ópticos y/o sensores inerciales (es decir, las medidas de aceleración y velocidad angular pueden realizarse por medio de, por ejemplo, acelerómetros, giroscopios y/o magnetómetros).
El sistema de simulación comprende una aguja 17 configurada para insertarse en el espacio físico de la almohadilla 13. Todas las características descritas para la almohadilla 13 y/o para el simulador de escáner de imágenes 14 pueden aplicarse a la aguja. La aguja puede permitir la realización de ejercicios intrusivos durante el entrenamiento.
La aguja 17 puede comprender un elemento de identificación configurado para identificar el tipo de aguja conectada o comprendida en el sistema de simulación 11. La aguja puede ser del tipo representado, por ejemplo, por diferentes longitudes, es decir, por ejemplo, una aguja de 5 cm, una aguja de 7 cm, una aguja de 15 cm o una aguja de 20 cm. En consecuencia, la aguja puede ser intercambiable en el sistema de simulación en función del ejercicio de entrenamiento que se vaya a realizar.
Dicho elemento de identificación puede ser, por ejemplo, una etiqueta RFID que contenga información almacenada electrónicamente relativa al tipo de aguja 17. La etiqueta RFID puede estar fijada o dispuesta, por ejemplo, en el interior de su mango. El elemento de identificación también puede ser mecánico, neumático o cualquier otra solución que permita identificar el tipo de aguja utilizada en el sistema de simulación 11. En cualquier caso, el sistema de control 10 debe recibir el tipo de aguja utilizada en el sistema de simulación.
De esta manera, a partir de la combinación entre el elemento de identificación de la almohadilla 13, el elemento de identificación del simulador de escáner de imágenes 14 y/o el elemento de identificación de la aguja 17, el sistema de control 10 puede generar avisos o similares a través del módulo de aviso previamente divulgado comprendido en el sistema de simulación 11 y/o un módulo de aviso comprendido en el sistema de control 10. De este modo, por ejemplo, se puede generar un aviso si la aguja incluida en el sistema de simulación no es apropiada para la almohadilla presente en el sistema de simulación y/o si la aguja no es apropiada para el simulador de escáner de imágenes presente en el sistema de simulación. Básicamente, el objetivo puede ser determinar incompatibilidades entre la aguja, la almohadilla y/o el simulador de escáner de imágenes. Por ejemplo, dependiendo del ejercicio del entrenamiento que se vaya a realizar, una almohadilla antropomórfica de una región abdominal puede requerir una aguja de 10 o 15 cm y un transductor convexo. En caso de que esta combinación no esté presente en el sistema de simulación 11, el sistema de control 10 puede generar un aviso y/o puede evitar la ejecución del ejercicio hasta que la configuración del sistema de simulación sea adecuada.
Por otra parte, la aguja 17 comprende al menos un sensor de posición (por ejemplo, puede estar dispuesto en la punta de la aguja) para ser rastreado (por ejemplo, su posición y orientación) por el dispositivo de rastreo de posición 15, es decir, el dispositivo de rastreo de posición está configurado para rastrear la posición y orientación de la aguja mediante la localización de su correspondiente sensor de posición.
En consecuencia, el dispositivo de rastreo de posición 15 también puede estar configurado para posicionar la aguja 17 dentro del marco de coordenadas y coordinar los movimientos con las imágenes simuladas en pantalla que representan el plano de sección del espacio virtual correspondiente al espacio físico ocupado por la almohadilla 13. La aguja 17 también comprende otro sensor de posición dispuesto en el otro extremo de la aguja, cerca de ella o en su mango. El dispositivo de rastreo de posición 15 también puede estar configurado para rastrear la posición y orientación del otro extremo de la aguja con respecto a la almohadilla 13 mediante la localización de dicho otro sensor de posición. A partir de esta configuración, es posible determinar si los dos sensores de posición de la aguja están alineados o desalineados y, en consecuencia, es posible determinar cuánto se deforma la aguja durante su inserción en el espacio físico de la almohadilla. Además, también es posible obtener la posición y orientación de la aguja con mayor precisión.
Además, la aguja 17 puede comprender un elemento (por ejemplo, un botón o similar) accionable por un usuario. El elemento puede estar configurado para generar una señal de control o de datos a tener en cuenta por el sistema de control 10 durante la realización de un ejercicio durante el entrenamiento, como se describirá más adelante.
Alternativa o complementariamente al elemento comprendido en la aguja 17, dicha señal de control o de datos a considerar por el sistema de control 10 durante la realización de un ejercicio puede ser generada por un pedal, un micrófono, un ratón, un teclado, etc. o cualquier otro elemento accionable por un usuario.
A continuación, se describirán varios métodos que implican el uso del sistema de control 10 descrito anteriormente. Básicamente, el sistema de control 10 puede estar configurado para ejecutar un método de entrenamiento de intervenciones guiadas por imagen. El sistema de control puede tener asociada al menos una pantalla 12 (es decir, la pantalla puede estar conectada al sistema de control, la pantalla puede ser una parte del sistema de control (por ejemplo, si el sistema de control es un ordenador portátil) y/o la pantalla puede estar dispuesta a distancia del sistema) y puede ser conectable a un sistema de simulación 11 como se ha descrito anteriormente.
Como se ha descrito anteriormente, el sistema de simulación 11 comprende:
- una almohadilla 13;
- un simulador de escáner de imágenes 14 que comprende un primer sensor de posición y está configurado para moverse sobre la almohadilla;
- un dispositivo de rastreo de posición 15 configurado para rastrear la posición y orientación del simulador de escáner de imágenes en relación con la almohadilla mediante la localización del primer sensor de posición.
El método ejecutado por el sistema de control 10 puede comprender, durante el entrenamiento:
- generar al menos un tejido orgánico virtual (por ejemplo, un elemento anormal virtual que represente una anomalía médica (puede requerir intervención) y/o un modelo virtual de un órgano) en cualquier posición dentro de un espacio virtual correspondiente al espacio físico ocupado por la almohadilla 13 (el espacio virtual generado puede ser diferente en función del tipo de almohadilla recibida por el sistema de control);
- para cada movimiento del simulador de escáner de imágenes 14, recibir su posición y orientación, siendo obtenidas dicha posición y orientación por el dispositivo de rastreo de posición 15 a partir de la localización del primer sensor de posición cuando se encuentra sobre o cerca de la almohadilla;
- para cada posición y orientación recibidas del simulador de escáner de imágenes, obtener un plano de sección virtual en el espacio virtual de la almohadilla;
- generar una imagen simulada a partir del plano de sección virtual obtenido, que comprende una sección (por ejemplo, una sección transversal) de al menos uno de los tejidos orgánicos virtuales generados si el plano de sección virtual obtenido corta el tejido orgánico virtual en el espacio virtual;
- visualizar la imagen generada en la pantalla 12.
La figura 2 muestra un ejemplo de imagen generada. Como puede verse en la figura 2, la imagen comprende una sección transversal de una pluralidad de tejidos orgánicos virtuales 20. En este punto es importante señalar que un tejido orgánico virtual puede representarse, por ejemplo, mediante una forma geométrica, un dibujo tridimensional de un órgano, una imagen de ecografía volumétrica, una imagen volumétrica por tomografía computerizada o una imagen volumétrica por resonancia magnética.
Por otra parte, el sistema de control 10 puede estar configurado para recibir al menos una señal de control o de datos del primer elemento de identificación para identificar el tipo de simulador de escáner de imágenes 14 comprendido en el sistema de simulación 11.
Además, el sistema de control 10 está configurado para recibir al menos una señal de control o de datos del segundo elemento de identificación para identificar el tipo de almohadilla 13 comprendida en el sistema de simulación 11. Si se requiere una aguja, el sistema de control 10 también puede estar configurado para recibir al menos una señal de control o de datos desde el tercer elemento de identificación para identificar el tipo de aguja 17 comprendida en el sistema de simulación 11.
De esta forma, a partir de las señales de control o de datos recibidas de diferentes elementos de identificación, el sistema de control 10 puede determinar si el ejercicio o un conjunto de ejercicios a realizar durante el entrenamiento pueden ser ejecutados.
Además, si la aguja 17 comprende además un segundo sensor de posición dispuesto en el otro extremo de la aguja, cerca de ella o en su mango, el método ejecutado por el sistema de control puede comprender, a partir de cada posición y orientación recibidas de dicho primer sensor de posición y del segundo sensor de posición de la aguja, determinar cuánto se deforma la aguja durante su inserción en el espacio físico.
Por otra parte, si la almohadilla 13 comprende un sensor de posición como se ha divulgado anteriormente, entonces el método ejecutado por el sistema de control 10 puede comprender lo siguiente:
- para cada movimiento de la almohadilla, recibir su posición y orientación, siendo obtenidas dicha posición y orientación por el dispositivo de rastreo de posición 15 a partir de la localización del segundo sensor de posición; - para cada posición y orientación recibidas de la almohadilla y la posición y orientación recibidas del simulador de escáner de imágenes 14, obtener un plano de sección virtual en el espacio virtual de la almohadilla en función del movimiento de la almohadilla;
- generar una imagen simulada a partir del plano de sección virtual obtenido, que comprende una sección de al menos uno de los tejidos orgánicos virtuales generados si el plano de sección virtual obtenido corta el tejido orgánico virtual en el espacio virtual;
- visualizar la imagen generada en la pantalla 12.
Además, el método ejecutado por el sistema de control 10 puede comprender, para cada posición y orientación recibidas de la almohadilla 13, determinar el movimiento en el espacio virtual del al menos un tejido orgánico virtual generado en función de la posición y orientación recibidas de la almohadilla.
De este modo, el movimiento de la almohadilla puede implicar el movimiento de los tejidos orgánicos virtuales generados dentro del espacio virtual. A continuación, este movimiento puede tenerse en cuenta durante la realización de los siguientes ejercicios divulgados.
Además, el método ejecutado por el sistema de control puede comprender aplicar un movimiento respiratorio durante la generación de la imagen simulada a partir del plano de sección virtual obtenido. El movimiento respiratorio puede basarse en al menos un perfil respiratorio.
De este modo, el método también puede comprender recibir al menos una señal de control o de datos para iniciar/detener el movimiento respiratorio aplicado durante la generación de la imagen simulada a partir del plano de sección virtual obtenido. Dicha señal de control o de datos para iniciar/detener el movimiento respiratorio puede recibirse desde al menos uno de los siguientes elementos: un pedal, un micrófono, un mando a distancia, una tecla de un teclado, un botón de un ratón, etc.
En este caso, el movimiento virtual de la almohadilla debido al movimiento respiratorio puede implicar el movimiento de los tejidos orgánicos virtuales generados dentro del espacio virtual. Entonces, este movimiento puede tenerse en cuenta durante la realización de los siguientes ejercicios divulgados.
El entrenamiento puede comprender uno o más ejercicios. En caso de que haya más de un ejercicio, los ejercicios pueden ejecutarse siguiendo un orden predeterminado (por ejemplo, según el nivel de dificultad de los ejercicios) o pueden ejecutarse de forma aleatoria.
En este punto es importante destacar que puede ser necesario un inicio de sesión del usuario para realizar el entrenamiento (es decir, los ejercicios). Obviamente, el usuario debe haber sido previamente registrado en el sistema. De esta forma, se puede almacenar información o datos, por ejemplo, sobre la realización de los ejercicios asociados al usuario. En consecuencia, el método también puede comprender una etapa de recibir datos de identificación del usuario a identificar. La información o datos pueden ser un identificador de usuario y una contraseña, un parámetro biométrico, etc.
El inicio de los ejercicios puede establecerse mediante la actuación del usuario sobre, por ejemplo, un botón de un ratón, una tecla de un teclado, un pedal, un micrófono, etc. Cuando el usuario actúa sobre cualquiera de dichos elementos, se puede generar una señal de control o de datos, que indica al sistema de control 10 que se inicia el ejercicio. Del mismo modo, se puede indicar al sistema de control el final del ejercicio. El tiempo empleado por un usuario para realizar un ejercicio puede ser obtenido por el sistema de control mediante un temporizador o similar. Por otro lado, el progreso en el entrenamiento puede requerir una evaluación positiva en el presente ejercicio para pasar al siguiente. Alternativamente, cada ejercicio puede realizarse pero el entrenamiento no se completa hasta que cada ejercicio o la mayoría de ellos tengan una evaluación positiva.
Además, cada ejercicio puede tener diferentes niveles de dificultad.
El rendimiento de cada ejercicio puede evaluarse en función de al menos un parámetro que puede ser diferente para cada ejercicio. Además, el rendimiento de cada ejercicio puede evaluarse por separado o teniendo en cuenta rendimientos anteriores del mismo ejercicio.
En algunos ejemplos, la realidad aumentada puede generarse con el objetivo de ayudar al alumno durante la realización de un ejercicio. De esta forma, por ejemplo, líneas o similares en la interfaz gráfica de usuario (es decir, en las imágenes simuladas) mostradas en la pantalla asociada al sistema de control pueden indicar al usuario cómo debe realizar el ejercicio.
De este modo, es posible, por ejemplo, certificar a los profesionales en el uso de intervenciones guiadas por imagen (por ejemplo, intervenciones guiadas por ultrasonidos) a través de los ejercicios. Los certificados expedidos deben ser reconocidos internacionalmente y cualificar a los profesionales para cualquier trabajo que requiera competencias avanzadas en el uso de ultrasonidos (u otra técnica de imagen) en medicina.
Por otro lado, las imágenes simuladas generadas durante la realización de un ejercicio o entrenamiento pueden ser grabadas o almacenadas. De esta forma, dichas imágenes podrán ser evaluadas o analizadas por el usuario o por profesionales una vez finalizado el ejercicio o durante la realización de un ejercicio. Además, todas las acciones realizadas por el usuario durante la realización de un ejercicio pueden ser almacenadas o capturadas, por ejemplo, en 3D (por ejemplo, en formato de película o como una secuencia de imágenes capturadas durante la realización de un ejercicio). De este modo, las acciones realizadas por el usuario durante el ejercicio pueden ser analizadas o evaluadas desde diferentes puntos de vista.
En consecuencia, el método ejecutado por el sistema de control puede comprender, durante la ejecución de un ejercicio, grabar las imágenes simuladas generadas.
Durante la realización de un ejercicio pueden obtenerse otros datos, que pueden grabarse o almacenarse. De este modo, el método ejecutado por el sistema de control puede comprender obtener datos relativos a la realización de un ejercicio. El método también puede comprender grabar o almacenar los datos obtenidos relativos a la realización del entrenamiento.
A partir de estos datos (por ejemplo, el tiempo empleado en la ejecución de un ejercicio, las imágenes simuladas generadas, los parámetros predeterminados asociados a cada ejercicio, etc.), podrá realizarse una evaluación del entrenamiento (por ejemplo, de cada ejercicio). En consecuencia, el método ejecutado por el sistema de control puede comprender la evaluación del entrenamiento a partir de los datos obtenidos relativos a la ejecución de los ejercicios comprendidos en el entrenamiento.
Los resultados de la evaluación del entrenamiento de cada usuario pueden ser sólo accesibles por el usuario y/o pueden ser públicos de forma que se pueda establecer un ranking de usuarios. De esta forma, se puede crear una competición entre usuarios.
En algunos ejemplos, un profesional a distancia puede estar conectado al sistema de control 10 de forma que dicho profesional puede dar órdenes o comentarios al usuario durante la ejecución de un ejercicio o una vez finalizado el mismo. Además, el profesional puede seleccionar o configurar remotamente el ejercicio a realizar por el usuario. Los ejercicios pueden dividirse en intrusivos y no intrusivos. En el caso de los ejercicios no intrusivos, puede ser necesario al menos un simulador de escáner de imágenes (en los ejemplos actuales, un simulador de escáner de ultrasonidos) y una almohadilla. Por el contrario, en el caso de los ejercicios intrusivos, pueden ser necesarios al menos una almohadilla, un simulador de escáner de imágenes y una aguja.
Como se ha descrito anteriormente, el sistema de control puede bloquear un ejercicio hasta que una almohadilla, una aguja y/o un simulador de escáner de imágenes adecuado (puede determinarse a través del elemento de identificación correspondiente de la aguja, la almohadilla y/o el simulador de escáner de imágenes) para realizar el ejercicio estén presentes en el sistema de simulación.
A continuación se describen varios ejercicios. Obviamente, son posibles otros ejercicios no divulgados.
A partir de la Figura 3, puede describirse un primer ejercicio no intrusivo. En este ejercicio, el objeto principal puede ser conseguir rutinas de escaneado exhaustivas mediante la determinación del número de tejidos orgánicos virtuales 30 generados en el espacio virtual de la almohadilla 31. Es decir, de acuerdo con el método de entrenamiento descrito anteriormente, un sistema de control 32 (por medio del correspondiente programa informático y/o circuitos electrónicos) puede generar al menos un tejido orgánico virtual 30 en cualquier posición dentro del espacio virtual correspondiente al espacio físico ocupado por la almohadilla 31. A continuación, el usuario puede mover el simulador de escáner de imágenes 33 sobre la almohadilla hasta determinar, visualizando las imágenes simuladas 34 en una pantalla 35 asociada al sistema de control 32, el número de tejidos orgánicos virtuales generados en el espacio virtual. De acuerdo con el método ejecutado en el sistema de control 32, para cada movimiento del simulador de escáner de imágenes 33, el sistema de control puede recibir la posición y orientación de dicho simulador de escáner de imágenes, pudiendo obtenerse dicha posición y orientación mediante un dispositivo de rastreo de posición 36 a partir de la localización del primer sensor de posición comprendido en el simulador de escáner de imágenes cuando éste se encuentra sobre o cerca de la almohadilla 31. A continuación, el sistema de control 32, para cada posición y orientación recibidas del simulador de escáner de imágenes 33, puede obtener un plano de sección virtual en el espacio virtual de la almohadilla, generar una imagen simulada 34 a partir del plano de sección virtual obtenido y visualizarla en la pantalla 35. De este modo, el usuario, viendo dichas imágenes simuladas en la pantalla, podrá determinar el número de tejidos orgánicos virtuales generados dentro del espacio virtual.
En este primer ejercicio, los parámetros para evaluar el rendimiento del ejercicio pueden ser, por ejemplo, el número real de tejidos orgánicos virtuales 30 generados, el número de tejidos orgánicos virtuales determinados por el usuario y el tiempo empleado en determinar dicho número por el usuario.
El número de tejidos orgánicos virtuales 30 determinado por el usuario puede proporcionarse al sistema de control 32 para evaluar el rendimiento marcando cada tejido orgánico virtual visualizado por el usuario. Este marcado de cada tejido orgánico virtual puede realizarse actuando sobre un elemento predeterminado conectado al sistema de control, tal como una tecla de un teclado, un botón, un pedal, un micrófono, etc. cuando el tejido orgánico virtual está siendo visualizado por el usuario en la pantalla 35.
De la misma Figura 3 puede desprenderse un segundo ejercicio no intrusivo. En este ejercicio, el objeto principal puede ser conseguir rutinas de escaneado exhaustivas mediante la obtención de la imagen simulada 37 que comprende más tejidos orgánicos virtuales 30 generados en el espacio virtual. Es decir, de acuerdo con el método de entrenamiento descrito anteriormente, el sistema de control 32 puede generar al menos un tejido orgánico virtual 30 en cualquier posición dentro del espacio virtual correspondiente al espacio físico ocupado por la almohadilla 31. A continuación, el usuario puede mover el simulador de escáner de imágenes 33 sobre la almohadilla hasta obtener, visualizando las imágenes simuladas 34 en la pantalla 35 asociada al sistema de control 32, la imagen simulada 37 que comprende más tejidos orgánicos virtuales 30 generados en el espacio virtual. Según el método ejecutado en el sistema de control, para cada movimiento del simulador de escáner de imágenes 33, el sistema de control puede recibir la posición y orientación de dicho simulador de escáner de imágenes, pudiendo ser obtenidas dicha posición y orientación por el dispositivo de rastreo de posición 36 a partir de la localización del primer sensor de posición comprendido en el simulador de escáner de imágenes cuando éste se encuentra sobre o cerca de la almohadilla. A continuación, el sistema de control 32, para cada posición y orientación recibidas del simulador de escáner de imágenes 33, puede obtener un plano de sección virtual en el espacio virtual de la almohadilla, generar una imagen simulada 34 a partir del plano de sección virtual obtenido y visualizarla en la pantalla 35.
En este segundo ejercicio, los parámetros para evaluar el rendimiento del ejercicio pueden ser, por ejemplo, el número real de tejidos orgánicos virtuales generados 30 presentes en la imagen simulada que comprende más tejidos orgánicos virtuales generados en el espacio virtual, el número de tejidos orgánicos virtuales en la imagen simulada obtenida por el usuario y el tiempo empleado para obtener dicha imagen simulada.
El número de tejidos orgánicos virtuales presentes en la imagen simulada obtenida por el usuario puede proporcionarse al sistema de control 32 para evaluar el rendimiento marcando cada tejido orgánico virtual 30 visualizado por el usuario. Este marcado de cada tejido orgánico virtual puede realizarse actuando sobre un elemento predeterminado conectado al sistema de control, como un ratón, una tecla de un teclado, un botón, un pedal, un micrófono, etc. cuando el tejido orgánico virtual está siendo visualizado por el usuario en la pantalla.
Basándose también en la Figura 3, puede describirse un tercer ejercicio no intrusivo. En este ejercicio, el objetivo principal puede ser lograr rutinas de escaneado exhaustivas mediante la determinación del tejido orgánico virtual más grande generado en el espacio virtual. Es decir, de acuerdo con el método de entrenamiento descrito anteriormente, el sistema de control 32 puede generar al menos un tejido orgánico virtual 30 en cualquier posición dentro del espacio virtual correspondiente al espacio físico ocupado por la almohadilla 31. A continuación, el usuario puede mover el simulador de escáner de imágenes 33 sobre la almohadilla hasta determinar, visualizando las imágenes simuladas 34 en la pantalla 35 asociada al sistema de control 32, el tejido orgánico virtual de mayor tamaño generado en el espacio virtual. De acuerdo con el método ejecutado en el sistema de control, para cada movimiento del simulador de escáner de imágenes 33, el sistema de control 32 puede recibir la posición y orientación de dicho simulador de escáner de imágenes, pudiendo ser obtenidas dicha posición y orientación por el dispositivo de rastreo de posición 36 a partir de la localización del primer sensor de posición comprendido en el simulador de escáner de imágenes cuando éste se encuentra sobre o cerca de la almohadilla 31. A continuación, el sistema de control 32, para cada posición y orientación recibidas del simulador de escáner de imágenes 33, puede obtener un plano de sección virtual en el espacio virtual de la almohadilla, generar una imagen simulada 34 a partir del plano de sección virtual obtenido y mostrarla en la pantalla 35.
En este tercer ejercicio, los parámetros para evaluar el rendimiento del ejercicio pueden ser, por ejemplo, el tejido orgánico virtual más grande real generado en el espacio virtual, el tejido orgánico virtual más grande determinado por el usuario y el tiempo empleado para determinar dicho tejido orgánico virtual más grande por el usuario.
El tejido orgánico virtual más grande determinado por el usuario puede ser proporcionado al sistema de control para evaluar el rendimiento marcando dicho tejido orgánico virtual. Este marcado del tejido orgánico virtual puede realizarse actuando sobre un elemento predeterminado conectado al sistema de control, tal como un ratón, una tecla de un teclado, un botón, un pedal, un micrófono, etc. cuando el tejido orgánico virtual está siendo visualizado por el usuario en la pantalla.
Todo lo descrito para dicho tercer ejercicio puede aplicarse para determinar, por ejemplo:
- el tejido orgánico virtual más pequeño generado en el espacio virtual;
- el tejido orgánico virtual más ecogénico generado en el espacio virtual;
- el tejido orgánico virtual menos ecogénico generado en el espacio virtual.
Evidentemente, las características descritas para el tercer ejercicio pueden adaptarse en función del objeto de cada ejercicio. De esta forma, si el objeto del ejercicio es encontrar el tejido orgánico virtual más pequeño generado en el espacio virtual entonces, por ejemplo, el usuario puede mover el simulador de escáner de imágenes 33 sobre la almohadilla hasta determinar, viendo las imágenes simuladas 34 en la pantalla 35 asociada al sistema de control 32, el tejido orgánico virtual más pequeño generado en el espacio virtual o los parámetros para evaluar la realización del ejercicio pueden ser el tejido orgánico virtual más pequeño real generado en el espacio virtual y el tejido orgánico virtual más pequeño determinado entre otros.
Otro ejercicio no intrusivo puede describirse basándose en la Figura 4. En este ejercicio, el objetivo principal puede ser conseguir rutinas de escaneado exhaustivas determinando el diámetro y/o el volumen de un tejido orgánico virtual 40 generado en el espacio virtual. Es decir, de acuerdo con el método de entrenamiento descrito anteriormente, un sistema de control 41 puede generar al menos un tejido orgánico virtual 40 en cualquier posición dentro del espacio virtual correspondiente al espacio físico ocupado por una almohadilla 42. A continuación, el usuario puede mover un simulador de escáner de imágenes 43 sobre la almohadilla hasta obtener el plano de sección mayor del tejido orgánico virtual a analizar a partir de la visualización de las imágenes simuladas 44 en la pantalla 45 asociada al sistema de control 41. De acuerdo con el método ejecutado en el sistema de control, para cada movimiento del simulador de escáner de imágenes 43, el sistema de control 41 puede recibir la posición y orientación de dicho simulador de escáner de imágenes, pudiendo obtenerse dicha posición y orientación mediante un dispositivo de rastreo de posición 46 a partir de la localización del primer sensor de posición comprendido en el simulador de escáner de imágenes 43 cuando está sobre o cerca de la almohadilla 42. A continuación, el sistema de control 41, para cada posición y orientación recibidas del simulador de escáner de imágenes, puede obtener un plano de sección virtual en el espacio virtual de la almohadilla, generar una imagen simulada a partir del plano de sección virtual obtenido y mostrarla en la pantalla. El diámetro/volumen puede ser determinado por el sistema de control 41 marcando el usuario diferentes puntos 47a, 47b, 47c, 47d de dicho tejido orgánico virtual (es decir, marcando puntos en el plano de sección obtenido del tejido orgánico virtual). Este marcado de puntos en el tejido orgánico virtual puede realizarse actuando sobre un elemento predeterminado conectado al sistema de control, tal como un ratón, una tecla de un teclado, un botón, un pedal, un micrófono, etc. cuando el tejido orgánico virtual está siendo visualizado por el usuario en la pantalla 45.
Los parámetros para evaluar el rendimiento de este ejercicio pueden ser, por ejemplo, el diámetro/volumen real del tejido orgánico virtual seleccionado por el usuario, el diámetro/volumen obtenido por el usuario de dicho tejido orgánico virtual seleccionado y el tiempo empleado para determinar el diámetro/volumen del tejido orgánico virtual seleccionado. De acuerdo con la figura 5, puede describirse otro ejercicio no intrusivo. En este ejercicio, el objeto principal puede ser conseguir rutinas de escaneado exhaustivas moviendo un simulador de escáner de imágenes 50 a lo largo de un eje axial manteniendo una inclinación y rotación constantes. Para este ejercicio, el método ejecutado por un sistema de control 51 puede comprender además:
- generar un elemento virtual asociado al simulador de escáner de imágenes 50 dentro del espacio virtual, de modo que al menos una imagen generada 52 visualizada en una pantalla 53 comprenda al menos la sección transversal 54 de dicho elemento virtual.
Además, en dicho ejercicio, un tejido orgánico virtual generado dentro del espacio virtual puede ser un tubo 55 o similar (por ejemplo, con una sección transversal circular, cuadrada, rectangular, etc.) y el elemento virtual asociado al simulador de escáner de imágenes puede ser un anillo o similar (por ejemplo, con la misma sección transversal que el tubo o diferente) con una superficie interior mayor que la sección transversal 56 del tubo o similar.
En este caso, el ejercicio no intrusivo se basa en identificar un plano de sección axial 57 de un primer extremo del tubo 55 y, manteniendo la sección transversal 56 del tubo dentro de la sección transversal 54 del anillo, seguir el tubo a lo largo de su eje longitudinal con el anillo desde el primer extremo hasta el otro extremo del tubo.
Es decir, de acuerdo con el método de entrenamiento descrito anteriormente, el sistema de control 51 puede generar al menos un tejido orgánico virtual 55 (por ejemplo, un tubo o similar) en cualquier posición dentro del espacio virtual correspondiente al espacio físico ocupado por una almohadilla 58 y el elemento virtual asociado al simulador de escáner de imágenes 50, tal como un anillo. A continuación, el usuario puede mover el simulador de escáner de imágenes sobre la almohadilla 58 hasta identificar el plano de sección axial 57 de un primer extremo del tubo 55 a partir de la visualización de las imágenes simuladas 52 en la pantalla 53 asociada al sistema de control 51. De acuerdo con el método ejecutado en el sistema de control, para cada movimiento del simulador de escáner de imágenes 50, el sistema de control 51 puede recibir la posición y orientación de dicho simulador de escáner de imágenes, pudiendo obtenerse dicha posición y orientación mediante un dispositivo de rastreo de posición 59 a partir de la localización del primer sensor de posición comprendido en el simulador de escáner de imágenes cuando se encuentra sobre o cerca de la almohadilla 58. A continuación, el sistema de control 51, para cada posición y orientación recibidas del simulador de escáner de imágenes 50, puede obtener un plano de sección virtual en el espacio virtual de la almohadilla, generar una imagen simulada a partir del plano de sección virtual obtenido y mostrarla en la pantalla.
Una vez identificado el plano de sección axial 57 de un primer extremo del tubo 55, se requiere mantener la sección transversal 56 del tubo dentro de la sección transversal 54 del anillo, siguiendo el tubo 55 a lo largo de su eje longitudinal con el anillo desde el primer extremo hasta el otro extremo del tubo.
Los parámetros para evaluar el rendimiento de este ejercicio pueden ser, por ejemplo, el número de colisiones entre el anillo y el tubo y el tiempo empleado para identificar el plano de sección axial de un primer extremo del tubo y para seguir el tubo a lo largo de su eje longitudinal con el anillo desde el primer extremo hasta el otro extremo del tubo.
En este punto es importante destacar que este ejercicio permite una variedad de realizaciones. Así, el tubo y el anillo pueden ser, por ejemplo:
Un tubo / un anillo ancho recto, horizontal y superficial;
Un tubo / un anillo ancho recto, horizontal y profundo;
Un tubo / un anillo ancho recto, inclinado y superficial;
Un tubo / un anillo ajustado recto, horizontal y superficial;
Un tubo / un anillo ajustado recto, horizontal y profundo;
Un tubo / un anillo ajustado recto, inclinado y superficial;
Un tubo / un anillo ancho con una curvatura horizontal;
Un tubo / un anillo ancho con una curvatura vertical;
Un tubo / un anillo ajustado con una curvatura horizontal;
Un tubo / un anillo ajustado con una curvatura vertical;
Un tubo / un anillo ancho con dos curvas combinadas entre los planos sagital y axial;
Un tubo / un anillo ajustado con dos curvas combinadas entre los planos sagital y axial.
Basándose en la figura 6, puede describirse otro ejercicio no intrusivo. En este ejercicio, el objetivo principal puede ser conseguir rutinas de escaneado exhaustivas moviendo un simulador de escáner de imágenes 60 a lo largo de un eje sagital manteniendo una inclinación y rotación constantes. Para este ejercicio, el método ejecutado por un sistema de control 61 puede comprender además:
- generar un elemento virtual asociado al simulador de escáner de imágenes 60 dentro del espacio virtual, de modo que al menos una imagen generada 62 visualizada en una pantalla 63 comprenda al menos una sección longitudinal 64 de dicho elemento virtual.
Además, en dicho ejercicio, un tejido orgánico virtual generado dentro del espacio virtual puede ser un tubo 65 o similar (por ejemplo, con una sección transversal circular, cuadrada, rectangular, etc.) y el elemento virtual asociado al simulador de escáner de imágenes puede ser un anillo o similar (por ejemplo, con la misma sección transversal que el tubo o diferente) con una superficie interior mayor que la sección transversal del tubo.
En este caso, el ejercicio no intrusivo se basa en identificar un plano de sección sagital 66 de un primer extremo del tubo 65 y, mantener la sección longitudinal 67 del tubo dentro de la sección longitudinal 64 del anillo 50, seguir el tubo 65 a lo largo de su eje longitudinal con el anillo desde el primer extremo hasta el otro extremo del tubo.
De este modo, según el método de entrenamiento descrito anteriormente, el sistema de control 61 puede generar al menos un tejido orgánico virtual 65 (por ejemplo, un tubo o similar) en cualquier posición dentro del espacio virtual correspondiente al espacio físico ocupado por una almohadilla 68 y el elemento virtual asociado al simulador de escáner de imágenes 60, tal como un anillo o similar. A continuación, el usuario puede mover el simulador de escáner de imágenes sobre la almohadilla 68 hasta identificar el plano de sección sagital 66 de un primer extremo del tubo 65 a partir de la visualización de las imágenes simuladas 62 en la pantalla 63 asociada al sistema de control 61. De acuerdo con el método ejecutado en el sistema de control, para cada movimiento del simulador de escáner de imágenes 60, el sistema de control puede recibir la posición y orientación de dicho simulador de escáner de imágenes, pudiendo obtenerse dicha posición y orientación mediante un dispositivo de rastreo de posición 69 a partir de la localización del primer sensor de posición comprendido en el simulador de escáner de imágenes 60 cuando está sobre o cerca de la almohadilla 68. A continuación, el sistema de control 61, para cada posición y orientación recibidas del simulador de escáner de imágenes 60, puede obtener un plano de sección virtual en el espacio virtual de la almohadilla, generar una imagen simulada 62 a partir del plano de sección virtual obtenido y mostrarla en la pantalla 63.
Una vez identificado el plano de sección sagital 66 de un primer extremo del tubo 65, se requiere mantener la sección longitudinal 67 del tubo dentro de la sección longitudinal 64 del anillo, siguiendo el tubo a lo largo de su eje longitudinal con el anillo desde el primer extremo hasta el otro extremo del tubo.
Los parámetros para evaluar el rendimiento de este ejercicio pueden ser, por ejemplo, el número de colisiones entre el anillo y el tubo y el tiempo empleado para identificar un plano de sección sagital 66 de un primer extremo del tubo 65 y para seguir el tubo a lo largo de su eje longitudinal con el anillo desde el primer extremo hasta el otro extremo del tubo.
En este punto es importante destacar que este ejercicio permite una variedad de realizaciones. Así, el tubo y el anillo pueden ser, por ejemplo:
- Un tubo / un anillo ancho recto, horizontal y superficial;
- Un tubo / un anillo ancho recto, horizontal y profundo;
- Un tubo / un anillo ancho recto, inclinado y superficial;
- Un tubo / un anillo ajustado recto, horizontal y superficial;
- Un tubo / un anillo ajustado recto, horizontal y profundo;
- Un tubo / un anillo ajustado recto, inclinado y superficial;
- Un tubo / un anillo ancho con una curvatura horizontal;
- Un tubo / un anillo ancho con una curvatura vertical;
- Un tubo / un anillo ajustado con una curvatura horizontal;
- Un tubo / un anillo ajustado con una curvatura vertical;
- Un tubo/ un anillo ancho con dos curvas combinadas entre los planos sagital y axial;
- Un tubo / un anillo ancho con dos curvas combinadas entre los planos sagital y axial.
Otro ejercicio puede describirse según la figura 7. En este ejercicio, el objeto principal puede ser conseguir rutinas de escaneado exhaustivas moviendo un simulador de escáner de imágenes 70 a lo largo de un eje coronal manteniendo una inclinación y rotación constantes. Para este ejercicio, el método ejecutado por un sistema de control 71 puede comprender además:
- generar un elemento virtual asociado al simulador de escáner de imágenes dentro del espacio virtual, de modo que al menos una imagen generada 72 visualizada en una pantalla 73 comprenda al menos la sección longitudinal 74 de dicho elemento virtual.
En el ejercicio, un tejido orgánico virtual generado dentro del espacio virtual puede ser un tubo 75 o similar (por ejemplo, con una sección transversal circular, cuadrada, rectangular, etc.) y el elemento virtual asociado al simulador de escáner de imágenes 70 puede ser un anillo o similar (por ejemplo, con la misma sección transversal que el tubo o diferente) con una superficie interior mayor que la sección transversal del tubo o similar.
En este caso, el ejercicio no intrusivo se basa en identificar un plano de sección coronal 76 de un primer extremo del tubo 75 y, manteniendo una sección longitudinal 77 del tubo dentro de la sección longitudinal 74 del anillo, seguir el tubo a lo largo de su eje coronal con el anillo desde el primer extremo hasta el otro extremo del tubo.
En consecuencia, según el método de entrenamiento descrito anteriormente, el sistema de control 71 puede generar al menos un tejido orgánico virtual 75 (por ejemplo, un tubo o similar) en cualquier posición dentro del espacio virtual correspondiente al espacio físico ocupado por una almohadilla 78 y el elemento virtual asociado al simulador de escáner de imágenes 70, tal como un anillo o similar. A continuación, el usuario puede mover el simulador de escáner de imágenes sobre la almohadilla hasta identificar el plano de sección coronal 76 de un primer extremo del tubo 75 a partir de la visualización de las imágenes simuladas 72 en la pantalla 73 asociada al sistema de control 71. De acuerdo con el método ejecutado en el sistema de control, para cada movimiento del simulador de escáner de imágenes 70, el sistema de control puede recibir la posición y la orientación de dicho simulador de escáner de imágenes, pudiendo obtenerse dicha posición y orientación mediante un dispositivo de rastreo de posición 79 a partir de la localización del primer sensor de posición comprendido en el simulador de escáner de imágenes cuando se encuentra sobre o cerca de la almohadilla 78. A continuación, el sistema de control 71, para cada posición y orientación recibidas del simulador de escáner de imágenes, puede obtener un plano de sección virtual en el espacio virtual de la almohadilla, generar una imagen simulada 72 a partir del plano de sección virtual obtenido y mostrarla en la pantalla 73.
Una vez identificado el plano de sección coronal 76 de un primer extremo del tubo 75, se requiere mantener la sección longitudinal 77 del tubo dentro de la sección longitudinal 74 del anillo, siguiendo el tubo o similar a lo largo de su eje longitudinal con el anillo desde el primer extremo hasta el otro extremo del tubo.
Los parámetros para evaluar el rendimiento de este ejercicio pueden ser, por ejemplo, el número de colisiones entre el anillo y el tubo y el tiempo empleado para identificar un plano de sección coronal 76 de un primer extremo del tubo 75 y para seguir el tubo a lo largo de su eje longitudinal con el anillo desde el primer extremo hasta el otro extremo del tubo.
Llegados a este punto, es importante destacar que este ejercicio permite una gran variedad de realizaciones de acuerdo con las diferentes longitudes de los tubos.
Otro ejercicio puede describirse según la figura 8. En este ejercicio, el objetivo principal puede ser conseguir rutinas de escaneado exhaustivas controlando y cuantificando mentalmente el plano de inclinación y la posición relativa a otras estructuras.
En dicho ejercicio, pueden generarse al menos dos tejidos orgánicos virtuales 80, 81 (por ejemplo, tubos o similares) dentro del espacio virtual.
En este caso, el ejercicio no intrusivo se basa en identificar el plano perpendicular 82 a un plano teórico que une el eje longitudinal de los dos tubos 80, 81, siendo el plano perpendicular paralelo y equidistante a los tubos.
De este modo, de acuerdo con el método de entrenamiento descrito anteriormente, un sistema de control 83 puede generar al menos dos tejidos orgánicos virtuales 80, 81 (por ejemplo, tubos o similares) en cualquier posición dentro del espacio virtual correspondiente al espacio físico ocupado por una almohadilla 84. A continuación, el usuario puede mover un simulador de escáner de imágenes 85 sobre la almohadilla hasta identificar el plano perpendicular 82 a un plano teórico que une el eje longitudinal de los dos tubos 80, 81 a partir de la visualización de las imágenes simuladas 86 en la pantalla 87 asociada al sistema de control 83. De acuerdo con el método ejecutado en el sistema de control, para cada movimiento del simulador de escáner de imágenes 85, el sistema de control puede recibir la posición y orientación de dicho simulador de escáner de imágenes, pudiendo obtenerse dicha posición y orientación mediante un dispositivo de rastreo de posición 88 a partir de la localización del primer sensor de posición comprendido en el simulador de escáner de imágenes 85 cuando se encuentra sobre o cerca de la almohadilla. A continuación, el sistema de control 83, para cada posición y orientación recibidas del simulador de escáner de imágenes, puede obtener un plano de sección virtual en el espacio virtual de la almohadilla 84, generar una imagen simulada 86 a partir del plano de sección virtual obtenido y mostrarla en la pantalla 87.
Los parámetros para evaluar el rendimiento de este ejercicio pueden ser, por ejemplo, el diferencial entre el plano ideal y el plano marcado por el usuario, y el tiempo empleado para identificar el plano perpendicular 82 a un plano teórico que une el eje longitudinal de los dos tubos 80, 81.
Llegados a este punto, es importante destacar que este ejercicio permite una gran variedad de realizaciones en función de las diferentes longitudes de los tubos.
A continuación, se describirán ejercicios intrusivos. Para ejecutar estos ejercicios puede ser necesaria una aguja configurada para ser insertada en el espacio físico de la almohadilla.
Para estos ejercicios, el método ejecutado por un sistema de control puede comprender además lo siguiente:
- para cada movimiento de la aguja, recibir su posición y orientación, siendo obtenidas dicha posición y orientación por el dispositivo de rastreo a partir de la localización del tercer sensor de posición cuando la aguja se inserta en o sobre el espacio físico de la almohadilla;
- para cada posición y orientación recibidas de la aguja, generar una aguja virtual dentro del espacio virtual en una posición y orientación acordes con dicha posición y orientación recibidas de la aguja;
- a partir de la última posición y orientación recibidas del simulador de escáner de imágenes, obtener un plano de sección virtual en el espacio virtual de la almohadilla;
- generar una imagen simulada a partir del plano de sección virtual obtenido, que comprenda al menos la sección transversal de la aguja virtual si el plano de sección virtual obtenido corta la aguja virtual en el espacio virtual;
- visualizar la imagen generada en la pantalla.
Un primer ejercicio intrusivo puede describirse según la figura 9. En este ejercicio, el objetivo principal puede ser conseguir rutinas de escaneado exhaustivas orientando y marcando en 3D una trayectoria hacia un plano de sección de un tejido orgánico virtual. Básicamente, este ejercicio permite realizar punciones de entrenamiento.
En dicho ejercicio, se puede generar al menos un tejido orgánico virtual 90 (por ejemplo, una esfera o similar) dentro del espacio virtual.
En este caso, el primer ejercicio intrusivo se basa en disponer la punta 91 de una aguja virtual lo más cerca posible del centro 95 del tejido orgánico virtual 90 generado dentro del espacio virtual, insertando una aguja 92 en el espacio físico de una almohadilla 93.
Es decir, de acuerdo con el método de entrenamiento descrito anteriormente, un sistema de control (no mostrado) puede generar al menos un tejido orgánico virtual 90 (por ejemplo, una esfera o similar) en cualquier posición dentro del espacio virtual correspondiente al espacio físico ocupado por la almohadilla 93. A continuación, el usuario puede mover un simulador de escáner de imágenes 94 sobre la almohadilla e insertar la aguja 92 en la almohadilla hasta disponer la punta 91 de la aguja virtual lo más cerca posible del centro 95 del tejido orgánico virtual 90 a partir de la visualización de imágenes simuladas en una pantalla asociada al sistema de control. De acuerdo con el método ejecutado en el sistema de control, para cada movimiento del simulador de escáner de imágenes 94 y/o de la aguja 92, el sistema de control puede recibir la posición y orientación de dicho simulador de escáner de imágenes y/o de la aguja, pudiendo obtenerse dicha posición y orientación mediante un dispositivo de rastreo de posición a partir de la localización del primer sensor de posición comprendido en el simulador de escáner de imágenes cuando está sobre o cerca de la almohadilla y de la localización del tercer sensor de posición comprendido en la aguja cuando están en o cerca de la almohadilla. A continuación, el sistema de control, para cada posición y orientación recibidas del simulador de escáner de imágenes 94 y/o de la aguja 92, puede obtener un plano de sección virtual en el espacio virtual de la almohadilla, generar una imagen simulada a partir del plano de sección virtual obtenido y mostrarla en la pantalla. Los parámetros para evaluar el rendimiento de este ejercicio pueden ser, por ejemplo, la distancia desde la punta 91 de la aguja 92 hasta el centro 95 del tejido orgánico virtual 90 (por ejemplo, una esfera) y el tiempo empleado para disponer la punta de la aguja virtual lo más cerca posible del centro del tejido orgánico virtual.
Para los siguientes ejercicios intrusivos divulgados es necesario que la aguja comprenda un elemento accionable por un usuario. De este modo, el método ejecutado por el sistema de control puede comprender recibir al menos una señal de control o de datos generada por el elemento accionable comprendido en la aguja cuando es accionado por un usuario. Alternativamente, dicho primer elemento accionable puede estar dispuesto externamente a la aguja y puede ser, por ejemplo, un botón de un ratón, una tecla de un teclado, un pedal, un micrófono, etc. En cualquier caso, dicho elemento accionable puede generar una señal de control o de datos a tener en cuenta durante la realización de un ejercicio.
En cualquier caso, la función del elemento accionable por un usuario puede ser diferente según el ejercicio y/o según el momento de la realización del ejercicio. Obviamente, un elemento para cada función puede estar incluido o asociado al sistema de control.
Un segundo ejercicio intrusivo puede describirse según la figura 10. En este ejercicio, el objetivo principal puede ser conseguir rutinas de escaneado exhaustivas orientando y marcando en 3D una trayectoria hacia un plano de sección de un tejido orgánico virtual. Básicamente, este ejercicio permite entrenar biopsias.
En dicho ejercicio, se puede generar al menos un tejido orgánico virtual 100 (por ejemplo, una esfera o similar) dentro del espacio virtual.
Básicamente, el ejercicio se basa en disponer la punta 101 de la aguja virtual lo más cerca posible de la superficie externa 102 del tejido orgánico virtual 100, insertando una aguja 103 en el espacio físico de una almohadilla 104, y, tras recibir al menos una señal de control o de datos generada por un primer elemento accionable, simular la captura de una parte de tejido del tejido orgánico virtual 100 en función de la posición de la punta 101 de la aguja virtual. Es decir, de acuerdo con el método de entrenamiento descrito anteriormente, un sistema de control puede generar al menos un tejido orgánico virtual 100 (por ejemplo, una esfera o similar) en cualquier posición dentro del espacio virtual correspondiente al espacio físico ocupado por la almohadilla 104. A continuación, el usuario puede mover un simulador de escáner de imágenes 105 sobre la almohadilla y, cuando se encuentra o detecta el tejido orgánico virtual, insertar la aguja 103 en la almohadilla 104 hasta disponer la punta 101 de la aguja virtual sobre la superficie 102 del tejido orgánico virtual 100 a partir de la visualización de imágenes simuladas en una pantalla asociada al sistema de control. De acuerdo con el método ejecutado en el sistema de control, para cada movimiento del simulador de escáner de imágenes 105 y/o de la aguja 103, el sistema de control puede recibir la posición y orientación de dicho simulador de escáner de imágenes y/o de la aguja, pudiendo obtenerse dicha posición y orientación mediante un dispositivo de rastreo de posición a partir de la localización del primer sensor de posición comprendido en el simulador de escáner de imágenes cuando éste se encuentra sobre o cerca de la almohadilla y/o de la localización del tercer sensor de posición comprendido en la aguja cuando se encuentran en o cerca de la almohadilla 104. A continuación, el sistema de control, para cada posición y orientación recibidas del simulador de escáner de imágenes y/o de la aguja, puede obtener un plano de sección virtual en el espacio virtual de la almohadilla, generar una imagen simulada a partir del plano de sección virtual obtenido y mostrarla en la pantalla.
A continuación, actuando sobre un elemento accionable por el usuario descrito anteriormente, simular la captura de una parte de tejido (una cánula de la aguja virtual tiene que pasar por el centro 106 del tejido orgánico virtual 100 cuando la cánula se ha cerrado) del tejido orgánico virtual 100 según la posición de la punta 101 de la aguja virtual. Los parámetros para evaluar la realización de este ejercicio pueden ser, por ejemplo, la distancia desde la posición de la cánula de la aguja virtual cuando la cánula se ha cerrado hasta el centro 106 del tejido orgánico virtual 100 (por ejemplo, una esfera) y el tiempo empleado para disponer la punta 101 de la aguja virtual sobre la superficie 102 del tejido orgánico virtual y para capturar una parte de tejido del tejido orgánico virtual 100.
Un tercer ejercicio intrusivo puede describirse según la figura 11. En este ejercicio, el objetivo principal puede ser lograr rutinas de escaneado exhaustivas llenando un tejido orgánico virtual generado con una bola de calor que cubra todo el volumen del tejido orgánico virtual, de modo que el tejido orgánico virtual y el tejido a su alrededor queden virtualmente ablacionados. La bola de calor puede ser lo más concéntrica posible con respecto al tejido orgánico virtual. Básicamente, este ejercicio permite realizar ablaciones de entrenamiento.
En dicho ejercicio, se puede generar al menos un tejido orgánico virtual 110 (por ejemplo, una esfera o similar) dentro del espacio virtual.
Básicamente, el ejercicio se basa en insertar la punta 111 de la aguja virtual más allá del tejido orgánico virtual 110, insertando la aguja 112 en el espacio físico de una almohadilla 113, y, para una señal de control o de datos recibida y generada por el primer elemento accionable, simular la generación automática de una bola de calor o similar que cubra el tejido orgánico virtual. De esta forma, la bola de calor generada puede cubrir todo el volumen del tejido orgánico virtual de forma que el tejido orgánico virtual y el tejido a su alrededor sean virtualmente ablacionados. De hecho, puede simularse la "ablación total" del tejido orgánico virtual objetivo.
Es decir, de acuerdo con el método de entrenamiento descrito anteriormente, un sistema de control puede generar al menos un tejido orgánico virtual 110 (por ejemplo, una esfera o similar) en cualquier posición dentro del espacio virtual correspondiente al espacio físico ocupado por la almohadilla 113. A continuación, el usuario puede mover un simulador de escáner de imágenes 114 sobre la almohadilla y, cuando se encuentra o detecta el tejido orgánico virtual 110 objetivo, insertar la aguja 112 en la almohadilla hasta disponer la punta 111 de la aguja virtual más allá del tejido orgánico virtual (por ejemplo, pasando por el punto central 115 del tejido orgánico virtual) a partir de la visualización de imágenes simuladas en la pantalla asociada al sistema de control. De acuerdo con el método ejecutado en el sistema de control, para cada movimiento del simulador de escáner de imágenes 114 y/o de la aguja 112, el sistema de control puede recibir la posición y la orientación de dicho simulador de escáner de imágenes y/o de la aguja, pudiendo obtenerse dicha posición y orientación mediante un dispositivo de rastreo de posición a partir de la localización del primer sensor de posición comprendido en el simulador de escáner de imágenes cuando se encuentra sobre o cerca de la almohadilla y/o de la localización del tercer sensor de posición comprendido en la aguja cuando se encuentran en o cerca de la almohadilla 113. A continuación, el sistema de control, para cada posición y orientación recibidas del simulador de escáner de imágenes y/o de la aguja, puede obtener un plano de sección virtual en el espacio virtual de la almohadilla, generar una imagen simulada a partir del plano de sección virtual obtenido y mostrarla en la pantalla.
A continuación, actuando sobre el elemento accionable por el usuario, una bola o volumen de calor crecerá hasta cubrir la totalidad del tejido orgánico virtual (dejará de crecer automáticamente), de forma que el tejido orgánico virtual y el tejido a su alrededor queden virtual y totalmente ablacionados.
Los parámetros para evaluar el rendimiento de este ejercicio pueden ser, por ejemplo, el porcentaje de volumen ocupado por la bola térmica y el tiempo empleado para realizar el ejercicio.
Un cuarto ejercicio intrusivo puede describirse según la figura 12. En este ejercicio, el objetivo principal puede ser conseguir rutinas de escaneado exhaustivas llenando un tejido orgánico virtual generado con bolas de calor sin atravesar la superficie del tejido orgánico virtual. Básicamente, este ejercicio permite el entrenamiento para técnicas de ablación de tumores con disparo en movimiento.
En dicho ejercicio, se puede generar al menos un tejido orgánico virtual 120 (por ejemplo, una esfera o similar) dentro del espacio virtual.
Básicamente, el ejercicio se basa en insertar la punta 121 de la aguja virtual en el tejido orgánico virtual 120 (la aguja virtual siempre está insertada en el tejido orgánico virtual durante la realización del ejercicio), insertando la aguja 122 en el espacio físico de una almohadilla 123, y, para cada señal de control o de datos recibida y generada por el primer elemento accionable (mantener la acción sobre el primer elemento accionable durante un tiempo puede ser necesario para establecer el tamaño de la bola de calor a generar), simular la generación automática de una bola de calor o similar en el interior del tejido orgánico virtual.
Es decir, de acuerdo con el método de entrenamiento descrito anteriormente, un sistema de control puede generar al menos un tejido orgánico virtual 120 (por ejemplo, una esfera o similar) en cualquier posición dentro del espacio virtual correspondiente al espacio físico ocupado por la almohadilla 123. Entonces, el usuario puede mover un simulador de escáner de imágenes 124 sobre la almohadilla y, cuando se encuentra o detecta el tejido orgánico virtual objetivo, introducir la aguja 122 en la almohadilla hasta disponer la punta 121 de la aguja virtual en el tejido orgánico virtual 120 (por ejemplo, atravesando el punto central del tejido orgánico virtual) a partir de visualizar las imágenes simuladas en la pantalla asociada con el sistema de control. De acuerdo con el método ejecutado en el sistema de control, para cada movimiento del simulador de escáner de imágenes y/o de la aguja, el sistema de control puede recibir la posición y orientación de dicho simulador de escáner de imágenes y/o de la aguja, pudiendo obtenerse dicha posición y orientación mediante un dispositivo de rastreo de posición a partir de la localización del primer sensor de posición comprendido en el simulador de escáner de imágenes cuando está sobre o cerca de la almohadilla y/o de la localización del tercer sensor de posición comprendido en la aguja cuando están en o cerca de la almohadilla. A continuación, el sistema de control, para cada posición y orientación recibidas del simulador de escáner de imágenes y/o de la aguja, puede obtener un plano de sección virtual en el espacio virtual de la almohadilla, generar una imagen simulada a partir del plano de sección virtual obtenido y mostrarla en la pantalla.
A continuación, actuando sobre el elemento accionable por el usuario, una bola o volumen de calor crece hasta un límite predefinido dentro del tejido orgánico virtual mientras el usuario actúa sobre dicho elemento. Se pueden generar muchas bolas de calor hasta llenar el tejido orgánico virtual generado con bolas de calor sin traspasar la superficie del tejido orgánico virtual.
Otra opción puede ser generar una bola o volumen de calor actuando el usuario sobre dicho elemento. A continuación, el usuario puede retirar la aguja dejando un rastro de tejido ablacionado en función de la bola o volumen de calor generado.
Los parámetros para evaluar el rendimiento de este ejercicio pueden ser, por ejemplo, el porcentaje de volumen ocupado por las bolas de calor, el contacto de las bolas de calor con la superficie del tejido orgánico virtual y el tiempo empleado para realizar el ejercicio.
En este punto es importante destacar que pueden utilizarse otros parámetros para evaluar el rendimiento de un ejercicio intrusivo. Básicamente, los parámetros pueden estar asociados a acciones dañinas realizadas por un usuario. Dichos otros parámetros pueden ser utilizados para evaluar un ejercicio una vez finalizado el mismo o durante la realización del ejercicio. Cualquiera de estos parámetros puede ser, por ejemplo:
- tiempo durante el cual la aguja se encuentra en el plano de sección virtual obtenido de acuerdo con la posición y orientación del simulador del escáner de imágenes;
- número o veces que se introduce la aguja en el espacio físico de la almohadilla durante la realización de un ejercicio;
- número de veces que se deforma la aguja durante la realización de un ejercicio.
Aunque sólo se han descrito algunos ejemplos, son posibles otras alternativas, modificaciones, usos y/o equivalentes. Además, se incluyen todas las combinaciones posibles de los ejemplos descritos. Así pues, el alcance de la presente divulgación queda definido por las reivindicaciones adjuntas.

Claims (9)

REIVINDICACIONES
1. Método de entrenamiento de intervenciones guiadas por imagen mediante un sistema de control (10) que tiene asociada al menos una pantalla (12) y es conectable a un sistema de simulación (11), comprendiendo el sistema de simulación (11):
- una almohadilla (13), en la que la almohadilla (13) es una matriz homogénea con una forma tridimensional y la almohadilla (13) está cubierta con una membrana opaca, en la que la almohadilla (13) comprende un elemento de identificación de la almohadilla configurado para identificar el tipo de almohadilla comprendida en el sistema de simulación;
- un simulador de escáner de imágenes (14) que comprende un primer sensor de posición y está configurado para moverse sobre la almohadilla (13), en el que el simulador de escáner de imágenes está configurado para simular un transductor de ultrasonidos real;
- un dispositivo de rastreo de posición (15) configurado para rastrear la posición y orientación del simulador de escáner de imágenes (14) con respecto a la almohadilla (13) mediante la localización del primer sensor de posición; - una aguja que comprende un primer sensor de posición de la aguja y que está configurada para insertarse en el espacio físico de la almohadilla (13), en el que el dispositivo de rastreo de posición (15) también está configurado para rastrear la posición y orientación de la aguja con respecto a la almohadilla (13) mediante la localización del primer sensor de posición de la aguja, en el que el primer sensor de posición de la aguja está dispuesto en la punta de la aguja, en el que la aguja comprende un segundo sensor de posición de la aguja dispuesto en el mango de la aguja o cerca de él, en el que el dispositivo de rastreo de posición (15) está configurado para rastrear la posición y orientación del mango de la aguja con respecto a la almohadilla (13) localizando el segundo sensor de posición de la aguja, - el método que comprende, durante el entrenamiento:
- recibir al menos una señal de control o de datos procedente del elemento de identificación de la pastilla para identificar el tipo de pastilla (13) comprendida en el sistema de simulación;
- generar un espacio virtual correspondiente al espacio físico ocupado por la almohadilla;
- generar al menos un tejido orgánico virtual en cualquier posición dentro del espacio virtual correspondiente al espacio físico ocupado por la almohadilla (13);
- para cada movimiento del simulador de escáner de imágenes (14), recibir su posición y orientación, siendo obtenidas dicha posición y orientación por el dispositivo de rastreo (15) a partir de la localización del primer sensor de posición cuando se encuentra sobre o cerca de la almohadilla (13);
- para cada movimiento de la aguja, recibir su posición y orientación, siendo obtenidas dicha posición y orientación por el dispositivo de rastreo (15) a partir de la localización del primer sensor de posición de la aguja y del segundo sensor de posición de la aguja cuando la aguja se inserta en o sobre el espacio físico de la almohadilla (13); - para cada posición y orientación recibidas de la aguja, determinar cuánto se deforma la aguja durante su inserción en el espacio físico y generar una aguja virtual dentro del espacio virtual en una posición y orientación acordes con dicha posición y orientación recibidas de la aguja;
- para cada posición y orientación recibidas del simulador de escáner de imágenes (14), obtener un plano de sección virtual en el espacio virtual de la almohadilla (13);
- generar una imagen simulada a partir del plano de sección virtual obtenido, que comprende una sección de al menos uno de los tejidos orgánicos virtuales generados si el plano de sección virtual obtenido corta el tejido orgánico virtual en el espacio virtual y una sección de la aguja virtual si el plano de sección virtual obtenido corta la aguja virtual en el espacio virtual;
- visualizar la imagen generada en la pantalla (12).
2. El método según la reivindicación 1, en el que el simulador de escáner de imágenes (14) comprende un primer elemento de identificación configurado para identificar el tipo de simulador de escáner de imágenes (14) comprendido en el sistema de simulación, comprendiendo el método:
- recibir al menos una señal de control o de datos del primer elemento de identificación para identificar el tipo de simulador de escáner de imágenes (14) que comprende el sistema de simulación.
3. El método según cualquiera de las reivindicaciones 1 a 2, en el que la almohadilla (13) comprende al menos un segundo sensor de posición, en el que el dispositivo de rastreo de posición (15) también está configurado para rastrear la posición y orientación de la almohadilla (13) mediante la localización del segundo sensor de posición, comprendiendo además el método:
- para cada movimiento de la almohadilla (13), recibir su posición y orientación, siendo obtenidas dicha posición y orientación por el dispositivo de rastreo (15) a partir de la localización del segundo sensor de posición;
- para cada posición y orientación recibidas de la almohadilla (13) y la posición y orientación recibidas del simulador de escáner de imágenes (14), obtener un plano de sección virtual en el espacio virtual de la almohadilla (13) de acuerdo con el movimiento de la almohadilla (13);
- generar una imagen simulada a partir del plano de sección virtual obtenido, que comprende una sección de al menos uno de los tejidos orgánicos virtuales generados si el plano de sección virtual obtenido corta el tejido orgánico virtual en el espacio virtual;
- visualizar la imagen generada en la pantalla (12).
4. El método según la reivindicación 3, que comprende además, para cada posición y orientación recibidas de la almohadilla (13):
- determinar el movimiento en el espacio virtual del al menos un tejido orgánico virtual generado.
5. El método según la reivindicación 1, en el que la aguja comprende un primer elemento accionable por un usuario configurado para generar una señal de control o de datos a considerar durante el entrenamiento, comprendiendo el método:
- recibir al menos una señal de control o de datos generada por el primer elemento accionable incluido en la aguja cuando es accionado por un usuario.
6. El método según cualquiera de las reivindicaciones 1 o 5, en el que la aguja comprende un elemento de identificación de la aguja configurado para identificar el tipo de aguja comprendida en el sistema de simulación, comprendiendo el método:
- recibir al menos una señal de control o de datos del elemento de identificación de la aguja para identificar el tipo de aguja que comprende el sistema de simulación.
7. El método según cualquiera de las reivindicaciones 1 a 6, que comprende además:
- aplicar un movimiento respiratorio durante la generación de la imagen simulada a partir del plano de sección virtual obtenido.
8. El método según cualquiera de las reivindicaciones 1 a 7, en el que un tejido orgánico virtual se selecciona entre: - un elemento anormal virtual que representa una anomalía médica;
- un modelo virtual de un órgano.
9. Un sistema de control para el entrenamiento de intervenciones guiadas por imagen, el sistema de control que tiene asociada al menos una pantalla (12) y es conectable a un sistema de simulación, el sistema de simulación que comprende:
- una almohadilla (13), en la que la almohadilla (13) es una matriz homogénea con una forma tridimensional y la almohadilla (13) está cubierta por una membrana opaca, en la que la almohadilla (13) comprende un elemento de identificación de la almohadilla configurado para identificar el tipo de almohadilla comprendida en el sistema de simulación, comprendiendo el método;
- un simulador de escáner de imágenes (14) que comprende un primer sensor de posición y está configurado para moverse sobre la almohadilla (13), en el que el simulador de escáner de imágenes está configurado para simular un transductor de ultrasonidos real;
- un dispositivo de rastreo de posición (15) configurado para rastrear la posición y orientación del simulador de escáner de imágenes (14) con respecto a la almohadilla (13) mediante la localización del primer sensor de posición; - una aguja que comprende un primer sensor de posición de la aguja y que está configurada para insertarse en el espacio físico de la almohadilla (13), en la que el dispositivo de rastreo de posición (15) también está configurado para rastrear la posición y orientación de la aguja con respecto a la almohadilla (13) localizando el primer sensor de posición de la aguja, en la que el primer sensor de posición de la aguja está dispuesto en la punta de la aguja, en el que la aguja comprende un segundo sensor de posición de la aguja dispuesto en el mango de la aguja o cerca de él, en el que el dispositivo de rastreo de posición (15) también está configurado para rastrear la posición y orientación del otro extremo de la aguja con respecto a la almohadilla (13) mediante la localización del segundo sensor de posición de la aguja,
el sistema de control que comprende:
- medios para recibir al menos una señal de control o de datos procedente del elemento de identificación de la pastilla para identificar el tipo de pastilla (13) comprendida en el sistema de simulación;
- medios para generar un espacio virtual correspondiente al espacio físico ocupado por la almohadilla;
- medios para generar al menos un tejido orgánico virtual en cualquier posición dentro del espacio virtual correspondiente al espacio físico ocupado por la almohadilla (13);
- para cada movimiento del simulador de escáner de imágenes (14), medios para recibir su posición y orientación, siendo obtenidas dicha posición y orientación por el dispositivo de rastreo (15) a partir de la localización del primer sensor de posición cuando se encuentra sobre o cerca de la almohadilla (13);
- para cada movimiento de la aguja, medios para recibir su posición y orientación, siendo obtenidas dicha posición y orientación por el dispositivo de rastreo (15) a partir de la localización del primer sensor de posición de la aguja y del segundo sensor de posición de la aguja cuando la aguja se inserta en o sobre el espacio físico de la almohadilla (13);
- para cada posición y orientación recibidas de la aguja, medios para determinar cuánto se deforma la aguja durante su inserción en el espacio físico y generar una aguja virtual dentro del espacio virtual en una posición y orientación acordes con dicha posición y orientación recibidas de la aguja;
- para cada posición y orientación recibidas del simulador de escáner de imágenes (14), medios para obtener un plano de sección virtual en el espacio virtual de la almohadilla (13);
- medios para generar una imagen simulada a partir del plano de sección virtual obtenido, que comprende una sección de al menos uno de los tejidos orgánicos virtuales generados si el plano de sección virtual obtenido corta el tejido orgánico virtual en el espacio virtual y una sección de la aguja virtual si el plano de sección virtual obtenido corta la aguja virtual en el espacio virtual;
- medios para visualizar la imagen generada en la pantalla (12).
ES17382210T 2017-04-20 2017-04-20 Simulaciones médicas Active ES2955056T3 (es)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
EP17382210.7A EP3392862B1 (en) 2017-04-20 2017-04-20 Medical simulations

Publications (1)

Publication Number Publication Date
ES2955056T3 true ES2955056T3 (es) 2023-11-28

Family

ID=58606230

Family Applications (1)

Application Number Title Priority Date Filing Date
ES17382210T Active ES2955056T3 (es) 2017-04-20 2017-04-20 Simulaciones médicas

Country Status (4)

Country Link
EP (1) EP3392862B1 (es)
CA (1) CA3060161A1 (es)
ES (1) ES2955056T3 (es)
WO (1) WO2018193064A1 (es)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113576528B (zh) * 2021-08-31 2024-10-18 深圳迈瑞动物医疗科技股份有限公司 一种用于超声的体位图信息的操作方法和超声成像系统

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5689443A (en) * 1995-05-25 1997-11-18 Ramanathan; Naganathasastrigal Method and apparatus for evaluating scanners
IT1392888B1 (it) * 2008-07-24 2012-04-02 Esaote Spa Dispositivo e metodo di guida di utensili chirurgici mediante imaging ecografico.
WO2010048475A1 (en) * 2008-10-23 2010-04-29 Immersion Corporation Systems and methods for ultrasound simulation using depth peeling
JP6042718B2 (ja) 2009-06-29 2016-12-14 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 腫瘍焼灼法の訓練システム及び訓練方法
GB2479406A (en) * 2010-04-09 2011-10-12 Medaphor Ltd Ultrasound Simulation Training System
EA201491615A1 (ru) * 2012-04-01 2015-04-30 Ариэль-Юниверсити Рисёрч Энд Дивелопмент Компани, Лтд. Устройство для обучения пользователей устройства ультразвуковой визуализации
US20140127654A1 (en) * 2012-11-08 2014-05-08 Renee Michelle Sotolar Paws
US9870721B2 (en) * 2012-12-18 2018-01-16 Eric Savitsky System and method for teaching basic ultrasound skills
WO2015092628A1 (en) * 2013-12-20 2015-06-25 Koninklijke Philips N.V. Ultrasound imaging systems and methods for tracking locations of an invasive medical device

Also Published As

Publication number Publication date
WO2018193064A1 (en) 2018-10-25
CA3060161A1 (en) 2018-10-25
EP3392862C0 (en) 2023-06-21
EP3392862A1 (en) 2018-10-24
EP3392862B1 (en) 2023-06-21

Similar Documents

Publication Publication Date Title
US11754971B2 (en) Method and system for displaying holographic images within a real object
ES2899202T3 (es) Sistema y método de alineación de modelo
ES2871063T3 (es) Sistema para procedimiento guiado por imágenes
KR20210104715A (ko) 광학 코드를 이용한 증강 현실 디스플레이
US10144637B2 (en) Sensor based tracking tool for medical components
ES2938515T3 (es) Sistema y método para orientar la captura de imágenes de ultrasonidos
US20100179428A1 (en) Virtual interactive system for ultrasound training
US20090221908A1 (en) System and Method for Alignment of Instrumentation in Image-Guided Intervention
CA2958802A1 (en) Multi-metric surgery simulator and methods
US10799146B2 (en) Interactive systems and methods for real-time laparoscopic navigation
WO2009000939A1 (es) Simulador para cirugía laparoscópica
EP2556804B1 (en) System for indicating positioning of an internal anatomical feature
US10154882B2 (en) Global laparoscopy positioning systems and methods
ES2731051T3 (es) Sistema de orientación quirúrgica
US11222553B2 (en) Enhanced approaches to training for bronchoscopy and thoracic procedures
ES2789199T3 (es) Sistema y método para análisis y capacitación de procedimiento guiado por imágenes
ES2377568T3 (es) Sistema de colocación de aguja
US20150342746A9 (en) System, method and apparatus for simulating insertive procedures of the spinal region
ES2955056T3 (es) Simulaciones médicas
US20190231441A1 (en) Apparatus and Method for Tracking a Volume in a Three-Dimensional Space
TWI441106B (zh) 以影像為基礎之外科手術模擬系統
ES2934051T3 (es) Sistema de entrenamiento de guiado con cámara
JP6859384B2 (ja) 二重チャネル医療シミュレータ
ES2351433T3 (es) Sistema para fundir imágenes tomográficas con la visión humana.
ES2346025B2 (es) Sistema para la simulacion de practicas quirurgicas.