DE19951502A1 - Medical imaging system for surgical applications - Google Patents
Medical imaging system for surgical applicationsInfo
- Publication number
- DE19951502A1 DE19951502A1 DE19951502A DE19951502A DE19951502A1 DE 19951502 A1 DE19951502 A1 DE 19951502A1 DE 19951502 A DE19951502 A DE 19951502A DE 19951502 A DE19951502 A DE 19951502A DE 19951502 A1 DE19951502 A1 DE 19951502A1
- Authority
- DE
- Germany
- Prior art keywords
- image
- images
- instrument
- ultrasound
- taking
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
- 238000002059 diagnostic imaging Methods 0.000 title 1
- 238000000034 method Methods 0.000 claims description 9
- 238000005562 fading Methods 0.000 claims description 2
- 238000002324 minimally invasive surgery Methods 0.000 claims description 2
- 238000001514 detection method Methods 0.000 abstract description 20
- 238000003384 imaging method Methods 0.000 abstract description 9
- 238000002604 ultrasonography Methods 0.000 description 63
- 210000000056 organ Anatomy 0.000 description 7
- 230000005672 electromagnetic field Effects 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 230000009466 transformation Effects 0.000 description 4
- 230000015572 biosynthetic process Effects 0.000 description 2
- 239000003814 drug Substances 0.000 description 2
- 230000004313 glare Effects 0.000 description 2
- 238000003780 insertion Methods 0.000 description 2
- 230000037431 insertion Effects 0.000 description 2
- 108090000623 proteins and genes Proteins 0.000 description 2
- 241000272525 Anas platyrhynchos Species 0.000 description 1
- 101150087426 Gnal gene Proteins 0.000 description 1
- 210000003484 anatomy Anatomy 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000001574 biopsy Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000000399 orthopedic effect Effects 0.000 description 1
- 230000008855 peristalsis Effects 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 230000029058 respiratory gaseous exchange Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000011477 surgical intervention Methods 0.000 description 1
- 238000001356 surgical procedure Methods 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
- 230000005641 tunneling Effects 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/54—Control of apparatus or devices for radiation diagnosis
- A61B6/547—Control of apparatus or devices for radiation diagnosis involving tracking of position of the device or parts of the device
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B42/00—Obtaining records using waves other than optical waves; Visualisation of such records by using optical means
- G03B42/02—Obtaining records using waves other than optical waves; Visualisation of such records by using optical means using X-rays
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/12—Arrangements for detecting or locating foreign bodies
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/08—Detecting organic movements or changes, e.g. tumours, cysts, swellings
- A61B8/0833—Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Medical Informatics (AREA)
- Surgery (AREA)
- Engineering & Computer Science (AREA)
- Pathology (AREA)
- Molecular Biology (AREA)
- Veterinary Medicine (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Public Health (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- General Physics & Mathematics (AREA)
- High Energy & Nuclear Physics (AREA)
- Radiology & Medical Imaging (AREA)
- Optics & Photonics (AREA)
- Biophysics (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Apparatus For Radiation Diagnosis (AREA)
Abstract
Description
Die Erfindung betrifft ein System mit Mitteln zur Aufnahme von Bildern von einem ersten Objekt, mit Mitteln zur Bestim mung der Position eines zweiten Objektes und mit Mitteln zur Einblendung eines Abbildes des zweiten Objektes in ein mit den Mitteln zur Aufnahme von Bildern gewonnenes Bild des er sten Objektes. Die Erfindung betrifft außerdem einen ein der artiges System aufweisenden medizinischen Arbeitsplatz und ein Verfahren zur Einblendung eines Abbildes des zweiten Ob jektes in ein von dem ersten Objekt gewonnenes Bild.The invention relates to a system with means for recording of images of a first object, with means for determination Position of a second object and with means for Fade in an image of the second object in a the means of taking pictures he obtained most object. The invention also relates to a medical system and system a method for displaying an image of the second ob jektes into an image obtained from the first object.
Derartige Systeme werden beispielsweise in der Medizin in klinischen Applikationsfeldern, z. B. der Orthopädie oder der Traumatologie, zur Unterstützung operativer Eingriffe an Pa tienten eingesetzt, wobei Abbilder von Instrumenten in Bilder vom Körperinneren des Patienten eingeblendet werden. Dies ist insbesondere dann von Vorteil, wenn dem Chirurgen der Blick auf das patientenseitige Ende eines von ihm geführten, in den Körper eines Patienten eingedrungenen medizinischen Instru mentes verwehrt ist. Mit einem an dem Instrument angeordneten Positionssensor eines Navigationssystems werden dabei die Ortskoordinaten, d. h. die Lage und Orientierung, des Instru mentes im Raum bzw. an einem Operationssitus, bestimmt und dessen Abbild in ein mit den Mitteln zur Aufnahme von Bildern gewonnenes Bild vom Patienten eingeblendet.Such systems are used, for example, in medicine clinical application fields, e.g. B. orthopedics or Traumatology, to support surgical interventions on pa tients used, images of instruments in pictures from the inside of the patient. This is This is particularly advantageous when the surgeon has a look on the patient end of one led by him, in the Body of a patient intruded medical instru mentes is denied. With one arranged on the instrument Position sensors of a navigation system are the Location coordinates, d. H. the location and orientation of the instru mentes in the room or at an operating site, determined and its image in a with the means for taking pictures the patient's image appears.
Wünschenswert wäre es dabei, daß das zur Einblendung des In strumentes vom Patienten gewonnene Bild die tatsächliche Lage und Form eines Körperteils des Patienten bzw. eines Organs im Körper des Patienten zeigt. Da die während eines medizini schen Eingriffs für die Einblendung von Instrumenten vorgese henen Bilder vom Körper eines Patienten in der Regel aber präoperativ, d. h. vor dem Eingriff, beispielsweise mit einem Computertomographen, gewonnen werden, ist die Übereinstimmung zwischen einer im Bild dargestellten Lage und Form eines Kör perteils bzw. Organs und der tatsächlichen Lage und Form des Körperteils bzw. Organs bei der Operation die Ausnahme. Die auftretenden Unterschiede sind vor allem dadurch bedingt, daß entweder die Lage des Patienten bei der Operation auf einer Patientenliege nicht genau der Lage des Patienten bei der Bildaufnahme entspricht oder daß beim Öffnen des Patienten beispielsweise durch natürliche Bewegungen, z. B. Herzschlag, Atmung oder Peristaltik, Deformationen von Körperteilen, De formationen von Organen oder Veränderungen von Organlagen auftreten. Eine Verbesserung der Navigation des Instrumentes ergibt sich, wenn während der Operation 2D-Projektionen vom Operationssitus aufgenommen werden, welche zur Korrektur der präoperativ gewonnenen Bilder herangezogen werden. Nachteilig bleibt jedoch, daß die Genauigkeit der Einblendung von Abbil dern von Instrumenten relativ gering ist, der Chirurg also die genaue Lage des Instrumentes nur erahnen kann und somit die Navigation nur eine grobe Orientierung bei operativen Eingriffen darstellt.It would be desirable that the to display the In strumentes image obtained from the patient the actual location and shape of a body part of the patient or an organ in the Shows the patient's body. Because the during a medical intervention for the display of instruments usually pictures of the body of a patient preoperatively, d. H. before the procedure, for example with a Computer tomographs that are obtained is the match between a position and shape of a body shown in the picture perteil or organ and the actual location and form of the Body part or organ the exception during the operation. The Differences occurring are mainly due to the fact that either the position of the patient during the operation on one Patient bed is not exactly in the position of the patient Image acquisition corresponds to or that when opening the patient for example by natural movements, e.g. B. heartbeat, Breathing or peristalsis, deformation of body parts, De formation of organs or changes in organ positions occur. An improvement in the navigation of the instrument results if 2D projections from Surgical site are included, which to correct the images obtained preoperatively can be used. Disadvantageous remains, however, that the accuracy of the overlay of Fig of instruments is relatively small, the surgeon the exact location of the instrument can only guess and thus the navigation is just a rough guide for operational Intervention.
Ein weiteres Problem bei der Navigation besteht in der Ein blendung eines Abbildes eines Instrumentes an sich in präope rativ gewonnene Bilder. Um die Einblendung eines Abbildes ei nes Instrumentes in ein präoperativ gewonnenes Bild durchfüh ren zu können, ist nämlich eine räumliche Transformation der bezüglich eines ersten Koordinatensystems angegebenen Koordi naten des in definierter Weise an dem Instrument angeordneten Positionssensors des Navigationssystems in die räumlichen Ko ordinaten des für die Navigation verwendeten, mit den Mitteln zur Aufnahme von Bildern gewonnenen Bildes vom Patienten not wendig. Diese Transformation wird als Registrierung bezeich net. Als Hilfsmittel für die Registrierung dienen meist Mar ker, die am Patienten angebracht werden. Die Positionen der Marker werden zum einen mit dem Positionssensor des Navigati onssystems in dem ersten Koordinatensystem identifiziert und zum anderen, beispielsweise durch händische Eingabe mit einem Eingabemittel, im Koordinatensystem des mit den Mitteln zur Aufnahme von Bildern gewonnenen und zur Navigation verwende ten, in einem Rechner gespeicherten Bildes identifiziert. Aus den beiden in dem ersten Koordinatensystem und in dem Koordi natensystem des zur Navigation verwendeten Bildes identifi zierten Punktmengen der Marker kann schließlich eine Trans formation berechnet werden, die während der Navigation die in dem ersten Koordinatensystem mit dem Positionssensor des Na vigationssystems erfaßten Positionen des Instrumentes in die Koordinaten des Bildes transformiert.Another problem with navigation is the one glare of an image of an instrument itself in preope pictures obtained relatively. To display an image perform an instrument in a preoperative picture Being able to do so is a spatial transformation of with respect to a first coordinate system naten of the arranged on the instrument in a defined manner Position sensor of the navigation system in the spatial Ko ordinates of the used for navigation, with the means for taking pictures of the patient agile. This transformation is called registration net. Mar is usually used as an aid for registration ker, which are attached to the patient. The positions of the Markers are used with the Navigati's position sensor onsystem in the first coordinate system identified on the other hand, for example by manual entry with a Input means, in the coordinate system of the means for Taking pictures obtained and using them for navigation image identified in a computer. Out the two in the first coordinate system and in the Koordi nat system of the image used for navigation identifi a trans formation are calculated, which during navigation the in the first coordinate system with the Na position sensor navigation system recorded positions of the instrument in the Coordinates of the image transformed.
Die Registrierung stellt jedoch einen zeitaufwendigen und zu dem fehleranfälligen Prozeß dar. Darüber hinaus erweist sich die Handhabung und die Identifikation der Marker im intra-ope rativen Umfeld oftmals als problematisch.Registration, however, is a time-consuming process the error-prone process. Furthermore, it turns out handling and identification of the markers in the intra-ope often a problematic environment.
Der Erfindung liegt daher die Aufgabe zugrunde, ein System der eingangs genannten Art derart auszubilden, daß die Ein blendung des Abbildes eines zweiten Objektes in ein mit Mit teln zur Aufnahme von Bildern gewonnenes Bild von einem er sten Objekt vereinfacht ist. Eine weitere Aufgabe der Erfin dung liegt in der Angabe eines Verfahrens zur vereinfachten Einblendung eines Abbildes eines zweiten Objektes in ein von einem ersten Objekt gewonnenes Bild.The invention is therefore based on the object of a system of the type mentioned in such a way that the Ein glare of the image of a second object in a with Image taken by a person to take pictures most object is simplified. Another task of the Erfin is to specify a procedure for simplified Fade in an image of a second object in one of image obtained from a first object.
Nach der Erfindung wird die eine Aufgabe gelöst durch ein Sy stem mit Mitteln zur Aufnahme von Bildern von einem ersten Objekt, mit Mitteln zur Bestimmung der Position der Mittel zur Aufnahme von Bildern, mit Mitteln zur Bestimmung der Po sition eines zweiten Objektes, mit Mitteln zur Bestimmung der Position des zweiten Objektes relativ zu den Mitteln zur Auf nahme von Bildern und mit Mitteln zur Einblendung eines Ab bildes des zweiten Objektes in ein mit den Mitteln zur Auf nahme von Bildern gewonnenes Bild des ersten Objektes. Die Erfindung bezieht sich dabei auf Mittel zur Aufnahme von Bil dern, bei denen die Lagen und Orientierungen der mit den Mit teln zur Aufnahme von Bildern erfaßten Bilddaten relativ zu den Mitteln aufgrund eindeutiger räumlicher Beziehungen be kannt, in einfacher Weise ermittelbar oder festlegbar sind. Auf diese Weise ist durch die Bestimmung der Position der Mittel zur Aufnahme von Bildern in einem Bezugskoordinatensy stem auch die Lage und Orientierung eines einem mit den Mit teln zur Aufnahme von Bildern gewonnenen Bild einbeschreibba ren Bildkoordinatensystems bezüglich des Bezugskoordinatensy stems festgelegt bzw. bestimmbar. Da nach der Erfindung auch die Position des zweiten Objektes bezüglich des Bezugskoordi natensystems bestimmbar ist, kann ein Abbild des zweiten Ob jektes bei Einführung des zweiten Objektes in den Bildaufnah mebereich der Mittel zur Aufnahme von Bildern bzw. bei Ein führung des zweiten Objektes in den Bereich der mit den Mit teln zur Aufnahme von Bildern gewonnenen Bilddaten in einfa cher Weise ohne die Durchführung einer zeitaufwendigen und fehleranfälligen Registrierung in ein mit den Mitteln zur Aufnahme von Bildern gewonnenes Bild eingeblendet werden.According to the invention the one object is achieved by a Sy stem with means for taking pictures of a first Object, with means for determining the position of the means for taking pictures, with means for determining the bottom sition of a second object, with means for determining the Position of the second object relative to the means for opening taking pictures and with means for displaying an image image of the second object in one with the means for opening taking picture of the first object obtained from pictures. The The invention relates to means for receiving Bil those where the positions and orientations of those with the Mit means for capturing images relative to captured image data the means based on clear spatial relationships knows, can be determined or determined in a simple manner. In this way, by determining the position of the Means for capturing images in a reference coordinate system stem also the location and orientation of one with the fellow Image recordable for taking pictures ren image coordinate system with respect to the reference coordinate system stems fixed or determinable. Because according to the invention too the position of the second object with respect to the reference coordinate natensystems can be determined, an image of the second Ob jektes when the second object is introduced into the image m range of means for taking pictures or on guidance of the second object in the area with the Mit image data obtained for capturing images in simple way without performing a time consuming and error-prone registration in a with the means to Image captured image can be displayed.
Die Mittel zur Bestimmung der Position der Mittel zur Aufnah me von Bildern, zur Bestimmung der Position des zweiten Ob jektes und zur Bestimmung der Position des zweiten Objektes relativ zu den Mitteln zur Aufnahme von Bildern können von einander verschieden ausgeführt sein und beispielsweise auf Basis signaltragender Wellen arbeiten. Während erste Mittel die Position der Mittel zur Aufnahme von Bildern in einem er sten Koordinatensystem und zweite Mittel die Position des zweiten Objektes in einem zweiten Koordinatensystem ermit teln, geben die Mittel zur Bestimmung der Position des zwei ten Objektes relativ zu den Mitteln zur Aufnahme von Bildern die Lage der ersten und zweiten Mittel bezüglich eines Be zugskoordinatensystems an, so daß die Positionen der Mittel zur Aufnahme von Bildern und des zweiten Objektes in dem Be zugskoordinatensystem bekannt sind und die Einblendung des Abbildes des zweiten Objektes in ein mit den Mitteln zur Auf nahme von Bildern gewonnenes Bild des ersten Objektes auf grund der bekannten Lagen und Orientierungen der mit den Mit teln zur Aufnahme von Bildern erfaßten Bilddaten in dem Be zugskoordinatensystem problemlos möglich ist.The means for determining the position of the means for admission me of images to determine the position of the second ob jectes and to determine the position of the second object relative to the means of taking pictures of be executed differently from each other and for example Working on the basis of signal-bearing waves. While first means the position of the means for taking pictures in a he most coordinate system and second means the position of the second object in a second coordinate system teln, give the means to determine the position of the two th object relative to the means for taking pictures the location of the first and second means with respect to a loading train coordinate system so that the positions of the means for taking pictures and the second object in the Be train coordinate system are known and the insertion of the Image of the second object in a with the means for opening take a picture of the first object obtained from pictures due to the known locations and orientations of those with the Mit means for taking images captured image data in the Be train coordinate system is easily possible.
Nach einer besonders bevorzugten Ausführungsform der Erfin dung umfaßt das System ein Navigationssystem, welches sowohl die Position der Mittel zur Aufnahme von Bildern, als auch die Position des zweiten Objektes, als auch die Position des zweiten Objektes relativ zu den Mitteln zur Aufnahme von Bil dern bestimmt. Gemäß einer Variante der Erfindung weist das Navigationssystem an Objekten anbringbare und detektierbare Marken und/oder Positionssensoren auf. Derartige Marken kön nen beispielsweise mit Hilfe eines Kamerasystems optisch de tektierbare Marken sein. Die Positionssensoren können als Sender ausgebildet sein, deren Signale von einem Empfänger des Navigationssystems empfangen und zur Bestimmung der Posi tionen der Positionssensoren entsprechend ausgewertet werden. Die Positionssensoren können jedoch auch derart ausgebildet sein, daß deren Positionen bei Plazierung in einem von einem Sender ausgesendeten elektromagnetischen Feld von dem Naviga tionssystem detektierbar sind. Die Ermittlung der Positionen erfolgt in der Regel durch einen Navigationsrechner des Navi gationssystems. Durch die geeignete Anbringung derartiger Marken und/oder Positionssensoren an den Mitteln zur Aufnahme von Bildern und dem zweiten Objekt können in einfacher Weise mit einem einzigen Navigationssystem die Positionen der Mit tel zur Aufnahme von Bildern und des zweiten Objektes sowie deren relative Position zueinander bezüglich eines Bezugsko ordinatensystems bestimmt werden. Als geeignete Navigations systeme zur Bestimmung der Positionen der Mittel zur Aufnahme von Bildern und des zweiten Objektes sowie deren relative Po sition zueinander, sind optische Navigationssysteme wie sie beispielsweise von der Fa. Radionix vertrieben werden sowie elektromagnetische Navigationssysteme wie sie beispielsweise von der Fa. Ascension vertrieben werden geeignet. According to a particularly preferred embodiment of the Erfin The system includes a navigation system, which both the position of the means of taking pictures, as well the position of the second object, as well as the position of the second object relative to the means for recording Bil determined. According to a variant of the invention, this Navigation system attachable and detectable to objects Brands and / or position sensors. Such brands can optically de for example with the help of a camera system be detectable brands. The position sensors can be used as Transmitter be formed, the signals from a receiver received by the navigation system and to determine the Posi positions of the position sensors are evaluated accordingly. The position sensors can, however, also be designed in this way be that their positions when placed in one of one Transmitter emitted electromagnetic field from the Naviga tion system are detectable. Determining the positions is usually done by a navigation computer of the navigation system gation system. By the appropriate attachment of such Marks and / or position sensors on the means for recording of images and the second object can be done easily with a single navigation system the positions of the tel for taking pictures and the second object as well their relative position to each other with respect to a reference co ordinate system can be determined. As suitable navigation systems for determining the positions of the means of admission of images and the second object as well as their relative bottom sition to each other, optical navigation systems are like them for example, are sold by Radionix and electromagnetic navigation systems such as those distributed by Ascension are suitable.
Nach Varianten der Erfindung weisen die Mittel zur Aufnahme von Bildern wenigstens einen an ein Ultraschallgerät an schließbaren Ultraschallsensor und/oder ein an einem Röntgen gerät angeordnetes, eine Röntgenstrahlenquelle und einen Röntgenstrahlenempfänger umfassendes Röntgensystems auf. Vor zugsweise ist das Röntgengerät ein verfahrbares C-Bogen- Röntgengerät, dessen C-Bogen isozentrisch verstellbar ist. Die Position des Isozentrums, in dem ein zu untersuchendes Objekt bei Röntgenaufnahmen in der Regel plaziert wird, ist durch die Bestimmung der Position des C-Bogens bezüglich des Bezugskoordinatensystems ebenfalls in dem Bezugskoordinaten system bekannt, so daß die Lagen und Orientierungen der mit dem an dem C-Bogen angeordneten Röntgensystem erfaßten Bild daten in bezug auf das Bezugskoordinatensystem bekannt sind.According to variants of the invention, the means for receiving of images at least one to an ultrasound device closable ultrasound sensor and / or an X-ray device arranged, an X-ray source and one X-ray receiver comprehensive X-ray system. Before the X-ray machine is preferably a movable C-arm X-ray machine whose C-arm is adjustable isocentrically. The position of the isocenter, in which a to be examined Object is usually placed on x-rays by determining the position of the C-arm with respect to the Reference coordinate system also in the reference coordinate known system, so that the positions and orientations of the the X-ray system arranged on the C-arm data are known in relation to the reference coordinate system.
Gemäß einer Variante der Erfindung sind mit den Mitteln zur Aufnahme von Bildern 3D-Bilder von dem Objekt erzeugbar. Wenn es sich bei dem erfindungsgemäßen System beispielsweise um ein medizinisches System handelt, können mit den Mitteln zur Aufnahme von Bildern intra-operativ 3D-Bilder von einem Kör perteil bzw. einem Organ eines Patienten erzeugt werden, wo durch die Voraussetzungen für eine exakte Einblendung eines Abbildes eines Instrumentes in eines der erzeugbaren 3D- Bilder geschaffen werden. Die Einblendung entspricht dabei mit hoher Übereinstimmung der realen Lage und Orientierung des Instrumentes relativ zum Körper des Patienten. Die exakte Ermittlung der Lage und Orientierung der Mittel zur Aufnahme von Bildern und des Instrumentes erfolgt vorzugsweise mit Hilfe des Navigationssystems und die entsprechende Einblen dung des Abbildes des Instrumentes in ein erzeugtes 3D-Bild mit Hilfe der Mittel zur Einblendung, welche in der Praxis beispielsweise einen Bildrechner oder den Navigationsrechner umfassen. Eine derartige Einblendung eines Abbildes eines In strumentes in ein die tatsächliche Lage und Form eines Kör perteils oder Organs zeigendes 3D-Bild stellt somit aufgrund der hohen Übereinstimmung mit den real am Operationssitus vorherrschenden Verhältnissen für einen Chirurgen eine wir kungsvolle und zuverlässige Unterstützung bei operativen Ein griffen dar. Dies gilt insbesondere dann, wenn dem Chirurgen der Blick auf das patientenseitige Ende des Instrumentes ver wehrt ist, beispielsweise weil das Instrument im Gewebe ein gedrungen ist. Unter der Einblendung eines Abbildes eines Ob jektes bzw. eines Instrumentes wird dabei nicht notwendiger weise eine originalgetreue Abbildung des Objektes bzw. des Instrumentes verstanden. Vielmehr kann die Abbildung nur schematisch sein, wobei zumindest der für die Navigation re levante Teil des Objektes bzw. des Instrumentes erkennbar ist.According to a variant of the invention, the means for Recording of images 3D images of the object can be generated. If the system according to the invention is, for example A medical system can use the means to Taking pictures intra-operative 3D pictures of a body perteil or an organ of a patient, where through the requirements for an exact overlay of a Image of an instrument in one of the 3D Images are created. The overlay corresponds to this with high agreement of the real situation and orientation of the instrument relative to the patient's body. The exact one Determination of the location and orientation of the means of admission of images and the instrument is preferably done with Help of the navigation system and the corresponding insert Formation of the image of the instrument in a generated 3D image with the aid of the overlay, which in practice for example an image calculator or the navigation calculator include. Such a display of an image of an In strumentes into the actual location and shape of a body 3D image showing part or organ the high correspondence with the real ones on the surgical site prevailing conditions for a surgeon we efficient and reliable support with operational input attacked. This is especially true when the surgeon the view of the patient's end of the instrument ver defends itself, for example because the instrument is in the tissue has penetrated. With the display of an image of an ob ject or an instrument is not necessary a true to the original image of the object or Instrumentes understood. Rather, the illustration can only be schematic, with at least the right for navigation levante part of the object or the instrument recognizable is.
Eine Ausführungsform der Erfindung sieht vor, daß mit den Mitteln zur Aufnahme von Bildern 2D-Bilder in Echtzeit von dem ersten Objekt erzeugbar sind. 2D-Bildgebung in Echtzeit ist beispielsweise in der medizinischen Navigation bei Ein griffen an sich bewegenden anatomischen Regionen erforder lich. Da sich bei der 2D-Bildgebung, beispielsweise mit Ul traschall, ein in den 2D-Ultraschallbildern einzublendendes Instrument aufgrund von Relativbewegungen zwischen dem die 2D-Bilder aufnehmenden Ultraschallsensor, dem Körper eines Patienten und einem zu navigierenden Instrument in der Regel nicht dauerhaft in der Bildebene des von dem Ultraschallsen sor ausgesandten Ultraschallfächers befindet, kann gemäß ei ner Variante der Erfindung zur Unterstützung eines den Ein griff durchführenden Chirurgen aufgrund der bekannten Positi on der Bildebene des Ultraschallfächers und des Instrumentes in dem Bezugskoordinatensystem das Abbild des Instrumentes projektivisch und dessen Abstand von der Bildebene des Ultra schallfächers in ein erzeugtes 2D-Ultraschallbild eingeblen det werden.An embodiment of the invention provides that with the Means for capturing images in real time from 2D images the first object can be generated. 2D imaging in real time is, for example, in medical navigation at On attacks on moving anatomical regions required Lich. Since 2D imaging, for example with Ul traschall, one to be superimposed on the 2D ultrasound images Instrument due to relative movements between the the 2D image-taking ultrasound sensor, the body of a Patients and an instrument to navigate usually not permanently in the image plane of that of the ultrasound sor emitted ultrasound fan, can according to ei ner variant of the invention to support the one attacked surgeons due to the known positi on the image plane of the ultrasound fan and the instrument the image of the instrument in the reference coordinate system projectively and its distance from the image plane of the Ultra Acoustic fan in a generated 2D ultrasound image be det.
Eine Ausführungsform der Erfindung sieht vor, daß die Positi on der Mittel zur Aufnahme von Bildern, also deren Lage und Orientierung, gleichzeitig mit der Position des in ein mit den Mitteln zur Aufnahme von Bildern gewonnenes Bild einzu blendenden zweiten Objektes erfaßbar ist. Gemäß einer Varian te der Erfindung weist das System außerdem eine Aufnahmevor richtung für das erste Objekt und Mittel zur Bestimmung der Position der Aufnahmevorrichtung auf, wobei auch die Position der Aufnahmevorrichtung gleichzeitig mit der Position der Mittel zur Aufnahme von Bildern und des zweiten Objektes er faßbar ist. Für den medizinischen Anwendungsfall ist eine derartige Aufnahmevorrichtung, beispielsweise eine Patienten liege, auf der ein Patient während eines operativen Eingrif fes gelagert ist. Vorzugsweise erfolgt die Ermittlung der Po sitionen der Mitteln zur Aufnahme von Bildern, des Instrumen tes und der Aufnahmevorrichtung mit dem Navigationssystem. Auf diese Weise kann die Lage und Orientierung des Instrumen tes auch bei Verstellbewegungen der Aufnahmevorrichtung rela tiv zu dem Instrument und den Mitteln zur Aufnahme von Bil dern aufgrund der gleichzeitigen Erfassung der Positionen der Mittel zur Aufnahme von Bildern, des Instrumentes und der Pa tientenliege stets online berechnet und der realen Situation entsprechend in ein mit den Mitteln zur Aufnahme von Bildern gewonnenes Bild vom Patienten eingeblendet werden. Mit dem System sind also mit Abbildern von zweiten Objekten versehene Bilder von einem ersten Objekt online erzeugbar, welche Posi tionsveränderungen des zweiten Objektes, der Mitteln zur Auf nahme von Bildern und/oder der Aufnahmevorrichtung berück sichtigen. Die Bilder sind dabei auch kontinuierlich erzeug bar.An embodiment of the invention provides that the positi on the means for taking pictures, i.e. their location and Orientation, simultaneously with the position of the in with image obtained by means of taking pictures dazzling second object is detectable. According to a variant te of the invention, the system also provides a recording direction for the first object and means for determining the Position of the receiving device, the position the cradle simultaneously with the position of the Means for taking pictures and the second object is graspable. For the medical application there is one such a receiving device, for example a patient lying on a patient during an operation fes is stored. The bottom is preferably determined sitions of the means for taking pictures, the instruments tes and the recording device with the navigation system. In this way, the position and orientation of the instrument tes also with adjustment movements of the receiving device rela tiv to the instrument and the means for recording Bil due to the simultaneous recording of the positions of the Means for taking pictures, the instrument and the pa The patient couch is always calculated online and the real situation accordingly in a with the means for taking pictures image obtained from the patient. With the Systems are therefore provided with images of second objects Images of a first object can be generated online, which Posi changes in the second object, the means for opening taking pictures and / or the recording device sight. The images are also generated continuously bar.
Die Aufgabe wird außerdem gelöst von einem medizinischen Ar beitsplatz, welcher eines der erfindungsgemäßen Systeme auf weist.The task is also solved by a medical doctor beitsplatz, which one of the systems according to the invention has.
Varianten der Erfindung sehen vor, daß der Arbeitsplatz für minimal-invasive Eingriffe vorgesehen ist und/oder daß die Bilder von dem ersten Objekt intra-operativ erzeugbar sind, wodurch sich die Navigation medizinischer Instrumente relativ zum Körper eines Patienten exakt durchführen läßt. Variants of the invention provide that the workplace for minimally invasive surgery is provided and / or that Images of the first object can be generated intra-operatively, whereby the navigation of medical instruments is relative to perform exactly on a patient's body.
Die andere Aufgabe der Erfindung wird gelöst durch ein Ver
fahren zur Einblendung eines Abbildes eines zweiten Objektes
in ein von einem ersten Objekt gewonnenes Bild aufweisend
folgende Verfahrensschritte:
The other object of the invention is achieved by a method for superimposing an image of a second object into an image obtained from a first object, comprising the following method steps:
- a) Gewinnung eines Bildes von dem ersten Objekt mit Mitteln zur Aufnahme von Bildern,a) obtaining an image of the first object by means for taking pictures,
- b) Bestimmung der Position der Mittel zur Aufnahme von Bil dern,b) Determination of the position of the means for inclusion of Bil others
- c) Bestimmung der Position des zweiten Objektes,c) determining the position of the second object,
- d) Bestimmung der Position des zweiten Objektes relativ zu den Mitteln zur Aufnahme von Bildern undd) determining the position of the second object relative to the means for taking pictures and
- e) Einblendung eines Abbildes des zweiten Objektes in ein mit den Mitteln zur Aufnahme von Bildern gewonnenes Bild des ersten Objektes.e) fading in an image of the second object Image obtained by means of taking pictures of the first object.
Die Erfindung bezieht sich wiederum auf Mittel zur Aufnahme von Bildern, bei denen die Lagen und Orientierungen der mit den Mitteln zur Aufnahme von Bildern erfaßten Bilddaten rela tiv zu den Mitteln aufgrund eindeutiger räumlicher Beziehun gen bekannt, in einfacher Weise ermittelbar oder festlegbar sind. Nach der Ermittlung eines Bilddatensatzes und der Be stimmung dessen Lage und Orientierung in einem Bezugskoordi natensystem kann auch das Abbild eines zweiten Objektes durch die Ermittlung dessen Position in dem Bezugskoordinatensystem in ein aus dem Bilddatensatz erzeugtes Bild von dem ersten Objekt eingeblendet werden. Sofern sich das zweite Objekt nicht in dem Bildbereich des ersten Objektes befindet, be steht auch die Möglichkeit ein Abbild des zweiten Objektes projektivisch in das Bild von dem ersten Objekt einzublenden. In jedem Fall kann die Einblendung eines Abbildes des zweiten Objektes in ein mit den Mitteln zur Aufnahme von Bildern ge wonnenes Bild von dem ersten Objekt ohne die Durchführung ei ner zeitaufwendigen und fehleranfälligen Registrierung erfol gen.The invention in turn relates to means for recording of images in which the positions and orientations of the the means for recording images captured image data rela tiv to the means based on clear spatial relationships gene known, can be determined or determined in a simple manner are. After determining an image data set and the Be its location and orientation in a reference coordinate natensystem can also display a second object the determination of its position in the reference coordinate system into an image of the first generated from the image data set Object can be displayed. Unless the second object not in the image area of the first object, be there is also the possibility of an image of the second object projectively fade into the image of the first object. In any case, the overlay of an image of the second Object in a ge with the means of taking pictures won picture of the first object without the implementation time-consuming and error-prone registration gene.
Ausführungsbeispiele der Erfindung sind in den beigefügten schematischen Zeichnungen dargestellt. Es zeigen: Embodiments of the invention are in the accompanying shown schematic drawings. Show it:
Fig. 1 ein erfindungsgemäßes, für die medizinische Navigati on vorgesehenes System mit einem einen extrakorporal angeordneten Ultraschallsensor aufweisenden Ultra schallgerät, Fig. 1 shows an inventive, for medical Navigati on system provided with an extracorporeally arranged ultrasonic sensor having ultra sound device,
Fig. 2 ein erfindungsgemäßes, für die medizinische Navigati on vorgesehenes System mit einem ein Ultraschall-Lapa roskop aufweisenden Ultraschallgerät, Fig. 2 shows an inventive, tunneling microscope, for medical Navigati on system provided with an ultrasonic Lapa having ultrasonic device,
Fig. 3 ein erfindungsgemäßes, für die medizinische Navigati on vorgesehenes System mit einem einen extrakorporal angeordneten Ultraschallsensor aufweisenden Ultra schallgerät zur Erzeugung von 2D-Bildern in Echtzeit und Fig. 3 shows an inventive, intended for medical navigation on system with an ultracontrol ultrasound sensor having an ultrasound device for generating 2D images in real time and
Fig. 4 ein erfindungsgemäßes, für die medizinische Navigati on vorgesehenes System mit einem C-Bogen- Röntgengerät. Fig. 4 shows an inventive, intended for medical navigation on system with a C-arm X-ray device.
Das erfindungsgemäße System ist im folgenden am Beispiel ei nes medizinischen Systems beschrieben, welches an einem medi zinischen Arbeitsplatz für minimal-invasive Eingriffe einge setzt wird.The system according to the invention is based on the example egg nes medical system described, which on a medi clinical workplace for minimally invasive interventions is set.
Im Falle des in Fig. 1 gezeigten Ausführungsbeispiels umfassen die Mittel zur Aufnahme von Bildern einen auf der Körperober fläche eines Patienten P applizierbaren Ultraschallkopf 2, welcher an ein an sich bekanntes, eine Bildverarbeitungsein heit und eine Anzeigeeinrichtung aufweisendes Ultraschallge rät 1 mit einer Leitung 8 angeschlossen ist. Mit dem Ultra schallkopf 2 können in an sich bekannter Weise in sogenannten Sectorscans 2D-Ultraschallbilder aus dem Körperinneren des Patienten P gewonnen und in nicht dargestellter Weise auf dem Sichtgerät des Ultraschallgerätes 1 angezeigt werden.In the case of the exemplary embodiment shown in FIG. 1, the means for taking images comprise an ultrasound head 2 which can be applied to the surface of a patient P and which is connected to an ultrasound device 1 which is known per se and has an image processing unit and a display device 1, with a line 8 is. With the ultrasound head 2 , 2D ultrasound images can be obtained from the interior of the patient P in so-called sector scans in a manner known per se and displayed in a manner not shown on the display unit of the ultrasound device 1 .
Der Arbeitsplatz weist außerdem ein Navigationssystem 4 auf, welches eine Positionserfassungseinheit 5, einen Sender 6, einen Navigationsrechner 7, bei dem es sich um einen Stan dard-PC handelt kann, und an Objekten anbringbare Positions sensoren 3 und 13 umfaßt. Das Ultraschallgerät 1 ist über ei ne Leitung 9 mit dem Navigationsrechner 7, der Navigations rechner 7 ist über eine Leitung 10 mit der Positionserfas sungseinheit 5 und diese ist über eine Leitung 11 mit dem Sender 6 und über Leitungen 12 und 15 mit den Positionssenso ren 3, 13 verbunden.The workplace also has a navigation system 4 , which includes a position detection unit 5 , a transmitter 6 , a navigation computer 7 , which can be a standard PC, and position sensors 3 and 13 which can be attached to objects. The ultrasound device 1 is via egg ne line 9 with the navigation computer 7 , the navigation computer 7 is via a line 10 with the position detection unit 5 and this is via a line 11 with the transmitter 6 and via lines 12 and 15 with the position sensors 3 , 13 connected.
Im Falle des vorliegenden Ausführungsbeispiels ist der Posi tionssensor 3 des Navigationssystems 4 in derart definierter Weise an dem Ultraschallkopf 2 angeordnet, daß durch die Be stimmung der Position des Positionssensors 3 in einem von der Positionserfassungseinheit 5 festgelegten Bezugskoordinaten system K1 nicht nur die Positionen der Ultraschall-Sende- und Empfängerflächen des Ultraschallkopfes 2, sondern auch die Positionen, d. h. die Lagen und Orientierungen, der mit dem Ultraschallkopf 2 erfaßten Bilddaten im Bezugskoordinatensy stem K1 bekannt sind. Der Positionssensor 13 ist in derart definierter Weise an einem chirurgischen Instrument 14 ange ordnet, daß durch die Bestimmung der Position des Positions sensors 13 auch die Position der Spitze des Instrumentes 14 bekannt ist, welches im Falle des in Fig. 1 gezeigten Ausfüh rungsbeispiels teilweise in den Körper des Patienten P einge drungen und nicht mehr sichtbar ist. Der Sender 6 des Naviga tionssystems 4, welcher im Falle des vorliegenden Ausfüh rungsbeispiels elektromagnetische Wellen aussendet, ist eben falls in definierter Weise in dem Bezugskoordinatensystem K1 der Positionserfassungseinheit 5 angeordnet.In the case of the present exemplary embodiment, the position sensor 3 of the navigation system 4 is arranged on the ultrasound head 2 in such a defined manner that by determining the position of the position sensor 3 in a reference coordinate system K1 defined by the position detection unit 5, not only the positions of the ultrasound Transmitting and receiving surfaces of the ultrasound head 2 , but also the positions, ie the positions and orientations, of the image data acquired with the ultrasound head 2 in the reference coordinate system K1 are known. The position sensor 13 is arranged in such a defined manner on a surgical instrument 14 that by determining the position of the position sensor 13 the position of the tip of the instrument 14 is also known, which in the case of the exemplary embodiment shown in FIG penetrated the body of patient P and is no longer visible. The transmitter 6 of the navigation system 4 , which emits electromagnetic waves in the case of the present embodiment, is also arranged in a defined manner in the reference coordinate system K1 of the position detection unit 5 .
Im Betrieb des Systems erzeugt der Sender 6 ein mit gestri chelten Linien angedeutetes elektromagnetisches Feld 16, in dem die an dem Ultraschallkopf 2 und dem chirurgischen In strument 14 befestigten Positionssensoren 3 und 13 angeordnet sind. Anhand der von den Positionssensoren 3 und 13 erzeug ten, über die Leitungen 12 und 15 an die Positionserfassungs einheit 5 übertragenen Signale kann die Positionserfassungs einheit 5 die Positionen, d. h. die Lagen und Orientierungen, des Ultraschallkopfes 2 und des chirurgischen Instrumentes 14 bezüglich des Bezugskoordinatensystems K1 bestimmen.In operation of the system, the transmitter 6 generates an electromagnetic field 16 indicated by dashed lines, in which the position sensors 3 and 13 attached to the ultrasound head 2 and the surgical instrument 14 are arranged. Based on the signals generated by the position sensors 3 and 13, transmitted via the lines 12 and 15 to the position detection unit 5 , the position detection unit 5 can determine the positions, ie the positions and orientations, of the ultrasound head 2 and of the surgical instrument 14 with respect to the reference coordinate system K1 determine.
Außerdem kann mit Hilfe des Navigationsrechners 7 aus den mit dem Ultraschallkopf 2 des Ultraschallgerätes 1 aufgenommenen 2D-Ultraschallbildern ein 3D-Ultraschallbilddatensatz 17 er zeugt werden, wobei die Positionen des Ultraschallkopfes 2 bei jeder Aufnahme eines 2D-Ultraschallbildes aufgrund der Positionserfassung durch die Positionserfassungseinheit 5 be kannt sind. Dabei ist für jedes Bilddatum des erzeugten, in Fig. 1 in schematischer Weise als Würfel dargestellten 3D- Ultraschallbilddatensatzes 17, aus dem verschiedene 3D-Bilder vom Körperinneren des Patienten P rekonstruierbar sind, auf grund der bekannten räumlichen Beziehung zwischen den gewon nenen 2D-Ultraschallbilddaten und den Sende- und Empfänger flächen des Ultraschallkopfes 2 die Lage und Orientierung im Bezugskoordinatensystem K1 bekannt. Demnach ist auch für ei nen beliebig aus dem 3D-Ultraschallbilddatensatz 17 rekon struierten 3D-Bildkubus 18 die Lage und Orientierung im Be zugskoordinatensystem K1 als auch die Voxelgröße, beispiels weise in Millimetern und Grad, in dem Bezugskoordinatensystem K1 bekannt. Da auch die Position, d. h. die Lage und Orien tierung, des Instrumentes 14 aufgrund der Positionserfassung durch die Positionserfassungseinheit 5 in dem Bezugskoordina tensystem K1 bekannt ist, kann für jede von dem Positionser fassungssystem 5 ermittelte Position des Instrumentes 14 ein Abbild des Instrumentes 14 eindeutig in ein erzeugtes Bild vom Patienten P eingeblendet werden, solange sich die Positi onssensoren 3, 13 des Navigationssystems 4 in dem von dem Sender 6 erzeugten elektromagnetischen Feld befinden und so fern sich das Instrument 14 im Bereich des relevanten Bildes befindet. In Fig. 1 ist in schematischer Darstellung die Spit ze des chirurgischen Instrumentes 14 in Form eines Kreuzes 19 in den 3D-Ultraschallbilddatensatz 17 aus dem Körperinneren des Patienten P eingeblendet, welcher aus mit dem Ultra schallkopf 2 aufgenommenen 2D-Ultraschallbildern erzeugt wur de. In addition, with the help of the navigation computer 7, a 3D ultrasound image data record 17 can be generated from the 2D ultrasound images recorded with the ultrasound head 2 of the ultrasound device 1 , the positions of the ultrasound head 2 each time a 2D ultrasound image is recorded due to the position detection by the position detection unit 5 are known. In this case, for each image data of the 3D ultrasound image data record 17 , which is shown schematically as a cube in FIG. 1 and from which various 3D images of the interior of the patient P can be reconstructed, based on the known spatial relationship between the 2D ultrasound image data obtained and the transmitter and receiver surfaces of the ultrasound head 2 know the position and orientation in the reference coordinate system K1. Accordingly, the position and orientation in the reference coordinate system K1 and the voxel size, for example in millimeters and degrees, in the reference coordinate system K1 is also known for a 3D image cube 18 reconstructed as desired from the 3D ultrasound image data set 17 . Since the position, ie the position and orientation, of the instrument 14 due to the position detection by the position detection unit 5 in the reference coordinate system K1 is known, for each position of the instrument 14 determined by the position detection system 5, an image of the instrument 14 can be clearly seen in a generated image of the patient P is faded in as long as the position sensors 3 , 13 of the navigation system 4 are in the electromagnetic field generated by the transmitter 6 and so far the instrument 14 is in the area of the relevant image. In Fig. 1, the tip of the surgical instrument 14 is shown in the form of a cross 19 in the 3D ultrasound image data set 17 from the inside of the patient P, which was generated from the ultrasound head 2 taken 2D ultrasound images.
In der vorstehend beschriebenen Weise kann also ein Abbild jedes beliebigen, mit einem Positionssensor ausgestatteten chirurgischen Instrumentes während eines chirurgischen Ein griffes an einem Patienten in ein intra-operativ erzeugtes 3D-Ultraschallbild eingeblendet werden. Für die Einblendung des Instrumentes ist dabei erfindungsgemäß keine Registrie rung erforderlich.In the manner described above, an image can thus any one equipped with a position sensor surgical instrument during a surgical one grips a patient into an intra-operative one 3D ultrasound image can be displayed. For the overlay According to the invention, the instrument is not a registry required.
Im Falle des in Fig. 1 gezeigten Ausführungsbeispiels handelt es sich bei dem Instrument 14 um ein starres Instrument, z. B. eine Zange, ein HF-Skalpell, eine Schere, eine Biopsie- oder eine Punktionsnadel, weshalb der Positionssensor 13 ex trakorporal angeordnet sein kann. Die Position der zu visua lisierenden Spitze des Instrumentes 14 in dem Bezugskoordina tensystem K1 kann dabei, in bereits angedeuteter Weise, mit einer Transformation der Koordinaten des Positionssensors 13 in die Koordinaten, die der Spitze des Instrumentes 14 ent sprechen, ermittelt werden.In the case of the embodiment shown in FIG. 1, the instrument 14 is a rigid instrument, e.g. B. a pair of pliers, an HF scalpel, scissors, a biopsy or a puncture needle, which is why the position sensor 13 can be arranged ex trakorporal. The position of the tip of the instrument 14 to be visualized in the reference coordinate system K1 can, in a manner already indicated, be determined with a transformation of the coordinates of the position sensor 13 into the coordinates corresponding to the tip of the instrument 14 .
In Fig. 2 ist ein Ausführungsbeispiel der Erfindung gezeigt, bei dem ein Instrument 20 mit einem flexiblen Instrumenten teil, im Falle des vorliegenden Ausführungsbeispiels mit ei ner flexiblen Spitze 21, verwendet wird. Um in diesem Fall die Position der Spitze 21 in ein aus dem 3D-Ultraschallbild datensatz 17 rekonstruierten Bild exakt einblenden zu können, befindet sich der Positionssensor 13 an der Spitze 21 des In strumentes 20. Bei einem derartigen, einen flexiblen Teil aufweisenden Instrument 20 kann es sich beispielsweise um ein Endoskop, einen Katheter oder andere abwinkelbare Instrumente handeln.In Fig. 2, one embodiment of the invention is shown in which an instrument 20 having a flexible instruments in part, in the case of the present embodiment with egg ner flexible tip 21, is used. In order in this case, the position of the tip 21 in a from the 3D ultrasound image data to superimpose image 17 reconstructed exactly, is the position sensor 13 at the tip 21 of the strumentes In the twentieth Such an instrument 20 , which has a flexible part, can be, for example, an endoscope, a catheter or other angled instruments.
Im Unterschied zu dem in Fig. 1 beschriebenen Ausführungsbei spiel erfolgt die Gewinnung der für die Erzeugung des 3D- Ultraschallbilddatensatzes 17 erforderlichen 2D-Ultraschall bilder außerdem mit einem intrakorporalen Ultraschallsensor, einem sogenannten Ultraschall-Laparoskop 22. Da das Ultra schall-Laparoskop 22 ebenfalls flexibel ausgeführt ist, ist der Positionssensor 3 in die Spitze des Ultraschall-Lapa roskopes 22, und zwar in definierter Weise zu den Ultra schall-Sende- und Empfängerflächen, integriert. Wie im zuvor beschriebenen Ausführungsbeispiel können mit dem Ultraschall- Laparoskop 22 2D-Ultraschallbilder erzeugt werden, aus denen der Navigationsrechner 7 aufgrund der für jedes 2D-Ultra schallbild ermittelbaren Position des Ultraschall-Laparosko pes 22 den 3D-Ultraschallbilddatensatz 17 generieren kann. Wie im Falle des in Fig. 1 gezeigten Ausführungsbeispiels ist auch im Falle des in Fig. 2 gezeigten Ausführungsbeispiels für jedes Bilddatum des erzeugten 3D-Ultraschallbilddatensatzes 17 die Position im Bezugskoordinatensystem K1 aufgrund der bekannten räumlichen Beziehung zwischen den gewonnenen Ultra schalldaten und den Ultraschall-Sende- und Empfängerflächen des Ultraschall-Laparoskops 22 bekannt. Demnach ist auch die Lage und Orientierung eines beliebig aus dem 3D-Ultraschall bilddatensatz 17 rekonstruierten 3D-Bildkubus 18 im Bezugsko ordinatensystem K1 als auch die Voxelgröße, beispielsweise in Millimetern und Grad, in den Bezugskoordinaten bekannt. Da auch die Position der Spitze 21 des Instrumentes 20 durch die Positionserfassung mit der Positionserfassungseinheit 5 be kannt ist, kann wie im Falle des zuvor beschriebenen Ausfüh rungsbeispiels die Spitze 21 des Instrumentes 20 in den mit dem Ultraschall-Laparoskop 22 erzeugten 3D-Ultraschallbild datensatz 17 bzw. in einen 3D-Bildkubus 18 eingeblendet wer den. In Fig. 2 ist die Einblendung des Abbildes der Spitze 21 des Instrumentes 20 in den 3D-Ultraschallbilddatensatz 17 mit einem Kreuz 19 schematisiert dargestellt.In contrast to the exemplary embodiment described in FIG. 1, the 2D ultrasound images required for generating the 3D ultrasound image data record 17 are also obtained with an intracorporeal ultrasound sensor, a so-called ultrasound laparoscope 22 . Since the ultrasound laparoscope 22 is also flexible, the position sensor 3 is integrated into the tip of the ultrasound laparoscope 22 , in a defined manner to the ultrasound transmitter and receiver surfaces. As can 22 2D ultrasound images are generated with the ultrasonic laparoscope from which the navigation computer 7 the 3D ultrasound image data set may generate pes due to the sound image determinable for each 2D Ultra position of the ultrasonic Laparosko 22 17 in the previously described embodiment. As in the case of the embodiment shown in FIG. 1, in the case of the embodiment shown in FIG. 2, the position in the reference coordinate system K1 for each image date of the generated 3D ultrasound image data record 17 is due to the known spatial relationship between the ultrasound data obtained and the ultrasound transmission - And receiver surfaces of the ultrasound laparoscope 22 are known. Accordingly, the position and orientation of a 3D image cube 18 reconstructed as desired from the 3D ultrasound image data set 17 in the reference coordinate system K1 as well as the voxel size, for example in millimeters and degrees, in the reference coordinates is known. Since the position of the tip 21 be of the instrument 20 through the position detection with the position detection unit 5 known, may as in the case of exporting described above, the tip 21 approximately example of the instrument 20 in the generated with the ultrasonic laparoscope 22 3D ultrasound image data 17 or faded into a 3D image cube 18 who. In FIG. 2, the illumination of the image of the tip 21 of the instrument 20 is schematically illustrated in the 3D ultrasound image data set 17 with a cross 19th
In Fig. 3 ist die Navigation mit 2D-Bildgebung in Echtzeit an hand von in Echtzeit gewonnenen Ultraschallbildern veran schaulicht. Die in Fig. 3 gezeigte Anordnung entspricht dabei im wesentlichen der in Fig. 1 gezeigten Anordnung eines erfin dungsgemäßen Systems, so daß die in Fig. 3 gezeigten Komponen ten, welche mit Komponenten des in Fig. 1 dargestellten Aus führungsbeispiels identisch sind, mit gleichen Bezugszeichen versehen sind.In Fig. 3, the navigation with 2D imaging in real time of hand veran obtained in real-time ultrasonic images is illustrated. The arrangement shown in Fig. 3 corresponds essentially to the arrangement of an inventive system shown in Fig. 1, so that the components shown in Fig. 3 th, which are identical to components of the exemplary embodiment shown in Fig. 1, with the same Reference numerals are provided.
Mit dem auf der Körperoberfläche des Patienten P applizierten Ultraschallkopf 2 kann in an sich bekannter Weise ein Sektor 30 gescannt werden, welcher als Sektorscan 31 auf einem Sichtgerät des Navigationsrechners 7 darstellbar ist. Die La ge und Orientierung des Sektorscans 31 ist aufgrund der Posi tionserfassung mit der Positionserfassungseinheit 5 und auf grund der bekannten räumlichen Beziehung zwischen den gewon nenen 2D-Ultraschalldaten und den Sende- und Empfängerflächen des Ultraschallkopfes 2 in dem Bezugskoordinatensystem K1 be kannt. Gleichzeitig kann mit Hilfe des Positionssensors 13 die Position des Instrumentes 14 mit der Positionserfassungs einheit 5 in dem Bezugskoordinatensystem K1 ermittelt und demnach das Abbild des Instrumentes 14 entsprechend in den in dem Navigationsrechner visualisierten und auf einem Sichtge rät darstellbaren Sektorscan 31 eingeblendet werden. Im Falle des vorliegenden Ausführungsbeispiels ist die Position der Spitze des Instrumentes 14 in Form eines Kreuzes 32 in den Sektorscan 31 eingeblendet.With the ultrasound head 2 applied to the body surface of the patient P, a sector 30 can be scanned in a manner known per se, which can be displayed as a sector scan 31 on a display device of the navigation computer 7 . The location and orientation of the sector scan 31 is known due to the position detection with the position detection unit 5 and due to the known spatial relationship between the won 2D ultrasound data and the transmitting and receiving surfaces of the ultrasound head 2 in the reference coordinate system K1. At the same time, with the help of the position sensor 13, the position of the instrument 14 can be determined with the position detection unit 5 in the reference coordinate system K1 and accordingly the image of the instrument 14 can be faded in accordingly in the sector scan 31 visualized in the navigation computer and displayed on a viewer. In the case of the present exemplary embodiment, the position of the tip of the instrument 14 is superimposed in the sector scan 31 in the form of a cross 32 .
Die Visualisierung des Instrumentes 14 in dem Sektorscan 31 wäre infolge der Aufnahme der Bilder in Echtzeit auch ohne Positionserfassung des Instrumentes 14 zu erreichen, wenn sich das Instrument 14 stets in der Bildebene des Sektors 30 befinden würde, was aber in der Regel aufgrund der manuellen Positionierung des Ultraschallkopfes 2 nicht realisierbar ist. Durch die Positionserfassung des an dem Ultraschallkopf 2 angeordneten Positionssensors 3 sowie des an dem Instrument 14 angeordneten Positionssensors 13 ist jedoch die Lage des Instrumentes 14 relativ zu dem Sektor 30 bekannt, so daß die Spitze des Instrumentes 14 beispielsweise auch projektivisch in den Sektorscan 31 eingeblendet werden kann, selbst wenn die Spitze des Instrumentes 14 oder das gesamte Instrument 14 nicht in dem Sektorscan 31 sichtbar wäre. Erfindungsgemäß wird bei dieser projektivischen Einblendung der Spitze des Instrumentes 14 in den Sektorscan 31 der Abstand der Spitze des Instrumentes 14 von dem Sektor 30 als Orientierungshilfe beispielsweise für einen einen Eingriff vornehmenden Chirur gen eingeblendet. Die Angabe des Abstandes kann beispielswei se mit Hilfe eines Kreises, dessen Durchmesser den Abstand zwischen dem Instrument 14 und dem Sektor 30 angibt, oder mit Hilfe von Farbcodierungen, wobei die Farbintensitäten den Ab stand zwischen dem Instrument 14 und dem Sektor 30 angeben, für einen Benutzer erfolgen. Auf diese Weise kann also bei spielsweise ein Chirurg bei der Führung des Ultraschallkopfes 2 unterstützt werden, wobei dadurch, daß die Lagen und Orien tierungen des Ultraschallkopfes 2 und des chirurgischen In strumentes 14 im Navigationsrechner 7 verfügbar sind, Vor schläge zur Positionierung des Ultraschallkopfes 2, z. B. in bezug auf die Neigung oder die Drehung des Ultraschallkopfes 2 auf der Körperoberfläche, angezeigt werden können, um das Instrument 14 in dem Sektorscan 31 sichtbar zu machen.The visualization of the instrument 14 in the sector scan 31 would be achieved as a result of the recording of the images in real time even without the position detection of the instrument 14 if the instrument 14 were always in the image plane of the sector 30 , but this is generally due to the manual positioning of the ultrasound head 2 is not feasible. By detecting the position of which is arranged on the ultrasonic head 2-position sensor 3 and the arranged on the instrument 14 position sensor 13, however, the position of the instrument 14 is known relative to the sector 30, so that the tip of the instrument 14 displayed for example, projektivisch in the sector scan 31 can, even if the tip of the instrument 14 or the entire instrument 14 would not be visible in the sector scan 31 . According to the invention, in this projective insertion of the tip of the instrument 14 into the sector scan 31, the distance of the tip of the instrument 14 from the sector 30 is shown as an orientation aid, for example for a surgeon performing an intervention. The specification of the distance can, for example, with the aid of a circle, the diameter of which indicates the distance between the instrument 14 and the sector 30 , or with the aid of color codes, the color intensities indicating the distance between the instrument 14 and the sector 30 , for one Users. In this way, for example, a surgeon can be assisted in guiding the ultrasound head 2 , the fact that the positions and orientations of the ultrasound head 2 and the surgical instrument 14 are available in the navigation computer 7 , before suggestions for positioning the ultrasound head 2 , e.g. B. with respect to the inclination or rotation of the ultrasound head 2 on the body surface, can be displayed to make the instrument 14 visible in the sector scan 31 .
In Fig. 4 ist ein weiteres Ausführungsbeispiel eines erfin dungsgemäßen, für die medizinische Navigation vorgesehenen Systems gezeigt, welches ein C-Bogen-Röntgengerät 41 mit ei nem auf Rädern 42 verfahrbaren Gerätewagen 43 umfaßt. Das C- Bogen-Röntgengerät 41 weist eine in Fig. 4 nur schematisch an gedeutete Hubvorrichtung 44 mit einer Säule 45 auf. An der Säule 45 ist ein Halteteil 46 angeordnet, an dem eine Halte vorrichtung 47 zur Lagerung eines ein Isozentrum IZ aufwei senden C-Bogens 48 angeordnet ist. Am C-Bogen 48 sind einan der gegenüberliegend ein Röntgenstrahler 49 und ein Röntgen strahlenempfänger 50 angeordnet. Im Falle des vorliegenden Ausführungsbeispiels handelt es sich bei dem Röntgenstrahler 50 um einen an sich bekannten Festkörperdetektor. Der Rönt genstrahlenempfänger kann jedoch auch ein Röntgenbildverstär ker sein, wobei der Festkörperdetektor gegenüber dem Röntgen bildverstärker den Vorteil besitzt, daß er geometrisch ver zerrungsfreie Röntgenbilder liefert. Die mit dem Festkörper detektor 50 gewonnenen Röntgenbilder können in an sich be kannter Weise auf einer Anzeigeeinrichtung 51 dargestellt werden.In FIG. 4, a further embodiment to the invention of an OF INVENTION shown intended for medical navigation system, which comprises a C-arm x-ray device 41 with egg nem movable on wheels 42 device carriage 43. The C-arm x-ray device 41 has a lifting device 44 with a column 45, which is only schematically indicated in FIG. 4. On the column 45 , a holding part 46 is arranged, on which a holding device 47 for storing an isocenter IZ having C-arm 48 is arranged. On the C-arm 48 , an X-ray emitter 49 and an X-ray radiation receiver 50 are arranged opposite one another. In the case of the present exemplary embodiment, the X-ray emitter 50 is a solid-state detector known per se. However, the X-ray receiver can also be an X-ray image intensifier, with the solid-state detector having the advantage over the X-ray image intensifier that it provides geometrically distorted X-ray images. The X-ray images obtained with the solid-state detector 50 can be displayed in a manner known per se on a display device 51 .
Das in Fig. 4 gezeigte C-Bogen-Röntgengerät 41 zeichnet sich dadurch aus, daß mit ihm ein 3D-Bilddatensatz vom Körper bzw. von Körperteilen eines auf einer vertikal und horizontal ver stellbaren Patientenliege 52 gelagerten Patienten P erzeugt werden kann, aus dem verschiedene 3D-Bilder von Körper des Patienten rekonstruierbar sind. Zur 3D-Bildgebung ist ein im Falle des vorliegenden Ausführungsbeispiels im Gerätewagen 43 des C-Bögen-Röntgengerätes 41 angeordneter, in nicht darge stellter Weise mit dem Festkörperdetektor 50 und der Anzeige einheit 51 verbundener Bildrechner 53 vorhanden. Der Bild rechner 53 rekonstruiert in an sich bekannter Weise aus 2D- Projektionen, welche bei einer Verstellung des C-Bogens 48, beispielsweise längs seines Umfanges, um ein im Isozentrum IZ des C-Bogens 48 plaziertes, in einem Bild darzustellendes Körperteil des Patienten P gewonnen werden, 3D-Bilder von dem darzustellenden Körperteil.The C-arm x-ray device 41 shown in FIG. 4 is distinguished by the fact that it can be used to generate a 3D image data record of the body or of body parts of a patient P stored on a vertically and horizontally adjustable patient couch 52 , from which various 3D images of the patient's body can be reconstructed. For 3D imaging, an image computer 53 is provided in the case of the present exemplary embodiment in the equipment carriage 43 of the C-arm x-ray apparatus 41 , which is connected in a manner not shown with the solid-state detector 50 and the display unit 51 . The image processor 53 reconstructs in a known manner from 2D projections, which during an adjustment of the C-arm 48, for example, along its circumference, a 48 item placed at the isocenter IZ of the C-arm, to be displayed in an image part of the patient P obtained, 3D images of the body part to be displayed.
Mit Hilfe eines im Falle des vorliegenden Ausführungsbei spiels optischen Navigationssystems des medizinischen Systems können während eines Eingriffs an dem Patienten P von einem in der Fig. 4 nicht dargestellten Chirurgen verwendete Instru mente als Abbild in während der Operation angefertigte 3D- Bilder vom Körper des Patienten P eingeblendet werden. Auf diese Weise erhält der Chirurg, wie im Falle der mit Ultra schall gewonnenen 3D-Bilder, eine wirkungsvolle und zuverläs sige Unterstützung bei dem operativen Eingriff. Um ein In strument genau anhand der Bildinformation positionieren zu können, sind jedoch exakte Bilder des realen Operationssitus erforderlich, welche durch die Gewinnung von 3D-Bildern wäh rend der Operation erhalten werden.With the aid of an optical navigation system of the medical system in the case of the present embodiment, instruments used during an intervention on the patient P by a surgeon (not shown in FIG. 4) can be used as an image in 3D images of the body of the patient P made during the operation be displayed. In this way, as in the case of the 3D images obtained with ultrasound, the surgeon receives effective and reliable support during the surgical procedure. In order to be able to position an instrument precisely on the basis of the image information, however, exact images of the real surgical site are required, which are obtained by obtaining 3D images during the operation.
Das Navigationssystem umfaßt im Falle des in Fig. 4 gezeigten Ausführungsbeispiels Kameras 54, 55 und mit den Kameras de tektierbare Referenzelemente 56 bis 58, welche an hinsicht lich ihrer Position zu erfassenden Instrumenten oder Objekten angeordnet sind und von den Kameras 54, 55 aufgenommen wer den. Ein Navigationsrechner 59 des Navigationssystems wertet die mit den Kameras 54, 55 aufgenommenen Bilder aus und kann anhand der aufgenommenen Referenzelemente 56 bis 58 die Posi tionen, d. h. die Lagen und Orientierungen, der Referenzele mente 56 bis 58 und somit der Instrumente bzw. Objekte bezüg lich eines Bezugskoordinatensystems K2 ermitteln.In the case of the exemplary embodiment shown in FIG. 4, the navigation system comprises cameras 54 , 55 and reference elements 56 to 58 which can be detected with the cameras, which are arranged on instruments or objects to be detected with regard to their position and which are recorded by the cameras 54 , 55 . A navigation computer 59 of the navigation system evaluates the images recorded with the cameras 54 , 55 and can use the recorded reference elements 56 to 58 to determine the positions, ie the positions and orientations, the reference elements 56 to 58 and thus the instruments or objects determine a reference coordinate system K2.
Im Falle des vorliegenden Ausführungsbeispiels ist das Refe renzelement 56 an einem chirurgischen Instrument 60, das Re ferenzelement 57 am C-Bogen 48 des C-Bogen-Röntgengerätes 41 und das Referenzelement 58 an der Patientenliege 52 angeord net. Auf diese Weise kann der Navigationsrechner 59 anhand der gewonnenen Kamerabilder jeweils die aktuellen Positionen des C-Bogens 48 und somit des Isozentrums IZ des C-Bogens 48, des Instrumentes 60 und der Patientenliege 52 ermitteln. Der Navigationsrechner 59, welcher in nicht dargestellter Weise mit dem Bildrechner 53 verbunden ist, stellt dem Bildrechner 53 jeweils die Daten über die aktuellen Positionen des Iso zentrums IZ, des Instrumentes 60 und der Patientenliege 52 zur Verfügung. Anhand dieser Positionsinformationen kann der Bildrechner 53 ein Abbild des Instrumentes 60 in ein mit dem C-Bogen-Röntgengerät 41 während der Operation gewonnenes 3D- Bild einblenden, wobei aufgrund der bekannten Position des Isozentrums IZ die Lagen und Orientierung des erzeugten 3D- Bilddatensatzes im Bezugskoordinatensystem K2 bekannt ist. Erfindungsgemäß ist dabei zur Einblendung des Abbildes des Instrumentes 60 keine Registrierung erforderlich. Eine derar tige Einblendung eines Abbildes 61 des Instrumentes 60 in ein erzeugtes 3D-Bild ist exemplarisch in Fig. 4 dargestellt.In the case of the present exemplary embodiment, the reference element 56 is arranged on a surgical instrument 60 , the reference element 57 on the C-arm 48 of the C-arm X-ray device 41 and the reference element 58 on the patient bed 52 . In this way, the navigation computer 59 can use the camera images obtained to determine the current positions of the C-arm 48 and thus the isocenter IZ of the C-arm 48 , the instrument 60 and the patient bed 52 . The navigation computer 59 , which is connected to the image computer 53 in a manner not shown, provides the image computer 53 with the data about the current positions of the isocenter IZ, the instrument 60 and the patient bed 52 . Using this position information, the image computer 53 can display an image of the instrument 60 in a 3D image obtained with the C-arm x-ray device 41 during the operation, the positions and orientation of the generated 3D image data set in the reference coordinate system based on the known position of the isocenter IZ K2 is known. According to the invention, no registration is required to display the image of the instrument 60 . Such a fade-in of an image 61 of the instrument 60 in a generated 3D image is shown as an example in FIG. 4.
Da die Bewegungen des Instrumentes 60, des C-Bogens 48 und der Patientenliege 52 über die Kameras 54, 55 und den Rechner 59 gleichzeitig und kontinuierlich erfaßt werden, kann die Einblendung des Abbildes des Instrumentes 60 in ein mit dem C-Bogen-Röntgengerät 1 gewonnenes 3D-Bild jeweils online der veränderten Situation entsprechend angepaßt werden. Auf diese Weise sind nicht nur statische, sondern auch kontinuierlich aufeinanderfolgende, mit der Einblendung des Abbildes des In strumentes 60 versehene 3D-Bilder erzeugbar.Since the movements of the instrument 60 , the C-arm 48 and the patient bed 52 are recorded simultaneously and continuously via the cameras 54 , 55 and the computer 59 , the image of the instrument 60 can be faded in with the C-arm X-ray device 1 3D image obtained can be adapted online according to the changed situation. In this way, not only static, but also continuously successive 3D images provided with the overlay of the image of the instrument 60 can be generated.
Die Positionen des Instrumentes, der Mittel zur Aufnahme von Bildern und der Patientenliege müssen im übrigen nicht gleichzeitig erfaßt werden. Eine nahezu gleichzeitige Erfas sung ist jedoch dann erforderlich, wenn insbesondere nach Veränderungen der Positionen des Instrumentes oder der Pati entenliege das Abbild des Instrumentes online in erzeugte 3D- Bilder bzw. in in Echtzeit gewonnene 2D-Bilder eingeblendet werden soll.The positions of the instrument, the means for receiving Incidentally, pictures and the patient bed do not have to be recorded simultaneously. An almost simultaneous capture Solution is required, however, if especially after Changes in the positions of the instrument or the pati duck the image of the instrument online in generated 3D Images or 2D images obtained in real time are displayed shall be.
Im übrigen können auch die in den Fig. 1 bis 3 gezeigten Ar beitsplätze eine Patientenliege aufweisen, deren Positionen gleichzeitig mit den Positionen des Instrumentes und der Mit tel zur Aufnahme von Bildern erfaßt werden.Incidentally, the Ar workstations shown in FIGS . 1 to 3 can have a patient bed, the positions of which are recorded simultaneously with the positions of the instrument and the center for taking images.
Die Ermittlung der Positionen der Mittel zur Aufnahme von Bildern, des Instrumentes und der Patientenliege muß nicht notwendigerweise durch ein Navigationssystem erfolgen. Viel mehr können die Positionen auch durch andere geeignete Mittel zur Positionserfassung, welche beispielsweise auf Basis si gnaltragender Wellen arbeiten, ermittelt und miteinander in Beziehung gebracht werden.Determining the positions of funds for inclusion Images, the instrument and the patient bed do not have to necessarily done by a navigation system. A lot the positions can also do more by other suitable means for position detection, which is based, for example, on si gnal-bearing waves work, determined and in each other Relationship.
Im Falle der in den Fig. 1 bis 3 beschriebenen Ausführungsbei spiele kann anstelle eines auf Basis elektromagnetischer Fel der arbeitenden Navigationssystems auch ein optisches Naviga tionssystem und im Falle des in Fig. 4 beschriebenen Ausfüh rungsbeispieles kann anstelle des optischen Navigationssy stems auch ein auf Basis elektromagnetischer Wellen arbeiten des Navigationssystem eingesetzt werden.In the case of the exemplary embodiments described in FIGS . 1 to 3, an optical navigation system can also be used instead of an operating navigation system based on electromagnetic fields and, in the case of the exemplary embodiment described in FIG. 4, an electromagnetic based system can also be used instead of the optical navigation system Waves are used by the navigation system.
Das erfindungsgemäße System wurde vorstehend am Beispiel ei nes medizinischen Systems zur Navigation medizinischer In strumente beschrieben. Das System ist jedoch nicht auf den Einsatz in der Medizin beschränkt.The system according to the invention was described above using the example of egg nes medical system for navigation medical In instruments described. However, the system is not on the Limited use in medicine.
Als Mittel zur Aufnahme von Bildern können alle Systeme zum Einsatz kommen, bei denen die Lagen und Orientierung der er faßten Bilddaten im Bezugskoordinatensystem aufgrund der Kenntnis der Position der Mittel zur Aufnahme von Bildern be kannt sind.As a means of taking pictures, all systems for Use where the location and orientation of the he captured image data in the reference coordinate system based on the Knowledge of the position of the means for taking pictures are known.
Claims (14)
- a) Gewinnung eines Bildes von dem ersten Objekt (P) mit Mit teln (2, 22, 49, 50) zur Aufnahme von Bildern,
- b) Bestimmung der Position der Mittel (2, 22, 49, 50) zur Aufnahme von Bildern,
- c) Bestimmung der Position des zweiten Objektes (14, 20, 60),
- d) Bestimmung der Position des zweiten Objektes (14, 20, 60) relativ zu den Mitteln (2, 22, 49, 50) zur Aufnahme von Bildern und
- e) Einblendung eines Abbildes (19, 61) des zweiten Objektes (14, 20, 60) in ein mit den Mitteln (2, 22, 49, 50) zur Aufnahme von Bildern gewonnenes Bild des ersten Objektes (P).
- a) obtaining an image of the first object (P) with means ( 2 , 22 , 49 , 50 ) for taking images,
- b) determining the position of the means ( 2 , 22 , 49 , 50 ) for taking images,
- c) determining the position of the second object ( 14 , 20 , 60 ),
- d) determining the position of the second object ( 14 , 20 , 60 ) relative to the means ( 2 , 22 , 49 , 50 ) for taking pictures and
- e) fading in an image ( 19 , 61 ) of the second object ( 14 , 20 , 60 ) into an image of the first object (P) obtained with the means ( 2 , 22 , 49 , 50 ) for taking images.
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE19951502A DE19951502A1 (en) | 1999-06-28 | 1999-10-26 | Medical imaging system for surgical applications |
JP2000190589A JP2001061861A (en) | 1999-06-28 | 2000-06-26 | System having image photographing means and medical work station |
US09/605,213 US6895268B1 (en) | 1999-06-28 | 2000-06-28 | Medical workstation, imaging system, and method for mixing two images |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE19929622 | 1999-06-28 | ||
DE19951502A DE19951502A1 (en) | 1999-06-28 | 1999-10-26 | Medical imaging system for surgical applications |
Publications (1)
Publication Number | Publication Date |
---|---|
DE19951502A1 true DE19951502A1 (en) | 2001-01-18 |
Family
ID=7912852
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE19951503A Expired - Fee Related DE19951503B4 (en) | 1999-06-28 | 1999-10-26 | Medical system with an imaging and a navigation system |
DE19951502A Ceased DE19951502A1 (en) | 1999-06-28 | 1999-10-26 | Medical imaging system for surgical applications |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE19951503A Expired - Fee Related DE19951503B4 (en) | 1999-06-28 | 1999-10-26 | Medical system with an imaging and a navigation system |
Country Status (1)
Country | Link |
---|---|
DE (2) | DE19951503B4 (en) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2002063236A2 (en) * | 2001-02-07 | 2002-08-15 | Aesculap Ag & Co. Kg | Method and device for determining the contour of a recess in a piece of material |
DE10136709A1 (en) * | 2001-07-27 | 2003-02-20 | Siemens Ag | Operation system for carrying out minimally invasive surgical interventions on patients whereby a surgical instrument is combined with a position sensor so that the position of the instrument can be related to image data |
EP1312309A1 (en) | 2001-11-09 | 2003-05-21 | ZN Vision Technologies AG | Method for determining the position of an object using images with a local resolution |
DE10235795A1 (en) * | 2002-08-05 | 2004-02-26 | Siemens Ag | Medical device |
DE10254942B3 (en) * | 2002-11-25 | 2004-08-12 | Siemens Ag | Method for automatically determining the coordinates of images of marks in a volume data set and medical device |
DE102004011888A1 (en) * | 2003-09-29 | 2005-05-04 | Fraunhofer Ges Forschung | Device for the virtual situation analysis of at least one intracorporeally introduced into a body medical instrument |
DE102004011959A1 (en) * | 2003-09-29 | 2005-05-12 | Fraunhofer Ges Forschung | Apparatus and method for repositionable positioning of an object relative to an intracorporeal body region |
DE10202091B4 (en) * | 2002-01-21 | 2005-09-08 | Siemens Ag | Device for determining a coordinate transformation |
US7376254B2 (en) | 2002-11-25 | 2008-05-20 | Siemens Aktiengesellschaft | Method for surface-contouring of a three-dimensional image |
DE102013219746A1 (en) * | 2013-09-30 | 2015-04-16 | Siemens Aktiengesellschaft | Ultrasound system with three-dimensional volume representation |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102005042086A1 (en) * | 2005-09-05 | 2007-03-15 | Siemens Ag | Creating medical investigation picture of liver of a patient for investigating- and/or treatment of liver, comprises injecting water soluble iodine containing solution into the liver and creating a three dimensional image of the liver |
DE102005062582B4 (en) | 2005-12-27 | 2017-08-03 | Siemens Healthcare Gmbh | Imaging system and method for making x-ray and optical images |
DE102006008042A1 (en) * | 2006-02-21 | 2007-07-19 | Siemens Ag | Medical device e.g. c-arc x-ray device, for receiving image of area of body of patient, has position determining devices determining position of medical instrument within operation areas, where devices are arranged in device |
DE102007055204B4 (en) | 2007-11-19 | 2010-04-08 | Deutsches Zentrum für Luft- und Raumfahrt e.V. | Robot, medical workstation, and method of projecting an image onto the surface of an object |
DE102011003297B4 (en) * | 2011-01-28 | 2016-07-28 | Siemens Healthcare Gmbh | Method for obtaining a 3-D reconstruction and X-ray imaging device with an X-ray C arc |
DE102011006537B4 (en) * | 2011-03-31 | 2014-12-31 | Siemens Aktiengesellschaft | Method for registering a first coordinate system of a first medical imaging device with a second coordinate system of a second medical imaging device and / or a third coordinate system of a medical instrument, which is defined by markers of a medical navigation device, and medical examination and / or treatment system |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE19919907C2 (en) * | 1999-04-30 | 2003-10-16 | Siemens Ag | Method and device for catheter navigation in three-dimensional vascular tree images |
-
1999
- 1999-10-26 DE DE19951503A patent/DE19951503B4/en not_active Expired - Fee Related
- 1999-10-26 DE DE19951502A patent/DE19951502A1/en not_active Ceased
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2002063236A3 (en) * | 2001-02-07 | 2003-12-31 | Aesculap Ag & Co Kg | Method and device for determining the contour of a recess in a piece of material |
WO2002063236A2 (en) * | 2001-02-07 | 2002-08-15 | Aesculap Ag & Co. Kg | Method and device for determining the contour of a recess in a piece of material |
DE10136709A1 (en) * | 2001-07-27 | 2003-02-20 | Siemens Ag | Operation system for carrying out minimally invasive surgical interventions on patients whereby a surgical instrument is combined with a position sensor so that the position of the instrument can be related to image data |
DE10136709B4 (en) * | 2001-07-27 | 2004-09-02 | Siemens Ag | Device for performing surgical interventions and method for displaying image information during such an intervention on a patient |
US7215990B2 (en) | 2001-07-27 | 2007-05-08 | Siemens Aktiengesellschaft | Device and method for carrying out surgical interventions on a patient |
EP1312309A1 (en) | 2001-11-09 | 2003-05-21 | ZN Vision Technologies AG | Method for determining the position of an object using images with a local resolution |
US7010095B2 (en) | 2002-01-21 | 2006-03-07 | Siemens Aktiengesellschaft | Apparatus for determining a coordinate transformation |
DE10202091B4 (en) * | 2002-01-21 | 2005-09-08 | Siemens Ag | Device for determining a coordinate transformation |
DE10235795A1 (en) * | 2002-08-05 | 2004-02-26 | Siemens Ag | Medical device |
DE10235795B4 (en) | 2002-08-05 | 2018-10-31 | Siemens Healthcare Gmbh | Medical device |
US7369694B2 (en) | 2002-11-25 | 2008-05-06 | Siemens Aktiengesellschaft | Method and medical device for the automatic determination of coordinates of images of marks in a volume dataset |
US7376254B2 (en) | 2002-11-25 | 2008-05-20 | Siemens Aktiengesellschaft | Method for surface-contouring of a three-dimensional image |
DE10254942B3 (en) * | 2002-11-25 | 2004-08-12 | Siemens Ag | Method for automatically determining the coordinates of images of marks in a volume data set and medical device |
DE102004011959A1 (en) * | 2003-09-29 | 2005-05-12 | Fraunhofer Ges Forschung | Apparatus and method for repositionable positioning of an object relative to an intracorporeal body region |
DE102004011888A1 (en) * | 2003-09-29 | 2005-05-04 | Fraunhofer Ges Forschung | Device for the virtual situation analysis of at least one intracorporeally introduced into a body medical instrument |
DE102013219746A1 (en) * | 2013-09-30 | 2015-04-16 | Siemens Aktiengesellschaft | Ultrasound system with three-dimensional volume representation |
Also Published As
Publication number | Publication date |
---|---|
DE19951503A1 (en) | 2001-01-18 |
DE19951503B4 (en) | 2004-01-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE10108547B4 (en) | Operating system for controlling surgical instruments based on intra-operative X-ray images | |
DE10202091B4 (en) | Device for determining a coordinate transformation | |
DE10136709B4 (en) | Device for performing surgical interventions and method for displaying image information during such an intervention on a patient | |
DE69432834T2 (en) | Display of the location of a surgical probe | |
DE69922980T2 (en) | METHOD AND DEVICE FOR POSITIONING A DEVICE IN A BODY | |
EP1127545B1 (en) | Procedure for locating objects in radiotherapy | |
DE69534862T2 (en) | Surgical navigation arrangement including reference and location systems | |
DE19914455B4 (en) | Method for determining the movement of an organ or therapeutic area of a patient and a system suitable for this purpose | |
DE10210645B4 (en) | A method of detecting and displaying a medical catheter inserted into an examination area of a patient | |
EP3393391B1 (en) | Device for intraoperative image-guided navigation during surgical interventions in the vicinity of the spine and the adjoining thoracic, pelvic or head area | |
EP2260784B1 (en) | System for orientation support and imaging an instrument in the interior of an examined object, particularly in the human body | |
DE60032475T2 (en) | NAVIGATION GUIDANCE ON COMPUTER-BASED FLUOROSCOPIC IMAGING | |
DE102008022924A1 (en) | Device for medical intervention, has medical instrument which is inserted in moving body area of patient, and robot with multiple free moving space grades | |
EP1142536A1 (en) | Patient referencing in a medical navigation system using projected light points | |
DE10210647A1 (en) | Method for displaying an image of an instrument inserted into an area of a patient under examination uses a C-arch fitted with a source of X-rays and a ray detector. | |
DE10015826A1 (en) | Image generating system for medical surgery | |
DE19951502A1 (en) | Medical imaging system for surgical applications | |
DE10210646A1 (en) | Method for displaying a medical instrument brought into an examination area of a patient | |
EP1925256A1 (en) | Method and device for registering an anatomical structure with markers | |
DE19909816B4 (en) | Navigation system for carrying out and supporting surgical interventions and marking device or fiducial and pointer for such a navigation system | |
DE202011110755U1 (en) | Navigation attachment for optical devices in medicine and device for displaying image data | |
EP1319368A2 (en) | Method for determining the orientation and relative position of a medical instrument | |
DE102006060421B4 (en) | Medical system for image-based diagnosis or therapy of a patient's body and method performed by the system | |
DE69831292T2 (en) | DEVICE FOR IMAGE-SUPPORTED THORAX THERAPY | |
DE10157965A1 (en) | Navigation system with breathing or EKG triggering to increase navigation accuracy |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
OP8 | Request for examination as to paragraph 44 patent law | ||
8131 | Rejection |