Der Blick in den Körper – Erweiterte Realität in der computergestützten Chirurgie

Informatiker der TU München entwickeln zusammen mit Chirurgen der Chirurgischen Uniklinik ein computergestütztes Visualisierungs- und Navigationssystem, das präziseres Arbeiten bei minimal-invasiven Eingriffen ermöglichen soll. Eine erste Anwendung wird in den nächsten Monaten klinisch getestet.

Chirurgie durchs Schlüsselloch – Minimal-invasive Eingriffe

Der Chirurg betritt den Operationssaal und setzt sich ein kleines Gerät mit einer Datenbrille auf den Kopf. Auf dem Bildschirm in der Brille sieht er den Patienten genau so, wie er in Wirklichkeit auf dem OP-Tisch liegt. Aber auf Knopfdruck erkennt er noch viel mehr: Er kann Schicht für Schicht in den Körper hineinblicken, durch Haut und Muskeln hindurch, bis auf die Knochen. Nachdem er sich einen Überblick verschafft hat, beginnt der Chirurg den Eingriff: Er macht eine kleine Öffnung in den Körper, durch die er seine Instrumente – Endoskop, Katheter oder Bohrer – einführt. Wo er den Schnitt setzen muss, ist in der Datenbrille auf dem Bildschirm markiert. Dort kann er auch genau verfolgen, wo sich die Instrumente befinden. Er sieht sie zwischen den Organen, Knochen und Blutgefäßen, als ob er selbst über einen Röntgenblick verfügen würde.

Noch ist dieses Szenario Zukunftsmusik. Heutzutage muss sich der Chirurg bei minimal-invasiven Eingriffen (umgangssprachlich auch Schlüsselloch-Chirurgie genannt) noch auf Bildschirme neben dem OP-Tisch verlassen, die ihm mit Röntgenaufnahmen und Kamerabildern des Endoskops den Weg durch den Körper des Patienten weisen. Der Arzt muss also ständig den Kopf drehen, vom Patienten zum Bildschirm und wieder zurück. Eine Forschergruppe aus Informatikern und Ärzten in München hat sich zum Ziel gesetzt, die Arbeit in der minimal-invasiven Chirurgie zu erleichtern. Die Gruppe arbeitet an einem System zur Visualisierung und zur chirurgischen Navigation, das Augmented Reality nutzt. „Erweiterte Realität“ heißt das Verfahren deshalb, weil es das Bild der Wirklichkeit um Zusatzinformationen aus dem Computer ergänzt.

Der direkte Blick in den Patienten – Verschmelzung von Realität und Röntgenbild

Am Lehrstuhl für Informatikanwendungen in der Medizin & Augmented Reality der Technischen Universität München (TUM) beschäftigt sich das Team um Professor Nassir Navab mit mehreren Projekten. Das Ziel ist ein System, das dem Arzt während der OP ein dreidimensionales Bild des Körperinneren und seiner Instrumente zeigt – und das nicht auf einem zusätzlichen Bildschirm, sondern direkt beim Blick auf den Patienten. Damit das System eine Verbesserung bringt, sollte es leicht bedienbar sein und nicht zu viel störende Technik beinhalten. Die Informatiker verschmelzen per Computer vorher aufgenommene und aufbereitete Daten mit Kamerabildern aus der realen Umwelt.

Aus dem Computertomografen (CT) erhalten die Informatiker die Ausgangsbilder für das virtuell erstellte Bild vom Inneren des Körpers. Ein modernes Spiral-CT macht dafür mehrere Röntgenbilder aus unterschiedlichen Blickwinkeln und rekonstruiert dann ihre dreidimensionale Ansicht. Ein Computertomogramm ist übersichtlicher als ein normales Röntgenbild, denn es ermöglicht die Unterscheidung verschiedener Gewebearten des Körpers. Die gespeicherten CT-Aufnahmen überlagern die Informatiker dann mit dem realen Kamerabild des Patienten auf dem OP-Tisch. Für den Chirurgen entsteht der Eindruck, als blicke er durch die Haut hindurch in die verschiedenen Schichten des Körpers, dreidimensional und farbig.

Datenhelm und Trackingsystem – Aufwändige Technik für den Operationssaal

Der Arzt sieht dieses halb reale, halb virtuelle Bild in der Brille seines Datenhelms. In dieses sogenannte Head Mounted Display (HMD) sind zwei Farbkameras integriert, die das Livebild aufzeichnen. Sie sind leicht versetzt angebracht – wie zwei Augen. Dadurch wird das zusammengesetzte Bild beider Kameras dreidimensional. Damit die Livedaten und das gespeicherte CT-Bild passgenau aufeinandergelegt werden können, muss das Computerprogramm zu jedem Zeitpunkt wissen, wo sich Arzt und Patient befinden, wohin der Arzt schaut und wie er sich bewegt. Diese Aufgabe erledigt ein Trackingsystem aus Infrarotkameras, das Referenzpunkte verfolgt und so die Position des Patienten und des Head Mounted Displays bis auf Millimeterbruchteile genau bestimmt. Dreht der Chirurg den Kopf, sorgt das Trackingsystem dafür, dass das Computerbild vom Inneren des Körpers exakt seinem Blickwinkel entspricht. Außerdem verfolgt es die Lage der Instrumente in der Hand des Arztes und berechnet daraus ihre genaue Position im Körper. Dazu sind mindestens zwei Infrarotkameras an einem Gerüst rund um den OP-Tisch nötig.

Dieser Aufbau stellt noch eine Schwierigkeit des Systems dar, erklärt Christoph Bichlmeier, Mitarbeiter des Lehrstuhls: „Das Trackingsystem ist sehr teuer und aufwendig zu installieren und zu justieren.“ Wie es in den Operationssaal integriert werden soll, ist bislang noch ein ungelöstes Problem. Mit dem Computerprogramm ist man aber schon relativ weit: Für seine Entwicklung arbeiteten die Forscher zunächst mit Puppen aus Kunststoff. Diese Dummys mit anatomisch korrektem Körperaufbau ersetzten den menschlichen Körper. Weitere Versuche führten sie an Tierkadavern durch. Und auch am lebenden menschlichen Körper konnten die Forscher ihr System testen: Zwei Versuchspersonen, bei denen wegen Verletzungen CT-Aufnahmen angefertigt worden waren, stellten die Bilder zur Verfügung. Nun konnten die Wissenschaftler testen, ob das Programm die Aufnahmen korrekt auf den Körper projiziert.

Ständiges Feedback – Kooperation zwischen Informatikern und Ärzten

Ob das Programm für Ärzte hilfreich und praktikabel ist, überprüfen die Informatiker ständig: Die Entwicklungen werden in enger Zusammenarbeit von Medizinern der Chirurgischen Klinik Innenstadt der Ludwig-Maximilians-Universität (LMU) getestet. So erhalten die Forscher ein regelmäßiges Feedback, um das System den Anforderungen der Chirurgen anzupassen. Dass das Testlabor der Informatiker direkt neben dem Operationssaal der Unfallchirurgie liegt, erleichtert das Teamwork zwischen Theorie und Praxis zusätzlich. Christoph Bichlmeier betont, wie wichtig diese Nähe für das Projekt ist: „Wir Informatiker können uns die OPs ansehen und so die Abläufe in der Chirurgie verstehen lernen.“ Die Chirurgen wiederum kämen vorbei, um die Anwendungen zu testen. So entstehe ein gegenseitiges Verständnis zwischen den zwei Disziplinen. Professor Nassir Navab, der Ordinarius des Lehrstuhls, erklärt die enge Zusammenarbeit: „Sobald ein Programm entwickelt wird, probieren es die Chirurgen aus und sagen uns, welche Änderungen sie brauchen. So haben wir sofortiges Feedback für unsere Arbeit.“

Präzision durch erweiterte Perspektive – der virtuelle Spiegel

In einem Teilprojekt des Lehrstuhls wurde eine weitere neue Anwendung entwickelt: der virtuelle Spiegel. Er kann den chirurgischen Instrumenten zugeschaltet werden und zeigt eine zusätzliche Perspektive des virtuellen Körperbildes, nämlich seine Rückseite. Vorteile bringt das vor allem bei Operationen, die höchste Präzision erfordern, etwa wenn Schrauben in Wirbelkörper gesetzt werden müssen. Mit dem virtuellen Spiegel sieht der Chirurg die Rückseite des Wirbels und erkennt, an welcher Stelle sein Bohrer austreten wird, wenn er in einem bestimmten Winkel bohrt. Die ideale Bohrrichtung wird vor der Operation bestimmt und in der Datenbrille eingeblendet. Mit einer leichten Drehung des Instruments kann der Chirurg den Wirbel auf dem virtuellen Spiegel rotieren lassen, um die Position seines Bohrers zu kontrollieren.

Orthopädische Eingriffe sind aber nicht der einzige Einsatzbereich von erweiterter Realität mit dem Head Mounted Display: Andere Projekte des Lehrstuhls befassen sich mit der Entfernung von Tumoren und der Visualisierung der Blutgefäße bei Bauchspiegelungen. Dazu arbeiten die Informatiker mit dem Klinikum rechts der Isar in München zusammen. Der Datenhelm soll in Schulungen und im Training von Chirurgen und Studenten zum Einsatz kommen. Auch in der Planung von Operationen sieht Professor Navab eine zukünftige Verwendungsmöglichkeit. Erste klinische Studien im Operationssaal seien für die nächsten zwei Jahre geplant. Bis das Head Mounted Display als Medizinprodukt eingesetzt werden könne, werde es aber voraussichtlich noch etwa sieben bis acht Jahre dauern, schätzt Professor Navab.

Professor Ekkehard Euler ist Leiter der Unfallchirurgie an der der Chirurgischen Klinik und Poliklinik Innenstadt der LMU München und hat das System ausprobiert. Er kann sich gut vorstellen, den Datenhelm eines Tages im OP anzuwenden: „Natürlich muss man die Arbeit mit dem System trainieren, aber das ist ja bei allen anderen Operationsverfahren auch nötig. Ich denke, dass es vor allem auch für Schulungen eine interessante Technik ist.“

Der C-Bogen mit Kameras – Erweiterung bestehender Technik

Eine andere Entwicklung des Lehrstuhls für Augmented Reality ist schon einen großen Schritt weiter: Die Informatiker haben ein Bildgebungsgerät, den sogenannten C-Bogen, so aufgerüstet, dass es erweiterte Realität nutzen kann. Die Technik wird in den nächsten Monaten im Operationssaal getestet.

Der bereits existierende C-Bogen ist ein schwenkbarer halbkreisförmiger Bogen mit einer Röntgenkamera. Er kann einen Patienten umkreisen, sodass Aufnahmen aus allen Blickwinkeln möglich sind. Die Bilder werden dann auf einem Monitor neben dem OP-Tisch gezeigt. Der C-Bogen wird sowohl für die Operationsplanung als auch für die Orientierung während der Operation eingesetzt, beispielsweise bei orthopädischen Eingriffen. Wenn der Arzt komplizierte Knochenbrüche verschraubt oder bei einem Patienten mit Osteoporose einen Wirbelkörper mit Zement auffüllt, macht der C-Bogen ständig neue Bilder aus verschiedenen Perspektiven: Das hilft dem Chirurgen, sich zu orientieren und den aktuellen Fortschritt des Eingriffs zu erkennen. Die Methode hat einen großen Nachteil: Während einer einzigen Operation können durchaus zehn bis zwölf Röntgenbilder nötig werden. Das bedeutet eine hohe Strahlenbelastung – für den Patienten, vor allem aber auch für das OP-Personal, das täglich mit dem C-Bogen arbeitet.

Die Idee der Forscher war nun, den C-Bogen mit einer Kamera zu erweitern, die dasselbe Bild aufnimmt wie das Röntgengerät. Auf dem Röntgenbild markiert der Arzt die Stelle für den minimal-invasiven Eingriff. Die Markierung wird gespeichert und auf das Live-Kamerabild übertragen. Wenn der Chirurg nun sein Instrument ansetzt, kann er am Bildschirm verfolgen, wo es sich in Relation zur Markierung und damit zum Röntgenbild befindet. Eine zweite Kamera ist im rechten Winkel zur Röntgenkamera und zur ersten Kamera am C-Bogen angebracht. Sie liefert wichtige Zusatzinformationen, etwa über die Neigung und die Eindringtiefe des Instruments. Der Vorteil der beiden zusätzlichen Kameras am C-Bogen: Der Arzt kann die Lage der Instrumente am Bildschirm verfolgen und jederzeit das Röntgenbild dazuschalten. Im Idealfall führt er so eine Operation mit einer einzigen Röntgenaufnahme durch. Die Strahlenbelastung sinkt drastisch.

Reduzierung der Strahlenbelastung – Klinische Anwendung steht kurz bevor

CAM-C nennen die Informatiker die neue Technik: Camera Augmented Mobile C-Arm. Im Gegensatz zu den teuren und aufwendigen Trackingsystemen für die Datenhelme ist diese Aufrüstung einfach umzusetzen: Die bestehende Technik wird lediglich um zwei optische Kameras erweitert. Für die Ärzte ist keine große Umstellung und Anlernphase nötig. „Jeder Chirurg kann das Gerät sofort benutzen“, sagt Professor Euler. Die Kameras könnten einfach als zusätzliche Navigationshilfe zum bestehenden C-Bogen hinzugeschaltet werden. Wenn der Chirurg darauf verzichten möchte, schaltet er sie einfach wieder ab.

Wichtig ist, dass Röntgen- und Kamerabild exakt deckungsgleich sind, damit beide genau denselben Ausschnitt zeigen. Das erreichen die Informatiker, indem sie den Blickpunkt von Kamera und Röntgenquelle exakt überlagern. Die unterschiedliche optische Verzerrung wird per Software ausgeglichen. „Das System macht präzises Arbeiten möglich, zum Beispiel beim Bohren von Löchern in die Wirbelsäule, wenn eine Verletzung von Nerven und Blutgefäßen droht“, erklärt Professor Euler. In der Unfallchirurgie sind das beispielsweise Brüche der Wirbelkörper oder des Hüftgelenks. Professor Euler fasst die Vorteile des C-Arms mit aufgepflanzter Kamera zusammen: „Er ist sicherer, schneller und bedeutet weniger Strahlenbelastung, sowohl für die Patienten als auch für das OP-Personal.“

Das System wurde schon an Modellen aus Kunststoff und an Tierkadavern getestet und für sicher befunden. In wenigen Monaten schon sollen klinische Studien am Menschen durchgeführt werden, um den zukünftigen routinemäßigen Einsatz des erweiterten C-Bogens im OP zu ermöglichen.

Quellen

Bichlmeier, Christoph et al.: Virtually Extended Surgical Drilling Device: Virtual Mirror for Navigated Spine Surgery.
Bichlmeier, Christoph et al.: Contextual Anatomic Mimesis. Hybrid In-Situ Visualization Method for Improving Multi-Sensory Depth Perception in Medical Augmented Reality. 
Computer Aided Medical Procedures & Augmented Reality (CAMP), Technische Universität München
Merten, Martina: Verschmelzung zweier Welten. In: Deutsches Ärzteblatt, Jg. 104, 2007, Heft 13.
Navab, Nassir et al.: Action- and Workflow-Driven Augmented Reality for Computer-Aided Medical Procedures. In: IEE Computer Graphics and Applications, Jg. 2007, Heft September/Oktober.
Navab, N., Bani-Hashemi, A., Mitschke, M.: Merging visible and invisible: two camera-augmented mobile C-arm (CAMC) applications. Proceedings, 2nd IEEE and ACM International Workshop on Augmented Reality (IWAR'99); Okt. 1999; S. 134-141.
Schröder, Tim: Das Navi für den Körper. In: Faszination Forschung, Jg. 2008, Heft 2.
Traub, Jörg et al.: A Multi-View Opto-Xray Imaging System. Development and First Application in Trauma Surgery.

Lehrstuhl für Informatikanwendungen in der Medizin & Augmented Reality, Computer Aided Medical Procedures (CAMP), Technische Universität München (http://campar.in.tum.de/Chair/ResearchGroupCamp)

NARVIS Projekt (http://www.narvis.org)

Bilder: Lehrstuhl für Informatikanwendungen in der Medizin & Augmented Reality, Technische Universität München (11), DAK/Scholz (1), Shutterstock (1)Filme: Lehrstuhl für Informatikanwendungen in der Medizin & Augmented Reality, Computer Aided Medical Procedures (CAMP), Technische Universität München (http://campar.in.tum.de/Chair/ResearchGroupCamp), Prof. Dr. E. Euler, Chirurgische Klinik Innenstadt, Ludwig-Maximilians-Universität München