4 resultados para µCT-scan
em ArchiMeD - Elektronische Publikationen der Universität Mainz - Alemanha
Resumo:
Auf der Suche nach dem „vulnerablen Plaque“, der ein besonders hohes Risiko für Schlaganfall und Herzinfarkt besitzt, findet momentan ein Paradigmenwechsel statt. Anstelle des klassischen Stenosegrades gewinnt die Darstellung der Plaquemorphologie zunehmend an Bedeutung. Fragestellung: Ziel dieser Arbeit ist es, die Fähigkeiten eines modernen 16-Kanal-CT hinsichtlich der Auflösung des Plaqueinneren bei Atherosklerose der Karotiden zu untersuchen und den Halo-Effekt in vivo zu erforschen. Methoden: Für die Studie wurden von 28 Patienten mit bekannter, symptomatischer Karotisstenose vor der gefäßchirurgischen Intervention CT-Bilder angefertigt, die nachfolgend mit der Histologie der Gefäßpräparate korreliert wurden. Auf diese Weise konnten die mikroskopisch identifizierten Lipidkerne im CT-Bild eingezeichnet und hinsichtlich ihrer Fläche und Dichtewerte evaluiert werden. In einem weiteren Schritt führten 2 Radiologen in Unkenntnis der histologischen Ergebnisse unabhängig voneinander eine Befundung durch und markierten mutmaßliche Lipidkerne. Zudem wurden sowohl in der verblindeten als auch in der histologiekontrollierten Auswertung die Plaquetypen anhand der AHA-Klassifikation bestimmt. Ein dritter Befundungsdurchgang geschah unter Zuhilfenahme einer von uns entwickelten Software, die CT-Bilder farbkodiert um die Detektion der Lipidkerne zu verbessern. Anhand der Farbkodierung wurde zudem ein Indexwert errechnet, der eine objektive Zuordnung zur AHA-Klassifikation ermöglichen sollte. Von 6 Patienten wurde zusätzlich noch eine native CT-Aufnahme angefertigt, die durch MPR exakt an die Kontrastmittelserie angeglichen wurde. Auf diese Weise konnte der Halo-Effekt, der die Plaqueanteile im lumennahen Bereich überstrahlt, quantifiziert und charakterisiert werden. Ergebnisse: Während die Einstufung in die AHA-Klassifikation sowohl durch den Befunder als auch durch den Softwarealgorithmus eine hohe Korrelation mit der Histologie aufweist (Typ IV/Va: 89 %, Typ Vb: 70 %, Typ Vc: 89 %, Typ VI: 55 %), ist die Detektion der Lipidkerne in beiden Fällen nicht ausreichend gut und die Befunderabhängigkeit zu groß (Cohens Kappa: 18 %). Eine Objektivierung der AHA-Klassifikation der Plaques durch Indexberechnung nach Farbkodierung scheint möglich, wenn auch dem Befunder nicht überlegen. Die fibröse Kappe kann nicht abgegrenzt werden, da Überstrahlungseffekte des Kontrastmittels dessen HU-Werte verfälschen. Dieser Halo-Effekt zeigte sich im Median 1,1 mm breit mit einer Standardabweichung von 0,38 mm. Eine Abhängigkeit von der Kontrastmitteldichte im Gefäßlumen konnte dabei nicht nachgewiesen werden. Der Halo-Effekt fiel im Median um -106 HU/mm ab, bei einer Standardabweichung von 33 HU/mm. Schlussfolgerung: Die CT-Technologie zeigt sich, was die Darstellung von einzelnen Plaquekomponenten angeht, den bekannten Fähigkeiten der MRT noch unterlegen, insbesondere in Bezug auf die fibröse Kappe. Ihre Fähigkeiten liegen bisher eher in der Einstufung von Plaques in eine grobe Klassifikation, angelehnt an die der AHA. Die klinische Relevanz dessen jedoch gilt es in Zukunft in größeren Studien weiter zu untersuchen. Auch lässt die Weiterentwicklung der Computertomographie auf eine zukünftig höhere Auflösung der Plaquemorphologie hoffen.
Resumo:
Vergleich von Datensätzen,die mit Hilfe von den Programmen "Volume©","Pulmo©", "Yacta©" und PulmoFUNC(ILab) erstellt wurden. Dabei wurden jeweils die Lungen- und Emphysemvolumina verglichen, die mit den 4 Programmen ermittelt wurden. Außerdem wurde noch die mittlere Lungendichte als Mittelwert aller Lungenvoxel bestimmt. Zusätzlich wurde noch der Emphysemindex als Quotient aus Emphysem- und Lungenvolumina errechnet. Die Programme waren unterschiedlich benutzerfreundlich in der Bearbeitung: Die weitestgehend manuell zu bearbeitenden Programme Volume© und Pulmo© benötigten zur Bearbeitung deutlich mehr Zeit als die überwiegend automatisch arbeitenden Programme Yacta und PulmoFUNC(ILab).
Resumo:
Die zuverlässige Berechnung von quantitativen Parametern der Lungenventilation ist für ein Verständnis des Verhaltens der Lunge und insbesondere für die Diagnostik von Lungenerkrankungen von großer Bedeutung. Nur durch quantitative Parameter sind verlässliche und reproduzierbare diagnostische Aussagen über den Gesundheitszustand der Lunge möglich. Im Rahmen dieser Arbeit wurden neue quantitative Verfahren zur Erfassung der Lungenventilation basierend auf der dynamischen Computer- (CT) und Magnetresonanztomographie (MRT) entwickelt. Im ersten Teil dieser Arbeit wurde die Frage untersucht, ob das Aufblähen der Lunge in gesunden Schweinelungen und Lungen mit Akutem Lungenversagen (ARDS) durch einzelne, diskrete Zeitkonstanten beschrieben werden kann, oder ob kontinuierliche Verteilungen von Zeitkonstanten die Realität besser beschreiben. Hierzu wurden Serien dynamischer CT-Aufnahmen während definierter Beatmungsmanöver (Drucksprünge) aufgenommen und anschließend aus den Messdaten mittels inverser Laplace-Transformation die zugehörigen Verteilungen der Zeitkonstanten berechnet. Um die Qualität der Ergebnisse zu analysieren, wurde der Algorithmus im Rahmen von Simulationsrechnungen systematisch untersucht und anschließend in-vivo an gesunden und ARDS-Schweinelungen eingesetzt. Während in den gesunden Lungen mono- und biexponentielle Verteilungen bestimmt wurden, waren in den ARDS-Lungen Verteilungen um zwei dominante Zeitkonstanten notwendig, um die gemessenen Daten auf der Basis des verwendeten Modells verlässlich zu beschreiben. Es wurden sowohl diskrete als auch kontinuierliche Verteilungen gefunden. Die CT liefert Informationen über das solide Lungengewebe, während die MRT von hyperpolarisiertem 3He in der Lage ist, direkt das eingeatmete Gas abzubilden. Im zweiten Teil der Arbeit wurde zeitlich hochaufgelöst das Einströmen eines 3He-Bolus in die Lunge erfasst. Über eine Entfaltungsanalyse wurde anschließend das Einströmverhalten unter Idealbedingungen (unendlich kurzer 3He-Bolus), also die Gewebeantwortfunktion, berechnet und so eine Messtechnik-unabhängige Erfassung des Einströmens von 3He in die Lunge ermöglicht. Zentrale Fragestellung war hier, wie schnell das Gas in die Lunge einströmt. Im Rahmen von Simulationsrechnungen wurde das Verhalten eines Entfaltungsalgorithmus (basierend auf B-Spline Repräsentationen) systematisch analysiert. Zusätzlich wurde ein iteratives Entfaltungsverfahren eingesetzt. Aus zeitlich hochaufgelösten Messungen (7ms) an einer gesunden und einer ARDS-Schweinelunge konnte erstmals nachgewiesen werden, dass das Einströmen in-vivo in weniger als 0,1s geschieht. Die Ergebnisse zeigen Zeitkonstanten im Bereich von 4ms–50ms, wobei zwischen der gesunden Lungen und der ARDS-Lunge deutliche Unterschiede beobachtet wurden. Zusammenfassend ermöglichen daher die in dieser Arbeit vorgestellten Algorithmen eine objektivere Bestimmung quantitativer Parameter der Lungenventilation. Dies ist für die eindeutige Beschreibung ventilatorischer Vorgänge in der Lunge und somit für die Lungendiagnostik unerlässlich. Damit stehen quantitative Methoden für die Lungenfunktionsdiagnostik zur Verfügung, deren diagnostische Relevanz im Rahmen wissenschaftlicher und klinischer Studien untersucht werden kann.
Resumo:
Der technische Fortschritt konfrontiert die medizinische Bildgebung wie keine andere Sparte der Medizin mit einem rasanten Anstieg zu speichernder Daten. Anschaffung, Wartung und Ausbau der nötigen Infrastruktur entwickeln sich zunehmend zu einem ökonomischen Faktor. Ein Verfahren, welches diesem Trend etwas entgegensetzten könnte ist die irreversible Bilddatenkompression. Sie ist seit über 10 Jahren Gegenstand vieler Studien, deren Ergebnisse sich wiederum in Empfehlungen zum Einsatz irreversibler Kompression mehrerer nationaler und internationaler Organisation, wie CAR, DRG, RCR und ESR wiederspiegeln. Tenor dieser Empfehlungen ist, dass der Einsatz von moderater irreversibler Bilddatenkompression sicher und sinnvoll ist. Teil dieser Empfehlungen sind auch Angaben über das Maß an Kompression, ausgedrückt in Kompressionsraten, welche je nach Untersuchung und anatomischer Region als sicher anwendbar gelten und keinen diagnostisch relevanten Verlust der komprimierten Bilder erzeugen.rnVerschiedene Kompressionsalgorithmen wurden vorgeschlagen. Letztendlich haben sich vor allem die beiden weit verbreiteten Algorithmen JPEG und JPEG2000 bewährt. Letzterer erfährt in letzter Zeit zunehmen Anwendung, aufgrund seiner einfacheren Handhabung und seiner umfangreichen Zusatzfunktionen.rnAufgrund rechtlich-ethischer Bedenken hat die irreversible Kompression keine breite praktische Anwendung finden können. Dafür verantwortlich ist unter anderem auch die Unklarheit, wie sich irreversible Kompression auf Nach- und Weiterverarbeitung (sog. Postprocessing) medizinischer Bilder, wie Segmentierung, Volumetrie oder 3D-Darstellung, auswirkt. Bisherige Studien zu diesem Thema umfassen vier verschiedene Postprocessing-Algorithmen. Die untersuchten Algorithmen zeigten sich bei verlustbehafteter Kompression im Bereich der erwähnten, publizierten Kompressionsraten weitgehend unbeeinflusst. Lediglich die computergestützte Messung von Stenosegraden in der digitalen Koronarangiographie kollidiert mit den in Großbritannien geltenden Empfehlungen. Die Verwendung unterschiedlicher Kompressionsalgorithmen schränkt die allgemeinernAussagekraft dieser Studienergebnisse außerdem ein.rnZur Erweiterung der Studienlage wurden vier weitere Nach- und Weiterverarbeitungsalgorithmen auf ihre Kompressionstoleranz untersucht. Dabei wurden die Kompressionsraten von 8:1, 10:1 und 15:1 verwendet, welche um die empfohlenen Kompressionsraten von CAR, DRG, RCR und ESR liegen und so ein praxisnahes Setting bieten. Als Kompressionsalgorithmus wurde JPEG2000 verwendet, aufgrund seiner zunehmenden Nutzung in Studien sowie seiner bereits erwähnten Vorzüge in Sachen Handhabung und Zusatzfunktionen. Die vier Algorithmen umfassten das 3D-Volume rendering von CT-Angiographien der Becken-Bein-Gefäße, die Computer-assistierte Detektion von Lungenrundherden, die automatisierte Volumetrie von Leberrundherden und die funktionelle Bestimmung der Ejektionsfraktion in computertomographischen Aufnahmen des Herzens.rnAlle vier Algorithmen zeigten keinen Einfluss durch irreversibler Bilddatenkompression in denrngewählten Kompressionsraten (8:1, 10:1 und 15:1). Zusammen mit der bestehenden Literatur deuten die Ergebnisse an, dass moderate irreversible Kompression im Rahmen aktueller Empfehlungen keinen Einfluss auf Nach- und Weiterverarbeitung medizinischer Bilder hat. Eine explizitere Vorhersage zu einem bestimmten, noch nicht untersuchten Algorithmus ist jedoch aufgrund der unterschiedlichen Funktionsweisen und Programmierungen nicht sicher möglich.rnSofern ein Postprocessing Algorithmus auf komprimiertes Bildmaterial angewendet werden soll, muss dieser zunächst auf seine Kompressionstoleranz getestet werden. Dabei muss der Test eine rechtlich-ethische Grundlage für den Einsatz des Algorithmus bei komprimiertem Bildmaterial schaffen. Es sind vor allem zwei Optionen denkbar, die Testung institutsintern, eventuell unter Zuhilfenahme von vorgefertigten Bibliotheken, oder die Testung durch den Hersteller des Algorithmus.