7 resultados para Lungenemphysem Mehrschicht CT - Datensätze

em ArchiMeD - Elektronische Publikationen der Universität Mainz - Alemanha


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Vergleich von Datensätzen,die mit Hilfe von den Programmen "Volume©","Pulmo©", "Yacta©" und PulmoFUNC(ILab) erstellt wurden. Dabei wurden jeweils die Lungen- und Emphysemvolumina verglichen, die mit den 4 Programmen ermittelt wurden. Außerdem wurde noch die mittlere Lungendichte als Mittelwert aller Lungenvoxel bestimmt. Zusätzlich wurde noch der Emphysemindex als Quotient aus Emphysem- und Lungenvolumina errechnet. Die Programme waren unterschiedlich benutzerfreundlich in der Bearbeitung: Die weitestgehend manuell zu bearbeitenden Programme Volume© und Pulmo© benötigten zur Bearbeitung deutlich mehr Zeit als die überwiegend automatisch arbeitenden Programme Yacta und PulmoFUNC(ILab).

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Die vorliegende Dissertation untersucht die biogeochemischen Vorgänge in der Vegetationsschicht (Bestand) und die Rückkopplungen zwischen physiologischen und physikalischen Umweltprozessen, die das Klima und die Chemie der unteren Atmosphäre beeinflussen. Ein besondere Schwerpunkt ist die Verwendung theoretischer Ansätze zur Quantifizierung des vertikalen Austauschs von Energie und Spurengasen (Vertikalfluss) unter besonderer Berücksichtigung der Wechselwirkungen der beteiligten Prozesse. Es wird ein differenziertes Mehrschicht-Modell der Vegetation hergeleitet, implementiert, für den amazonischen Regenwald parametrisiert und auf einen Standort in Rondonia (Südwest Amazonien) angewendet, welches die gekoppelten Gleichungen zur Energiebilanz der Oberfläche und CO2-Assimilation auf der Blattskala mit einer Lagrange-Beschreibung des Vertikaltransports auf der Bestandesskala kombiniert. Die hergeleiteten Parametrisierungen beinhalten die vertikale Dichteverteilung der Blattfläche, ein normalisiertes Profil der horizontalen Windgeschwindigkeit, die Lichtakklimatisierung der Photosynthesekapazität und den Austausch von CO2 und Wärme an der Bodenoberfläche. Desweiteren werden die Berechnungen zur Photosynthese, stomatären Leitfähigkeit und der Strahlungsabschwächung im Bestand mithilfe von Feldmessungen evaluiert. Das Teilmodell zum Vertikaltransport wird im Detail unter Verwendung von 222-Radon-Messungen evaluiert. Die ``Vorwärtslösung'' und der ``inverse Ansatz'' des Lagrangeschen Dispersionsmodells werden durch den Vergleich von beobachteten und vorhergesagten Konzentrationsprofilen bzw. Bodenflüssen bewertet. Ein neuer Ansatz wird hergeleitet, um die Unsicherheiten des inversen Ansatzes aus denjenigen des Eingabekonzentrationsprofils zu quantifizieren. Für nächtliche Bedingungen wird eine modifizierte Parametrisierung der Turbulenz vorgeschlagen, welche die freie Konvektion während der Nacht im unteren Bestand berücksichtigt und im Vergleich zu früheren Abschätzungen zu deutlich kürzeren Aufenthaltszeiten im Bestand führt. Die vorhergesagte Stratifizierung des Bestandes am Tage und in der Nacht steht im Einklang mit Beobachtungen in dichter Vegetation. Die Tagesgänge der vorhergesagten Flüsse und skalaren Profile von Temperatur, H2O, CO2, Isopren und O3 während der späten Regen- und Trockenzeit am Rondonia-Standort stimmen gut mit Beobachtungen überein. Die Ergebnisse weisen auf saisonale physiologische Änderungen hin, die sich durch höhere stomatäre Leitfähigkeiten bzw. niedrigere Photosyntheseraten während der Regen- und Trockenzeit manifestieren. Die beobachteten Depositionsgeschwindigkeiten für Ozon während der Regenzeit überschreiten diejenigen der Trockenzeit um 150-250%. Dies kann nicht durch realistische physiologische Änderungen erklärt werden, jedoch durch einen zusätzlichen cuticulären Aufnahmemechanismus, möglicherweise an feuchten Oberflächen. Der Vergleich von beobachteten und vorhergesagten Isoprenkonzentrationen im Bestand weist auf eine reduzierte Isoprenemissionskapazität schattenadaptierter Blätter und zusätzlich auf eine Isoprenaufnahme des Bodens hin, wodurch sich die globale Schätzung für den tropischen Regenwald um 30% reduzieren würde. In einer detaillierten Sensitivitätsstudie wird die VOC Emission von amazonischen Baumarten unter Verwendung eines neuronalen Ansatzes in Beziehung zu physiologischen und abiotischen Faktoren gesetzt. Die Güte einzelner Parameterkombinationen bezüglich der Vorhersage der VOC Emission wird mit den Vorhersagen eines Modells verglichen, das quasi als Standardemissionsalgorithmus für Isopren dient und Licht sowie Temperatur als Eingabeparameter verwendet. Der Standardalgorithmus und das neuronale Netz unter Verwendung von Licht und Temperatur als Eingabeparameter schneiden sehr gut bei einzelnen Datensätzen ab, scheitern jedoch bei der Vorhersage beobachteter VOC Emissionen, wenn Datensätze von verschiedenen Perioden (Regen/Trockenzeit), Blattentwicklungsstadien, oder gar unterschiedlichen Spezies zusammengeführt werden. Wenn dem Netzwerk Informationen über die Temperatur-Historie hinzugefügt werden, reduziert sich die nicht erklärte Varianz teilweise. Eine noch bessere Leistung wird jedoch mit physiologischen Parameterkombinationen erzielt. Dies verdeutlicht die starke Kopplung zwischen VOC Emission und Blattphysiologie.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Die zuverlässige Berechnung von quantitativen Parametern der Lungenventilation ist für ein Verständnis des Verhaltens der Lunge und insbesondere für die Diagnostik von Lungenerkrankungen von großer Bedeutung. Nur durch quantitative Parameter sind verlässliche und reproduzierbare diagnostische Aussagen über den Gesundheitszustand der Lunge möglich. Im Rahmen dieser Arbeit wurden neue quantitative Verfahren zur Erfassung der Lungenventilation basierend auf der dynamischen Computer- (CT) und Magnetresonanztomographie (MRT) entwickelt. Im ersten Teil dieser Arbeit wurde die Frage untersucht, ob das Aufblähen der Lunge in gesunden Schweinelungen und Lungen mit Akutem Lungenversagen (ARDS) durch einzelne, diskrete Zeitkonstanten beschrieben werden kann, oder ob kontinuierliche Verteilungen von Zeitkonstanten die Realität besser beschreiben. Hierzu wurden Serien dynamischer CT-Aufnahmen während definierter Beatmungsmanöver (Drucksprünge) aufgenommen und anschließend aus den Messdaten mittels inverser Laplace-Transformation die zugehörigen Verteilungen der Zeitkonstanten berechnet. Um die Qualität der Ergebnisse zu analysieren, wurde der Algorithmus im Rahmen von Simulationsrechnungen systematisch untersucht und anschließend in-vivo an gesunden und ARDS-Schweinelungen eingesetzt. Während in den gesunden Lungen mono- und biexponentielle Verteilungen bestimmt wurden, waren in den ARDS-Lungen Verteilungen um zwei dominante Zeitkonstanten notwendig, um die gemessenen Daten auf der Basis des verwendeten Modells verlässlich zu beschreiben. Es wurden sowohl diskrete als auch kontinuierliche Verteilungen gefunden. Die CT liefert Informationen über das solide Lungengewebe, während die MRT von hyperpolarisiertem 3He in der Lage ist, direkt das eingeatmete Gas abzubilden. Im zweiten Teil der Arbeit wurde zeitlich hochaufgelöst das Einströmen eines 3He-Bolus in die Lunge erfasst. Über eine Entfaltungsanalyse wurde anschließend das Einströmverhalten unter Idealbedingungen (unendlich kurzer 3He-Bolus), also die Gewebeantwortfunktion, berechnet und so eine Messtechnik-unabhängige Erfassung des Einströmens von 3He in die Lunge ermöglicht. Zentrale Fragestellung war hier, wie schnell das Gas in die Lunge einströmt. Im Rahmen von Simulationsrechnungen wurde das Verhalten eines Entfaltungsalgorithmus (basierend auf B-Spline Repräsentationen) systematisch analysiert. Zusätzlich wurde ein iteratives Entfaltungsverfahren eingesetzt. Aus zeitlich hochaufgelösten Messungen (7ms) an einer gesunden und einer ARDS-Schweinelunge konnte erstmals nachgewiesen werden, dass das Einströmen in-vivo in weniger als 0,1s geschieht. Die Ergebnisse zeigen Zeitkonstanten im Bereich von 4ms–50ms, wobei zwischen der gesunden Lungen und der ARDS-Lunge deutliche Unterschiede beobachtet wurden. Zusammenfassend ermöglichen daher die in dieser Arbeit vorgestellten Algorithmen eine objektivere Bestimmung quantitativer Parameter der Lungenventilation. Dies ist für die eindeutige Beschreibung ventilatorischer Vorgänge in der Lunge und somit für die Lungendiagnostik unerlässlich. Damit stehen quantitative Methoden für die Lungenfunktionsdiagnostik zur Verfügung, deren diagnostische Relevanz im Rahmen wissenschaftlicher und klinischer Studien untersucht werden kann.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Die chronisch obstruktive Lungenerkrankung (engl. chronic obstructive pulmonary disease, COPD) ist ein Überbegriff für Erkrankungen, die zu Husten, Auswurf und Dyspnoe (Atemnot) in Ruhe oder Belastung führen - zu diesen werden die chronische Bronchitis und das Lungenemphysem gezählt. Das Fortschreiten der COPD ist eng verknüpft mit der Zunahme des Volumens der Wände kleiner Luftwege (Bronchien). Die hochauflösende Computertomographie (CT) gilt bei der Untersuchung der Morphologie der Lunge als Goldstandard (beste und zuverlässigste Methode in der Diagnostik). Möchte man Bronchien, eine in Annäherung tubuläre Struktur, in CT-Bildern vermessen, so stellt die geringe Größe der Bronchien im Vergleich zum Auflösungsvermögen eines klinischen Computertomographen ein großes Problem dar. In dieser Arbeit wird gezeigt wie aus konventionellen Röntgenaufnahmen CT-Bilder berechnet werden, wo die mathematischen und physikalischen Fehlerquellen im Bildentstehungsprozess liegen und wie man ein CT-System mittels Interpretation als lineares verschiebungsinvariantes System (engl. linear shift invariant systems, LSI System) mathematisch greifbar macht. Basierend auf der linearen Systemtheorie werden Möglichkeiten zur Beschreibung des Auflösungsvermögens bildgebender Verfahren hergeleitet. Es wird gezeigt wie man den Tracheobronchialbaum aus einem CT-Datensatz stabil segmentiert und mittels eines topologieerhaltenden 3-dimensionalen Skelettierungsalgorithmus in eine Skelettdarstellung und anschließend in einen kreisfreien Graphen überführt. Basierend auf der linearen System Theorie wird eine neue, vielversprechende, integral-basierte Methodik (IBM) zum Vermessen kleiner Strukturen in CT-Bildern vorgestellt. Zum Validieren der IBM-Resultate wurden verschiedene Messungen an einem Phantom, bestehend aus 10 unterschiedlichen Silikon Schläuchen, durchgeführt. Mit Hilfe der Skelett- und Graphendarstellung ist ein Vermessen des kompletten segmentierten Tracheobronchialbaums im 3-dimensionalen Raum möglich. Für 8 zweifach gescannte Schweine konnte eine gute Reproduzierbarkeit der IBM-Resultate nachgewiesen werden. In einer weiteren, mit IBM durchgeführten Studie konnte gezeigt werden, dass die durchschnittliche prozentuale Bronchialwandstärke in CT-Datensätzen von 16 Rauchern signifikant höher ist, als in Datensätzen von 15 Nichtrauchern. IBM läßt sich möglicherweise auch für Wanddickenbestimmungen bei Problemstellungen aus anderen Arbeitsgebieten benutzen - kann zumindest als Ideengeber dienen. Ein Artikel mit der Beschreibung der entwickelten Methodik und der damit erzielten Studienergebnisse wurde zur Publikation im Journal IEEE Transactions on Medical Imaging angenommen.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Auf der Suche nach dem „vulnerablen Plaque“, der ein besonders hohes Risiko für Schlaganfall und Herzinfarkt besitzt, findet momentan ein Paradigmenwechsel statt. Anstelle des klassischen Stenosegrades gewinnt die Darstellung der Plaquemorphologie zunehmend an Bedeutung. Fragestellung: Ziel dieser Arbeit ist es, die Fähigkeiten eines modernen 16-Kanal-CT hinsichtlich der Auflösung des Plaqueinneren bei Atherosklerose der Karotiden zu untersuchen und den Halo-Effekt in vivo zu erforschen. Methoden: Für die Studie wurden von 28 Patienten mit bekannter, symptomatischer Karotisstenose vor der gefäßchirurgischen Intervention CT-Bilder angefertigt, die nachfolgend mit der Histologie der Gefäßpräparate korreliert wurden. Auf diese Weise konnten die mikroskopisch identifizierten Lipidkerne im CT-Bild eingezeichnet und hinsichtlich ihrer Fläche und Dichtewerte evaluiert werden. In einem weiteren Schritt führten 2 Radiologen in Unkenntnis der histologischen Ergebnisse unabhängig voneinander eine Befundung durch und markierten mutmaßliche Lipidkerne. Zudem wurden sowohl in der verblindeten als auch in der histologiekontrollierten Auswertung die Plaquetypen anhand der AHA-Klassifikation bestimmt. Ein dritter Befundungsdurchgang geschah unter Zuhilfenahme einer von uns entwickelten Software, die CT-Bilder farbkodiert um die Detektion der Lipidkerne zu verbessern. Anhand der Farbkodierung wurde zudem ein Indexwert errechnet, der eine objektive Zuordnung zur AHA-Klassifikation ermöglichen sollte. Von 6 Patienten wurde zusätzlich noch eine native CT-Aufnahme angefertigt, die durch MPR exakt an die Kontrastmittelserie angeglichen wurde. Auf diese Weise konnte der Halo-Effekt, der die Plaqueanteile im lumennahen Bereich überstrahlt, quantifiziert und charakterisiert werden. Ergebnisse: Während die Einstufung in die AHA-Klassifikation sowohl durch den Befunder als auch durch den Softwarealgorithmus eine hohe Korrelation mit der Histologie aufweist (Typ IV/Va: 89 %, Typ Vb: 70 %, Typ Vc: 89 %, Typ VI: 55 %), ist die Detektion der Lipidkerne in beiden Fällen nicht ausreichend gut und die Befunderabhängigkeit zu groß (Cohens Kappa: 18 %). Eine Objektivierung der AHA-Klassifikation der Plaques durch Indexberechnung nach Farbkodierung scheint möglich, wenn auch dem Befunder nicht überlegen. Die fibröse Kappe kann nicht abgegrenzt werden, da Überstrahlungseffekte des Kontrastmittels dessen HU-Werte verfälschen. Dieser Halo-Effekt zeigte sich im Median 1,1 mm breit mit einer Standardabweichung von 0,38 mm. Eine Abhängigkeit von der Kontrastmitteldichte im Gefäßlumen konnte dabei nicht nachgewiesen werden. Der Halo-Effekt fiel im Median um -106 HU/mm ab, bei einer Standardabweichung von 33 HU/mm. Schlussfolgerung: Die CT-Technologie zeigt sich, was die Darstellung von einzelnen Plaquekomponenten angeht, den bekannten Fähigkeiten der MRT noch unterlegen, insbesondere in Bezug auf die fibröse Kappe. Ihre Fähigkeiten liegen bisher eher in der Einstufung von Plaques in eine grobe Klassifikation, angelehnt an die der AHA. Die klinische Relevanz dessen jedoch gilt es in Zukunft in größeren Studien weiter zu untersuchen. Auch lässt die Weiterentwicklung der Computertomographie auf eine zukünftig höhere Auflösung der Plaquemorphologie hoffen.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Form und Gestalt kraniofazialer Strukturen sind primär beeinflusst durch die inhärente Integration der unterschiedlichsten Funktionssysteme und externer selektiver Einflüsse. Die Variabilität der Schädel-Morphe ist ein Indikator für solche Einflussfaktoren und damit ein idealer Gegenstand für vergleichende Analysen morphogenetischer Formbildung. Zur Ermittlung morphologisch-adaptiver Trends und Muster wurden sowohl Hypothesen zur morphologischen Differenziertheit als auch zu Korrelationen zwischen modularen Schädelkompartimenten (fazial, neurokranial, basikranial) untersucht. Zusätzlich wurden aus Schichtröntgenaufnahmen (CT) virtuelle Modelle rekonstruiert, welche die Interpretation der statistischen Befunde unterstützen sollten. Zur Berechnung der Gestaltunterschiede wurden mittels eines mechanischen Gelenkarm-Messgerätes (MicroScribe-G2) max. 85 ektokraniale Messpunkte (Landmarks) bzw. dreidimensionale Koordinaten an ca. 520 Schädeln von fünf rezenten Gattungen der Überfamilie Hominoidea (Hylobates, Pongo, Gorilla, Pan und Homo) akquiriert. Aus dem Datensatz wurden geometrische Störfaktoren (Größe, Translation, Rotation) mathematisch eliminiert und die verbleibenden Residuale bzw. ‚Gestalt-Variablen‘ diversen multivariat-statistischen Verfahren unterzogen (Faktoren, Cluster-, Regressions- und Korrelationsanalysen sowie statistische Tests). Die angewandten Methoden erhalten die geometrische Information der Untersuchungsobjekte über alle Analyseschritte hinweg und werden unter der Bezeichnung „Geometric Morphometrics (GMM)“ als aktueller Ansatz der Morphometrie zusammengefasst. Für die unterschiedlichen Fragestellungen wurden spezifische Datensätze generiert. Es konnten diverse morphologische Trends und adaptive Muster mit Hilfe der Synthese statistischer Methoden und computer-basierter Rekonstruktionen aus den generierten Datensätzen ermittelt werden. Außerdem war es möglich, präzise zu rekonstruieren, welche kranialen Strukturen innerhalb der Stichprobe miteinander wechselwirken, einzigartige Variabilitäten repräsentieren oder eher homogen gestaltet sind. Die vorliegenden Befunde lassen erkennen, dass Fazial- und Neurokranium am stärksten miteinander korrelieren, während das Basikranium geringe Abhängigkeiten in Bezug auf Gesichts- oder Hirnschädelveränderungen zeigte. Das Basikranium erweist sich zudem bei den nicht-menschlichen Hominoidea und über alle Analysen hinweg als konservative und evolutiv-persistente Struktur mit dem geringsten Veränderungs-Potential. Juvenile Individuen zeigen eine hohe Affinität zueinander und zu Formen mit einem kleinem Gesichts- und großem Hirnschädel. Während das Kranium des rezenten Menschen primär von Enkephalisation und fazialer Retraktion (Orthognathisierung) dominiert ist und somit eine einzigartige Gestalt aufweist, zeigt sich der Kauapparat als maßgeblich formbildendes Kompartiment bei den nicht-menschlichen Formen. Die Verbindung von GMM mit den interaktiven Möglichkeiten computergenerierter Modelle erwies sich als valides Werkzeug zur Erfassung der aufgeworfenen Fragestellungen. Die Interpretation der Befunde ist durch massive Interkorrelationen der untersuchten Strukturen und der statistisch-mathematischen Prozeduren als hoch komplex zu kennzeichnen. Die Studie präsentiert einen innovativen Ansatz der modernen Morphometrie, welcher für zukünftige Untersuchungen im Bereich der kraniofazialen Gestaltanalyse ausgebaut werden könnte. Dabei verspricht die Verknüpfung mit ‚klassischen’ und modernen Zugängen (z. B. Molekularbiologie) gesteigerte Erkenntnismöglichkeiten für künftige morphometrische Fragestellungen.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Der technische Fortschritt konfrontiert die medizinische Bildgebung wie keine andere Sparte der Medizin mit einem rasanten Anstieg zu speichernder Daten. Anschaffung, Wartung und Ausbau der nötigen Infrastruktur entwickeln sich zunehmend zu einem ökonomischen Faktor. Ein Verfahren, welches diesem Trend etwas entgegensetzten könnte ist die irreversible Bilddatenkompression. Sie ist seit über 10 Jahren Gegenstand vieler Studien, deren Ergebnisse sich wiederum in Empfehlungen zum Einsatz irreversibler Kompression mehrerer nationaler und internationaler Organisation, wie CAR, DRG, RCR und ESR wiederspiegeln. Tenor dieser Empfehlungen ist, dass der Einsatz von moderater irreversibler Bilddatenkompression sicher und sinnvoll ist. Teil dieser Empfehlungen sind auch Angaben über das Maß an Kompression, ausgedrückt in Kompressionsraten, welche je nach Untersuchung und anatomischer Region als sicher anwendbar gelten und keinen diagnostisch relevanten Verlust der komprimierten Bilder erzeugen.rnVerschiedene Kompressionsalgorithmen wurden vorgeschlagen. Letztendlich haben sich vor allem die beiden weit verbreiteten Algorithmen JPEG und JPEG2000 bewährt. Letzterer erfährt in letzter Zeit zunehmen Anwendung, aufgrund seiner einfacheren Handhabung und seiner umfangreichen Zusatzfunktionen.rnAufgrund rechtlich-ethischer Bedenken hat die irreversible Kompression keine breite praktische Anwendung finden können. Dafür verantwortlich ist unter anderem auch die Unklarheit, wie sich irreversible Kompression auf Nach- und Weiterverarbeitung (sog. Postprocessing) medizinischer Bilder, wie Segmentierung, Volumetrie oder 3D-Darstellung, auswirkt. Bisherige Studien zu diesem Thema umfassen vier verschiedene Postprocessing-Algorithmen. Die untersuchten Algorithmen zeigten sich bei verlustbehafteter Kompression im Bereich der erwähnten, publizierten Kompressionsraten weitgehend unbeeinflusst. Lediglich die computergestützte Messung von Stenosegraden in der digitalen Koronarangiographie kollidiert mit den in Großbritannien geltenden Empfehlungen. Die Verwendung unterschiedlicher Kompressionsalgorithmen schränkt die allgemeinernAussagekraft dieser Studienergebnisse außerdem ein.rnZur Erweiterung der Studienlage wurden vier weitere Nach- und Weiterverarbeitungsalgorithmen auf ihre Kompressionstoleranz untersucht. Dabei wurden die Kompressionsraten von 8:1, 10:1 und 15:1 verwendet, welche um die empfohlenen Kompressionsraten von CAR, DRG, RCR und ESR liegen und so ein praxisnahes Setting bieten. Als Kompressionsalgorithmus wurde JPEG2000 verwendet, aufgrund seiner zunehmenden Nutzung in Studien sowie seiner bereits erwähnten Vorzüge in Sachen Handhabung und Zusatzfunktionen. Die vier Algorithmen umfassten das 3D-Volume rendering von CT-Angiographien der Becken-Bein-Gefäße, die Computer-assistierte Detektion von Lungenrundherden, die automatisierte Volumetrie von Leberrundherden und die funktionelle Bestimmung der Ejektionsfraktion in computertomographischen Aufnahmen des Herzens.rnAlle vier Algorithmen zeigten keinen Einfluss durch irreversibler Bilddatenkompression in denrngewählten Kompressionsraten (8:1, 10:1 und 15:1). Zusammen mit der bestehenden Literatur deuten die Ergebnisse an, dass moderate irreversible Kompression im Rahmen aktueller Empfehlungen keinen Einfluss auf Nach- und Weiterverarbeitung medizinischer Bilder hat. Eine explizitere Vorhersage zu einem bestimmten, noch nicht untersuchten Algorithmus ist jedoch aufgrund der unterschiedlichen Funktionsweisen und Programmierungen nicht sicher möglich.rnSofern ein Postprocessing Algorithmus auf komprimiertes Bildmaterial angewendet werden soll, muss dieser zunächst auf seine Kompressionstoleranz getestet werden. Dabei muss der Test eine rechtlich-ethische Grundlage für den Einsatz des Algorithmus bei komprimiertem Bildmaterial schaffen. Es sind vor allem zwei Optionen denkbar, die Testung institutsintern, eventuell unter Zuhilfenahme von vorgefertigten Bibliotheken, oder die Testung durch den Hersteller des Algorithmus.