993 resultados para Analyse d’implantation
Resumo:
Die vorliegende Arbeit geht der Frage nach, ob die Qualität der Demokratie in Bulgarien nach dem EU-Beitritt nachgelassen hat und wenn ja, in welchen Bereichen. Ausgangspunkt für die Formulierung dieser Frage sind Medienberichte, denen zufolge Bulgarien nach dem Beitritt zur Europäischen Union Rückschritte in seiner Demokratieentwicklung, vor allem im Bereich der Rechtsstaatlichkeit, gemacht habe. Theoretische Grundlage für die Analyse ist das Konzept der defekten Demokratie von Wolfgang Merkel, Hans-Jürgen Puhle, Aurel Croissant, Claudia Eicher und Peter Thiery. Die Veränderungen des Demokratiegehalts für die Jahre des Untersuchungszeitraums (2006 bis 2011) werden anhand des Index Defekter Demokratie erfasst. Die Ergebnisse der Analyse zeigen, dass die Qualität der Demokratie in Bulgarien nach dem EU-Beitritt tatsächlich abgenommen hat. Die deutlichste Zunahme von Defekten ist dabei auf der Dimension des liberalen Rechts- und Verfassungsstaates festzustellen, was vor allem auf den Anstieg der Korruption während des Untersuchungszeitraums zurückzuführen ist.
Resumo:
In der vorliegenden Arbeit wurde gezeigt, wie man das Potential nanopartikulärer Systeme, die vorwiegend via Miniemulsion hergestellt wurden, im Hinblick auf „Drug Delivery“ ausnutzen könnte, indem ein Wirkstoffmodell auf unterschiedliche Art und Weise intrazellulär freigesetzt wurde. Dies wurde hauptsächlich mittels konfokaler Laser-Raster-Mikrokopie (CLSM) in Kombination mit dem Bildbearbeitungsprogramm Volocity® analysiert.rnPBCA-Nanokapseln eigneten sich besonders, um hydrophile Substanzen wie etwa Oligonukleotide zu verkapseln und sie so auf ihrem Transportweg in die Zellen vor einem etwaigen Abbau zu schützen. Es konnte eine Freisetzung der Oligonukleotide in den Zellen aufgrund der elektrostatischen Anziehung des mitochondrialen Membranpotentials nachgewiesen werden. Dabei war die Kombination aus Oligonukleotid und angebundenem Cyanin-Farbstoff (Cy5) an der 5‘-Position der Oligonukleotid-Sequenz ausschlaggebend. Durch quantitative Analysen mittels Volocity® konnte die vollständige Kolokalisation der freigesetzten Oligonukleotide an Mitochondrien bewiesen werden, was anhand der Kolokalisationskoeffizienten „Manders‘ Coefficients“ M1 und M2 diskutiert wurde. Es konnte ebenfalls aufgrund von FRET-Studien doppelt markierter Oligos gezeigt werden, dass die Oligonukleotide weder beim Transport noch bei der Freisetzung abgebaut wurden. Außerdem wurde aufgeklärt, dass nur der Inhalt der Nanokapseln, d. h. die Oligonukleotide, an Mitochondrien akkumulierte, das Kapselmaterial selbst jedoch in anderen intrazellulären Bereichen aufzufinden war. Eine Kombination aus Cyanin-Farbstoffen wie Cy5 mit einer Nukleotidsequenz oder einem Wirkstoff könnte also die Basis für einen gezielten Wirkstofftransport zu Mitochondrien liefern bzw. die Grundlage schaffen, eine Freisetzung aus Kapseln ins Zytoplasma zu gewährleisten.rnDer vielseitige Einsatz der Miniemulsion gestattete es, nicht nur Kapseln sondern auch Nanopartikel herzustellen, in welchen hydrophobe Substanzen im Partikelkern eingeschlossen werden konnten. Diese auf hydrophobe Wechselwirkungen beruhende „Verkapselung“ eines Wirkstoffmodells, in diesem Fall PMI, wurde bei PDLLA- bzw. PS-Nanopartikeln ausgenutzt, welche durch ein HPMA-basiertes Block-Copolymer stabilisiert wurden. Dabei konnte gezeigt werden, dass das hydrophobe Wirkstoffmodell PMI innerhalb kürzester Zeit in die Zellen freigesetzt wurde und sich in sogenannte „Lipid Droplets“ einlagerte, ohne dass die Nanopartikel selbst aufgenommen werden mussten. Daneben war ein intrazelluläres Ablösen des stabilisierenden Block-Copolymers zu verzeichnen, welches rn8 h nach Partikelaufnahme erfolgte und ebenfalls durch Analysen mittels Volocity® untermauert wurde. Dies hatte jedoch keinen Einfluss auf die eigentliche Partikelaufnahme oder die Freisetzung des Wirkstoffmodells. Ein großer Vorteil in der Verwendung des HPMA-basierten Block-Copolymers liegt darin begründet, dass auf zeitaufwendige Waschschritte wie etwa Dialyse nach der Partikelherstellung verzichtet werden konnte, da P(HPMA) ein biokompatibles Polymer ist. Auf der anderen Seite hat man aufgrund der Syntheseroute dieses Block-Copolymers vielfältige Möglichkeiten, Funktionalitäten wie etwa Fluoreszenzmarker einzubringen. Eine kovalente Anbindung eines Wirkstoffs ist ebenfalls denkbar, welcher intrazellulär z. B. aufgrund von enzymatischen Abbauprozessen langsam freigesetzt werden könnte. Somit bietet sich die Möglichkeit mit Nanopartikeln, die durch HPMA-basierte Block-Copolymere stabilisiert wurden, gleichzeitig zwei unterschiedliche Wirkstoffe in die Zellen zu bringen, wobei der eine schnell und der zweite über einen längeren Zeitraum hinweg (kontrolliert) freigesetzt werden könnte.rnNeben Nanokapseln sowie –partikeln, die durch inverse bzw. direkte Miniemulsion dargestellt wurden, sind auch Nanohydrogelpartikel untersucht worden, die sich aufgrund von Selbstorganisation eines amphiphilen Bock-Copolymers bildeten. Diese Nanohydrogelpartikel dienten der Komplexierung von siRNA und wurden hinsichtlich ihrer Anreicherung in Lysosomen untersucht. Aufgrund der Knockdown-Studien von Lutz Nuhn konnte ein Unterschied in der Knockdown-Effizienz festgestellt werden, je nach dem, ob 100 nm oder 40 nm große Nanohydrogelpartikel verwendet wurden. Es sollte festgestellt werden, ob eine größenbedingte, unterschiedlich schnelle Anreicherung dieser beiden Partikel in Lysosomen erfolgte, was die unterschiedliche Knockdown-Effizienz erklären könnte. CLSM-Studien und quantitative Kolokalisationsstudien gaben einen ersten Hinweis auf diese Größenabhängigkeit. rnBei allen verwendeten nanopartikulären Systemen konnte eine Freisetzung ihres Inhalts gezeigt werden. Somit bieten sie ein großes Potential als Wirkstoffträger für biomedizinische Anwendungen.rn
Resumo:
Performanzunterschiede zwischen verschiedenen Autokratietypen wie Monarchien, Militär-, Ein-Parteien- und begrenzten Mehr-Parteien-Regimen sind bis auf wenige Ausnahmen bisher relativ unerforscht. Deshalb widmet sich diese Arbeit folgenden Forschungsfragen: Gibt es Performanzunterschiede zwischen verschiedenen Autokratietypen? Wenn ja, wie gestalten sich diese und wie lassen sie sich erklären? Auf Grundlage der Selektoratstheorie von Bueno de Mesquite et al. wird die Hypothese aufgestellt, dass die Performanz politischer Regime mit der Größe der Winning Coalition steigt. Da verschiedene Autokratietypen unterschiedlich große Winning Coalitions haben, wird angenommen, dass es deutliche Performanzunterschiede zwischen diesen Typen gibt. Als Performanzkriterien dienen in dieser Arbeit wirtschaftlicher Wohlstand, soziale Sicherheit und ökologische Nachhaltigkeit. Aus diesen drei Kriterien wird zusätzlich ein Indikator allgemeiner Performanz gebildet. Die empirische Untersuchung erfolgt mit den Daten des Quality-of-Governement-Datensatzes und erstreckt sich über 140 autokratische Länder im Zeitraum von 1972 bis 2010. Die Daten werden mittels Time-Series-Cross-Section-Regressionen analysiert. Die Ergebnisse der Analysen entsprechen nur teilweise den Erwartungen. Die Größe der Winning Coalition wirkt positiv auf die wirtschaftliche Wohlfahrt und die soziale Sicherheit und damit auch auf die allgemeine Performanz aus. Entgegen den Erwartungen sinkt die ökologische Performanz jedoch mit steigender Größe der Winning Coalition. Auch die Befunde bezüglich der Performanz verschiedener Autokratietypen entsprechen nicht den Erwartungen. So sind Ein-Parteien-Regime insgesamt leistungsfähiger als Mehr-Parteien-Regime, Militär-Regime und Monarchien. Militär-Regime sind leistungsfähiger als Monarchien und tendenziell auch als Mehr-Parteien-Regime.
Resumo:
Der technische Fortschritt konfrontiert die medizinische Bildgebung wie keine andere Sparte der Medizin mit einem rasanten Anstieg zu speichernder Daten. Anschaffung, Wartung und Ausbau der nötigen Infrastruktur entwickeln sich zunehmend zu einem ökonomischen Faktor. Ein Verfahren, welches diesem Trend etwas entgegensetzten könnte ist die irreversible Bilddatenkompression. Sie ist seit über 10 Jahren Gegenstand vieler Studien, deren Ergebnisse sich wiederum in Empfehlungen zum Einsatz irreversibler Kompression mehrerer nationaler und internationaler Organisation, wie CAR, DRG, RCR und ESR wiederspiegeln. Tenor dieser Empfehlungen ist, dass der Einsatz von moderater irreversibler Bilddatenkompression sicher und sinnvoll ist. Teil dieser Empfehlungen sind auch Angaben über das Maß an Kompression, ausgedrückt in Kompressionsraten, welche je nach Untersuchung und anatomischer Region als sicher anwendbar gelten und keinen diagnostisch relevanten Verlust der komprimierten Bilder erzeugen.rnVerschiedene Kompressionsalgorithmen wurden vorgeschlagen. Letztendlich haben sich vor allem die beiden weit verbreiteten Algorithmen JPEG und JPEG2000 bewährt. Letzterer erfährt in letzter Zeit zunehmen Anwendung, aufgrund seiner einfacheren Handhabung und seiner umfangreichen Zusatzfunktionen.rnAufgrund rechtlich-ethischer Bedenken hat die irreversible Kompression keine breite praktische Anwendung finden können. Dafür verantwortlich ist unter anderem auch die Unklarheit, wie sich irreversible Kompression auf Nach- und Weiterverarbeitung (sog. Postprocessing) medizinischer Bilder, wie Segmentierung, Volumetrie oder 3D-Darstellung, auswirkt. Bisherige Studien zu diesem Thema umfassen vier verschiedene Postprocessing-Algorithmen. Die untersuchten Algorithmen zeigten sich bei verlustbehafteter Kompression im Bereich der erwähnten, publizierten Kompressionsraten weitgehend unbeeinflusst. Lediglich die computergestützte Messung von Stenosegraden in der digitalen Koronarangiographie kollidiert mit den in Großbritannien geltenden Empfehlungen. Die Verwendung unterschiedlicher Kompressionsalgorithmen schränkt die allgemeinernAussagekraft dieser Studienergebnisse außerdem ein.rnZur Erweiterung der Studienlage wurden vier weitere Nach- und Weiterverarbeitungsalgorithmen auf ihre Kompressionstoleranz untersucht. Dabei wurden die Kompressionsraten von 8:1, 10:1 und 15:1 verwendet, welche um die empfohlenen Kompressionsraten von CAR, DRG, RCR und ESR liegen und so ein praxisnahes Setting bieten. Als Kompressionsalgorithmus wurde JPEG2000 verwendet, aufgrund seiner zunehmenden Nutzung in Studien sowie seiner bereits erwähnten Vorzüge in Sachen Handhabung und Zusatzfunktionen. Die vier Algorithmen umfassten das 3D-Volume rendering von CT-Angiographien der Becken-Bein-Gefäße, die Computer-assistierte Detektion von Lungenrundherden, die automatisierte Volumetrie von Leberrundherden und die funktionelle Bestimmung der Ejektionsfraktion in computertomographischen Aufnahmen des Herzens.rnAlle vier Algorithmen zeigten keinen Einfluss durch irreversibler Bilddatenkompression in denrngewählten Kompressionsraten (8:1, 10:1 und 15:1). Zusammen mit der bestehenden Literatur deuten die Ergebnisse an, dass moderate irreversible Kompression im Rahmen aktueller Empfehlungen keinen Einfluss auf Nach- und Weiterverarbeitung medizinischer Bilder hat. Eine explizitere Vorhersage zu einem bestimmten, noch nicht untersuchten Algorithmus ist jedoch aufgrund der unterschiedlichen Funktionsweisen und Programmierungen nicht sicher möglich.rnSofern ein Postprocessing Algorithmus auf komprimiertes Bildmaterial angewendet werden soll, muss dieser zunächst auf seine Kompressionstoleranz getestet werden. Dabei muss der Test eine rechtlich-ethische Grundlage für den Einsatz des Algorithmus bei komprimiertem Bildmaterial schaffen. Es sind vor allem zwei Optionen denkbar, die Testung institutsintern, eventuell unter Zuhilfenahme von vorgefertigten Bibliotheken, oder die Testung durch den Hersteller des Algorithmus.
Resumo:
Eine Pollenallergie geht häufig mit einer sekundären Nahrungsmittelallergie einher, die durch die Kreuzreaktivität zwischen dem Pollen- und dem Nahrungsmittelallergen verursacht wird. In der vorliegenden Arbeit wurde eine Kohorte von 20 Allergikern mit einer Typ I-Allergie gegen Birkenpollen und einer assoziierten Nahrungsmittelallergie gegen Haselnüsse und/oder Karotten in Bezug auf eine allergenspezifische IgE-Antwort, T-Zellantwort und vor allen Dingen hinsichtlich der T-Zellkreuzreaktivität zwischen den rekombinanten Allergenen Bet v 1, Cor a 1 und Dau c 1 charakterisiert. Verwendet wurde hierzu ein Zellkultursystem mit primären CD4+ T-Zellen ohne die Zugabe von exogenem IL-2 oder wiederholten Stimulationen. Zur Analyse der T-Zellkreuzreaktivität kamen zwei unterschiedliche Analyseverfahren zum Einsatz: zum einen der bewährte 3H-Thymidinassay und zum anderen eine neue durchflusszytometrische Methode, die auf der Verwendung von zwei unterschiedlichen Proliferationsfarbstoffen basiert.rnBei der Charakterisierung der T-Zellantwort konnte festgestellt werden, dass eine robuste Th2-Antwort vorliegt, die stark von dem Zytokin IL-5 dominiert wird, begleitet von einer signifikanten Produktion von IL-9 und IL-13, allerdings ohne die Beteiligung von IL-4.rnDes Weiteren konnte zum ersten Mal mit Hilfe eines dosisabhängigen Inhibitions-ELISA eine B-Zellkreuzreaktivität zwischen Bet v 1 und Cor a 1 gezeigt werden, wobei das Cor a 1-reaktive IgE prädominant ist und eine Subpopulation des Bet v 1-reaktiven IgE darstellt.rnMittels 3H-Thymidinassay konnte eine T-Zellkreuzreaktivität zwischen Bet v 1, Cor a 1 und in einem geringeren Maße zu Dau c 1 bei primären T-Zellen von Allergikern gezeigt werden. Ebenso konnte die Kreuzreaktivität zwischen Bet v 1 und Cor a 1 durch die neue durchflusszytometrische Methode bewiesen werden. Zusätzlich ist es mit Hilfe dieser neuen Methode nun möglich, zwischen den einzelnen T-Zellsubpopulationen zu unterscheiden, die sowohl nach primärer und sekundärer oder ausschließlich nach sekundärer Stimulation proliferieren. Es konnte festgestellt werden, dass die kreuzreaktiven T-Zellen aus der T-Zellsubpopulation hervorgehen, die bereits nach der primären Stimulations stark proliferiert haben. Somit kann also innerhalb des T-Zellrepertoires der allergischen Spender eine Prädominanz der kreuzreaktiven T-Zellsubpopulationen festgestellt werden. Eine monospezifische T-Zellsubpopulation konnte unter Verwendung der neuen Methode nicht detektiert werden.rnDas Ausmaß von Qualität und Quantität einer Kreuzreaktivität kann nun visualisiert werden, was dazu beitragen kann, das Protokoll einer SIT zu verbessern und optimal an den individuellen Patienten anzupassen, um möglicherweise eine größere Chance auf eine erfolgreiche Therapie in Aussicht zu stellen.
Resumo:
Im Rahmen dieser Arbeit wurden Signalwege untersucht, die an der Migration der embryona-len peripheren Gliazellen (ePG) beteiligt sind. Der Fokus lag dabei auf Myoblast city (Mbc). Zunächst wurden dazu unterschiedliche mbc Mutanten analysiert, bei denen es zu starken glialen Migrationsdefekten kommt. Um die auftretenden Phänotypen quantitativ zu analysieren, wurde eine Methode entwickelt um die Position der Pionierglia ePG9 zu bestimmen. Dies ermöglicht es, auch sehr subtile gliale Migrationsphänotypen zu detektieren. Durch knock-down Experimente konnte gezeigt werden, dass Mbc eine zellautonome Rolle bei der glialen Migration spielt. Besonders interessant ist die Tatsache, dass während der Migration der ePG eine alternativ gespleißte Isoform benötigt wird, die bisher kaum untersucht wurde. Durch Strukturvorhersagen konnte gezeigt werden, dass sich der Bereich in dem sich die beiden Isoformen unterscheiden, in einer Region liegt, die sich zu HEAT-repeats faltet. Mbc-PB scheint somit über einen Bereich zu verfügen, der im Vergleich zu Mbc-PA, zusätzliche Interaktionen erlaubt. Zudem scheint es mehrere Phosphorylierungsstellen zu geben, die für die Inaktivierung von Mbc-PB notwendig sind. Die Kinase Wallenda konnte als Kandidat identifiziert werden, der für die Phosphorylierung von Mbc-PB verantwortlich ist. Weitere Experimente zeigten eine einen zellautonomen Einfluss von Mbc-PB auf ePG7, die indirekt die Migration der Pionierglia ePG9 beeinflusst.
Resumo:
Die medikamentöse Standardtherapie entzündlich-rheumatischer Erkrankungen wie der rheumatoider Arthritis (RA) und des systemischen Lupus erythematodes (SLE) sind oft unzureichend und erlauben keine nebenwirkungsarme beziehungsweise -freie Behandlung. Daher ist es von großem Interesse für diese Indikationsgebiete, wirkungsvolle Substanzen zu entwickeln, die für eine Langzeittherapie geeignet sind. Naturstoffe wie Oxacyclododecindion (Oxa) können dabei als mögliche Leitstruktur dienen. Oxa wurde bereits in in-vitro Untersuchungen als ein potenter Inhibitor der Expression von proinflammatorischen und profibrotischen Genen identifiziert. rnZiel dieser Arbeit war es in in-vivo Modellen der RA und des SLEs das therapeutische Potential des Naturstoffes Oxa aufzuklären. Da eine Etablierung der Kollagen-induzierten Arthritis im untersuchten murinen RA-Modell, dem HLA-DR4.AE° Stamm, nicht möglich war, wurden die Untersuchungen ausschließlich im MRL Faslpr Mausstamm, einem anerkannten SLE-Modell durchgeführt. MRL Faslpr Mäuse entwickeln wie SLE-Patienten unter anderem eine schwerwiegende Glomerulonephritis. rnIn den Nieren weiblicher MRL Faslpr Mäuse konnte die Oxa-Behandlung die Expression zahlreicher proinflammatorischer Mediatoren beeinflussen, die in Zusammenhang mit der Pathogenese des humanen SLE gebracht werden. So reduziert der Naturstoff die Expression von Zytokinen wie TNFα, IFNγ und IL6 als auch Chemokinen wie CCL2, CSF-1 und RANTES auf mRNA- und Proteinebene. Dabei war die Wirkung von Oxa in den in-vivo Analysen ähnlich gut wie die des potenten Glukokortikoids Dexamethason. Die Reduktion chemotaktischer Moleküle durch die Oxa-Behandlung führte nachweislich zu einer reduzierten Akkumulation von Immunzellen. Die anti-inflammatorischen und immunmodulatorischen Effekte von Oxa waren so ausgeprägt, dass klinisch-pathologische Marker der Glomerulonephritis, wie die Ablagerung von Immunkomplexen, die vermehrte Bildung von Kollagenfasern und die Ausscheidung von Proteinen im Urin gemildert wurden. Weiterführende Untersuchungen im SLE Modell konnten neue Zielmoleküle von Oxa identifizieren, wie KIM1 und zahlreiche SLE-assoziierte microRNAs (miR 19a, 29c und 369). Diese Befunde legen nahe, dass Oxa eine vielversprechende anti-entzündliche und -fibrotische Verbindung darstellt. rnDie Entschlüsselung des Wirkmechanismus von Oxa steht erst am Anfang. Die Analysen im Rahmen dieser Arbeit zeigten jedoch, dass Oxa einen Einfluss auf die Phosphorylierung und somit Aktivierung der p38 MAPK sowie auf die mRNA-Stabilität von proinflammatorischen Zytokinen wie TNFα zu haben scheint.rn
Resumo:
Die qualitative und quantitative Analyse von Biomolekülen hat in den letzten Jahren und Jahrzehnten immer mehr an Bedeutung gewonnen. Durch das Aufkommen und die kontinuierliche Weiterentwicklung neuer Separations- und Detektionsmethoden und deren Verbindung miteinander zu leistungsfähigen Einheiten, erlangte man Schritt für Schritt neue Erkenntnisse bei ihrer Untersuchung. Die Elementmassenspektrometrie als nachweisstarke Detektionsmethode wird von vielen wissenschaftlichen Arbeitsgruppen bei der Trennung und Quantifizierung von Proteinen und Metalloproteinen mittels Detektion der in den Biomolekülen vorkommenden Metalle und Heteroatome angewendet. Heteroatome (z.B. Schwefel, Phosphor) haben im Plasma des ICP-MS (inductively coupled plasma - mass spectrometer) schlechte Ionisationseigenschaften und dementsprechend deutlich höhere Nachweisgrenzen als Metalle. Ein Ansatz, schlecht oder nicht detektierbare Verbindungen (also solche, die keine Metalle oder Heteroatome enthalten) mit dem ICP-MS sichtbar zu machen, ist die Markierung der selbigen mit Metallionen oder -cluster. rnIn dieser Arbeit ist es gelungen, der Analyse ganz unterschiedlicher Substanzklassen, zum einen metallische Nanopartikel und zum anderen Proteine, neue Impulse zu geben und zukünftiges Potential bei der Anwendung gekoppelter Techniken zur Separation und Detektion aufzuzeigen. Durch die Verwendung einer alten, aber neu konzipierten Trenntechnik, der Gelelektrophorese (GE), und deren Kopplung an einen modernen Detektor, dem ICP-MS, kann die für die Proteinanalytik weit verbreitete Gelelektrophorese ihr enormes Potential bei der Trennung verschiedenster Verbindungsklassen mit der exzellenten Nachweisstärke und Elementspezifität des ICP-MS verbinden und dadurch mit deutlich weniger Arbeitsaufwand als bisher qualitative und auch quantitative Ergebnisse produzieren. Bisher war dies nur mit großem präparativem Aufwand unter Verwendung der laser ablation möglich. Bei der Analyse von Nanopartikeln konnte aufgezeigt werden, dass durch die GE-ICP-MS-Kopplung aufgrund der guten Trenneigenschaften der GE vorhandene Spezies bzw. Fraktionen voneinander separiert werden und mit Hilfe des ICP-MS Informationen auf atomarem Niveau gewonnen werden können. Es war möglich, das atomare Verhältnis der Metallatome im Kern und der Schwefelatome in der Ligandenhülle eines Nanopartikels zu bestimmen und damit die Größe des Partikels abzuschätzen. Auch konnte die Anzahl der Goldatome in einem dem Schmid-Cluster ähnlichen Nanopartikel bestimmt werden, was vorher nur mit Hilfe von MALDI-TOF möglich war. Bei der Analyse von Biomolekülen konnte auf einfache Weise der Phosphorylierungsgrad verschiedener Proteine bestimmt werden. Auch bei kleinen Molekülen erzielt die Gelelektrophorese ausgezeichnete Trennergebnisse, wie z. B. bei der Analyse verschiedener Brom- und Iodspezies.rnDie stöchiometrische Kopplung eines Proteins an einen Nanopartikel, ohne eine der beiden Verbindungen in einem größeren Maße zu verändern, stellte jedoch eine Herausforderung dar, die im Rahmen dieser Arbeit nicht vollständig gelöst werden konnte. Verschiedene Ansätze zur Kopplung der beiden Substanzen wurden erprobt, jedoch führte keine zu dem gewünschten Ergebnis einer stöchiometrisch vollständigen und spezifischen Modifikation eines Proteins mit einem Nanopartikel. Durch das Potential der GE-ICP-MS-Kopplung bei der Analyse beider Substanz-klassen und dem Beweis der Praktikabilität und Zuverlässigkeit der Methode ist jedoch der Grundstein für weitere Forschungen auf diesem Gebiet gelegt worden. Ist eine geeignete chemische Kopplung der beiden Substanzklassen gefunden und beherrscht, steht auf analytischer Seite eine leistungsstarke Kombination aus Trennung und Detektion zur Verfügung, um die Quantifizierung von Proteinen entscheidend zu verbessern.rn
Resumo:
Les expressions figées ont été longtemps considérées comme un aspect marginal de la langue. Il en résulte un traitement très fragmentaire et anarchique dans les dictionnaires, monolingues et bilingues, qui leur ont toujours accordé et continuent de leur accorder une petite place. Les expressions figées comportent, en outre, des difficultés de compréhension et de traduction dans la langue étrangère car elles possèdent des structures syntaxiques particulières qui n’ont pas toujours d’équivalents analogues dans d’autres langues. C’est pourquoi notre travail se donne pour objectif d’évaluer la traduction en italien et, pour quelques ouvrages aussi en espagnol, des québécismes phraséologiques, c’est-à-dire des expressions figées appartenant à la variété québécoise du français. Notre mémoire se divise en quatre chapitres. Le premier chapitre présentera les théories linguistiques élaborées au cours des deux derniers siècles, selon les différentes approches que les linguistes ont adoptées pour définir et classifier les expressions figées. Dans le deuxième chapitre, nous analyserons le traitement des expressions figées à l’intérieur des dictionnaires bilingues français-italien et français-espagnol, afin de déterminer dans quelle mesure ces outils peuvent satisfaire les exigences des traducteurs. Pour finir, nous expliquerons les problèmes liés à la traduction des expressions figées et les stratégies que les traducteurs adoptent pour résoudre ces problèmes.Dans le troisième chapitre nous nous concentrerons sur la variété diatopique du français du Québec et sur les particularités que les expressions figées québécoises présentent par rapport aux expressions figées du français de référence. Dans le quatrième et dernier chapitre, nous procèderons à l’analyse intralinguistique et contrastive des citations. L’analyse intralinguistique a été possible grâce à la consultation de plusieurs dictionnaires francophones, qui servent pour étudier le sens des québécismes et pour comprendre leur originalité par rapport au FrR. L’analyse contrastive permettra d’évaluer la traduction en italien et en espagnol des expressions figées québécoises.
Resumo:
La parte centrale di questo elaborato consiste nella traduzione della guida multimediale della Biblioteca Malatestiana di Cesena dall’italiano al tedesco che include un'audioguida e un Ibook. Siccome non è stato possibile reperire materiale teorico sulle convenzioni testuali e la traduzione di audioguide, è stata condotta un’analisi contrastiva di sette audioguide delle aree germanofone (Germania, Austria, Svizzera e Alto Adige) con l’obiettivo di individuare le caratteristiche testuali comuni. In una fase successiva è stato effettuato un confronto tra i risultati dell’analisi contrastiva e il testo di partenza per individuare le possibilità di applicazione dei risultati. Infine, vengono commentate anche le scelte traduttive in generale, legate soprattutto a fattori sintattici e pragmatici.
Resumo:
Krebs stellt eine der häufigsten Todesursachen in Europa dar. Grundlage für eine langfristige Verbesserung des Behandlungserfolgs ist ein molekulares Verständnis der Mechanismen, welche zur Krankheitsentstehung beitragen. In diesem Zusammenhang spielen Proteasen nicht nur eine wichtige Rolle, sondern stellen auch bei vielerlei Erkrankungen bereits anerkannte Zielstrukturen derzeitiger Behandlungsstrategien dar. Die Protease Threonin Aspartase 1 (Taspase1) spielt eine entscheidende Rolle bei der Aktivierung von Mixed Lineage Leukemia (MLL)-Fusionsproteinen und somit bei der Entstehung aggressiver Leukämien. Aktuelle Arbeiten unterstreichen zudem die onkologische Relevanz von Taspase1 auch für solide Tumore. Die Kenntnisse über die molekularen Mechanismen und Signalnetzwerke, welche für die (patho)biologischen Funktionen von Taspase1 verantwortlich sind, stellen sich allerdings noch immer als bruchstückhaft dar. Um diese bestehenden Wissenslücken zu schließen, sollten im Rahmen der Arbeit neue Strategien zur Inhibition von Taspase1 erarbeitet und bewertet werden. Zusätzlich sollten neue Einsichten in evolutionären Funktionsmechanismen sowie eine weitergehende Feinregulation von Taspase1 erlangt werden. Zum einen erlaubte die Etablierung und Anwendung eines zellbasierten Taspase1-Testsystem, chemische Verbindungen auf deren inhibitorische Aktivität zu testen. Überraschenderweise belegten solch zelluläre Analysen in Kombination mit in silico-Modellierungen eindeutig, dass ein in der Literatur postulierter Inhibitor in lebenden Tumorzellen keine spezifische Wirksamkeit gegenüber Taspase1 zeigte. Als mögliche Alternative wurden darüber hinaus Ansätze zur genetischen Inhibition evaluiert. Obwohl publizierte Studien Taspase1 als ααββ-Heterodimer beschreiben, konnte durch Überexpression katalytisch inaktiver Mutanten kein trans-dominant negativer Effekt und damit auch keine Inhibition des wildtypischen Enzyms beobachtet werden. Weiterführende zellbiologische und biochemische Analysen belegten erstmalig, dass Taspase1 in lebenden Zellen in der Tat hauptsächlich als Monomer und nicht als Dimer vorliegt. Die Identifizierung evolutionär konservierter bzw. divergenter Funktionsmechanismen lieferte bereits in der Vergangenheit wichtige Hinweise zur Inhibition verschiedenster krebsrelevanter Proteine. Da in Drosophila melanogaster die Existenz und funktionelle Konservierung eines Taspase1-Homologs postuliert wurde, wurde in einem weiteren Teil der vorliegenden Arbeit die evolutionäre Entwicklung der Drosophila Taspase1 (dTaspase1) untersucht. Obwohl Taspase1 als eine evolutionär stark konservierte Protease gilt, konnten wichtige Unterschiede zwischen beiden Orthologen festgestellt werden. Neben einem konservierten autokatalytischen Aktivierungsmechanismus besitzt dTaspase1 verglichen mit dem humanen Enzym eine flexiblere Substraterkennungs-sequenz, was zu einer Vergrößerung des Drosophila-spezifischen Degradoms führt. Diese Ergebnisse zeigen des Weiteren, dass zur Definition und Vorhersage des Degradoms nicht nur proteomische sondern auch zellbiologische und bioinformatische Untersuchungen geeignet und notwendig sind. Interessanterweise ist die differentielle Regulation der dTaspase1-Aktivität zudem auf eine veränderte intrazelluläre Lokalisation zurückzuführen. Das Fehlen von in Vertebraten hochkonservierten aktiven Kernimport- und nukleolären Lokalisationssignalen erklärt, weshalb dTaspase1 weniger effizient nukleäre Substrate prozessiert. Somit scheint die für die humane Taspase1 beschriebene Regulation von Lokalisation und Aktivität über eine Importin-α/NPM1-Achse erst im Laufe der Entwicklung der Vertebraten entstanden zu sein. Es konnte also ein bislang unbekanntes evolutionäres Prinzip identifiziert werden, über welches eine Protease einen Transport- bzw. Lokalisations-basierten Mechanismus zur Feinregulation ihrer Aktivität „von der Fliege zum Menschen“ nutzt. Eine weitere Möglichkeit zur dynamischen Funktionsmodulation bieten post-translationale Modifikationen (PTMs) der Proteinsequenz, zu welcher Phosphorylierung und Acetylierung zählen. Interessanterweise konnte für die humane Taspase1 über den Einsatz unabhängiger Methoden einschließlich massenspektrometrischer Analysen eine Acetylierung durch verschiedene Histon-Acetyltransferasen (HATs) nachgewiesen werden. Diese Modifikation erfolgt reversibel, wobei vor allem die Histon-Deacetylase HDAC1 durch Interaktion mit Taspase1 die Deacetylierung der Protease katalysiert. Während Taspase1 in ihrer aktiven Konformation acetyliert vorliegt, kommt es nach Deacetylierung zu einer Reduktion ihrer enzymatischen Aktivität. Somit scheint die Modulation der Taspase1-Aktivität nicht allein über intra-proteolytische Autoaktivierung, Transport- und Interaktionsmechanismen, sondern zudem durch post-translationale Modifikationen gesteuert zu werden. Zusammenfassend konnten im Rahmen dieser Arbeit entscheidende neue Einblicke in die (patho)biologische Funktion und Feinregulation der Taspase1 gewonnen werden. Diese Ergebnisse stellen nicht nur einen wichtigen Schritt in Richtung eines verbesserten Verständnis der „Taspase1-Biologie“, sondern auch zur erfolgreichen Inhibition und Bewertung der krebsrelevanten Funktion dieser Protease dar.
Resumo:
Die Arbeit untersucht die Zusammenhänge zwischen verschiedenen Typen autokratischer Regime sowie der relativen Wahrscheinlichkeit von Staaten, an bewaffneten Konflikten beteiligt zu sein. Es wird dabei ein weiter Begriff von bewaffneten Konflikten verwendet, der nach verschiedenen Typen bewaffneter Konflikte unterscheidet sowie in der Forschung diskutierte Veränderungen der Bedingungen des internationalen Systems in der Post-Kalte-Krieg-Ära berücksichtigt.
Resumo:
In der Archäologie werden elektrische Widerstandsmessungen routinemäßig zur Prospektion von Fundstellen eingesetzt. Die Methode ist kostengünstig, leicht anwendbar und liefert in den meisten Fällen zuverlässige und leicht zu interpretierende Ergebnisse. Dennoch kann die Methode die archäologischen Strukturen in manchen Fällen nur teilweise oder gar nicht abbilden, wenn die bodenphysikalischen und bodenchemischen Eigenschaften des Bodens und der archäologischen Strukturen dies nicht zulassen. Der spezifische elektrische Widerstand wird durch Parameter wie Wassergehalt, Bodenstruktur, Bodenskelett, Bodentextur, Salinität und Bodentemperatur beeinflusst. Manche dieser Parameter, wie z.B. der Wassergehalt und die Bodentemperatur, unterliegen einer saisonalen Veränderung. Die vorliegende Arbeit untersucht den spezifischen elektrischen Widerstand von archäologischen Steinstrukturen und evaluiert die Möglichkeit, auf Grundlage von Geländemessungen und Laboranalysen archäologische Strukturen und Böden als numerische Modelle darzustellen. Dazu wurde eine Kombination von verschiedenen bodenkundlichen, geoarchäologischen und geophysikalischen Methoden verwendet. Um archäologische Strukturen und Bodenprofile als numerische Widerstandsmodelle darstellen zu können, werden Informationen zur Geometrie der Strukturen und ihren elektrischen Widerstandswerten benötigt. Dabei ist die Qualität der Hintergrundinformationen entscheidend für die Genauigkeit des Widerstandsmodells. Die Geometrie der Widerstandsmodelle basiert auf den Ergebnissen von Rammkernsondierungen und archäologische Ausgrabungen. Die an der Ausbildung des elektrischen Widerstands beteiligten Parameter wurden durch die Analyse von Bodenproben gemessen und ermöglichen durch Pedotransfer-Funktion, wie die Rhoades-Formel, die Abschätzung des spezifischen elektrischen Widerstandes des Feinbodens. Um den Einfluss des Bodenskeletts auf den spezifischen elektrischen Widerstand von Bodenprofilen und archäologischen Strukturen zu berechnen, kamen die Perkolationstheorie und die Effective Medium Theory zum Einsatz. Die Genauigkeit und eventuelle Limitierungen der Methoden wurden im Labor durch experimentelle Widerstandsmessungen an ungestörten Bodenproben und synthetischen Materialien überprüft. Die saisonale Veränderung des Wassergehalts im Boden wurde durch numerische Modelle mit der Software HYDRUS simuliert. Die hydraulischen Modelle wurden auf Grundlage der ermittelten bodenkundlichen und archäologischen Stratigraphie erstellt und verwenden die Daten von lokalen Wetterstationen als Eingangsparameter. Durch die Kombination der HYDRUS-Ergebnisse mit den Pedotransfer-Funktionen konnte der Einfluss dieser saisonalen Veränderung auf die Prospektionsergebnisse von elektrischen Widerstandsmethoden berechnet werden. Die Ergebnisse der Modellierungsprozesse wurden mit den Geländemessungen verglichen. Die beste Übereinstimmung zwischen Modellergebnissen und den Prospektionsergebnissen konnte für die Fallstudie bei Katzenbach festgestellt werden. Bei dieser wurden die Modelle auf Grundlage von archäologischen Grabungsergebnissen und detaillierten bodenkundlichen Analysen erstellt. Weitere Fallstudien zeigen, dass elektrische Widerstandsmodelle eingesetzt werden können, um den Einfluss von ungünstigen Prospektionsbedingungen auf die Ergebnisse der elektrischen Widerstandsmessungen abzuschätzen. Diese Informationen unterstützen die Planung und Anwendung der Methoden im Gelände und ermöglichen eine effektivere Interpretation der Prospektionsergebnisse. Die präsentierten Modellierungsansätze benötigen eine weitere Verifizierung durch den Vergleich der Modellierungsergebnisse mit detailliertem geophysikalischem Gelände-Monitoring von archäologischen Fundstellen. Zusätzlich könnten elektrische Widerstandsmessungen an künstlichen Mauerstrukturen unter kontrollierten Bedingungen zur Überprüfung der Modellierungsprozesse genutzt werden.
Resumo:
Die Erdatmosphäre besteht hauptsächlich aus Stickstoff (78%), Sauerstoff (21%) und Edelga¬sen. Obwohl Partikel weniger als 0,1% ausmachen, spielen sie eine entscheidende Rolle in der Chemie und Physik der Atmosphäre, da sie das Klima der Erde sowohl direkt als auch indirekt beeinflussen. Je nach Art der Bildung unterscheidet man zwischen primären und sekundären Partikeln, wobei primäre Partikel direkt in die Atmosphäre eingetragen werden. Sekundäre Partikel hingegen entstehen durch Kondensation von schwerflüchtigen Verbindungen aus der Gasphase, welche durch Reaktionen von gasförmigen Vorläufersubstanzen (volatile organic compounds, VOCs) mit atmosphärischen Oxidantien wie Ozon oder OH-Radikalen gebildet werden. Da die meisten Vorläufersubstanzen organischer Natur sind, wird das daraus gebil¬dete Aerosol als sekundäres organisches Aerosol (SOA) bezeichnet. Anders als die meisten primären Partikel stammen die VOCs überwiegend aus biogenen Quellen. Es handelt sich da¬bei um ungesättigte Kohlenwasserstoffe, die bei intensiver Sonneneinstrahlung und hohen Temperaturen von Pflanzen emittiert werden. Viele der leichtflüchtigen Vorläufersubstanzen sind chiral, sowohl die Vorläufer als auch die daraus gebildeten Partikel werden aber in den meisten Studien als eine Verbindung betrachtet und gemeinsam analysiert. Die mit Modellen berechneten SOA-Konzentrationen, welche auf dieser traditionellen Vorstellung der SOA-Bil¬dung beruhen, liegen deutlich unterhalb der in der Atmosphäre gefundenen, so dass neben diesem Bildungsweg auch noch andere SOA-Bildungsarten existieren müssen. Aus diesem Grund wird der Fokus der heutigen Forschung vermehrt auf die heterogene Chemie in der Partikelphase gerichtet. Glyoxal als Modellsubstanz kommt hierbei eine wichtige Rolle zu. Es handelt sich bei dieser Verbindung um ein Molekül mit einem hohen Dampfdruck, das auf Grund dieser Eigenschaft nur in der Gasphase zu finden sein sollte. Da es aber über zwei Alde¬hydgruppen verfügt, ist es sehr gut wasserlöslich und kann dadurch in die Partikelphase über¬gehen, wo es heterogenen chemischen Prozessen unterliegt. Unter anderem werden in An¬wesenheit von Ammoniumionen Imidazole gebildet, welche wegen der beiden Stickstoff-He¬teroatome lichtabsorbierende Eigenschaften besitzen. Die Verteilung von Glyoxal zwischen der Gas- und der Partikelphase wird durch das Henrysche Gesetz beschrieben, wobei die Gleichgewichtskonstante die sogenannte Henry-Konstante ist. Diese ist abhängig von der un¬tersuchten organischen Verbindung und den im Partikel vorhandenen anorganischen Salzen. Für die Untersuchung chiraler Verbindungen im SOA wurde zunächst eine Filterextraktions¬methode entwickelt und die erhaltenen Proben anschließend mittels chiraler Hochleistungs-Flüssigchromatographie, welche an ein Elektrospray-Massenspektrometer gekoppelt war, analysiert. Der Fokus lag hierbei auf dem am häufigsten emittierten Monoterpen α-Pinen und seinem Hauptprodukt, der Pinsäure. Da bei der Ozonolyse des α-Pinens das cyclische Grund¬gerüst erhalten bleibt, können trotz der beiden im Molekül vorhanden chiralen Zentren nur zwei Pinsäure Enantiomere gebildet werden. Als Extraktionsmittel wurde eine Mischung aus Methanol/Wasser 9/1 gewählt, mit welcher Extraktionseffizienzen von 65% für Pinsäure Enan¬tiomer 1 und 68% für Pinsäure Enantiomer 2 erreicht werden konnten. Des Weiteren wurden Experimente in einer Atmosphärensimulationskammer durchgeführt, um die Produkte der α-Pinen Ozonolyse eindeutig zu charakterisieren. Enantiomer 1 wurde demnach aus (+)-α-Pinen gebildet und Enantiomer 2 entstand aus (-)-α-Pinen. Auf Filterproben aus dem brasilianischen Regenwald konnte ausschließlich Pinsäure Enantiomer 2 gefunden werden. Enantiomer 1 lag dauerhaft unterhalb der Nachweisgrenze von 18,27 ng/mL. Im borealen Nadelwald war das Verhältnis umgekehrt und Pinsäure Enantiomer 1 überwog vor Pinsäure Enantiomer 2. Das Verhältnis betrug 56% Enantiomer 1 zu 44% Enantiomer 2. Saisonale Verläufe im tropischen Regenwald zeigten, dass die Konzentrationen zur Trockenzeit im August höher waren als wäh¬rend der Regenzeit im Februar. Auch im borealen Nadelwald wurden im Sommer höhere Kon¬zentrationen gemessen als im Winter. Die Verhältnisse der Enantiomere änderten sich nicht im jahreszeitlichen Verlauf. Die Bestimmung der Henry-Konstanten von Glyoxal bei verschiedenen Saataerosolen, nämlich Ammoniumsulfat, Natriumnitrat, Kaliumsulfat, Natriumchlorid und Ammoniumnitrat sowie die irreversible Produktbildung aus Glyoxal in Anwesenheit von Ammoniak waren Forschungs¬gegenstand einer Atmosphärensimulationskammer-Kampagne am Paul-Scherrer-Institut in Villigen, Schweiz. Hierzu wurde zunächst das zu untersuchende Saataerosol in der Kammer vorgelegt und dann aus photochemisch erzeugten OH-Radikalen und Acetylen Glyoxal er¬zeugt. Für die Bestimmung der Glyoxalkonzentration im Kammeraerosol wurde zunächst eine beste¬hende Filterextraktionsmethode modifiziert und die Analyse mittels hochauflösender Mas¬senspektrometrie realisiert. Als Extraktionsmittel kam 100% Acetonitril, ACN zum Einsatz wo¬bei die Extraktionseffizienz bei 85% lag. Für die anschließende Derivatisierung wurde 2,4-Di¬nitrophenylhydrazin, DNPH verwendet. Dieses musste zuvor drei Mal mittels Festphasenex¬traktion gereinigt werden um störende Blindwerte ausreichend zu minimieren. Die gefunde¬nen Henry-Konstanten für Ammoniumsulfat als Saataerosol stimmten gut mit in der Literatur gefundenen Werten überein. Die Werte für Natriumnitrat und Natriumchlorid als Saataerosol waren kleiner als die von Ammoniumsulfat aber größer als der Wert von reinem Wasser. Für Ammoniumnitrat und Kaliumsulfat konnten keine Konstanten berechnet werden. Alle drei Saataerosole führten zu einem „Salting-in“. Das bedeutet, dass bei Erhöhung der Salzmolalität auch die Glyoxalkonzentration im Partikel stieg. Diese Beobachtungen sind auch in der Litera¬tur beschrieben, wobei die Ergebnisse dort nicht auf der Durchführung von Kammerexperi¬menten beruhen, sondern mittels bulk-Experimenten generiert wurden. Für die Trennung der Imidazole wurde eine neue Filterextraktionsmethode entwickelt, wobei sich ein Gemisch aus mit HCl angesäuertem ACN/H2O im Verhältnis 9/1 als optimales Extrak¬tionsmittel herausstellte. Drei verschiedenen Imidazole konnten mit dieser Methode quanti¬fiziert werden, nämlich 1-H-Imidazol-4-carbaldehyd (IC), Imidazol (IM) und 2,2‘-Biimidazol (BI). Die Effizienzen lagen für BI bei 95%, für IC bei 58% und für IM bei 75%. Kammerexperimente unter Zugabe von Ammoniak zeigten höhere Imidazolkonzentrationen als solche ohne. Wurden die Experimente ohne Ammoniak in Anwesenheit von Ammoni¬umsulfat durchgeführt, wurden höhere Imidazol-Konzentrationen gefunden als ohne Ammo¬niumionen. Auch die relative Luftfeuchtigkeit spielte eine wichtige Rolle, da sowohl eine zu hohe als auch eine zu niedrige relative Luftfeuchtigkeit zu einer verminderten Imidazolbildung führte. Durch mit 13C-markiertem Kohlenstoff durchgeführte Experimente konnte eindeutig gezeigt werden, dass es sich bei den gebildeten Imidazolen und Glyoxalprodukte handelte. Außerdem konnte der in der Literatur beschriebene Bildungsmechanismus erfolgreich weiter¬entwickelt werden. Während der CYPHEX Kampagne in Zypern konnten erstmalig Imidazole in Feldproben nach¬gewiesen werden. Das Hauptprodukt IC zeigte einen tageszeitlichen Verlauf mit höheren Kon¬zentrationen während der Nacht und korrelierte signifikant aber schwach mit der Acidität und Ammoniumionenkonzentration des gefundenen Aerosols.
Resumo:
Klimamontoring benötigt eine operative, raum-zeitliche Analyse der Klimavariabilität. Mit dieser Zielsetzung, funktionsbereite Karten regelmäßig zu erstellen, ist es hilfreich auf einen Blick, die räumliche Variabilität der Klimaelemente in der zeitlichen Veränderungen darzustellen. Für aktuelle und kürzlich vergangene Jahre entwickelte der Deutsche Wetterdienst ein Standardverfahren zur Erstellung solcher Karten. Die Methode zur Erstellung solcher Karten variiert für die verschiedenen Klimaelemente bedingt durch die Datengrundlage, die natürliche Variabilität und der Verfügbarkeit der in-situ Daten.rnIm Rahmen der Analyse der raum-zeitlichen Variabilität innerhalb dieser Dissertation werden verschiedene Interpolationsverfahren auf die Mitteltemperatur der fünf Dekaden der Jahre 1951-2000 für ein relativ großes Gebiet, der Region VI der Weltorganisation für Meteorologie (Europa und Naher Osten) angewendet. Die Region deckt ein relativ heterogenes Arbeitsgebiet von Grönland im Nordwesten bis Syrien im Südosten hinsichtlich der Klimatologie ab.rnDas zentrale Ziel der Dissertation ist eine Methode zur räumlichen Interpolation der mittleren Dekadentemperaturwerte für die Region VI zu entwickeln. Diese Methode soll in Zukunft für die operative monatliche Klimakartenerstellung geeignet sein. Diese einheitliche Methode soll auf andere Klimaelemente übertragbar und mit der entsprechenden Software überall anwendbar sein. Zwei zentrale Datenbanken werden im Rahmen dieser Dissertation verwendet: So genannte CLIMAT-Daten über dem Land und Schiffsdaten über dem Meer.rnIm Grunde wird die Übertragung der Punktwerte der Temperatur per räumlicher Interpolation auf die Fläche in drei Schritten vollzogen. Der erste Schritt beinhaltet eine multiple Regression zur Reduktion der Stationswerte mit den vier Einflussgrößen der Geographischen Breite, der Höhe über Normalnull, der Jahrestemperaturamplitude und der thermischen Kontinentalität auf ein einheitliches Niveau. Im zweiten Schritt werden die reduzierten Temperaturwerte, so genannte Residuen, mit der Interpolationsmethode der Radialen Basis Funktionen aus der Gruppe der Neuronalen Netzwerk Modelle (NNM) interpoliert. Im letzten Schritt werden die interpolierten Temperaturraster mit der Umkehrung der multiplen Regression aus Schritt eins mit Hilfe der vier Einflussgrößen auf ihr ursprüngliches Niveau hochgerechnet.rnFür alle Stationswerte wird die Differenz zwischen geschätzten Wert aus der Interpolation und dem wahren gemessenen Wert berechnet und durch die geostatistische Kenngröße des Root Mean Square Errors (RMSE) wiedergegeben. Der zentrale Vorteil ist die wertegetreue Wiedergabe, die fehlende Generalisierung und die Vermeidung von Interpolationsinseln. Das entwickelte Verfahren ist auf andere Klimaelemente wie Niederschlag, Schneedeckenhöhe oder Sonnenscheindauer übertragbar.