242 resultados para Ob


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Gewebe, Zellen und speziell Zellkompartimente unterscheiden sich in ihrer Sauerstoffkonzentration, Stoffwechselrate und in der Konzentration an gebildeten reaktiven Sauerstoffspezies. Um eine mögliche Änderung in der Aminosäurennutzung durch den Einfluss von Sauerstoff und seinen reaktiven Spezies untersuchen zu können wurden, Bereiche bzw. Kompartimente der menschlichen Zelle definiert, die einen Referenzrahmen bildeten und bekannt dafür sind, einen relativ hohen Grad an reaktiven Sauerstoffspezies aufzuweisen. Aus dem Vergleich wurde deutlich, dass vor allem die beiden redox-aktiven und schwefeltragenden Aminosäuren Cystein und Methionin durch eine besondere Verteilung und Nutzung charakterisiert sind. Cystein ist hierbei diejenige Aminosäure mit den deutlichsten Änderungen in den fünf untersuchten Modellen der oxidativen Belastung. In all diesen Modellen war die Nutzung von Cystein deutlich reduziert, wohingegen Methionin in Proteinen des Mitochondriums und der Elektronentransportkette angereichert war. Dieser auf den ersten Blick paradoxe Unterschied zwischen Cystein und Methionin wurde näher untersucht, indem die differenzierte Methioninnutzung in verschiedenen Zellkompartimenten von Homo sapiens charakterisiert wurde.rnDie sehr leicht zu oxidierende Aminosäure Methionin zeigt ein ungewöhnliches Verteilungsmuster in ihrer Nutzungshäufigkeit. Entgegen mancher Erwartung wird Methionin in zellulären Bereichen hoher oxidativer Belastung und starker Radikalproduktion intensiv verwendet. Dieses Verteilungsmuster findet man sowohl im intrazellulären Vergleich, als auch im Vergleich verschiedener Spezies untereinander, was daraufhin deutet, dass es einen lokalen Bedarf an redox-aktiven Aminosäuren gibt, der einen sehr starken Effekt auf die Nutzungshäufigkeit von Methionin ausübt. Eine hohe Stoffwechselrate, die im Allgemeinen mit einer erhöhten Produktion von Oxidantien assoziiert wird, scheint ein maßgeblicher Faktor der Akkumulation von Methionin in Proteinen der Atmungskette zu sein. Die Notwendigkeit, oxidiertes Antioxidans wieder zu reduzieren, findet auch bei Methionin Anwendung, denn zu Methioninsulfoxid oxidiertes Methionin wird durch die Methioninsulfoxidreduktase wieder zu Methionin reduziert. Daher kann die spezifische Akkumulation von Methionin in Proteinen, die verstärkt reaktiven Sauerstoffspezies ausgesetzt sind, als eine systematische Strategie angesehen werden, um andere labile Strukturen vor ungewollter Oxidation zu schützen. rnDa Cystein in allen untersuchten Modellen der oxidativen Belastung und im Besonderen in Membranproteinen der inneren Mitochondrienmembran lebensspannenabhängig depletiert war, wurde dieses Merkmal näher untersucht. Deshalb wurde die Hypothese getestet, ob ein besonderer Redox-Mechanismus der Thiolfunktion für diese selektive Depletion einer im Allgemeinen als harmlos oder antioxidativ geltenden Aminosäure verantwortlich ist. Um den Effekt von Cysteinresten in Membranen nachzustellen, wurden primäre humane Lungenfibroblasten (IMR90) mit diversen Modellsubstanzen behandelt. Geringe Konzentrationen der lipophilen Substanz Dodecanthiol verursachten eine signifikante Toxizität in IMR90-Zellen, die von einer schnellen Zunahme an polyubiquitinierten Proteinen und anderen Indikatoren des proteotoxischen Stresses, wie Sequestosom 1 (P62), HSP70 und HSP90 begleitet wurde. Dieser Effekt konnte spezifisch der Chemie der Thiolfunktion in Membranen zugeordnet werden, da Dodecanol (DOH), Dodecylmethylsulfid (DMS), Butanthiol oder wasserlösliche Thiole weder eine cytotoxische Wirkung noch eine Polyubiquitinierung von Proteinen verursachten. Die Ergebnisse stimmen mit der Hypothese überein, dass Thiole innerhalb von biologischen Membranen als radikalische Kettentransferagentien wirken. Diese Eigenschaft wird in der Polymerchemie durch Nutzung von lipophilen Thiolen in hydrophoben Milieus technisch für die Produktion von Polymeren benutzt. Da die Thiylradikal-spezifische Reaktion von cis-Fettsäuren zu trans-Fettsäuren in 12SH behandelten Zellen verstärkt ablief, kann gefolgert werden, dass 12SH zellulär radikalisiert wurde. In lebenden Organismen kann demnach die Oxidation von Cystein die Schädigung von Membranen beschleunigen und damit Einfallstore für die laterale Radikalisierung von integralen Membranproteinen schaffen, welche möglicherweise der Langlebigkeit abträglich ist, zumindest, wenn sie in der inneren Mitochondrienmembran auftritt.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die rasante Entwicklung der Computerindustrie durch die stetige Verkleinerung der Transistoren führt immer schneller zum Erreichen der Grenze der Si-Technologie, ab der die Tunnelprozesse in den Transistoren ihre weitere Verkleinerung und Erhöhung ihrer Dichte in den Prozessoren nicht mehr zulassen. Die Zukunft der Computertechnologie liegt in der Verarbeitung der Quanteninformation. Für die Entwicklung von Quantencomputern ist die Detektion und gezielte Manipulation einzelner Spins in Festkörpern von größter Bedeutung. Die Standardmethoden der Spindetektion, wie ESR, erlauben jedoch nur die Detektion von Spinensembles. Die Idee, die das Auslesen von einzelnen Spins ermöglich sollte, besteht darin, die Manipulation getrennt von der Detektion auszuführen.rn Bei dem NV−-Zentrum handelt es sich um eine spezielle Gitterfehlstelle im Diamant, die sich als einen atomaren, optisch auslesbaren Magnetfeldsensor benutzen lässt. Durch die Messung seiner Fluoreszenz sollte es möglich sein die Manipulation anderer, optisch nicht detektierbaren, “Dunkelspins“ in unmittelbarer Nähe des NV-Zentrums mittels der Spin-Spin-Kopplung zu detektieren. Das vorgeschlagene Modell des Quantencomputers basiert auf dem in SWCNT eingeschlossenen N@C60.Die Peapods, wie die Einheiten aus den in Kohlenstoffnanoröhre gepackten Fullerenen mit eingefangenem Stickstoff genannt werden, sollen die Grundlage für die Recheneinheiten eines wahren skalierbaren Quantencomputers bilden. Die in ihnen mit dem Stickstoff-Elektronenspin durchgeführten Rechnungen sollen mit den oberflächennahen NV-Zentren (von Diamantplatten), über denen sie positioniert sein sollen, optisch ausgelesen werden.rnrnDie vorliegende Arbeit hatte das primäre Ziel, die Kopplung der oberflächennahen NV-Einzelzentren an die optisch nicht detektierbaren Spins der Radikal-Moleküle auf der Diamantoberfläche mittels der ODMR-Kopplungsexperimente optisch zu detektieren und damit entscheidende Schritte auf dem Wege der Realisierung eines Quantenregisters zu tun.rn Es wurde ein sich im Entwicklungsstadium befindende ODMR-Setup wieder aufgebaut und seine bisherige Funktionsweise wurde an kommerziellen NV-Zentrum-reichen Nanodiamanten verifiziert. Im nächsten Schritt wurde die Effektivität und Weise der Messung an die Detektion und Manipulation der oberflächennah (< 7 nm Tiefe) implantieren NV-Einzelzenten in Diamantplatten angepasst.Ein sehr großer Teil der Arbeit, der hier nur bedingt beschrieben werden kann, bestand aus derrnAnpassung der existierenden Steuersoftware an die Problematik der praktischen Messung. Anschließend wurde die korrekte Funktion aller implementierten Pulssequenzen und anderer Software-Verbesserungen durch die Messung an oberflächennah implantierten NV-Einzelzentren verifiziert. Auch wurde der Messplatz um die zur Messung der Doppelresonanz notwendigen Komponenten wie einen steuerbaren Elektromagneten und RF-Signalquelle erweitert. Unter der Berücksichtigung der thermischen Stabilität von N@C60 wurde für zukünftige Experimente auch ein optischer Kryostat geplant, gebaut, in das Setup integriert und charakterisiert.rn Die Spin-Spin-Kopplungsexperimente wurden mit dem sauerstoffstabilen Galvinoxyl-Radikalals einem Modell-System für Kopplung durchgeführt. Dabei wurde über die Kopplung mit einem NVZentrum das RF-Spektrum des gekoppelten Radikal-Spins beobachtet. Auch konnte von dem gekoppelten Spin eine Rabi-Nutation aufgenommen werden.rn Es wurden auch weitere Aspekte der Peapod Messung und Oberflächenimplantation betrachtet.Es wurde untersucht, ob sich die NV-Detektion durch die SWCNTs, Peapods oder Fullerene stören lässt. Es zeigte sich, dass die Komponenten des geplanten Quantencomputers, bis auf die C60-Cluster, für eine ODMR-Messanordnung nicht detektierbar sind und die NV-Messung nicht stören werden. Es wurde auch betrachtet, welche Arten von kommerziellen Diamantplatten für die Oberflächenimplantation geeignet sind, für die Kopplungsmessungen geeignete Dichte der implantierten NV-Zentren abgeschätzt und eine Implantation mit abgeschätzter Dichte betrachtet.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In vielen Industriezweigen, zum Beispiel in der Automobilindustrie, werden Digitale Versuchsmodelle (Digital MockUps) eingesetzt, um die Konstruktion und die Funktion eines Produkts am virtuellen Prototypen zu überprüfen. Ein Anwendungsfall ist dabei die Überprüfung von Sicherheitsabständen einzelner Bauteile, die sogenannte Abstandsanalyse. Ingenieure ermitteln dabei für bestimmte Bauteile, ob diese in ihrer Ruhelage sowie während einer Bewegung einen vorgegeben Sicherheitsabstand zu den umgebenden Bauteilen einhalten. Unterschreiten Bauteile den Sicherheitsabstand, so muss deren Form oder Lage verändert werden. Dazu ist es wichtig, die Bereiche der Bauteile, welche den Sicherhabstand verletzen, genau zu kennen. rnrnIn dieser Arbeit präsentieren wir eine Lösung zur Echtzeitberechnung aller den Sicherheitsabstand unterschreitenden Bereiche zwischen zwei geometrischen Objekten. Die Objekte sind dabei jeweils als Menge von Primitiven (z.B. Dreiecken) gegeben. Für jeden Zeitpunkt, in dem eine Transformation auf eines der Objekte angewendet wird, berechnen wir die Menge aller den Sicherheitsabstand unterschreitenden Primitive und bezeichnen diese als die Menge aller toleranzverletzenden Primitive. Wir präsentieren in dieser Arbeit eine ganzheitliche Lösung, welche sich in die folgenden drei großen Themengebiete unterteilen lässt.rnrnIm ersten Teil dieser Arbeit untersuchen wir Algorithmen, die für zwei Dreiecke überprüfen, ob diese toleranzverletzend sind. Hierfür präsentieren wir verschiedene Ansätze für Dreiecks-Dreiecks Toleranztests und zeigen, dass spezielle Toleranztests deutlich performanter sind als bisher verwendete Abstandsberechnungen. Im Fokus unserer Arbeit steht dabei die Entwicklung eines neuartigen Toleranztests, welcher im Dualraum arbeitet. In all unseren Benchmarks zur Berechnung aller toleranzverletzenden Primitive beweist sich unser Ansatz im dualen Raum immer als der Performanteste.rnrnDer zweite Teil dieser Arbeit befasst sich mit Datenstrukturen und Algorithmen zur Echtzeitberechnung aller toleranzverletzenden Primitive zwischen zwei geometrischen Objekten. Wir entwickeln eine kombinierte Datenstruktur, die sich aus einer flachen hierarchischen Datenstruktur und mehreren Uniform Grids zusammensetzt. Um effiziente Laufzeiten zu gewährleisten ist es vor allem wichtig, den geforderten Sicherheitsabstand sinnvoll im Design der Datenstrukturen und der Anfragealgorithmen zu beachten. Wir präsentieren hierzu Lösungen, die die Menge der zu testenden Paare von Primitiven schnell bestimmen. Darüber hinaus entwickeln wir Strategien, wie Primitive als toleranzverletzend erkannt werden können, ohne einen aufwändigen Primitiv-Primitiv Toleranztest zu berechnen. In unseren Benchmarks zeigen wir, dass wir mit unseren Lösungen in der Lage sind, in Echtzeit alle toleranzverletzenden Primitive zwischen zwei komplexen geometrischen Objekten, bestehend aus jeweils vielen hunderttausend Primitiven, zu berechnen. rnrnIm dritten Teil präsentieren wir eine neuartige, speicheroptimierte Datenstruktur zur Verwaltung der Zellinhalte der zuvor verwendeten Uniform Grids. Wir bezeichnen diese Datenstruktur als Shrubs. Bisherige Ansätze zur Speicheroptimierung von Uniform Grids beziehen sich vor allem auf Hashing Methoden. Diese reduzieren aber nicht den Speicherverbrauch der Zellinhalte. In unserem Anwendungsfall haben benachbarte Zellen oft ähnliche Inhalte. Unser Ansatz ist in der Lage, den Speicherbedarf der Zellinhalte eines Uniform Grids, basierend auf den redundanten Zellinhalten, verlustlos auf ein fünftel der bisherigen Größe zu komprimieren und zur Laufzeit zu dekomprimieren.rnrnAbschießend zeigen wir, wie unsere Lösung zur Berechnung aller toleranzverletzenden Primitive Anwendung in der Praxis finden kann. Neben der reinen Abstandsanalyse zeigen wir Anwendungen für verschiedene Problemstellungen der Pfadplanung.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Analyzing and modeling relationships between the structure of chemical compounds, their physico-chemical properties, and biological or toxic effects in chemical datasets is a challenging task for scientific researchers in the field of cheminformatics. Therefore, (Q)SAR model validation is essential to ensure future model predictivity on unseen compounds. Proper validation is also one of the requirements of regulatory authorities in order to approve its use in real-world scenarios as an alternative testing method. However, at the same time, the question of how to validate a (Q)SAR model is still under discussion. In this work, we empirically compare a k-fold cross-validation with external test set validation. The introduced workflow allows to apply the built and validated models to large amounts of unseen data, and to compare the performance of the different validation approaches. Our experimental results indicate that cross-validation produces (Q)SAR models with higher predictivity than external test set validation and reduces the variance of the results. Statistical validation is important to evaluate the performance of (Q)SAR models, but does not support the user in better understanding the properties of the model or the underlying correlations. We present the 3D molecular viewer CheS-Mapper (Chemical Space Mapper) that arranges compounds in 3D space, such that their spatial proximity reflects their similarity. The user can indirectly determine similarity, by selecting which features to employ in the process. The tool can use and calculate different kinds of features, like structural fragments as well as quantitative chemical descriptors. Comprehensive functionalities including clustering, alignment of compounds according to their 3D structure, and feature highlighting aid the chemist to better understand patterns and regularities and relate the observations to established scientific knowledge. Even though visualization tools for analyzing (Q)SAR information in small molecule datasets exist, integrated visualization methods that allows for the investigation of model validation results are still lacking. We propose visual validation, as an approach for the graphical inspection of (Q)SAR model validation results. New functionalities in CheS-Mapper 2.0 facilitate the analysis of (Q)SAR information and allow the visual validation of (Q)SAR models. The tool enables the comparison of model predictions to the actual activity in feature space. Our approach reveals if the endpoint is modeled too specific or too generic and highlights common properties of misclassified compounds. Moreover, the researcher can use CheS-Mapper to inspect how the (Q)SAR model predicts activity cliffs. The CheS-Mapper software is freely available at http://ches-mapper.org.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Im Fokus dieser Studie stehen die zu den Gliazellen zählenden OPC, sowie das von diesen exprimierte Typ-1 Membranprotein NG2. Dieses wird auf eine Prozessierung durch α- und γ-Sekretase, in Analogie zu Proteinen wie Notch oder APP, untersucht.rnEine solche Prozessierung ginge mit zusätzlichen intrazellulären Spaltprodukten neben der bekannten Ektodomäne einher. Da OPC mit dem Neuronalen Netzwerk durch synaptische Innervierungen in Verbindung stehen, stellt sich die Frage, ob diese mit der Spaltung von NG2 in Verbindung gebracht werden können. Dazu käme mechanistisch beispielsweise eine aktivitätsabhängige Regulierung der Proteolyse, wie sie jüngst für das neuronale synaptische cell adhesion molecule Neuroligin gezeigt werden konnte, in Frage. Zudem werden eine physiologische Rolle der NG2 Ektodomäne bzw. der möglichen intrazellulären Fragmente untersuchen. Insbesondere potentielle neuromodulatorische Funktionen sind hier von Interesse, da diese die OPC tiefer in das Neuronale Netzwerk integrieren würden. Die Existenz eines NG2 Homologes in D. melanogaster, wirft weiterhin die Frage auf, in wie weit diese Mechanismen in diesem Modellsystem konserviert sind.rnIn Analogie zur Lokalisierung von Markerproteinen an Neuron-Neuron Synapsen in vivo, ergibt sich die Frage ob sich die synaptischen Verbindungen zwischen Neuronen und OPC in ähnlicher Weise darstellen lassen.rnEin Charakteristikum von OPC ist die Teilungsaktivität in sich entwickelnden und adulten Säugern. Zudem gibt es Evidenzen für direkte funktionelle Verknüpfungen zwischen dem NG2 Protein und dem Teilungsmodus der OPC. Deshalb war ein weiteres Ziel mögliche Änderungen in der Zellteilung der OPC, die mit dem NG2 Protein in Verbindung stehen könnten, in NG2 -/- Mäusen zu untersuchen.rn

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Our growing understanding of human mind and cognition and the development of neurotechnology has triggered debate around cognitive enhancement in neuroethics. The dissertation examines the normative issues of memory enhancement, and focuses on two issues: (1) the distinction between memory treatment and enhancement; and (2) how the issue of authenticity concerns memory interventions, including memory treatments and enhancements. rnThe first part consists of a conceptual analysis of the concepts required for normative considerations. First, the representational nature and the function of memory are discussed. Memory is regarded as a special form of self-representation resulting from a constructive processes. Next, the concepts of selfhood, personhood, and identity are examined and a conceptual tool—the autobiographical self-model (ASM)—is introduced. An ASM is a collection of mental representations of the system’s relations with its past and potential future states. Third, the debate between objectivist and constructivist views of health are considered. I argue for a phenomenological account of health, which is based on the primacy of illness and negative utilitarianism.rnThe second part presents a synthesis of the relevant normative issues based on the conceptual tools developed. I argue that memory enhancement can be distinguished from memory treatment using a demarcation regarding the existence of memory-related suffering. That is, memory enhancements are, under standard circumstances and without any unwilling suffering or potential suffering resulting from the alteration of memory functions, interventions that aim to manipulate memory function based on the self-interests of the individual. I then consider the issue of authenticity, namely whether memory intervention or enhancement endangers “one’s true self”. By analyzing two conceptions of authenticity—authenticity as self-discovery and authenticity as self-creation, I propose that authenticity should be understood in terms of the satisfaction of the functional constraints of an ASM—synchronic coherence, diachronic coherence, and global veridicality. This framework provides clearer criteria for considering the relevant concerns and allows us to examine the moral values of authenticity. rn

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Robben sind amphibische marine Säugetiere. Das bedeutet, dass sie zweirnunterschiedliche Lebensräume, Wasser und Land, bewohnen. Ihre sensorischen Systeme müssen auf beide Medien abgestimmt sein. Gerade für das Sehvermögen ist es eine große Herausforderung, sich den zwei optisch unterschiedlichen Medien anzupassen. Deshalb sind Forscher an dem Sehen von marinen Säugern seit dem zwanzigsten Jahrhundert so sehr interessiert. rnBis heute wird kontrovers diskutiert, ob marine Säugetiere Farbe sehen können, da sie durch einen Gendefekt nur einen Zapfentyp besitzen und somit zu den Zapfen-Monochromaten gehören. Dressurexperimente zeigten jedoch, dass Seebären und Seelöwen in der Lage sind grüne und blaue Testfelder von Graustufen zu unterscheiden (Busch & Dücker, 1987; Griebel & Schmid, 1992).rnUm auszuschließen, dass die Tiere ein Farbensehen über die Unterscheidung von Helligkeit vortäuschen, wurde in der vorliegenden Arbeit zunächst die Kontrasterkennung untersucht und danach Tests auf Farbensehen durchgeführt. Als Versuchstiere dienten zwei Seehunde (Phoca vitulina) und zwei Südafrikanische Seebären (Arctocephalus pusillus). Alle Versuche wurden unter freien Himmel im Zoo Frankfurt durchgeführt. Den Tieren wurden immer drei Testfelder zur Auswahl geboten: zwei waren gleich und zeigten ein homogenen Hintergrund, das dritte zeigte ein Dreieck auf demselben Hintergrund. Die Tiere wurden auf das Dreieck dressiert. In den Versuchen zum Helligkeitskontrast wurden graue Dreiecke auf grauem Hintergrund verwendet. Das Dreieck wurde nicht erkannt bei einem Luminanz-Kontrast (K= LD/(LD+LH)) zwischen 0,03 und -0,12.rnBeim Test auf Farbensehen wurden die Farben Blau, Grün, Gelb und Orange auf grauem Hintergrund verwendet. Die Testreihen zeigten, dass jedes Tier auch in Bereichen von geringem Helligkeitskontrast hohe Wahlhäufigkeiten auf das farbige Dreieck erzielte und somit eindeutig die Farben Blau, Grün und Gelb sehen konnte. Lediglich bei der Farbe Orange kann keine Aussage zum Farbensehen getroffen werden, da das farbige Dreieck immer dunkler war als der Hintergrund. rnZusammenfassend konnte in dieser Arbeit gezeigt werden, dass Seehunde und Seebären in der Lage sind Farbe zu sehen. Vermutlich beruht diese Fähigkeit auf der Interaktion von Stäbchen und Zapfen. rn

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Der Fokus dieser Doktorarbeit liegt auf der kontrollierten Benetzung von festen Oberflächen, die in vielen Bereichen, wie zum Beispiel in der Mikrofluidik, für Beschichtungen und in biologischen Studien von Zellen oder Bakterien, von großer Bedeutung ist.rnDer erste Teil dieser Arbeit widmet sich der Frage, wie Nanorauigkeit das Benetzungsverhalten, d.h. die Kontaktwinkel und die Pinningstärke, von hydrophoben und superhydrophoben Beschichtungen beeinflusst. Hierfür wird eine neue Methode entwickelt, um eine nanoraue Silika-Beschichtung über die Gasphase auf eine superhydrophobe Oberfläche, die aus rauen Polystyrol-Silika-Kern-Schale-Partikeln besteht, aufzubringen. Es wird gezeigt, dass die Topographie und Dichte der Nanorauigkeiten bestimmt, ob sich die Superhydrophobizität verringert oder erhöht, d.h. ob sich ein Flüssigkeitstropfen im Nano-Wenzel- oder Nano-Cassie-Zustand befindet. Das verstärkte Pinning im Nano-Wenzel-Zustand beruht auf dem Eindringen von Flüssigkeitsmolekülen in die Nanoporen der Beschichtung. Im Nano-Cassie-Zustand dagegen sitzt der Tropfen auf den Nanorauigkeiten, was das Pinning vermindert. Die experimentellen Ergebnisse werden mit molekulardynamischen Simulationen in Bezug gesetzt, die den Einfluss der Oberflächenbeschichtungsdichte und der Länge von fluorinierten Silanen auf die Hydrophobizität einer Oberfläche untersuchen. rnEs wurden bereits verschiedenste Techniken zur Herstellung von transparenten superhydrophoben, d.h. extrem flüssigkeitsabweisenden, Oberflächen entwickelt. Eine aktuelle Herausforderung liegt darin, Funktionalitäten einzuführen, ohne die superhydrophoben Eigenschaften einer Oberfläche zu verändern. Dies ist extrem anspruchsvoll, da funktionelle Gruppen in der Regel hydrophil sind. In dieser Arbeit wird eine innovative Methode zur Herstellung von transparenten superhydrophoben Oberflächen aus Janus-Mikrosäulen mit variierenden Dimensionen und Topographien entwickelt. Die Janus-Säulen haben hydrophobe Seitenwände und hydrophile Silika-Oberseiten, die anschließend selektiv und ohne Verlust der superhydrophoben Eigenschaften der Oberfläche funktionalisiert werden können. Diese selektive Oberflächenfunktionalisierung wird mittels konfokaler Mikroskopie und durch das chemische Anbinden von fluoreszenten Molekülen an die Säulenoberseiten sichtbar gemacht. Außerdem wird gezeigt, dass das Benetzungsverhalten durch Wechselwirkungen zwischen Flüssigkeit und Festkörper in der Nähe der Benetzungslinie bestimmt wird. Diese Beobachtung widerlegt das allgemein akzeptierte Modell von Cassie und Baxter und beinhaltet, dass hydrophile Flächen, die durch mechanischen Abrieb freigelegt werden, nicht zu einem Verlust der Superhydrophobizität führen müssen, wie allgemein angenommen.rnBenetzung kann auch durch eine räumliche Beschränkung von Flüssigkeiten kontrolliert werden, z.B. in mikrofluidischen Systemen. Hier wird eine modifizierte Stöber-Synthese verwendet, um künstliche und natürliche Faser-Template mit einer Silika-Schicht zu ummanteln. Nach der thermischen Zersetzung des organischen Templat-Materials entstehen wohldefinierte Silika-Kanäle und Kanalkreuzungen mit gleichmäßigen Durchmessern im Nano- und Mikrometerbereich. Auf Grund ihrer Transparenz, mechanischen Stabilität und des großen Länge-zu-Durchmesser-Verhältnisses sind die Kanäle sehr gut geeignet, um die Füllgeschwindigkeiten von Flüssigkeiten mit variierenden Oberflächenspannungen und Viskositäten zu untersuchen. Konfokale Mikroskopie ermöglicht es hierbei, die Füllgeschwindigkeiten über eine Länge von mehreren Millimetern, sowie direkt am Kanaleingang zu messen. Das späte Füllstadium kann sehr gut mit der Lucas-Washburn-Gleichung beschrieben werden. Die anfänglichen Füllgeschwindigkeiten sind jedoch niedriger als theoretisch vorhergesagt. Wohingegen die vorhergehenden Abschnitte dieser Arbeit sich mit der quasistatischen Benetzung beschäftigen, spielt hier die Dynamik der Benetzung eine wichtige Rolle. Tatsächlich lassen sich die beobachteten Abweichungen durch einen geschwindigkeitsabhängigen Fortschreitkontaktwinkel erklären und durch dynamische Benetzungstheorien modellieren. Somit löst diese Arbeit das seit langem diskutierte Problem der Abweichungen von der Lucas-Washburn-Gleichung bei kleinen Füllgeschwindigkeiten.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In dieser Masterarbeit wird die Frage untersucht, ob sich in den mittel- und osteuropäischen EU-Mitgliedsländern der Erweiterungsrunde von 2004 (Estland, Litauen, Polen, Slowakei, Slowenien, Ungarn, Tschechien) in der Befürwortung verschiedener normativer Demokratiemodelle Unterschiede zwischen der jüngsten und den älteren Generationen finden lassen. Diese demokratischen Wertorientierungen spielen für die Persistenz der noch jungen Demokratien eine entscheidende Rolle. Eine Inkongruenz des mehrheitlich favorisierten Demokratiemodells einerseits und der institutionellen Struktur andererseits kann zu Spannungen und Instabilität des politischen Systems führen. Theoretisch werden zwei Demokratiekonzeptionen unterschieden: Das Modell der liberalen Demokratie und das Modell der sozialistischen Demokratie. Dem Sozialisationsansatz folgend, sollte die jüngste Generation ein liberales Demokratiemodell eher und ein sozialistisches Demokratiemodell weniger befürworten als die älteren Generationen. In der empirischen Analyse auf Basis der Daten der sechsten Welle des European Social Survey von 2012 wird zunächst durch konfirmatorische Faktorenanalysen die konzeptuelle Trennung beider Modelle bestätigt. In der Regressionsanalyse wird der Fokus durch die Untersuchung verschiedener Kohorten gelegt, zusätzlich wird für situative Faktoren und mögliche Alterseffekte kontrolliert. Die Ergebnisse der Modellschätzungen zeichnen ein heterogenes Bild. In keinem der untersuchten Länder zeigt sich eine signifikant höhere Zustimmung zum liberalen Demokratiemodell durch die jüngste Generation, wie es der theoretischen Erwartung entsprechen würde. Stattdessen finden sich entweder keine signifikanten Unterschiede zwischen den Generationen oder sogar signifikant niedrigere Zustimmungswerte durch die jüngste Generation. Bei der Befürwortung eines sozialistischen Demokratiemodells entsprechen die Ergebnisse teilweise der theoretischen Erwartung: In einigen Ländern finden sich signifikant niedrigere Zustimmungswerte in der jüngsten Generation.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Dissertation befasst sich mit den umsatzsteuerrechtlichen Fragen, die sich mit Immobiliengeschäften verbinden. Zunächst werden die allgemeinen Voraussetzungen der Steuerbarkeit von Immobiliengeschäften untersucht. Hierbei wird zwischen den zivilrechtlichen Grundlagen und den steuerrechtlichen Folgen für die Fälle der Grundstücksübertragung, des Vorbehalts von Rechten (insbesondere des Nießbrauchsvorbehalts) und anderer Gestaltung, wie der ausschließlichen Einräumung eines Nießbrauchs oder eines Erbbaurechts unterschieden. Darüber hinaus wird die Unternehmereigenschaft insbesondere unter dem Gesichtspunkt der Drei-Objekt-Grenze untersucht. rnrnFerner wird das Zusammenspiel zwischen der Umsatzsteuerbefreiung und der parallelen Grunderwerbsteuerbarkeit insbesondere bei kombinierten Verträgen beleuchtet, bei denen sich jeweils die Frage stellt, ob und inwieweit sie oder ihre einzelnen Elemente der Grunderwerbsteuer und der Umsatzsteuer unterliegen. Bauträgerverträge und Bauherrenmodelle werden zivilrechtlich eingeordnet und in ihren steuerlichen Folgen beurteilt. rnrnHinsichtlich der steuerbefreiten sonstigen Leistung steht im Grundstücksbereich § 4 Nr. 12 UStG im Mittelpunkt, welcher die Umsatzsteuerbefreiung für Vermietungen bestimmt. In diesem Zusammenhang werden auch die ambivalenten Folgen einer Umsatzsteuerbefreiung untersucht, da mit der Befreiung auch die Möglichkeit zum Vorsteuerabzug verloren geht, was die rechtliche Möglichkeit der Option zur Steuerpflicht erklärt.rnrnDas im Zusammenhang mit Grundstückgeschäften immer zu beachtende Rechtsinstitut der Geschäftsveräußerung im Ganzen, deren Vorliegen schon die Umsatzsteuerbarkeit entfallen lässt, wird umfassend dargestellt. rnrnEin wesentlicher Teil der Ausarbeitung betrifft die Problematik der gemischt genutzten Grundstücke. Es wird die Entwicklung der Behandlung der gemischt genutzten Grundstücke von der Seeling-Entscheidung des europäischen Gerichtshofes bis zur Einführung des § 15 Abs. 1 b UStG mit Wirkung zum 01.01.2011 dargestellt. Während nach der Seeling-Rechtsprechung der Unternehmer noch die Wahl hatte, ein gemischt, also sowohl unternehmerisch wie auch privat genutztes Grundstück, vollständig in die unternehmerische Sphäre einzubeziehen und sogleich im vollen Umfang Vorsteuer geltend zu machen, kann der Unternehmer seit der Gesetzesänderung die Vorsteuer nur noch in dem Umfang geltend machen, indem das Grundstück tatsächlich für unternehmerische Zwecke genutzt wird. Das sogenannte Seeling-Modell, dessen Folgen mitunter als Staatsdarlehen charakterisiert worden sind, fand damit zu einem Ende. In diesem Zusammenhang wird auch das Ausscheiden der Immobilie aus dem unternehmerischen Bereich vor und nach Ablauf des Berichtigungszeitraums nach § 15 a UStG untersucht.rnrnSchließlich werden die Grundstücksgeschäfte im Zusammenhang mit Gesellschaften unterschiedlicher Rechtsform dargestellt. Hierbei wird zwischen den Fällen der Einbringung eines Grundstücks bei Gründung der Gesellschaft, der Einbringung nach Entstehung der Gesellschaft und der Grundstücksgeschäfte anlässlich des Ausscheidens aus einer Gesellschaft unterschieden. Es werden sowohl die zivilrechtlichen Grundlagen als auch die umsatzsteuerrechtlichen Folgen für Personengesellschaften, die GmbH und die AG dargestellt. rn

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Tree-ring chronologies are a powerful natural archive to reconstruct summer temperature variations of the late Holocene with an annual resolution. To develop these long-term proxy records tree-ring series are commonly extended back in time by combining samples from living trees with relict dead material preserved onshore or in lakes. Former studies showed that low frequency variations in such reconstructions can be biased if the relict and recent material is from different origins. A detailed analysis of the influence of various ecological (micro-) habitats representing the recent part is required to estimate potential errors in temperature estimates. The application of collective detrending methods, that comprise absolute growth rates, can produce errors in climate reconstructions and results in an underestimation of past temperatures. The appearance of these kind of micro-site effects is a wide-spread phenomenon that takes place all over Fennoscandia. Future research in this key region for dendroclimatology should take this issue into account. Especially the higher climate response at the lakeshore site is interesting to achieve smaller uncertainties when a tree-ring series is transformed to temperature anomalies. For new composite chronologies the main aim should be to minimize potential biases and this includes also micro-site effects.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Da nicht-synonyme tumorspezifische Punktmutationen nur in malignen Geweben vorkommen und das veränderte Proteinprodukt vom Immunsystem als „fremd“ erkannt werden kann, stellen diese einen bisher ungenutzten Pool von Zielstrukturen für die Immuntherapie dar. Menschliche Tumore können individuell bis zu tausenden nicht-synonymer Punktmutationen in ihrem Genom tragen, welche nicht der zentralen Immuntoleranz unterliegen. Ziel der vorliegenden Arbeit war die Hypothese zu untersuchen, dass das Immunsystem in der Lage sein sollte, mutierte Epitope auf Tumorzellen zu erkennen und zu klären, ob auf dieser Basis eine wirksame mRNA (RNA) basierte anti-tumorale Vakzinierung etabliert werden kann. Hierzu wurde von Ugur Sahin und Kollegen, das gesamte Genom des murinen B16-F10 Melanoms sequenziert und bioinformatisch analysiert. Im Rahmen der NGS Sequenzierung wurden mehr als 500 nicht-synonyme Punktmutationen identifiziert, von welchen 50 Mutationen selektiert und durch Sanger Sequenzierung validiert wurden. rnNach der Etablierung des immunologischen Testsysteme war eine Hauptfragestellung dieser Arbeit, die selektierten nicht-synonyme Punktmutationen in einem in vivo Ansatz systematisch auf Antigenität zu testen. Für diese Studien wurden mutierte Sequenzen in einer Länge von 27 Aminosäuren genutzt, in denen die mutierte Aminosäure zentral positioniert war. Durch die Länge der Peptide können prinzipiell alle möglichen MHC Klasse-I und -II Epitope abgedeckt werden, welche die Mutation enthalten. Eine Grundidee des Projektes Ansatzes ist es, einen auf in vitro transkribierter RNA basierten oligotopen Impfstoff zu entwickeln. Daher wurden die Impfungen naiver Mäuse sowohl mit langen Peptiden, als auch in einem unabhängigen Ansatz mit peptidkodierender RNA durchgeführt. Die Immunphänotypisierung der Impfstoff induzierten T-Zellen zeigte, dass insgesamt 16 der 50 (32%) mutierten Sequenzen eine T-Zellreaktivität induzierten. rnDie Verwendung der vorhergesagten Epitope in therapeutischen Vakzinierungsstudien bestätigten die Hypothese das mutierte Neo-Epitope potente Zielstrukturen einer anti-tumoralen Impftherapie darstellen können. So wurde in therapeutischen Tumorstudien gezeigt, dass auf Basis von RNA 9 von 12 bestätigten Epitopen einen anti-tumoralen Effekt zeigte.rnÜberaschenderweise wurde bei einem MHC Klasse-II restringierten mutiertem Epitop (Mut-30) sowohl in einem subkutanen, als auch in einem unabhängigen therapeutischen Lungenmetastasen Modell ein starker anti-tumoraler Effekt auf B16-F10 beobachtet, der dieses Epitop als neues immundominantes Epitop für das B16-F10 Melanom etabliert. Um den immunologischen Mechanismus hinter diesem Effekt näher zu untersuchen wurde in verschieden Experimenten die Rolle von CD4+, CD8+ sowie NK-Zellen zu verschieden Zeitpunkten der Tumorentwicklung untersucht. Die Analyse des Tumorgewebes ergab, eine signifikante erhöhte Frequenz von NK-Zellen in den mit Mut-30 RNA vakzinierten Tieren. Das NK Zellen in der frühen Phase der Therapie eine entscheidende Rolle spielen wurde anhand von Depletionsstudien bestätigt. Daran anschließend wurde gezeigt, dass im fortgeschrittenen Tumorstadium die NK Zellen keinen weiteren relevanten Beitrag zum anti-tumoralen Effekt der RNA Vakzinierung leisten, sondern die Vakzine induzierte adaptive Immunantwort. Durch die Isolierung von Lymphozyten aus dem Tumorgewebe und deren Einsatz als Effektorzellen im IFN-γ ELISPOT wurde nachgewiesen, dass Mut-30 spezifische T-Zellen das Tumorgewebe infiltrieren und dort u.a. IFN-γ sekretieren. Dass diese spezifische IFN-γ Ausschüttung für den beobachteten antitumoralen Effekt eine zentrale Rolle einnimmt wurde unter der Verwendung von IFN-γ -/- K.O. Mäusen bestätigt.rnDas Konzept der individuellen RNA basierten mutationsspezifischen Vakzine sieht vor, nicht nur mit einem mutations-spezifischen Epitop, sondern mit mehreren RNA-kodierten Mutationen Patienten zu impfen um der Entstehung von „escape“-Mutanten entgegenzuwirken. Da es nur Erfahrung mit der Herstellung und Verabreichung von Monotop-RNA gab, also RNA die für ein Epitop kodiert, war eine wichtige Fragestellungen, inwieweit Oligotope, welche die mutierten Sequenzen sequentiell durch Linker verbunden als Fusionsprotein kodieren, Immunantworten induzieren können. Hierzu wurden Pentatope mit variierender Position des einzelnen Epitopes hinsichtlich ihrer in vivo induzierten T-Zellreaktivitäten charakterisiert. Die Experimente zeigten, dass es möglich ist, unabhängig von der Position im Pentatop eine Immunantwort gegen ein Epitop zu induzieren. Des weiteren wurde beobachtet, dass die induzierten T-Zellfrequenzen nach Pentatop Vakzinierung im Vergleich zur Nutzung von Monotopen signifikant gesteigert werden kann.rnZusammenfassend wurde im Rahmen der vorliegenden Arbeit präklinisch erstmalig nachgewiesen, dass nicht-synonyme Mutationen eine numerisch relevante Quelle von Zielstrukturen für die anti-tumorale Immuntherapie darstellen. Überraschenderweise zeigte sich eine dominante Induktion MHC-II restringierter Immunantworten, welche partiell in der Lage waren massive Tumorabstoßungsreaktionen zu induzieren. Im Sinne einer Translation der gewonnenen Erkenntnisse wurde ein RNA basiertes Oligotop-Format etabliert, welches Eingang in die klinische Testung des Konzeptes fand.rn

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This thesis assesses the question, whether accounting for non-tradable goods sectors in a calibrated Auerbach-Kotlikoff multi-regional overlapping-generations-model significantly affects this model’s results when simulating the economic impact of demographic change. Non-tradable goods constitute a major part of up to 80 percent of GDP of modern economies. At the same time, multi-regional overlapping-generations-models presented by literature on demographic change so far ignored their existence and counterfactually assumed perfect tradability between model regions. Moreover, this thesis introduces the assumption of an increasing preference share for non-tradable goods of old generations. This fact-based as-sumption is also not part of models in relevant literature. rnThese obvious simplifications of common models vis-à-vis reality notwithstanding, this thesis concludes that differences in results between a model featuring non-tradable goods and a common model with perfect tradability are very small. In other words, the common simplifi-cation of ignoring non-tradable goods is unlikely to lead to significant distortions in model results. rnIn order to ensure that differences in results between the ‘new’ model, featuring both non-tradable and tradable goods, and the common model solely reflect deviations due to the more realistic structure of the ‘new’ model, both models are calibrated to match exactly the same benchmark data and thus do not show deviations in their respective baseline steady states.rnA variation analysis performed in this thesis suggests that differences between the common model and a model with non-tradable goods can theoretically be large, but only if the bench-mark tradable goods sector is assumed to be unrealistically small.rnFinally, this thesis analyzes potential real exchange rate effects of demographic change, which could occur due to regional price differences of non-tradable goods. However, results show that shifts in real exchange rate based on these price differences are negligible.rn

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The incorporation of modified nucleotides into ribonucleic acids (RNAs) is important for their structure and proper function. These modifications are inserted by distinct catalytic macromolecules one of them being Dnmt2. It methylates the Cytidine (C) at position 38 in tRNA to 5-methylcytidine (m5C). Dnmt2 has been a paradigm in this respect, because all of its nearest neighbors in evolution are DNA-cytosine C5-methyltransferases and methylate DNA, while its (own) DNA methyltransferase activity is the subject of controversial reports with rates varying between zero and very weak. This work determines whether the biochemical potential for DNA methylation is present in the enzyme. It was discovered that DNA fragments, when presented as covalent RNA:DNA hybrids in the structural context of a tRNA, can be more efficiently methylated than the corresponding natural tRNA substrate. Additional minor deviations from a native tRNA structure that were seen to be tolerated by Dnmt2 were used for a stepwise development of a composite system of guide RNAs that enable the enzyme to perform cytidine methylation on single stranded DNA in vitro. Furthermore, a proof-of-principle is presented for utilizing the S-adenosyl methionine-analog cofactor SeAdoYn with Dnmt2 to search for new possible substrates in a SELEX-like approach.rnIn innate immunity, nucleic acids can function as pathogen associated molecular patterns (PAMPs) recognized by pattern recognition receptors (PRRs). The modification pattern of RNA is the discriminating factor for toll-like receptor 7 (TLR7) to distinguish between self and non-self RNA of invading pathogens. It was found that a 2'-O-methylated guanosine (Gm) at position18, naturally occurring at this position in some tRNAs, antagonizes recognition by TLR7. In the second part of this work it is pointed out, that recognition extends to the next downstream nucleotide and the effectively recognized molecular detail is actually a methylated dinucleotide. The immune silencing effect of the ribose methylation is most pronounced if the dinucleotide motif is composed of purin nucleobases whereas pyrimidines diminish the effect. Similar results were obtained when the Gm modification was transposed into other tRNA domains. Point mutations abolishing base pairings important for a proper tertiary structure had no effect on the immune stimulatory potential of a Gm modified tRNA. Taken together these results suggest a processive type of RNA inspection by TLR7.rn

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The inter-American human rights system has been conceived following the example of the European system under the European Convention on Human Rights (ECHR) before it was modified by Protocol No 11. However, two important differences exist. First, the authority of the European Court of Human Rights (ECtHR) to order reparation has been strictly limited by the principle of subsidiarity. Thus, the ECtHR's main function is to determine whether the ECHR has been violated. Beyond the declaratory effect of its judgments, according to Article 41 ECHR, it may only "afford just satisfaction to the injured party". The powers of the Inter-American Court of Human Rights (IACtHR) were conceived in a much broader fashion in Article 63 of the American Convention on Human Rights (ACHR), giving the Court the authority to order a variety of individual and general measures aimed at obtaining restitutio in integrum. The first main part of this thesis shows how both Courts have developed their reparation practice and examines the advantages and disadvantages of each approach. Secondly, the ECtHR's rather limited reparation powers have, interestingly, been combined with an elaborate implementation system that includes several of the Council of Europe's organs, principally the Committee of Ministers. In the Inter-American System, no dedicated mechanism was implemented to oversee compliance with the IACtHR's judgments. The ACHR limits itself to inviting the Court to point out in its annual reports the cases that have not been complied with and to propose measures to be adopted by the General Assembly of the Organization of American States. The General Assembly, however, hardly ever took action. The IACtHR has therefore filled this gap by developing a proper procedure to oversee compliance with its judgments. Both the European and the American solutions to ensure compliance are presented and compared in the second main part of this thesis. Finally, based on the results of both main parts, a comparative analysis of the reparation practice and the execution results in both human rights systems is being provided, aimed at developing proposals for the improvement of the functioning of either human rights protection system.