573 resultados para Soziales Wissen


Relevância:

10.00% 10.00%

Publicador:

Resumo:

The composition of the atmosphere is frequently perturbed by the emission of gaseous and particulate matter from natural as well as anthropogenic sources. While the impact of trace gases on the radiative forcing of the climate is relatively well understood the role of aerosol is far more uncertain. Therefore, the study of the vertical distribution of particulate matter in the atmosphere and its chemical composition contribute valuable information to bridge this gap of knowledge. The chemical composition of aerosol reveals information on properties such as radiative behavior and hygroscopicity and therefore cloud condensation or ice nucleus potential. rnThis thesis focuses on aerosol pollution plumes observed in 2008 during the POLARCAT (Polar Study using Aircraft, Remote Sensing, Surface Measurements and Models, of Climate, Chemistry, Aerosols, and Transport) campaign over Greenland in June/July and CONCERT (Contrail and Cirrus Experiment) campaign over Central and Western Europe in October/November. Measurements were performed with an Aerodyne compact time-of-flight aerosol mass spectrometer (AMS) capable of online size-resolved chemical characterization of non-refractory submicron particles. In addition, the origins of pollution plumes were determined by means of modeling tools. The characterized pollution episodes originated from a large variety of sources and were encountered at distinct altitudes. They included pure natural emissions from two volcanic eruptions in 2008. By the time of detection over Western Europe between 10 and 12 km altitude the plume was about 3 months old and composed to 71 % of particulate sulfate and 21 % of carbonaceous compounds. Also, biomass burning (BB) plumes were observed over Greenland between 4 and 7 km altitude (free troposphere) originating from Canada and East Siberia. The long-range transport took roughly one and two weeks, respectively. The aerosol was composed of 78 % organic matter and 22 % particulate sulfate. Some Canadian and all Siberian BB plumes were mixed with anthropogenic emissions from fossil fuel combustion (FF) in North America and East Asia. It was found that the contribution of particulate sulfate increased with growing influences from anthropogenic activity and Asia reaching up to 37 % after more than two weeks of transport time. The most exclusively anthropogenic emission source probed in the upper troposphere was engine exhaust from commercial aircraft liners over Germany. However, in-situ characterization of this aerosol type during aircraft chasing was not possible. All long-range transport aerosol was found to have an O:C ratio close to or greater than 1 implying that low-volatility oxygenated organic aerosol was present in each case despite the variety of origins and the large range in age from 3 to 100 days. This leads to the conclusion that organic particulate matter reaches a final and uniform state of oxygenation after at least 3 days in the free troposphere. rnExcept for aircraft exhaust all emission sources mentioned above are surface-bound and thus rely on different types of vertical transport mechanisms, such as direct high altitude injection in the case of a volcanic eruption, or severe BB, or uplift by convection, to reach higher altitudes where particles can travel long distances before removal mainly caused by cloud scavenging. A lifetime for North American mixed BB and FF aerosol of 7 to 11 days was derived. This in consequence means that emission from surface point sources, e.g. volcanoes, or regions, e.g. East Asia, do not only have a relevant impact on the immediate surroundings but rather on a hemispheric scale including such climate sensitive zones as the tropopause or the Arctic.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Für viele Anwendungen von Nanomaterialien sind maßgeschneiderte Produkte wün-schenswert, weswegen ein tiefgreifendes und genaues Wissen der Reaktionsabläufe, die zu diesen Produkten führen, unabdingbar ist. Um dies im Fall von SnO2 zu erreichen, behandelt diese Arbeit die kontrollierte Synthese und genaue Charakterisierung von Nanopartikeln von Zinn(IV) Oxid.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Dissertation "Konsekutivdolmetschen und Notation" (Andres 2002) ist eine experimentelle Studie. Mit Hilfe einer von den Germersheimer Technikern konzipierten Spezialkamera wurde die Notizennahme von insgesamt 28 ProbandInnen, denen über Video die Fernsehansprache des französischen Staatspräsidenten zum Jahreswechsel 1996/1997 eingespielt wurde, gefilmt. Das Besondere an diesen Filmaufnahmen der Notizen war die mitlaufende Zeitschaltuhr. Damit konnte der zeitliche Abstand (Décalage) zur Originalrede gemessen werden. In der Verschriftung wurden die Originalrede, die Notizen und die Wiedergabe in ihrem temporalen Verlauf aufgezeichnet. Auch nonverbale Elemente wurden durch in Klammern hinter die jeweilige Äußerung gesetzte Anmerkungen integriert. Die Leistungen der ProbandInnen wurden von drei Dozentinnen bewertet. Die Auswertung der empirischen Daten erfolgte unter den Aspekten Effizienz und Knappheit, Quantität und Auswahl, Informationsstrukturierung, Décalage, Wissen und Erfahrung, Text als kommunikatives Ganzes. Auswertung der Dolmetschleistungen: Konsekutivdolmetschen ist eine komplexe Gesamtoperation, die sich aus zahlreichen miteinander vernetzten Teilen zusammensetzt. Faktoren wie Übung, Erfahrung, Wissen, das Verfügen über Sachkenntnis und Problemlösestrategien, spielen in diesem Prozess eine erhebliche Rolle. Daher ist es sinnvoll, im didaktischen Ansatz Einzeloperationen aus der Gesamtoperation herauszulösen und für Einzelbereiche die Fähigkeit zum Problemlösen zu trainieren. Die Grundvoraussetzung ist Verstehen, so dass vor allem Verstehenstechniken zu vermitteln sind. Insgesamt geht es darum, den Lernprozess so zu gestalten, dass Studierenden Strategien vermittelt werden, die es ihnen ermöglichen, defizitäre Daten der Textoberfläche durch differenzierte Erwartungsstrukturen zu ergänzen und zu lernen, Sinn zu konstruieren. In Bezug auf die Notation lassen die in der Untersuchung enthaltenen Daten den Schluss zu, dass es bei der Notation nicht um Fragen wie zielsprachliches oder ausgangssprachliches Notieren oder die Anzahl von Symbolen geht, sondern darum zu vermitteln, dass: (1) ein deutlich geschriebenes Notationssystem mit automatisierten Abkürzungsregeln und einem eindeutigen Stamm an Symbolen Zeitersparnis bewirkt, die für andere Operationen genutzt werden kann; (2) Verben und Tempusangaben für die Rekonstruktion des Gesagten ein wesentlicher Faktor sind; (3) Informationsgewichtung und -strukturierung in den Notizen die Verstehensoperationen intensivieren und die Textproduktion erleichtern; (4) Segmentierung und räumliche Anordnung in den Notizen das Zuordnen erleichtern und die Sprachproduktion positiv beeinflussen; (5) die Notation von Verknüpfungsmitteln ein wesentliches Element für die Herstellung von Kohäsion ist; (6) das Décalage in Abhängigkeit vom Faktor Verstehen Schwankungen unterworfen ist und sein darf; (7) jede Person das für sie individuelle Décalage herausfinden muss; (8) ein anhaltendes Décalage von mehr als 7 Sekunden zu Defiziten im Verstehens- oder im Notationsprozess führt; (9) diskontinuierliches Notieren zur Informationsstrukturierung oder -vervollständigung hilfreich sein kann; (10) rhetorische Merkmale in der Textproduktion leichter berücksichtigt werden, wenn diese in den Notizen markiert sind.rnSchließlich haben die Beobachtungen gezeigt, wie hilfreich für die Studierenden eine intensive Auseinandersetzung mit der Notation ist, wie wichtig ein trainiertes, verlässliches, effizientes Notationssystem als eine Teiloperation ist, die den Verstehensprozess stützt und damit entscheidenden Einfluss auf die Qualität der zielsprachlichen Umsetzung nimmt.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Oxidativer Stress ist seit über 25 Jahren als ein Charakteristikum vieler pathologischer Prozesse bekannt. Helmut Sies beschrieb bereits in den 1980er Jahren oxidativen Stress als Störung in der prooxidativ – antioxidativen Balance zugunsten der prooxidativen Seite, wodurch es potentiell zu Schäden in verschiedenen Geweben kommt. Oxidativer Stress tritt sowohl bei neurodegenerativen Erkrankungen wie Morbus Alzheimer, Morbus Parkinson und zerebraler Ischämie, bei peripheren Erkrankungen wie Arteriosklerose, als auch beim Alterungsprozess per se auf und wird als Ursache oder zumindest als ein krankheitsfördernder Faktor diskutiert. Die in in vitro-Experimenten als vielversprechend antioxidativ getesteten Substanzen (meist phenolhaltig) ergaben in mehreren klinischen Studien keinen signifikanten Vorteil. Um die Ursachen dieser Ergebnisse näher zu analysieren, wurde in der vorliegenden Arbeit auf Basis des cytoprotektiven Phenothiazins, einem aromatischen trizyklischen Amin, der Einfluss von verschiedenen Substituenten im Hinblick auf Lipophilie, Radikalstabilisierung und Löslichkeit des Moleküls chemisch vorhergesagt. Anhand dieser in silicio Struktur-Wirkungs-Beziehung wurden anschließend neue Modellsubstanzen synthetisiert, welche sich systematisch in den drei zuvor genannten Parametern unterschieden. Dies wurde durch Substitution von unterschiedlich langen Fettsäureketten, von löslichkeitsbeeinflussenden funktionellen Gruppen, oder durch Anellierung zusätzlicher aromatischer Ringe erreicht. In den folgenden Versuchen zu antioxidativer Kapazität, zellulärem Überleben, Lipidperoxidation und Proteinoxidation zeigte sich, dass mit gesteigerter Stabilität der korrespondierenden Radikale und mit wachsender Lipophilie die antioxidativ cytoprotektive Aktivität der neuen Derivate bis zu einer gewissen Grenze (logP ≈ 7) signifikant zunahm; über diesen Wert hinaus sank die Effektivität wieder ab. Benzanellierte Phenothiazine entwickelten mit EC50-Werten von ungefähr 8-10 nM die höchste mittlere effektive Wirkkonzentration in oxidativ geschädigten, klonalen hippocampalen Neuronen (HT-22 Zellen). Dies entspricht einer etwa 20-fachen Verbesserung gegenüber α-Tocopherol, welches bisher als bestes natürliches lipophiles Antioxidans angesehen wurde. Im Vergleich zu Phenothiazin erreichen die neuen Antioxidantien immerhin eine höhere Effektivität um den Faktor 4. Folglich sind es sowohl Aspekte der Löslichkeit und der Distribution, welche die Potenz der gegenwärtigen Antioxidantien limitieren als auch Aspekte der Radikalstabilisierung, die Einfluss auf die primäre Wirksamkeit nehmen. Dieses Wissen sollte beim zukünftigen Design neuer, antioxidativ potenter Moleküle im Hinblick auf ihren langfristigen Einsatz bei neurodegenerativen Erkrankungen von Nutzen sein.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Für die Ausheilung von L. major-Infektionen ist eine effektive Th1-/Tc1-Antwort unerlässlich. Dennoch sind bis heute nicht alle Mechanismen der schützenden Immunabwehr beim Menschen und in der Maus endgültig geklärt. Deshalb bestand das Ziel der vorliegenden Arbeit darin, Th1-/Tc1-Antworten und damit die Schnittstelle zwischen angeborenem und adaptivem Immunsystem eingehender zu untersuchen. Für diesen Ansatz wurde zunächst der Einfluss des genetischen Hintergrundes auf den Verlauf der Infektion anhand von BALB/c- und C57BL/6-Zellen analysiert. Als entscheidender Faktor für Heilung und Suszeptibilität wurde mit Hilfe von Knochenmarkschimären die Herkunft der T und/oder B Zellen identifiziert. Erst die Aktivierung durch Th1-/Tc1-Zellen versetzt L. major-infizierte Makrophagen in die Lage, die intrazellulären Parasiten abzutöten. In diesem Aktivierungsprozess spielt die TNF-induzierte Signalweiterleitung über den TNF-Rezeptor 1 (TNF-R1) eine wichtige Rolle. TNF-R1 ist mit dem Signalmolekül FAN assoziiert. In dieser Arbeit konnte anhand von Mäusen, denen FAN fehlt, die Involvierung dieses Moleküls in der Induktion eines Th1-Zytokinsprofils und in der Kontrolle der Parasitenzahl sowie der lokalen Begrenzung der Infektion gezeigt werden. Weiterhin wurde unter Verwendung immundefizienter Mäuse die Realisierbarkeit eines PBMC-Transfermodells geprüft. Ein solches wird zur Validierung an Mäusen gewonnener Erkenntnisse und als präklinisches Testsystem der humanen kutanen Leishmaniasis dringend benötigt. In allen getesteten Stämmen ließ sich durch den Transfer humaner PBMC die L. major-Infektion beeinflussen. Humane CD4+ und CD8+ T-Zellen waren an den Infektionsstellen präsent und es konnten antigenspezifische Immunreaktionen nnachgewiesen werden. Das PBMC-Transfermodell konnte durch die Transplantation humaner Haut auf immundefiziente Mäuse zusätzlich entscheidend verbessert werden. In diesen Transplantaten ließen sich L. major-Infektionen etablieren und durch zusätzlichen Transfer von PBMC die Zahl humaner CD45+ Zellen an der Infektionsstelle deutlich steigern. In ihrer Gesamtheit trägt die vorliegende Arbeit wesentlich zum Verständnis der Determinanten von Heilung und Suszeptibilität der kutanen Leishmaniasis bei und zeigt neue Ansatzpunkte für eine Beeinflussung des Krankheitsverlaufes auf. Die Etablierung eines präklinischen Testmodells der humanen Leishmaniasis ist entscheidend, um das Wissen über die murine Leishmaniasis auf die humane Erkrankung zu übertragen. So kann dem dauerhaften Problem der Entwicklung von Vakzinen an Mäusen, die keine Wirksamkeit gegen die humane Erkrankung zeigen, begegnet werden. Ein vollständig etabliertes Modell wird es ermöglichen, der humanen Erkrankung zugrundeliegende Mechanismen zu untersuchen und Patienten-spezifisch aber auch allgemeingültig Vakzinierungs-Ansätze und Therapien unter experimentellen Bedingungen zu testen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The availability of a high-intensity antiproton beam with momentum up to 15,GeV/c at the future FAIR will open a unique opportunity to investigate wide areas of nuclear physics with the $overline{P}$ANDA (anti{$overline{P}$}roton ANnihilations at DArmstadt) detector. Part of these investigations concern the Electromagnetic Form Factors of the proton in the time-like region and the study of the Transition Distribution Amplitudes, for which feasibility studies have been performed in this Thesis. rnMoreover, simulations to study the efficiency and the energy resolution of the backward endcap of the electromagnetic calorimeter of $overline{P}$ANDA are presented. This detector is crucial especially for the reconstruction of processes like $bar pprightarrow e^+ e^- pi^0$, investigated in this work. Different arrangements of dead material were studied. The results show that both, the efficiency and the energy resolution of the backward endcap of the electromagnetic calorimeter fullfill the requirements for the detection of backward particles, and that this detector is necessary for the reconstruction of the channels of interest. rnrnThe study of the annihilation channel $bar pprightarrow e^+ e^-$ will improve the knowledge of the Electromagnetic Form Factors in the time-like region, and will help to understand their connection with the Electromagnetic Form Factors in the space-like region. In this Thesis the feasibility of a measurement of the $bar pprightarrow e^+ e^-$ cross section with $overline{P}$ANDA is studied using Monte-Carlo simulations. The major background channel $bar pprightarrow pi^+ pi^-$ is taken into account. The results show a $10^9$ background suppression factor, which assure a sufficiently clean signal with less than 0.1% background contamination. The signal can be measured with an efficiency greater than 30% up to $s=14$,(GeV/c)$^2$. The Electromagnetic Form Factors are extracted from the reconstructed signal and corrected angular distribution. Above this $s$ limit, the low cross section will not allow the direct extraction of the Electromagnetic Form Factors. However, the total cross section can still be measured and an extraction of the Electromagnetic Form Factors is possible considering certain assumptions on the ratio between the electric and magnetic contributions.rnrnThe Transition Distribution Amplitudes are new non-perturbative objects describing the transition between a baryon and a meson. They are accessible in hard exclusive processes like $bar pprightarrow e^+ e^- pi^0$. The study of this process with $overline{P}$ANDA will test the Transition Distribution Amplitudes approach. This work includes a feasibility study for measuring this channel with $overline{P}$ANDA. The main background reaction is here $bar pprightarrow pi^+ pi^- pi^0$. A background suppression factor of $10^8$ has been achieved while keeping a signal efficiency above 20%.rnrnrnPart of this work has been published in the European Physics Journal A 44, 373-384 (2010).rn

Relevância:

10.00% 10.00%

Publicador:

Resumo:

When designing metaheuristic optimization methods, there is a trade-off between application range and effectiveness. For large real-world instances of combinatorial optimization problems out-of-the-box metaheuristics often fail, and optimization methods need to be adapted to the problem at hand. Knowledge about the structure of high-quality solutions can be exploited by introducing a so called bias into one of the components of the metaheuristic used. These problem-specific adaptations allow to increase search performance. This thesis analyzes the characteristics of high-quality solutions for three constrained spanning tree problems: the optimal communication spanning tree problem, the quadratic minimum spanning tree problem and the bounded diameter minimum spanning tree problem. Several relevant tree properties, that should be explored when analyzing a constrained spanning tree problem, are identified. Based on the gained insights on the structure of high-quality solutions, efficient and robust solution approaches are designed for each of the three problems. Experimental studies analyze the performance of the developed approaches compared to the current state-of-the-art.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Mineral dust is an important component of the Earth's climate system and provides essential nutrientsrnto oceans and rain forests. During atmospheric transport, dust particles directly and indirectly influencernweather and climate. The strength of dust sources and characteristics of the transport, in turn, mightrnbe subject to climatic changes. Earth system models help for a better understanding of these complexrnmechanisms.rnrnThis thesis applies the global climate model ECHAM5/MESSy Atmospheric Chemistry (EMAC) for simulationsrnof the mineral dust cycle under different climatic conditions. The prerequisite for suitable modelrnresults is the determination of the model setup reproducing the most realistic dust cycle in the recentrnclimate. Simulations with this setup are used to gain new insights into properties of the transatlanticrndust transport from Africa to the Americas and adaptations of the model's climate forcing factors allowrnfor investigations of the impact of climatic changes on the dust cycle.rnrnIn the first part, the most appropriate model setup is determined through a number of sensitivity experiments.rnIt uses the dust emission parametrisation from Tegen et al. 2002 and a spectral resolutionrnof T85, corresponding to a horizontal grid spacing of about 155 km. Coarser resolutions are not able tornaccurately reproduce emissions from important source regions such as the Bodele Depression in Chad orrnthe Taklamakan Desert in Central Asia. Furthermore, the representation of ageing and wet deposition ofrndust particles in the model requires a basic sulphur chemical mechanism. This setup is recommended forrnfuture simulations with EMAC focusing on mineral dust.rnrnOne major branch of the global dust cycle is the long-range transport from the world's largest dustrnsource, the Sahara, across the Atlantic Ocean. Seasonal variations of the main transport pathways to thernAmazon Basin in boreal winter and to the Caribbean during summer are well known and understood,rnand corroborated in this thesis. Both Eulerian and Lagrangian methods give estimates on the typicalrntransport times from the source regions to the deposition on the order of nine to ten days. Previously, arnhuge proportion of the dust transported across the Atlantic Ocean has been attributed to emissions fromrnthe Bodele Depression. However, the contribution of this hot spot to the total transport is very low inrnthe present results, although the overall emissions from this region are comparable. Both model resultsrnand data sets analysed earlier, such as satellite products, involve uncertainties and this controversy aboutrndust transport from the Bodele Depression calls for future investigations and clarification.rnrnAforementioned characteristics of the transatlantic dust transport just slightly change in simulationsrnrepresenting climatic conditions of the Little Ice Age in the middle of the last millennium with meanrnnear-surface cooling of 0.5 to 1 K. However, intensification of the West African summer monsoon duringrnthe Little Ice Age is associated with higher dust emissions from North African source regions and wetterrnconditions in the Sahel. Furthermore, the Indian Monsoon and dust emissions from the Arabian Peninsula,rnwhich are affected by this circulation, are intensified during the Little Ice Age, whereas the annual globalrndust budget is similar in both climate epochs. Simulated dust emission fluxes are particularly influencedrnby the surface parameters. Modifications of the model do not affect those in this thesis, to be able tornascribe all differences in the results to changed forcing factors, such as greenhouse gas concentrations.rnDue to meagre comparison data sets, the verification of results presented here is problematic. Deeperrnknowledge about the dust cycle during the Little Ice Age can be obtained by future simulations, based onrnthis work, and additionally using improved reconstructions of surface parameters. Better evaluation ofrnsuch simulations would be possible by refining the temporal resolution of reconstructed dust depositionrnfluxes from existing ice and marine sediment cores.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Während des frühen Lebens stellen epileptische Anfälle schwere neurologische Zustände dar, weil sie ein großer Risikofaktor für die Manifestation der Epilepsie sind und eine hohe pharmakologische Resistenz zeigen. In meiner Doktorarbeit konzentrierte ich mich auf die Frage, wie verschiedene Neurotransmitter-Systeme und klinisch verwendete Medikamente epileptiforme Entladungen im perinatalen Hippocampus beeinflussen. rnIm ersten Teil meines Projektes untersuchte ich die Wirkung von GABA-Antagonisten und Modulatoren, die zwischen phasischen und tonischen GABAergen Strömen differenzieren, auf Feldpotentialaktivität in Hippocampusschnitten. Diese Experimente zeigten, dass im unreifen Hippocampus synaptische GABAerge Aktivität benötigt wird, um die Erregbarkeit zu begrenzen, während tonische GABAerge Ströme die Erregbarkeit verstärken können. Dies könnte darauf hinweisen, dass Antiepileptika mit einer höheren Spezifität für synaptische GABAA-Rezeptoren wirksamer zur Behandlung von epileptischen Anfällen bei Neugeborenen sein können. rnUm den Einfluss von Dopamin auf die Erregbarkeit des unreifen Hippocampus herauszufinden, untersuchte ich im zweiten Teil meiner Arbeit die Wirkung von verschiedenen Dopaminkonzentrationen und spezifische Agonisten und Antagonisten der Dopamin-Rezeptor-Subtypen auf epileptiforme Entladungen. Diese Experimente zeigten, dass niedrige Dopamin Konzentrationen eine antikonvulsive Wirkung haben, welche vom D2-ähnliche-Rezeptor-Agonisten Quinpirol nachgeahmt werden kann, während höhere Dopamin-Konzentrationen eine prokonvulsive Wirkung über Aktivierung von D1-ähnlichen Rezeptoren hervorrufen. Obwohl unsere Untersuchungen eine mögliche Verwendung von D2-ähnlichen Rezeptor-Agonisten zur Kontrolle epileptischer Anfälle in Neugeborenen nahelegen, müssen mögliche negative Auswirkungen von DAergen Agonisten und Antagonisten auf die neuronale Entwicklung berücksichtigt werden.rnIm dritten Teil meiner Arbeit untersuchte ich welche Konzentrationen von Methylxanthinen epileptische Anfälle in Hippocampuspreparationen auslösen die synaptische Übertragungen verändern können. Diese Experimente zeigten, dass sowohl Theophyllin als auch Koffein in höheren Konzentrationen die basale synaptische Übertragungen in der CA1-Region des Hippocampus modifizieren und epileptiforme Entladungen provozieren. Die Auswirkungen auf die postsynaptischen Antworten und spontanen epileptiformen Entladungen durch Koffein waren weniger ausgeprägt, was darauf hindeutet, dass diese Substanz potentiell vorteilhafter für therapeutische Anwendungen bei Frühgeborenen sein kann. rnZusammenfassend bereichern die Ergebnisse meiner Studie erheblich unser Wissen über die zugrunde liegenden Mechanismen epileptiformer Aktivität im unreifen Hippocampus und den therapeutischen Einsatz von Methylxanthinen und Pharmaka, die auf das GABAerge und DArge System einwirken.rnrn

Relevância:

10.00% 10.00%

Publicador:

Resumo:

"... was ein Sachbuch eingentlich ist", fragte die Wochenzeitung "Die Zeit" 1967. Der vorliegende Text gibt weniger eine Antwort auf die Frage, als dass er die Bedingungen der Fragestellung selbst erklärt. In einer knappen Begriffs- und Diskursgeschichte wird gezeigt, dass vom Sachbuch zunächst in den Bereichen Schulbuch sowie Kinder- und Jugendbuch die Rede war, bevor ab den 1950er Jahren auch wissensvermittelnde Literatur für Erwachsene darunter verstanden wurden. Mit der Einführung der "Spiegel"-Bestsellerliste 1961 verlor der Begriff seine Konturen zunehmend.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die vorliegende Dissertation behandelt die Anwendung Übergangsmetall-katalysierter Anellierungsreaktionen zur Synthese neuartiger Chromophore. Dabei konnten sowohl benzoide als auch nicht-benzoide Strukturen insbesondere durch den Einsatz ausgewählter Pd(0)-Komplexe dargestellt werden. Die Arbeit gliedert sich in fünf Teile: Zunächst werden innovative Pentanellierungsreaktionen mit Acetylenen an bromierten Polycyclischen Aromatischen Kohlenwasserstoffen (PAK) beschrieben, wodurch bislang unbekannte Cyclopenta-PAKs zugänglich werden. Die untersuchten neuen Verbindungen umfassen dabei sowohl einfach als auch doppelt pentanellierte Pyrene, Anthracene und Perylene mit variablem Substitutionsmuster. Auf diese Weise werden bathochrome Wellenlängenverschiebungen bis zu max = 780 nm erreicht. Im zweiten Teil wurde die Pentanellierungstechnik auf Perylenmonoimid-(PMI)-Derivate angewandt. Die resultierenden Arylcyclopenta-PMIs weisen in ihren optischen Eigenschaften starke Ähnlichkeiten zu den verwandten Perylendiimiden (PDI) auf, bieten jedoch die Möglichkeit zusätzlicher Funktionalisierungen. Die Vergrößerung des aromatischen Systems des PDI durch Hexanellierung dagegen wurde im darauffolgenden Kapitel untersucht. Analog zur bekannten homologen Reihe der Rylene (Perylen, Terrylen, Quaterrylen) konnten im Rahmen dieser Arbeit die verwandten 1,12:6,7-Coronendiimid-(CDI)-Derivate um das im Kern unsubstituierte CDI selbst und das 3,4:9,10-Dinaphtho-CDI vervollständigt werden. UV/Vis-Absorptionsmessungen zeigen auch hier eine stete bathochrome Verschiebung der Absorptionswellenlängen. Das Wissen um die Coronendiimid-Synthesen sollte im vierten Teil weiterführend zur Darstellung eines Tetraketo-CDIs genutzt werden. Die finalen Oxidationsversuche zur Einführung der Keto-Gruppen waren nicht erfolgreich, bieten jedoch Einblicke in die Reaktivität unterschiedlicher CDI-Derivate. Der letzte Teil illustriert die Anwendung der bereits zuvor beschriebenen Hexanellierungsreaktion auf Tetrabrom-Terrylendiimid (TDI) zur Darstellung eines Tetranaphtho-TDI. Letzteres bildet dabei drei Isomere aus, wobei zwei optische Aktivität zeigen. UV/Vis und Circulardichroismus-Messungen zeigen hierfür auch bei erhöhten Temperaturen bemerkenswert hohe Racemisierungsbarrieren.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Since historical times, coastal areas throughout the eastern Mediterranean are exposed to tsunami hazard. For many decades the knowledge about palaeotsunamis was solely based on historical accounts. However, results from timeline analyses reveal different characteristics affecting the quality of the dataset (i.e. distribution of data, temporal thinning backward of events, local periodization phenomena) that emphasize the fragmentary character of the historical data. As an increasing number of geo-scientific studies give convincing examples of well dated tsunami signatures not reported in catalogues, the non-existing record is a major problem to palaeotsunami research. While the compilation of historical data allows a first approach in the identification of areas vulnerable to tsunamis, it must not be regarded as reliable for hazard assessment. Considering the increasing economic significance of coastal regions (e.g. for mass tourism) and the constantly growing coastal population, our knowledge on the local, regional and supraregional tsunami hazard along Mediterranean coasts has to be improved. For setting up a reliable tsunami risk assessment and developing risk mitigation strategies, it is of major importance (i) to identify areas under risk and (ii) to estimate the intensity and frequency of potential events. This approach is most promising when based on the analysis of palaeotsunami research seeking to detect areas of high palaeotsunami hazard, to calculate recurrence intervals and to document palaeotsunami destructiveness in terms of wave run-up, inundation and long-term coastal change. Within the past few years, geo-scientific studies on palaeotsunami events provided convincing evidence that throughout the Mediterranean ancient harbours were subject to strong tsunami-related disturbance or destruction. Constructed to protect ships from storm and wave activity, harbours provide especially sheltered and quiescent environments and thus turned out to be valuable geo-archives for tsunamigenic high-energy impacts on coastal areas. Directly exposed to the Hellenic Trench and extensive local fault systems, coastal areas in the Ionian Sea and the Gulf of Corinth hold a considerably high risk for tsunami events, respectively.Geo-scientific and geoarcheaological studies carried out in the environs of the ancient harbours of Krane (Cefalonia Island), Lechaion (Corinth, Gulf of Corinth) and Kyllini (western Peloponnese) comprised on-shore and near-shore vibracoring and subsequent sedimentological, geochemical and microfossil analyses of the recovered sediments. Geophysical methods like electrical resistivity tomography and ground penetrating radar were applied in order to detect subsurface structures and to verify stratigraphical patterns derived from vibracores over long distances. The overall geochronological framework of each study area is based on radiocarbon dating of biogenic material and age determination of diagnostic ceramic fragments. Results presented within this study provide distinct evidence of multiple palaeotsunami landfalls for the investigated areas. Tsunami signatures encountered in the environs of Krane, Lechaion and Kyllini include (i) coarse-grained allochthonous marine sediments intersecting silt-dominated quiescent harbour deposits and/or shallow marine environments, (ii) disturbed microfaunal assemblages and/or (iii) distinct geochemical fingerprints as well as (iv) geo-archaeological destruction layers and (v) extensive units of beachrock-type calcarenitic tsunamites. For Krane, geochronological data yielded termini ad or post quem (maximum ages) for tsunami event generations dated to 4150 ± 60 cal BC, ~ 3200 ± 110 cal BC, ~ 650 ± 110 cal BC, and ~ 930 ± 40 cal AD, respectively. Results for Lechaion suggest that the harbour was hit by strong tsunami impacts in the 8th-6th century BC, the 1st-2nd century AD and in the 6th century AD. At Kyllini, the harbour site was affected by tsunami impact in between the late 7th and early 4th cent. BC and between the 4th and 6th cent. AD. In case of Lechaion and Kyllini, the final destruction of the harbour facilities also seems to be related to the tsunami impact. Comparing the tsunami signals obtained for each study areas with geo-scientific data from palaeotsunami events from other sites indicates that the investigated harbour sites represent excellent geo-archives for supra-regional mega-tsunamis.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Makromolekulare Wirkstoffträgersysteme sind von starkem Interesse bezüglich der klinischen Anwendung chemotherapeutischer Agenzien. Um ihr klinisches Potential zu untersuchen ist es von besonderer Bedeutung das pharmakokinetische Profil in vivo zu bestimmen. Jede Veränderung der Polymerstruktur beeinflusst die Körperverteilung des entsprechenden Makromoleküls. Aufgrund dessen benötigt man detailliertes Wissen über Struktur-Eigenschaftsbeziehungen im lebenden Organismus, um das Nanocarrier System für zukünftige Anwendungen einzustellen. In dieser Beziehung stellt das präklinische Screening mittels radioaktiver Markierung und Positronen-Emissions-Tomographie eine nützliche Methode für schnelle sowie quantitative Beobachtung von Wirkstoffträgerkandidaten dar. Insbesondere poly(HPMA) und PEG sind im Arbeitsgebiet Polymer-basierter Therapeutika stark verbreitet und von ihnen abgeleitete Strukturen könnten neue Generationen in diesem Forschungsbereich bieten.rnDie vorliegende Arbeit beschreibt die erfolgreiche Synthese verschiedener HPMA und PEG basierter Polymer-Architekturen – Homopolymere, Statistische und Block copolymere – die mittels RAFT und Reaktivesterchemie durchgeführt wurde. Des Weiteren wurden die genannten Polymere mit Fluor-18 und Iod-131 radioaktiv markiert und mit Hilfe von microPET und ex vivo Biodistributionsstudien in tumortragenden Ratten biologisch evaluiert. Die Variation in Polymer-Architektur und darauffolgende Analyse in vivo resultierte in wichtige Schlussfolgerungen. Das hydrophile / lipophile Gleichgewicht hatte einen bedeutenden Einfluss auf das pharmakokinetische Profil, mit besten in vivo Eigenschaften (geringe Aufnahme in Leber und Milz sowie verlängerte Blutzirkulationszeit) für statistische HPMA-LMA copolymere mit steigendem hydrophoben Anteil. Außerdem zeigten Langzeitstudien mit Iod-131 eine verstärkte Retention von hochmolekularen, HPMA basierten statistischen Copolymeren im Tumorgewebe. Diese Beobachtung bestätigte den bekannten EPR-Effekt. Hinzukommend stellen Überstrukturbildung und damit Polymergröße Schlüsselfaktoren für effizientes Tumor-Targeting dar, da Polymerstrukturen über 200 nm in Durchmesser schnell vom MPS erkannt und vom Blutkreislauf eliminiert werden. Aufgrund dessen wurden die hier synthetisierten HPMA Block copolymere mit PEG Seitengruppen chemisch modifiziert, um eine Verminderung in Größe sowie eine Reduktion in Blutausscheidung zu induzieren. Dieser Ansatz führte zu einer erhöhten Tumoranreicherung im Walker 256 Karzinom Modell. Generell wird die Körperverteilung von HPMA und PEG basierten Polymeren stark durch die Polymer-Architektur sowie das Molekulargewicht beeinflusst. Außerdem hängt ihre Effizienz hinsichtlich Tumorbehandlung deutlich von den individuellen Charakteristika des einzelnen Tumors ab. Aufgrund dieser Beobachtungen betont die hier vorgestellte Dissertation die Notwendigkeit einer detaillierten Polymer-Charakterisierung, kombiniert mit präklinischem Screening, um polymere Wirkstoffträgersysteme für individualisierte Patienten-Therapie in der Zukunft maßzuschneidern.rn

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Regulierung und Steuerung von Hochschulen unterliegt spätestens seit der Liberalisierung des Hochschulrahmengesetzes im Jahr 1998 einer erheblichen Reformdynamik. Hochschulautonomie, New Public Management, Profilbildung, Exzellenz und Wettbewerb sind zentrale Stichworte im Rahmen der durchgeführten politischen Reformen und Programme.rnDer politisch intendierte Ausbau einer organisationalen Selbststeuerung von Universitäten stellt die Hochschulen vor beachtliche Herausforderungen und kann als Paradigmenwechsel im Bereich der Hochschul-Governance betrachtet werden. In der Fachdiskussion wird der entsprechende Wandel auch als Stärkung der „managerial governance“ (bspw. de Boer et al. 2007) oder als Wandel von Universitäten hin zu „more complete organizations“ (Brunsson/ Sahlin-Andersson 2000) bzw. „organisational actors“ (Krücken/Meier 2006) beschrieben. rnGleichzeitig liegt bislang eher fragmentarisches Wissen darüber vor, wie der veränderte Re-gulierungskontext von den Steuerungsakteuren in deutschen Hochschulen aufgegriffen wird, d.h. ob auf Organisationsebene tatsächlich ein Ausbau der organisationalen Selbststeuerung stattfindet, welche Steuerungsinitiativen und -instrumente sich bewähren und warum dies der Fall ist. Die vorliegende Arbeit geht diesen Fragen im Rahmen einer vergleichenden Fallstudie an sechs Universitäten nach. rnIm Zentrum der empirischen Erhebung stehen 60 qualitative sozialwissenschaftliche Interviews mit Leitungsakteuren auf Hochschul- und Fachbereichsebene. Diese Daten werden ergänzt durch umfangreiche Dokumentenanalysen, insbesondere von Jahresberichten, Grundordnungen, Strategie- und Planungsdokumenten sowie durch Daten der amtlichen Hochschul-statistik. Das Untersuchungsdesign erlaubt überdies eine Gegenüberstellung von großen und kleinen Universitäten sowie von Hochschulen mit einer technisch-naturwissenschaftlichen Ausrichtung gegenüber solchen mit einem kultur- und sozialwissenschaftlichen Schwerpunkt. Die Untersuchung zeigt, dass an fünf der sechs untersuchten Hochschulen ein zum Teil deutlicher Ausbau der organisationalen Selbststeuerung festzustellen ist, wenngleich der spezifische organisationale Charakter von Universitäten, d.h. eine weitgehend lose Kopplung mit autonomen Professionals, im Wesentlichen erhalten bleibt. Die Zusammenschau der Veränderungen ergibt ein idealtypisches Modell des Wandels von Strategie, Struktur und Kultur der Hochschulen. Auf Basis der empirischen Ergebnisse werden weiterhin zentrale externe und interne Einflussfaktoren auf den spezifischen organisationalen Wandel analysiert. Schließlich werden Kosten und Nutzen sowie Risiken und Chancen der Governance-Reformen im Hoch-schulbereich gegenübergestellt.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Molekularbiologie von Menschen ist ein hochkomplexes und vielfältiges Themengebiet, in dem in vielen Bereichen geforscht wird. Der Fokus liegt hier insbesondere auf den Bereichen der Genomik, Proteomik, Transkriptomik und Metabolomik, und Jahre der Forschung haben große Mengen an wertvollen Daten zusammengetragen. Diese Ansammlung wächst stetig und auch für die Zukunft ist keine Stagnation absehbar. Mittlerweile aber hat diese permanente Informationsflut wertvolles Wissen in unüberschaubaren, digitalen Datenbergen begraben und das Sammeln von forschungsspezifischen und zuverlässigen Informationen zu einer großen Herausforderung werden lassen. Die in dieser Dissertation präsentierte Arbeit hat ein umfassendes Kompendium von humanen Geweben für biomedizinische Analysen generiert. Es trägt den Namen medicalgenomics.org und hat diverse biomedizinische Probleme auf der Suche nach spezifischem Wissen in zahlreichen Datenbanken gelöst. Das Kompendium ist das erste seiner Art und sein gewonnenes Wissen wird Wissenschaftlern helfen, einen besseren systematischen Überblick über spezifische Gene oder funktionaler Profile, mit Sicht auf Regulation sowie pathologische und physiologische Bedingungen, zu bekommen. Darüber hinaus ermöglichen verschiedene Abfragemethoden eine effiziente Analyse von signalgebenden Ereignissen, metabolischen Stoffwechselwegen sowie das Studieren der Gene auf der Expressionsebene. Die gesamte Vielfalt dieser Abfrageoptionen ermöglicht den Wissenschaftlern hoch spezialisierte, genetische Straßenkarten zu erstellen, mit deren Hilfe zukünftige Experimente genauer geplant werden können. Infolgedessen können wertvolle Ressourcen und Zeit eingespart werden, bei steigenden Erfolgsaussichten. Des Weiteren kann das umfassende Wissen des Kompendiums genutzt werden, um biomedizinische Hypothesen zu generieren und zu überprüfen.