980 resultados para swd: Mensch-Maschine-Kommunikation
Resumo:
In der vorliegenden Arbeit wurde die Fähigkeit von Hunden zur Erkennung und Unterscheidung menschlicher Gesichter untersucht. Zu diesem Zweck wurden verschiedene Verhaltensexperimente mit fünf Hunden durchgeführt. Zunächst wurden die Hunde darauf dressiert, ein einlaminiertes DIN A4 Blatt mit einem Gesicht im Zentrum in der dafür vorgesehenen Apparatur mit der Schnauze zu berühren. Bei der Dressur wurden immer zwei Folien präsentiert, wobei nur eine Wahl, nämlich die des Dressurgesichts, durch Futtergabe belohnt wurde. Nach Abschluss der Dressurphase wurden die Hunde in Generalisationstests mit neuen Gesichtern konfrontiert, die für uns Menschen wenig bis keine direkte Ähnlichkeit mit dem Dressurgesicht aufwiesen. Um herauszufinden ob Hunde sich an der Größe orientieren, wurden einige der zuvor getesteten Gesichter um die Hälfte und mehr verkleinert. All diese Veränderungen beeinträchtigten die Fähigkeit der Hunde nicht, das Dressurgesicht bevorzugt zu wählen. Diese Ergebnisse veranlassten die Versuchsleiterin zu testen, ob Hunde sich an verschiedenen Bereichen im menschlichen Gesicht orientieren oder das Gesicht als Ganzes wahrnehmen. Zur Beurteilung wurden den Hunden abgeänderte Gesichter zum Einen ohne Haare und Ohren und zum Anderen nur Haare und Ohren ohne das Gesicht (homogen graue Fläche) präsentiert. Hier hatten die Hunde deutliche Schwierigkeiten, wenn die äußeren Konturen nicht mehr vorhanden waren. Bei diesen Versuchen blieben die Wahlen der Hunde nahe dem Zufallsniveau von 50%. Das Fehlen des Gesichts als solches erwies sich als unproblematisch, da allen Hunden die äußeren Konturen, in diesem Fall Haare und Ohren ausreichten, um das Dressurgesicht mit einer Wahlhäufigkeit signifikant über 70% wiederzuerkennen. Abschließend wurde untersucht, ob sich die Hunde durch das Zusammensetzen von zwei bzw. drei unterschiedlichen Gesichtern in ihrem Wahlverhalten beeinflussen lassen. Dazu wurden zwei unterschiedlichen Haarpartien verschiedene Gesichter zugeordnet. Ähnelten sich die äußeren Konturen fiel es den Hunden in dieser Versuchsreihe schwer die Dressurhaare wieder zu erkennen. Unterschieden sich die äußeren Konturen für unser menschliches Auge deutlich, so wählten alle Hunde die Haare und Ohren des Dressurgesichts mit einer Wahlhäufigkeit signifikant über dem Schwellenwert von 70%. Somit ist zu vermuten, dass sich im Laufe der Domestikation beim Hund keine Hirnregion ausgebildet hat, die speziell für die Gesichtserkennung von Menschen verantwortlich ist. Aus den Ergebnissen dieser Arbeit zur Gesichtserkennung beim Hund wird deutlich, dass es dem Hund möglich ist, Gesichter voneinander zu unterscheiden. Allerdings orientiert sich der Hund nicht an bestimmten Gesichtsregionen, sondern nutzt die äußeren Konturen als Wiedererkennungsmerkmal. Aus diesem Grund finden sich häufig Unsicherheiten bei Hunden, wenn ihnen bekannte Menschen plötzlich mit Hut oder Mütze begegnen und eine Erkennung über den Geruchssinn und die Stimme noch nicht stattgefunden hat. Bei der Beurteilung der Ergebnisse muss beachtet werden, dass den Hunden das menschliche Gesicht in Form von Bildern präsentiert wurde und somit keine Beeinflussung durch Bewegung im Gesicht gegeben war. Da das Bewegungssehen beim Hund sehr gut ausgebildet ist, achtet er im Alltag des Menschen sehr wahrscheinlich außerordentlich gut auf Augenbewegungen und Gesichtsmuskelbewegungen, um mit dem Sozialpartner Mensch zu kommunizieren. Weiterhin wäre es interessant herauszufinden, ob die Orientierung an den äußeren Konturen eine Folge der Domestikation und somit eine Adaptation an den Menschen und sein Ökosystem ist, oder ob Wölfe auch dazu in der Lage wären.
Resumo:
Oligodendrocytes form specialized plasma membrane extensions which spirally enwrap axons, thereby building up the myelin sheath. During myelination, oligodendrocytes produce large amounts of membrane components. Oligodendrocytes can be seen as a complex polarized cell type with two distinct membrane domains, the plasma membrane surrounding the cell body and the myelin membrane. SNARE proteins mediate the fusion of vesicular cargoes with their target membrane. We propose a model in which the major myelin protein PLP is transported by two different pathways. VAMP3 mediates the non-polarized transport of newly synthesized PLP via recycling endosomes to the plasma membrane, while transport of PLP from late endosomes/lysosomes to myelin is controlled by VAMP7. In the second part of the thesis, the role of exosome secretion in glia to axon signaling was studied. Further studies are required to clarify whether VAMP7 also controls exosome secretion. The thesis further focused on putative metabolic effects in the target neurons. Oligodendroglial exosomes showed no obvious influences on neuronal metabolic activity. Analysis of the phosphorylation levels of the neurofilament heavy subunit revealed a decrease in presence of oligodendrocytes, indicating effects of oligodendroglial exosomes on the neuronal cytoskeleton. Finally, candidates for kinases which are possibly activated upon influence of oligodendroglial exosomes and could influence neuronal survival were identified.
Resumo:
Nitrogen is an essential nutrient. It is for human, animal and plants a constituent element of proteins and nucleic acids. Although the majority of the Earth’s atmosphere consists of elemental nitrogen (N2, 78 %) only a few microorganisms can use it directly. To be useful for higher plants and animals elemental nitrogen must be converted to a reactive oxidized form. This conversion happens within the nitrogen cycle by free-living microorganisms, symbiotic living Rhizobium bacteria or by lightning. Humans are able to synthesize reactive nitrogen through the Haber-Bosch process since the beginning of the 20th century. As a result food security of the world population could be improved noticeably. On the other side the increased nitrogen input results in acidification and eutrophication of ecosystems and in loss of biodiversity. Negative health effects arose for humans such as fine particulate matter and summer smog. Furthermore, reactive nitrogen plays a decisive role at atmospheric chemistry and global cycles of pollutants and nutritive substances.rnNitrogen monoxide (NO) and nitrogen dioxide (NO2) belong to the reactive trace gases and are grouped under the generic term NOx. They are important components of atmospheric oxidative processes and influence the lifetime of various less reactive greenhouse gases. NO and NO2 are generated amongst others at combustion process by oxidation of atmospheric nitrogen as well as by biological processes within soil. In atmosphere NO is converted very quickly into NO2. NO2 is than oxidized to nitrate (NO3-) and to nitric acid (HNO3), which bounds to aerosol particles. The bounded nitrate is finally washed out from atmosphere by dry and wet deposition. Catalytic reactions of NOx are an important part of atmospheric chemistry forming or decomposing tropospheric ozone (O3). In atmosphere NO, NO2 and O3 are in photosta¬tionary equilibrium, therefore it is referred as NO-NO2-O3 triad. At regions with elevated NO concentrations reactions with air pollutions can form NO2, altering equilibrium of ozone formation.rnThe essential nutrient nitrogen is taken up by plants mainly by dissolved NO3- entering the roots. Atmospheric nitrogen is oxidized to NO3- within soil via bacteria by nitrogen fixation or ammonium formation and nitrification. Additionally atmospheric NO2 uptake occurs directly by stomata. Inside the apoplast NO2 is disproportionated to nitrate and nitrite (NO2-), which can enter the plant metabolic processes. The enzymes nitrate and nitrite reductase convert nitrate and nitrite to ammonium (NH4+). NO2 gas exchange is controlled by pressure gradients inside the leaves, the stomatal aperture and leaf resistances. Plant stomatal regulation is affected by climate factors like light intensity, temperature and water vapor pressure deficit. rnThis thesis wants to contribute to the comprehension of the effects of vegetation in the atmospheric NO2 cycle and to discuss the NO2 compensation point concentration (mcomp,NO2). Therefore, NO2 exchange between the atmosphere and spruce (Picea abies) on leaf level was detected by a dynamic plant chamber system under labo¬ratory and field conditions. Measurements took place during the EGER project (June-July 2008). Additionally NO2 data collected during the ECHO project (July 2003) on oak (Quercus robur) were analyzed. The used measuring system allowed simultaneously determina¬tion of NO, NO2, O3, CO2 and H2O exchange rates. Calculations of NO, NO2 and O3 fluxes based on generally small differences (∆mi) measured between inlet and outlet of the chamber. Consequently a high accuracy and specificity of the analyzer is necessary. To achieve these requirements a highly specific NO/NO2 analyzer was used and the whole measurement system was optimized to an enduring measurement precision.rnData analysis resulted in a significant mcomp,NO2 only if statistical significance of ∆mi was detected. Consequently, significance of ∆mi was used as a data quality criterion. Photo-chemical reactions of the NO-NO2-O3 triad in the dynamic plant chamber’s volume must be considered for the determination of NO, NO2, O3 exchange rates, other¬wise deposition velocity (vdep,NO2) and mcomp,NO2 will be overestimated. No significant mcomp,NO2 for spruce could be determined under laboratory conditions, but under field conditions mcomp,NO2 could be identified between 0.17 and 0.65 ppb and vdep,NO2 between 0.07 and 0.42 mm s-1. Analyzing field data of oak, no NO2 compensation point concentration could be determined, vdep,NO2 ranged between 0.6 and 2.71 mm s-1. There is increasing indication that forests are mainly a sink for NO2 and potential NO2 emissions are low. Only when assuming high NO soil emissions, more NO2 can be formed by reaction with O3 than plants are able to take up. Under these circumstance forests can be a source for NO2.
Resumo:
Im Wintersemester 2009/2010 und im Sommersemester 2010 wurde am Institut für Soziologie der Johannes Gutenberg-Universität Mainz unter unserer Leitung eine mündliche standardisierte Befragung durchgeführt, das sich mit der Nutzung und Bewertung des bibliothekarischen Angebotes dieser Universität durch die Studierenden beschäftigte. Aus der Grundgesamtheit der Studierenden im Wintersemester 2009/2010 wurde anhand einer Quotenauswahl eine Stichprobe im Umfang von n = 453 bestimmt.rnFolgende Untersuchungsergebnisse sind hervorzuheben:rnZu Studienzwecken arbeiten die Studierenden bevorzugt zu Hause und nicht in einer Bibliothek oder in einem anderen Arbeitsraum der Universität.rnDie unterschiedlichen elektronischen Angebote der Bibliothek, die allen Studierenden zur Verfügung stehen, werden von fast 90% der Studierenden zumindest teilweise wahrgenommen. Die Arbeit am Rechner zu Hause wird technisch durch die elektronischen Angebote der Bibliothek ermöglicht und unterstützt, ebenso die ortsunabhängige Benutzung eines Laptops.rnLob für die Bibliothek gibt es besonders für den Sachverstand der Bibliotheksmitarbeiter, die langen Öffnungszeiten und das reibungslose Funktionieren des Ausleihprozesses. Gleichfalls hervorgehoben wird die Qualität elektronischer Dienstleistungen (Reader-Plus, E-Mail-Erinnerungsservice, Verlängerungs- und Vormerkungsservice). rnKritik äußern viele Studierende an der mangelnden Aktualität der Buchbestände und an der zu geringen Anzahl an Buchexemplaren bei Werken, die zur Standardliteratur ihres Faches gehören. Häufig wird gefordert, dass der Anteil der ausleihbaren Bücher zu Lasten des Präsenzbestandes vergrößert werden sollte. Gewünscht werden ebenfalls eine ‚Modernisierung‘ von Arbeitsräumen und eine Erweiterung der Arbeitsplätze insbesondere für Arbeitsgruppen. Zusätzlich sollten nach Auffassung vieler Studierender innerhalb der Bibliothek Aufenthaltsräume für die Erholung und Kommunikation in Pausen geschaffen werden. Allgemein zeigt sich, dass beim Aufenthalt in den Bibliotheken nicht nur auf Funktionalität Wert gelegt wird.rn
Resumo:
Die vorliegende Arbeit zum kindlichen Erwerb der binären Opposition von „Möglichkeit“ und „Unmöglichkeit“ und ihrer modalen Ausdrucksweisen im Russischen ist in ihrem praktischen Teil eine Einzelfall- und Langzeitstudie, die eine Ergänzung zu den bisher veröffentlichten, durchgehend eher experimentell und statistisch orientierten Forschungsarbeiten darstellen soll.rnÜber dreieinhalb Jahre hinweg wurde kontinuierlich Sprachmaterial eines Kindes sowie einiger ungefährer Altersgenossen und Spielkameraden aufgezeichnet, geordnet und ausgewertet. Zu Beginn des Untersuchungszeitraums war die Hauptprobandin dreieinhalb Jahre alt, zum Schluß sieben Jahre. Dieses Verfahren wurde bisher für das Russische noch nicht angewandt und wird im theoretischen Teil sorgfältig begründet.rnDas Sammeln für die Fragestellung relevanten sprachlichen Materials erfordert naturgemäß einen hohen Zeit- und Arbeitsaufwand, liefert dafür aber Daten, die eine Beeinflussung durch einen vorgegebenen Versuchsaufbau ausschließen, der natürlichen, spontanen Kommunikation entspringende Äußerungen festhalten und es ermöglichen, unprovozierte Interaktion, situationsbedingte Einflüsse, das Diskursverhalten der Probanden und ähnliche, individuelle Faktoren bei der Interpretation des Sprachmaterials in angemessener Weise zu berücksichtigen.rnUm die Fülle modaler Ausdrucksweisen sinnvoll zu strukturieren, konzentriert sich die Analyse auf die kindliche Verwendung von Modalverben und Prädikative als zentrale Mittel innerhalb des „Möglichkeitsfeldes“ und richtet den Fokus dabei auf das Verb moč’. Aus diesem Grunde wurde das theoretische Fundament, das der Arbeit zugrunde liegt, zu einem nicht geringen Teil aus dem Ansatz I.V. Šatunovskijs entwickelt, der die differenzierteste Analyse der zahlreichen Bedeutungsschattierungen des Verbs moč’ vorgelegt hat. Für besonders bedeutungsvoll für die vorliegende Arbeit erweist sich die Unterscheidung von kontrollierbarer und unkontrollierbarer Möglichkeit.rnIm Rahmen der Untersuchung ließen sich die grundlegenden Entwicklungstendenzen verfolgen. Dabei wurde nicht nur versucht nachzuvollziehen, in welcher Weise sich bei einem Kind das Fundament des Sprachgebrauchs in Gestalt eines allgemeinen „Zitatenschatzes“ formiert, sondern es gelang mitunter sogar, erste Fälle der Verwendung des einen oder anderen kommunikativen Fragments mit der Bedeutung von „Möglichkeit“ / „Unmöglichkeit“ oder erste Fälle der Konfrontation des Kindes mit einer neuen Situation, die eine solche Bedeutung verlangte, und sein Sprachverhalten in diesem Moment zu fixieren.
Resumo:
Im Wintersemester 2006/07 wurde am Fachbereich Translations-, Sprach- und Kulturwissenschaft der Johannes Gutenberg Universität Mainz in Germersheim, in Zusammenarbeit mit der Fakultät für Natur- und Geisteswissenschaften der Universität des brasilianischen Bundesstaates São Paulo (Universidade Estadual Paulista Júlio de Mesquita Filho, UNESP) in Assis, das Pilotprojekt Teletandem initiiert. Ein Teil des Pilotprojektes, die Einführung, Entwicklung und Implementierung der Lehr- und Lernmethode Teletandem als Modul im BA-/MA-Studiengang Portugiesisch am FTSK, ist Grundlage der vorliegenden Dissertation.rnTeletandem (TT) ist eine innovative Methode zum autonomen, kooperativen Fremdsprachenlernen in Tandempaaren über das Internet. Die TT-Paare setzen sich aus einem brasilianischen und einem deutschen Studierenden zusammen, die sich ein- bis zweimal pro Woche im Internet treffen und mittels Webcam und Headset ‚unter vier Augen’ synchron, audiovisuell, mündlich und schriftlich miteinander kommunizieren. Dabei entscheiden sie gemeinsam mit ihrem Partner wann sie sich treffen, über was sie sprechen und wie sie die Teletandemsitzungen didaktisch gestalten. Durch die authentische Kommunikation mit Muttersprachlern erwerben und vertiefen die Teilnehmer zielgerichtet ihre Kenntnisse der fremden Sprache und Kultur.rnIn Teil I dieser Dissertation wird anhand einer Auswahl behavioristischer, kognitivistischer und konstruktivistischer (Lern-)Theorien wissenschaftlich untersucht, wie wir lernen, welche Faktoren unser Lernen positiv beeinflussen und welche Implikationen dies für institutionelles Lernen hat. Die Erkenntnisse werden auf das (Fremdsprachen-)Lernen im TT transferiert und es wird untersucht, inwieweit die Anwendung der Methode die Lernprozesse der Studierenden (und Lehrkräfte) begünstigt. In Teil 2 werden die Geschichte des Lernens im (Tele-)Tandem sowie die theoretische Grundlage und die Prinzipien von TT erläutert und das Pilotprojekt vorgestellt. Des Weiteren werden die im Rahmen des Projektes entwickelten vier Teletandemmodule (Modul Teletandem I, Modul Teletandem II, Intensivkurs Portugiesisch im Teletandem, Modul Fremdsprachenlernen im Teletandem), die von Studierenden des FTSK, des Karlsruher Instituts für Technologie (KIT) und der UNESP durchgeführt wurden, dargestellt. Im dritten Teil werden die Ergebnisse der Evaluation der Teletandemkurse vorgestellt und analysiert.rn
Resumo:
Zelladhäsions- und Zellerkennungsphänomene spielen eine entscheidende Rolle im biologischen Geschehen: So findet die Kommunikation zwischen Zellen zu einem großen Teil zwischen membranständigen Adhäsionsmolekülen und ebenfalls membranständigen Liganden auf Nachbarzellen statt. Zu diesen Adhäsionsmolekülen gehören die Selektine, die von fundamentaler Bedeutung für die Bekämpfung von Entzündungskrankheiten und damit für die Funktionsweise unseres Immunsystems sind. Tritt eine Entzündung in unserem Körper auf, so sind Selektine an Adhäsionsprozessen beteiligt, die zur Auswanderung von Leukozyten aus dem Blutstrom in das entzündete Gewebe führen. Diese auswandernden Zellen enthalten eine Vielzahl von Wirkstoffen, die Krankheitserreger bekämpfen, aber auch körpereigenes Gewebe angreifen können. Viele Krankheitsbilder, die mit akut oder chronisch entzündlichen Prozessen einhergehen, hängen mit einer Dysregulation der Selektine zusammen. In diesen Fällen werden übermäßig Selektine exprimiert und es kommt zu einer lokal überschießenden Akkumulation von Leukozyten, die zu Schädigungen von gesundem Gewebe führen kann. rnZu diesen Krankheiten gehören z.B. die rheumatoide Arthritis, die myocardialen Ischämie, Psoriasis sowie Asthma und Allergien. Auch bei der Abstoßung von Transplantaten und Tumormetastasierung wurde eine Beteiligung der Selektine nachgewiesen. Eine Strategie gegen diese unerwünschten Effekte ist die selektive Inhibierung der Selektine, welche aufgrund der bedeutenden Rolle der Selektine in der Genese zahlreicher Krankheiten, von großem pharmazeutischen Interesse ist. rnIn der vorliegenden Arbeit ist die Entwicklung chemischer Synthesen von Verbindungen beschrieben, welche selektininhibierende Eigenschaften aufweisen sollen. Solche sog. Mimetika, die wie die natürlichen Liganden mit den Selektinen wechselwirken, sind nicht nur potenzielle Medikamente, sondern können auch durch veränderte Affinität zur Aufklärung von selektinvermittelten Zelladhäsionsprozessen dienen.rn
Resumo:
Seit Anbeginn der Menschheitsgeschichte beeinflussen die Menschen ihre Umwelt. Durch anthropogene Emissionen ändert sich die Zusammensetzung der Atmosphäre, was einen zunehmenden Einfluss unter anderem auf die Atmosphärenchemie, die Gesundheit von Mensch, Flora und Fauna und das Klima hat. Die steigende Anzahl riesiger, wachsender Metropolen geht einher mit einer räumlichen Konzentration der Emission von Luftschadstoffen, was vor allem einen Einfluss auf die Luftqualität der windabwärts gelegenen ruralen Regionen hat. In dieser Doktorarbeit wurde im Rahmen des MEGAPOLI-Projektes die Abluftfahne der Megastadt Paris unter Anwendung des mobilen Aerosolforschungslabors MoLa untersucht. Dieses ist mit modernen, zeitlich hochauflösenden Instrumenten zur Messung der chemischen Zusammensetzung und Größenverteilung der Aerosolpartikel sowie einiger Spurengase ausgestattet. Es wurden mobile Messstrategien entwickelt und angewendet, die besonders geeignet zur Charakterisierung urbaner Emissionen sind. Querschnittsmessfahrten durch die Abluftfahne und atmosphärische Hintergrundluftmassen erlaubten sowohl die Bestimmung der Struktur und Homogenität der Abluftfahne als auch die Berechnung des Beitrags der urbanen Emissionen zur Gesamtbelastung der Atmosphäre. Quasi-Lagrange’sche Radialmessfahrten dienten der Erkundung der räumlichen Erstreckung der Abluftfahne sowie auftretender Transformationsprozesse der advehierten Luftschadstoffe. In Kombination mit Modellierungen konnte die Struktur der Abluftfahne vertieft untersucht werden. Flexible stationäre Messungen ergänzten den Datensatz und ließen zudem Vergleichsmessungen mit anderen Messstationen zu. Die Daten einer ortsfesten Messstation wurden zusätzlich verwendet, um die Alterung des organischen Partikelanteils zu beschreiben. Die Analyse der mobilen Messdaten erforderte die Entwicklung einer neuen Methode zur Bereinigung des Datensatzes von lokalen Störeinflüssen. Des Weiteren wurden die Möglichkeiten, Grenzen und Fehler bei der Anwendung komplexer Analyseprogramme zur Berechnung des O/C-Verhältnisses der Partikel sowie der Klassifizierung der Aerosolorganik untersucht. Eine Validierung verschiedener Methoden zur Bestimmung der Luftmassenherkunft war für die Auswertung ebenfalls notwendig. Die detaillierte Untersuchung der Abluftfahne von Paris ergab, dass diese sich anhand der Erhöhung der Konzentrationen von Indikatoren für unprozessierte Luftverschmutzung im Vergleich zu Hintergrundwerten identifizieren lässt. Ihre eher homogene Struktur kann zumeist durch eine Gauß-Form im Querschnitt mit einem exponentiellen Abfall der unprozessierten Schadstoffkonzentrationen mit zunehmender Distanz zur Stadt beschrieben werden. Hierfür ist hauptsächlich die turbulente Vermischung mit Umgebungsluftmassen verantwortlich. Es konnte nachgewiesen werden, dass in der advehierten Abluftfahne eine deutliche Oxidation der Aerosolorganik im Sommer stattfindet; im Winter hingegen ließ sich dieser Prozess während der durchgeführten Messungen nicht beobachten. In beiden Jahreszeiten setzt sich die Abluftfahne hauptsächlich aus Ruß und organischen Partikelkomponenten im PM1-Größenbereich zusammen, wobei die Quellen Verkehr und Kochen sowie zusätzlich Heizen in der kalten Jahreszeit dominieren. Die PM1-Partikelmasse erhöhte sich durch die urbanen Emissionen im Vergleich zum Hintergrundwert im Sommer in der Abluftfahne im Mittel um 30% und im Winter um 10%. Besonders starke Erhöhungen ließen sich für Polyaromaten beobachten, wo im Sommer eine mittlere Zunahme von 194% und im Winter von 131% vorlag. Jahreszeitliche Unterschiede waren ebenso in der Größenverteilung der Partikel der Abluftfahne zu finden, wo im Winter im Gegensatz zum Sommer keine zusätzlichen nukleierten kleinen Partikel, sondern nur durch Kondensation und Koagulation angewachsene Partikel zwischen etwa 10nm und 200nm auftraten. Die Spurengaskonzentrationen unterschieden sich ebenfalls, da chemische Reaktionen temperatur- und mitunter strahlungsabhängig sind. Weitere Anwendungsmöglichkeiten des MoLa wurden bei einer Überführungsfahrt von Deutschland an die spanische Atlantikküste demonstriert, woraus eine Kartierung der Luftqualität entlang der Fahrtroute resultierte. Es zeigte sich, dass hauptsächlich urbane Ballungszentren von unprozessierten Luftschadstoffen betroffen sind, advehierte gealterte Substanzen jedoch jede Region beeinflussen können. Die Untersuchung der Luftqualität an Standorten mit unterschiedlicher Exposition bezüglich anthropogener Quellen erweiterte diese Aussage um einen Einblick in die Variation der Luftqualität, abhängig unter anderem von der Wetterlage und der Nähe zu Emissionsquellen. Damit konnte gezeigt werden, dass sich die entwickelten Messstrategien und Analysemethoden nicht nur zur Untersuchung der Abluftfahne einer Großstadt, sondern auch auf verschiedene andere wissenschaftliche und umweltmesstechnische Fragestellungen anwenden lassen.
Resumo:
Synästhetiker schmecken Berührungen, sehen Farben und Formen, wenn sie Musik hören oder einen Duft riechen. Es wurden auch so außergewöhnliche Formen wie Wochentage-Farben-, Berührung-Geruch- oder Schmerz-Farben-Synästhesien gefunden. Die von Neuro- wissenschaftlern und Philosophen als „Bindung“ genannte Fähigkeit mehrere Reize, die in verschiedenen Hirnarealen verarbeitet werden, miteinander zu koppeln und zu einer einheitlichen Repräsentation bzw. erfahrenen Einheit des Bewusstseins zusammenzufassen, betrifft jeden gesunden Mensch. Synästhetiker sind aber Menschen, deren Gehirne zur „Hyperbindung“ oder zum hyperkohärentem Erleben befähigt sind, da bei ihnen wesentlich mehr solcher Kopplungen entstehen. Das Phänomen der Synästhesie ist schon seit mehreren Jahrhunderten bekannt, aber immer noch ein Rätsel. Bisher glaubten Forscher, solche Phänomene beruhten bloß auf überdurchschnittlich dichten neuronalen Verdrahtungen zwischen sensorischen Hirnregionen. Aus der aktuellen Forschung kann man jedoch schließen, dass die Ursache der Synästhesie nicht allein eine verstärkte Verbindung zwischen zwei Sinneskanälen ist. Laut eigener Studien ist der Sinnesreiz selbst sowie seine fest verdrahteten sensorischen Pfade nicht notwendig für die Auslösung des synästhetischen Erlebens. Eine grundlegende Rolle spielt dabei dessen Bedeutung für einen Synästhetiker. Für die Annahme, dass die Semantik für die synästhetische Wahrnehmung das Entscheidende ist, müssten synästhetische Assoziationen ziemlich flexibel sein. Und genau das wurde herausgefunden, nämlich, dass normalerweise sehr stabile synästhetische Assoziationen unter bestimmten Bedingungen sich auf neue Auslöser übertragen lassen. Weitere Untersuchung betraf die neu entdeckte Schwimmstil-Farbe-Synästhesie, die tritt hervor nicht nur wenn Synästhetiker schwimmen, aber auch wenn sie über das Schwimmen denken. Sogar die Namen dieser charakteristischen Bewegungen können ihre Farbempfindungen auslösen, sobald sie im stimmigen Kontext auftauchen. Wie man von anderen Beispielen in der Hirnforschung weiß, werden häufig benutzte neuronale Pfade im Laufe der Zeit immer stärker ausgebaut. Wenn also ein Synästhetiker auf bestimmte Stimuli häufig stoßt und dabei eine entsprechende Mitempfindung bekommt, kann das mit der Zeit auch seine Hirnanatomie verändern, so dass die angemessenen strukturellen Verknüpfungen entstehen. Die angebotene Erklärung steht also im Einklang mit den bisherigen Ergebnissen. Die vorliegende Dissertation veranschaulicht, wie einheitlich und kohärent Wahrnehmung, Motorik, Emotionen und Denken (sensorische und kognitive Prozesse) im Phänomen der Synästhesie miteinander zusammenhängen. Das synästhetische nicht-konzeptuelle Begleiterlebnis geht mit dem konzeptuellen Inhalt des Auslösers einher. Ähnlich schreiben wir übliche, nicht-synästhetische phänomenale Eigenschaften den bestimmten Begriffen zu. Die Synästhesie bringt solche Verschaltungen einfach auf beeindruckende Weise zum Ausdruck und lässt das mannigfaltige Erleben stärker integrieren.
Resumo:
Biobanken sind Sammlungen von Körpersubstanzen, die mit umfangreichen gesundheits- und lebensstilbezogenen sowie geneologischen Daten ihrer Spender verknüpft sind. Sie dienen der Erforschung weit verbreiteter Krankheiten. Diese sog. Volkskrankheiten sind multifaktoriell bedingte Krankheiten. Dies bedeutet, dass diese Krankheiten das Ergebnis eines komplizierten Zusammenspiels von umwelt- und verhaltensrelevanten Faktoren mit individuellen genetischen Prädispositionen sind. Forschungen im Bereich von Pharmakogenomik und Pharmakogenetik untersuchen den Einfluss von Genen und Genexpressionen auf die individuelle Wirksamkeit von Medikamenten sowie auf die Entstehung ungewollter Nebenwirkungen und könnten so den Weg zu einer individualisierten Medizin ebnen. Menschliches Material ist ein wichtiger Bestandteil dieser Forschungen und die Nachfrage nach Sammlungen, die Proben mit Daten verknüpfen, steigt. Einerseits sehen Mediziner in Biobanken eine Chance für die Weiterentwicklung der medizinischen Forschung und des Gesundheitswesens. Andererseits lösen Biobanken auch Ängste und Misstrauen aus. Insbesondere wird befürchtet, dass Proben und Daten unkontrolliert verwendet werden und sensible Bereiche des Persönlichkeitsrechts und der persönlichen Identität betroffen sind. Diese Gefahren und Befürchtungen sind nicht neu, sondern bestanden schon in der Vergangenheit bei jeglicher Form der Spende von Körpersubstanzen. Neu ist aber der Umfang an Informationen, der durch die Genanalyse entsteht und den Spender in ganz besonderer Weise betreffen kann. Bei der Speicherung und Nutzung der medizinischen und genetischen Daten ergibt sich somit ein Spannungsfeld insbesondere zwischen dem Recht der betroffenen Datenspender auf informationelle Selbstbestimmung und den Forschungsinteressen der Datennutzer. Im Kern dreht sich die ethisch-rechtliche Bewertung der Biobanken um die Frage, ob diese Forschung zusätzliche Regeln braucht, und falls ja, wie umfassend diese sein müssten. Im Zentrum dieser Diskussion stehen dabei v.a. ethische Fragen im Zusammenhang mit der informierten Einwilligung, dem Datenschutz, der Wiederverwendung von Proben und Daten, der Information der Spender über Forschungsergebnisse und der Nutzungsrechte an den Daten. Ziel dieser Arbeit ist es, vor dem Hintergrund des Verfassungsrechts, insbesondere dem Recht auf informationelle Selbstbestimmung, das Datenschutzrecht im Hinblick auf die Risiken zu untersuchen, die sich aus der Speicherung, Verarbeitung und Kommunikation von persönlichen genetischen Informationen beim Aufbau von Biobanken ergeben. Daraus ergibt sich die weitere Untersuchung, ob und unter welchen Voraussetzungen die sich entgegenstehenden Interessen und Rechte aus verfassungsrechtlichem Blickwinkel in Einklang zu bringen sind. Eine wesentliche Frage lautet, ob die bisherigen rechtlichen Rahmenbedingungen ausreichen, um den Schutz der gespeicherten höchstpersönlichen Daten und zugleich ihre angemessene Nutzung zu gewährleisten. Das Thema ist interdisziplinär im Schnittfeld von Datenschutz, Verfassungsrecht sowie Rechts- und Medizinethik angelegt. Aus dem Inhalt: Naturwissenschaftliche und empirische Grundlagen von Biobanken – Überblick über Biobankprojekte in Europa und im außereuropäischen Ausland – Rechtsgrundlagen für Biobanken - Recht auf informationelle Selbstbestimmung - Recht auf Nichtwissen - Forschungsfreiheit - Qualitätssicherung und Verfahren – informierte Einwilligung – globale Einwilligung - Datenschutzkonzepte - Forschungsgeheimnis –– Biobankgeheimnis - Biobankgesetz
Resumo:
In the CNS, myelinating oligodendrocytes and axons form a functional unit based on intimate cell-cell interactions. In addition to axonal insulation serving to increase the conduction velocity of electrical impulses, oligodendrocytes provide trophic support to neurons essential for the long-term functional integrity of axons. The glial signals maintaining axonal functions are just at the beginning to become uncovered. Yet, their determination is highly relevant for all types of demyelinating diseases, where lack of glial support significantly contributes to pathology. rnThe present PhD thesis uncovers exosomes as a novel signaling entity in the CNS by which cargo can be transferred from oligodendrocytes to neurons. Exosomes are small membranous vesicles of endocytic origin, which are released by almost every cell type and have been implicated in intercellular communication. Oligodendrocytes secrete exosomes containing a distinct set of proteins as well as mRNA and microRNA. Intriguingly, oligodendroglial exosome release is stimulated by the neurotransmitter glutamate indicating that neuronal electrical activity controls glial exosome release. In this study, the role of exosomes in neuron-glia communication and their implications on glial support was examined. Cortical neurons internalized and accumulated oligodendroglial exosomes in the neuronal cell soma in a time-dependent manner. Moreover, uptake occurred likewise at the somatodendritic and axonal compartment of the neurons via dynamin and clathrin dependent endocytosis. Intriguingly, neuronal internalization of exosomes resulted in functional retrieval of exosomal cargo in vitro and in vivo upon stereotactic injection of Cre recombinase bearing exosomes. Functional recovery of Cre recombinase from transferred exosomes was indicated by acquired reporter recombination in the target cell. Electrophysiological analysis showed an increased firing rate in neurons exposed to oligodendroglial exosomes. Moreover, microarray analysis revealed differentially expressed genes after exosome treatment, indicating functional implications on neuronal gene expression and activity. rnTaken together, the results of this PhD thesis represent a proof of principle for exosome transmission from oligodendrocytes to neurons suggesting a new route of horizontal transfer in the CNS.rn
Resumo:
In der vorliegenden Arbeit wird analysiert, ob die neue italienische Partei MoVimento 5 Stelle (M5S) eine rechtspopulistische Partei ist. Darüber hinaus wird mithilfe eines Vergleichs mit Berlusconis Partei Popolo della libertà (PDL) erörtert, ob das M5S den italienischen Rechtspopulismus fortführt. Das M5S wurde im Jahre 2009 von dem italienischen Komiker Beppe Grillo gegründet und zog nach seiner ersten Teilnahme an nationalen Wahlen im Jahre 2013 als zweitstärkste Partei in das italienische Parlament ein. Mit seiner Anti-Establishment-Programmatik und der Ablehnung der etablierten Parteien ähnelt das M5S nicht nur Berlusconis Partei PDL, sondern auch den rechtspopulistischen Parteien, die seit den 1980er Jahren in Westeuropa beständig an Relevanz gewonnen haben. Diese Parteien polemisieren gegen Politiker und Parteien, stellen die Legitimität von Minderheitenrechten und die Prinzipien der repräsentativen Demokratie in Frage. Organisatorisch gruppieren sie sich um einen charismatischen Anführer, dessen Anspruch es ist, die ‚Stimme des Volkes‘ zu repräsentieren. Diese und andere zentrale Charakteristika sind Gegenstand des theoretischen Teils dieser Arbeit. Die Analysedimension sind ‚Programmatik‘ und ‚Organisation‘. Die letztgenannte Kategorie wird in ‚interne Organisationsstruktur‘ und ‚Kommunikation‘ unterteilt. Die Basis der Analyse bilden Parteidokumente (Wahl- und Parteiprogramme, Parteistatuten, Blogeinträge), Experteneinschätzungen und die Forschungsliteratur. Die Untersuchung kommt zu dem Ergebnis, dass es sich beim M5S nicht um eine rechtspopulistische, sondern um eine populistische Partei mit linken Elementen handelt. Den italienischen Rechtspopulismus, wie ihn Berlusconis Partei pflegt, führt sie folglich nicht fort. Sie zeigt in der Organisation starke Parallelen, da beide Parteien von ihren Anführern dominiert werden. Aber das M5S hat eine stark web-basierte Organisationsform und vertritt Umweltthemen, was keine typischen Merkmale rechtspopulistischer Parteien sind. Darüber hinaus vertritt es keine nationalistischen Position, was hingegen konstitutiv für Rechtspopulismus ist.
Resumo:
Glioblastoma multiforme (GBM) is the most common and most aggressive astrocytic tumor of the central nervous system (CNS) in adults. The standard treatment consisting of surgery, followed by a combinatorial radio- and chemotherapy, is only palliative and prolongs patient median survival to 12 to 15 months. The tumor subpopulation of stem cell-like glioma-initiating cells (GICs) shows resistance against radiation as well as chemotherapy, and has been suggested to be responsible for relapses of more aggressive tumors after therapy. The efficacy of immunotherapies, which exploit the immune system to specifically recognize and eliminate malignant cells, is limited due to strong immunosuppressive activities of the GICs and the generation of a specialized protective microenvironment. The molecular mechanisms underlying the therapy resistance of GICs are largely unknown. rnThe first aim of this study was to identify immune evasion mechanisms in GICs triggered by radiation. A model was used in which patient-derived GICs were treated in vitro with fractionated ionizing radiation (2.5 Gy in 7 consecutive passages) to select for a more radio-resistant phenotype. In the model cell line 1080, this selection process resulted in increased proliferative but diminished migratory capacities in comparison to untreated control GICs. Furthermore, radio-selected GICs downregulated various proteins involved in antigen processing and presentation, resulting in decreased expression of MHC class I molecules on the cellular surface and diminished recognition potential by cytotoxic CD8+ T cells. Thus, sub-lethal fractionated radiation can promote immune evasion and hamper the success of adjuvant immunotherapy. Among several immune-associated proteins, interferon-induced transmembrane protein 3 (IFITM3) was found to be upregulated in radio-selected GICs. While high expression of IFITM3 was associated with a worse overall survival of GBM patients (TCGA database) and increased proliferation and migration of differentiated glioma cell lines, a strong contribution of IFITM3 to proliferation in vitro as well as tumor growth and invasiveness in a xenograft model could not be observed. rnMultiple sclerosis (MS) is the most common autoimmune disease of the CNS in young adults of the Western World, which leads to progressive disability in genetically susceptible individuals, possibly triggered by environmental factors. It is assumed that self-reactive, myelin-specific T helper cell 1 (Th1) and Th17 cells, which have escaped the control mechanisms of the immune system, are critical in the pathogenesis of the human disease and its animal model experimental autoimmune encephalomyelitis (EAE). It was observed that in vitro differentiated interleukin 17 (IL-17) producing Th17 cells co-expressed the Th1-phenotypic cytokine Interferon-gamma (IFN-γ) in combination with the two respective lineage-associated transcription factors RORγt and T-bet after re-isolation from the CNS of diseased mice. Pathogenic molecular mechanisms that render a CD4+ T cell encephalitogenic have scarcely been investigated up to date. rnIn the second part of the thesis, whole transcriptional changes occurring in in vitro differentiated Th17 cells in the course of EAE were analyzed. Evaluation of signaling networks revealed an overrepresentation of genes involved in communication between the innate and adaptive immune system and metabolic alterations including cholesterol biosynthesis. The transcription factors Cebpa, Fos, Klf4, Nfatc1 and Spi1, associated with thymocyte development and naïve T cells were upregulated in encephalitogenic CNS-isolated CD4+ T cells, proposing a contribution to T cell plasticity. Correlation of the murine T-cell gene expression dataset to putative MS risk genes, which were selected based on their proximity (± 500 kb; ensembl database, release 75) to the MS risk single nucleotide polymorphisms (SNPs) proposed by the most recent multiple sclerosis GWAS in 2011, revealed that 67.3% of the MS risk genes were differentially expressed in EAE. Expression patterns of Bach2, Il2ra, Irf8, Mertk, Odf3b, Plek, Rgs1, Slc30a7, and Thada were confirmed in independent experiments, suggesting a contribution to T cell pathogenicity. Functional analysis of Nfatc1 revealed that Nfatc1-deficient CD4+ T cells were restrained in their ability to induce clinical signs of EAE. Nfatc1-deficiency allowed proper T cell activation, but diminished their potential to fully differentiate into Th17 cells and to express high amounts of lineage cytokines. As the inducible Nfatc1/αA transcript is distinct from the other family members, it could represent an interesting target for therapeutic intervention in MS.rn
Resumo:
Die BBC-Serie SHERLOCK war 2011 eine der meistexportierten Fernsehproduktionen Großbritanniens und wurde weltweit in viele Sprachen übersetzt. Eine der Herausforderungen bei der Übersetzung stellen die Schrifteinblendungen der Serie (kurz: Inserts) dar. Die Inserts versprachlichen die Gedanken des Protagonisten, bilden schriftliche und digitale Kommunikation ab und zeichnen sich dabei durch ihre visuelle Auffälligkeit und teilweise als einzige Träger sprachlicher Kommunikation aus, womit sie zum wichtigen ästhetischen und narrativen Mittel in der Serie werden. Interessanterweise sind in der Übersetztung alle stilistischen Eigenschaften der Original-Inserts erhalten. In dieser Arbeit wird einerseits untersucht, wie Schrifteinblendungen im Film theoretisch beschrieben werden können, und andererseits, was sie in der Praxis so übersetzt werden können, wie es in der deutschen Version von Sherlock geschah. Zur theoretischen Beschreibung werden zunächst die Schrifteinblendungen in Sherlock Untertitelungsnormen anhand relevanter grundlegender semiotischer Dimensionen gegenübergestellt. Weiterhin wird das Verhältnis zwischen Schrifteinblendungen und Filmbild erkundet. Dazu wird geprüft, wie gut verschiedene Beschreibungsansätze zu Text-Bild-Verhältnissen aus der Sprachwissenschaft, Comicforschung, Übersetzungswissenschaft und Typografie die Einblendungen in Sherlock erklären können. Im praktischen Teil wird die Übersetzung der Einblendungen beleuchtet. Der Übersetzungsprozess bei der deutschen Version wird auf Grundlage eines Experteninterviews mit dem Synchronautor der Serie rekonstruiert, der auch für die Formulierung der Inserts zuständig war. Abschließend werden spezifische Übersetzungsprobleme der Inserts aus der zweiten Staffel von SHERLOCK diskutiert. Es zeigt sich, dass Untertitelungsnormen zur Beschreibung von Inserts nicht geeignet sind, da sie in Dimensionen wie Position, grafische Gestaltung, Animation, Soundeffekte, aber auch Timing stark eingeschränkt sind. Dies lässt sich durch das historisch geprägte Verständnis von Untertiteln erklären, die als möglichst wenig störendes Beiwerk zum fertigen Filmbild und -ablauf (notgedrungen) hinzugefügt werden, wohingegen für die Inserts in SHERLOCK teilweise sogar ein zentraler Platz in der Bild- und Szenenkomposition bereits bei den Dreharbeiten vorgesehen wurde. In Bezug auf Text-Bild-Verhältnisse zeigen sich die größten Parallelen zu Ansätzen aus der Comicforschung, da auch dort schriftliche Texte im Bild eingebettet sind anstatt andersherum. Allerdings sind auch diese Ansätze zur Beschreibung von Bewegung und Ton unzureichend. Die Erkundung der Erklärungsreichweite weiterer vielversprechender Konzepte, wie Interface und Usability, bleibt ein Ziel für künftige Studien. Aus dem Experteninterview lässt sich schließen, dass die Übersetzung von Inserts ein neues, noch unstandardisiertes Verfahren ist, in dem idiosynkratische praktische Lösungen zur sprachübergreifenden Kommunikation zwischen verschiedenen Prozessbeteiligten zum Einsatz kommen. Bei hochqualitative Produktionen zeigt ist auch für die ersetzende Insertübersetzung der Einsatz von Grafikern unerlässlich, zumindest für die Erstellung neuer Inserts als Übersetzungen von gefilmtem Text (Display). Hierbei sind die theoretisch möglichen Synergien zwischen Sprach- und Bildexperten noch nicht voll ausgeschöpft. Zudem zeigt sich Optimierungspotential mit Blick auf die Bereitstellung von sorgfältiger Dokumentation zur ausgangssprachlichen Version. Diese wäre als Referenzmaterial für die Übersetzung insbesondere auch für Zwecke der internationalen Qualitätssicherung relevant. Die übersetzten Inserts in der deutschen Version weisen insgesamt eine sehr hohe Qualität auf. Übersetzungsprobleme ergeben sich für das genretypische Element der Codes, die wegen ihrer Kompaktheit und multiplen Bezügen zum Film eine Herausforderung darstellen. Neben weiteren bekannten Übersetzungsproblemen wie intertextuellen Bezügen und Realia stellt sich immer wieder die Frage, wieviel der im Original dargestellten Insert- und Displaytexte übersetzt werden müssen. Aus Gründen der visuellen Konsistenz wurden neue Inserts zur Übersetzung von Displays notwendig. Außerdem stellt sich die Frage insbesondere bei Fülltexten. Sie dienen der Repräsentation von Text und der Erweiterung der Grenzen der fiktiv dargestellten Welt, sind allerdings mit hohem Übersetzungsaufwand bei minimaler Bedeutung für die Handlung verbunden.
Resumo:
Die vorliegende Masterarbeit entstand im Rahmen des vom Department Traduzione e Interpretazione (Übersetzen und Dolmetschen) der Universität Bologna in Zusammenarbeit mit der Handelskammer Forlì ins Leben gerufenen Projekts Language Toolkit, das unter anderem die Durchführung von Lokalisierungsarbeiten für Unternehmen der Provinz Forlì-Cesena vorsieht. In meinem Fall ging es dabei um das Unternehmen Remedia, welches mich mit der Lokalisierung von Teilen seiner Website (www.remediaerbe.it) ins Deutsche beauftragte. Insbesondere ging es dabei um die Beschreibungen der Hauptprodukte der Abteilung Kräuterheilmittel, bei denen die Werbefunktion und die Verständlichkeit der Webinhalte eine besondere Rolle spielten. Auf ausdrücklichen Wunsch des Unternehmens sollte jedoch die emotionale und evokative Sprache der Ausgangstexte in der Übersetzung nachempfunden werden. Dies führte allerdings zu einer stilistisch treuen Übersetzung, die als Werbetext nicht effizient genug war, weshalb sie vor allem unter dem Gesichtspunkt der Struktur und der Prägnanz verbessert werden musste. Im ersten Kapitel dieser Masterarbeit werden das Unternehmen Remedia, die Palette seines Angebots an natürlichen Produkten und das Lokalisierungsprojekt vorgestellt. Das zweite Kapitel enthält eine Einführung in die Lokalisierung und thematisiert die Rolle des Übersetzers in dieser Branche. Darüber hinaus wird das Thema der Web Usability im Zusammenhang mit der Anordnung der Inhalte in einer Website behandelt und die Abteilung Kräuterheilmittel der Website von Remedia beschrieben. Im dritten Kapitel gehe ich auf die Besonderheiten von Werbetexten in der Kommunikation zwischen Unternehmen und Kunden unter besonderer Berücksichtigung der die Verständlichkeit von Webtexten beeinflussenden Faktoren wie Layout, Textgestaltung und Prägnanz ein. Das vierte Kapitel enthält die vollständige Übersetzung, die der lokalisierten Website entspricht. Im fünften Kapitel schließlich werden die Phasen des Lokalisierungsverfahrens vorgestellt und die wichtigsten Verbesserungen besprochen, die bei der Überarbeitung der stilistisch treuen Übersetzung vorgenommen wurden.