993 resultados para globale Arbeitszufriedenheit, affektive Arbeitszufriedenheit, kognitive Arbeitszufriedenheit, selbst gesteuerte Situationsgestaltung,
Resumo:
The use of Magnetic Resonance Imaging (MRI) as a diagnostic tool is increasingly employing functional contrast agents to study or contrast entire mechanisms. Contrast agents in MRI can be classified in two categories. One type of contrast agents alters the NMR signal of the protons in its surrounding, e.g. lowers the T1 relaxation time. The other type enhances the Nuclear Magnetic Resonance (NMR) signal of specific nuclei. For hyperpolarized gases the NMR signal is improved up to several orders of magnitude. However, gases have a high diffusivity which strongly influences the NMR signal strength, hence the resolution and appearance of the images. The most interesting question in spatially resolved experiments is of course the achievable resolution and contrast by controlling the diffusivity of the gas. The influence of such diffusive processes scales with the diffusion coefficient, the strength of the magnetic field gradients and the timings used in the experiment. Diffusion may not only limit the MRI resolution, but also distort the line shape of MR images for samples, which contain boundaries or diffusion barriers within the sampled space. In addition, due to the large polarization in gaseous 3He and 129Xe, spin diffusion (different from particle diffusion) could play a role in MRI experiments. It is demonstrated that for low temperatures some corrections to the NMR measured diffusion coefficient have to be done, which depend on quantum exchange effects for indistinguishable particles. Physically, if these effects can not change the spin current, they can do it indirectly by modifying the velocity distribution of the different spin states separately, so that the subsequent collisions between atoms and therefore the diffusion coefficient can eventually be affected. A detailed study of the hyperpolarized gas diffusion coefficient is presented, demonstrating the absence of spin diffusion (different from particle diffusion) influence in MRI at clinical conditions. A novel procedure is proposed to control the diffusion coefficient of gases in MRI by admixture of inert buffer gases. The experimental measured diffusion agrees with theoretical simulations. Therefore, the molecular mass and concentration enter as additional parameters into the equations that describe structural contrast. This allows for setting a structural threshold up to which structures contribute to the image. For MRI of the lung this allows for images of very small structural elements (alveoli) only, or in the other extreme, all airways can be displayed with minimal signal loss due to diffusion.
Resumo:
Therapeutisches Drug Monitoring (TDM) ist eine Maßnahme, bei der durch Messung der Medikamentenspiegel im Blut die Dosis ermittelt wird, bei der mit höchster Wahrscheinlichkeit mit Therapieansprechen gerechnet werden kann. Dabei wird angenommen, dass die Konzentrationen im Blut mit denen im Wirkkompartiment korrelieren. Für Antipsychotika wurde gezeigt, dass die Konzentrationen im Blut direkt mit denen im Gehirn korrelieren, die Verteilung zwischen den beiden Kompartimenten ist jedoch für die verschiedenen Antipsychotika sehr unterschiedlich. Die Distribution von Arzneistoffen zwischen Blut und Gehirn wird durch Effluxtransporter in der Blut-Hirn-Schranke kontrolliert. Welche Rolle dabei P-Glykoprotein (P-gp) für die Verteilung von atypischen Antipsychotika spielt und wie die Pharmakokinetik und –dynamik durch diesen Transporter beeinflusst werden, sollte in dieser Arbeit untersucht werden. Für die Messung des neu eingeführten Antipsychotikums Aripiprazol, sowie für seinen aktiven Metaboliten Dehydroaripiprazol, wurde eine hochleistungsflüssigchromatographische (HPLC) Methode mit Säulenschaltung und spektrophotometrischer Detektion etabliert. Die Methode wurde für die Messung von Serumproben schizophrener Patienten eingesetzt, um einen therapeutischen Bereich für Aripiprazol zu ermitteln. Aus der Analyse von 523 Patientenproben wurde herausgefunden, dass Aripiprazol-Serumkonzentrationen von 150 bis 300 ng/ml mit gutem klinischen Ansprechen und einem geringen Risiko für Nebenwirkungen einhergingen. Weiterhin wurde festgestellt, dass die Serumspiegel bei gleichzeitiger Gabe von Inhibitoren und Induktoren der Cytochrom P450 (CYP) Isoenzyme CYP2D6 und CYP3A4 erhöht bzw. gesenkt wurden. Am Modell der P-gp Knockout Maus im Vergleich zu FVB Wildtyp Mäusen wurden Konzentrationsverläufe von Antipsychotika nach i.p. Gabe von Amisulprid, Aripiprazol, Dehydroaripiprazol, Clozapin, Desmethylclozapin, Haloperidol, Olanzapin, Quetiapin, Risperidon und 9-Hydroxyrisperidon sowie der Kontrollsubstanz Domperidon im Gehirn und Blut über 24 Stunden mittels HPLC-Methoden gemessen. Welchen Einfluss eine verminderte Expression von P-gp auf die Pharmakodynamik hat, wurde in zwei Verhaltenstests untersucht. Mit Hilfe des Rotarods wurden motorische Effekte der Arzneistoffe erfasst und mittels Radial Arm Water Maze kognitive Fähigkeiten. Risperidon und sein aktiver Metabolit 9-Hydroxyrisperidon waren die stärksten Substrate von P-gp. 10-fach höhere Konzentrationen im Gehirn der P-gp Knockout Mäuse führten zu 10-fach stärkeren Beeinträchtigungen in den pharmakodynamischen Untersuchungen im Vergleich zu Wildtyp Tieren. Amisulprid, Aripiprazol, Dehydroaripiprazol, Desmethylclozapin und Quetiapin konnten ebenfalls als Substrate von P-gp identifiziert werden. Olanzapin, Haloperidol und Clozapin wurden durch P-gp wenig bzw. nicht in ihrer Pharmakokinetik und –dynamik beeinflusst. Da P-gp von Nagern und Menschen nach derzeitiger Kenntnis in ihren Substrateigenschaften weitgehend übereinstimmen, muss bei einer Behandlung von schizophrenen Patienten mit Antipsychotika, die als Substrate von P-gp identifiziert wurden, davon ausgegangen werden, dass eine Veränderung der Expression oder Aktivität von P-gp, genetisch verursacht oder durch Medikamente bedingt, für das Therapieansprechen oder das Auftreten von Nebenwirkungen bedeutsam sind.
Resumo:
In this thesis a mathematical model was derived that describes the charge and energy transport in semiconductor devices like transistors. Moreover, numerical simulations of these physical processes are performed. In order to accomplish this, methods of theoretical physics, functional analysis, numerical mathematics and computer programming are applied. After an introduction to the status quo of semiconductor device simulation methods and a brief review of historical facts up to now, the attention is shifted to the construction of a model, which serves as the basis of the subsequent derivations in the thesis. Thereby the starting point is an important equation of the theory of dilute gases. From this equation the model equations are derived and specified by means of a series expansion method. This is done in a multi-stage derivation process, which is mainly taken from a scientific paper and which does not constitute the focus of this thesis. In the following phase we specify the mathematical setting and make precise the model assumptions. Thereby we make use of methods of functional analysis. Since the equations we deal with are coupled, we are concerned with a nonstandard problem. In contrary, the theory of scalar elliptic equations is established meanwhile. Subsequently, we are preoccupied with the numerical discretization of the equations. A special finite-element method is used for the discretization. This special approach has to be done in order to make the numerical results appropriate for practical application. By a series of transformations from the discrete model we derive a system of algebraic equations that are eligible for numerical evaluation. Using self-made computer programs we solve the equations to get approximate solutions. These programs are based on new and specialized iteration procedures that are developed and thoroughly tested within the frame of this research work. Due to their importance and their novel status, they are explained and demonstrated in detail. We compare these new iterations with a standard method that is complemented by a feature to fit in the current context. A further innovation is the computation of solutions in three-dimensional domains, which are still rare. Special attention is paid to applicability of the 3D simulation tools. The programs are designed to have justifiable working complexity. The simulation results of some models of contemporary semiconductor devices are shown and detailed comments on the results are given. Eventually, we make a prospect on future development and enhancements of the models and of the algorithms that we used.
Resumo:
Volatile organic compounds play a critical role in ozone formation and drive the chemistry of the atmosphere, together with OH radicals. The simplest volatile organic compound methane is a climatologically important greenhouse gas, and plays a key role in regulating water vapour in the stratosphere and hydroxyl radicals in the troposphere. The OH radical is the most important atmospheric oxidant and knowledge of the atmospheric OH sink, together with the OH source and ambient OH concentrations is essential for understanding the oxidative capacity of the atmosphere. Oceanic emission and / or uptake of methanol, acetone, acetaldehyde, isoprene and dimethyl sulphide (DMS) was characterized as a function of photosynthetically active radiation (PAR) and a suite of biological parameters, in a mesocosm experiment conducted in the Norwegian fjord. High frequency (ca. 1 minute-1) methane measurements were performed using a gas chromatograph - flame ionization detector (GC-FID) in the boreal forests of Finland and the tropical forests of Suriname. A new on-line method (Comparative Reactivity Method - CRM) was developed to directly measure the total OH reactivity (sink) of ambient air. It was observed that under conditions of high biological activity and a PAR of ~ 450 μmol photons m-2 s-1, the ocean acted as a net source of acetone. However, if either of these criteria was not fulfilled then the ocean acted as a net sink of acetone. This new insight into the biogeochemical cycling of acetone at the ocean-air interface has helped to resolve discrepancies from earlier works such as Jacob et al. (2002) who reported the ocean to be a net acetone source (27 Tg yr-1) and Marandino et al. (2005) who reported the ocean to be a net sink of acetone (- 48 Tg yr-1). The ocean acted as net source of isoprene, DMS and acetaldehyde but net sink of methanol. Based on these findings, it is recommended that compound specific PAR and biological dependency be used for estimating the influence of the global ocean on atmospheric VOC budgets. Methane was observed to accumulate within the nocturnal boundary layer, clearly indicating emissions from the forest ecosystems. There was a remarkable similarity in the time series of the boreal and tropical forest ecosystem. The average of the median mixing ratios during a typical diel cycle were 1.83 μmol mol-1 and 1.74 μmol mol-1 for the boreal forest ecosystem and tropical forest ecosystem respectively. A flux value of (3.62 ± 0.87) x 1011 molecules cm-2 s-1 (or 45.5 ± 11 Tg CH4 yr-1 for global boreal forest area) was derived, which highlights the importance of the boreal forest ecosystem for the global budget of methane (~ 600 Tg yr-1). The newly developed CRM technique has a dynamic range of ~ 4 s-1 to 300 s-1 and accuracy of ± 25 %. The system has been tested and calibrated with several single and mixed hydrocarbon standards showing excellent linearity and accountability with the reactivity of the standards. Field tests at an urban and forest site illustrate the promise of the new method. The results from this study have improved current understanding about VOC emissions and uptake from ocean and forest ecosystems. Moreover, a new technique for directly measuring the total OH reactivity of ambient air has been developed and validated, which will be a valuable addition to the existing suite of atmospheric measurement techniques.
Resumo:
Der Autor untersucht die Strategien und Konzepte des Göttinger Kulturwissenschaftlers Edmund Ballhaus, der mit seiner Filmarbeit die Entwicklung des wissenschaftlichen Films seit Mitte der achtziger Jahre maßgeblich beeinflußte. Detaillierte Analysen seiner ersten zwölf, in den Jahren 1986 bis 1996 entstandenen Filme verdeutlichen seine Abkehr von überholten inhaltlichen und methodischen Standards und die Entwicklung eines eigenständigen Typus des kulturwissenschaftlichen Films. Dieser rückt den Menschen in den Mittelpunkt der Betrachtung und erteilt den Gefilmten selbst das Wort. Damit wurde sowohl dem klassischen Erklärdokumentarismus des Fernsehens als auch dem distanzierten Dokumentationsstil des Instituts für den Wissenschaftlichen Film (IWF) ein neues Modell gegenübergestellt. Darüber hinaus löste sich Edmund Ballhaus von der traditionellen Arbeitsteilung in Hinblick auf Recherche, Konzeption und Umsetzung und ersetzte sie durch den selbstfilmenden Wissenschaftler, der für alle Arbeitsschritte einer Filmproduktion allein verantwortlich ist. Seine bereits 1987 veröffentlichten Forderungen verwirklichte er nicht nur in seinen Filmen, sondern auch mit der Gründung der Gesellschaft für den kulturwissenschaftlichen Film (GfkF) und der Einrichtung eines Studienganges Visuelle Anthropologie in Göttingen. In die Untersuchung einbezogen wurde eine im Anhang des Buches wiedergegebene Befragung des Filmautors, welche die Analyse um interessante Details sowohl in Hinblick auf die Entstehungsbedingungen einzelner Filme als auch auf seine persönlichen Überzeugungen und Beweggründe ergänzt.
Resumo:
Gegenstand dieser Arbeit war es, das Zusammenspiel zwischen DNA-Reparatur und zellulärem anitoxidativen Abwehrsystem in Melanomzellen und gesunden Hautfibroblasten näher zu untersuchen. Dabei konnte gezeigt werden, dass die dominierenden DNA-Läsionen im Falle einer Bestrahlung mit sichtbarem Licht (400 – 800 nm) Fpg-sensitive Läsionen, zu denen die Basenmodifikation 7,8-Dihydro-8-oxoguanin (8-oxoG) gehört, und im Falle der UVA-Bestrahlung Cyclobutan-Pyrimidindimere (CPDs) sind. Sowohl Melanomzellen als auch Hautfibroblasten waren problemlos in der Lage, die durch sichtbares Licht und UVA-Strahlung induzierten oxidativen DNA-Modifikationen zu reparieren. Jedoch reagierten Melanomzellen in einer adaptiven Antwort mit einer Erhöhung ihres Glutathion-Gehalts auf ein Maximum (nach circa 10 - 14 h) nach Bestrahlung mit sichtbarem Licht, wohingegen die Hautfibroblasten einen massiven Einbruch direkt nach Bestrahlung und eine extrem lange Erholungsphase über 48 h aufzuweisen hatten. Die darauffolgende Untersuchung der DNA-Reparaturkapazität der Zellen unter Bedingungen von oxidativem Stress mit vorangegangener Depletion intrazellulären Glutathions zeigten eine dramatische, nahezu vollständige Hemmung der Reparatur durch UVA- bzw. Sonnenlicht-induzierter Fpg-sensitiver DNA-Modifikationen (8-oxoG) - sowohl in Melanomzellen als auch in Hautfibroblasten. Dieser Effekt ließ sich durch den Zusatz von Dithiothreitol (DTT), nach erfolgter Bestrahlung der Glutathion-depletierten Zellen, wieder komplett revertieren. Diese Ergebnisse weisen darauf hin, dass an der Reparatur ein redoxempfindliches Protein oder zellulärer Cofaktor beteiligt sein muß. Zudem konnte durch Untersuchungen der Nukleotidexzisionsreparatur (NER) und der Einzelstrangbruchreparatur nach dem gleichen Versuchsdesign gezeigt werden, dass es sich hierbei sehr wahrscheinlich um einen für die Basenexzisionsreparatur (BER) von 7,8-dihydro-8-oxo-guanine (8-oxoG) exklusiven Effekt handelte. Zwei der wichtigsten Reparaturproteine der BER, nämlich hOGG1 und APE1, wurden anschließend auf ihre Funktionsfähigkeit hin untersucht, da es naheliegend war, dass der Reparaturhemmung ein Funktionsverlust eines dieser beiden Enzyme zugrunde liegen könnte. Im Falle des APE1-Proteins konnte dies ausgeschlossen werden, da mit Hilfe der Alkalischen Elution die volle Funktionsfähigkeit für die Reparatur von AP-Läsionen nachgewiesen werden konnte. Interessanterweise zeigte aber das hOGG1-Protein eine zwischen der dritten und vierten Stunde nach Bestrahlung Glutathion-depletierter Zellen stark abfallende Aktivität der 8-oxoG-Glykosylasefunktion. Die Western-Blot-Analyse ergab allerdings keinen Hinweis auf eine Proteinoxidation von hOGG1. Möglicherweise wird nicht hOGG1 selbst, wohl aber ein anderes, für eine konzertierte Abfolge der einzelnen Reparaturschritte entscheidend notwendiges Protein innerhalb der Zelle durch ROS leicht oxidiert. In jedem Fall bleibt festzustellen, dass Glutathion eine wichtige Aufgabe hinsichtlich einer voll funktionsfähigen Basenexzisionreparatur zuzukommen scheint. Die Ergebnisse unterstreichen die mögliche Bedeutung von oxidativem Stress für die Entstehung von Krebs durch Sonnenlicht, insbesondere durch UVA, da die durch die Strahlung (und eventuell auftretende Entzündung) gebildeten ROS nicht nur DNA-Schäden induzieren, sondern auch ihre Reparatur verhindern können.
Resumo:
Zusammenfassung Die Integration verhaltensauffälliger Schülerinnen und Schüler stellt besondere Herausforderungen an die Kompetenz von Lehrerinnen und Lehrern. Zum einen wirkt sich die spezielle Problematik dieser Schülergruppe auf die Beziehungsgestaltung mit Peers und Lehrpersonen aus, zum anderen werden auch spezifische methodische Änderungen im Unterrichts- und Lerngeschehen notwendig, um den Anforderungen, die auffällige Schüler an die Unterrichtsgestaltung stellen, gerecht zu werden. Dabei ist die Gruppe der auffälligen Schülerinnen und Schüler selbst sehr heterogen. Vor dem Hintergrund einer systemisch-konstruktivistischen Sichtweise von Auffälligkeit nähert sich diese Arbeit der Themenstellung der Integration verhaltensauffälliger Schülerinnen und Schüler und legt dar, dass hier vor allem das Passungsverhältnis zwischen (auffälligem) Individuum und sämtlichen Systemen seiner Umwelt in eine Schieflage geraten ist. Auf dieser Basis wurde nach erfolgreichen Modellen der Integration verhaltensauffälliger Schülerinnen und Schüler gesucht, wobei dem immer wiederkehrenden Verweis auf den hilfreichen Beitrag der Freinet-Pädagogik hierbei mit einer eigenen empirischen Studie nachgegangen wurde. An zwei Freinet-Schulen in Deutschland wurde mit Hilfe von teilnehmender Beobachtung, Interviews und Gruppendiskussion die Lehrersichtweise fördernder und hemmender Bedingungen des Integrationsgeschehens erhoben und analysiert. Dabei trat vor allem eine spezifische Haltung der Freinet-Lehrerinnen und Lehrer gegenüber den in der Literatur immer wieder als besonders schwierig dargestellten auffälligen Schülerinnen und Schülern zutage. Diese Einstellung besteht vor allem in der kompetenzorientierten Sicht der auffälligen Schülerinnen und Schüler, die ihre Stärken unterstützt. Auf dieser Basis wird durch viele pädagogische, beraterische und therapeutische Angebote bei den Prozessen, die noch nicht gelingen, angesetzt. Diese Haltung, die sich auch in entsprechenden Rahmenbedingungen ausdrückt (z.B. in Gremien, die die Partizipation der Kinder gewährleisten, oder in auf das Individuum abgestimmten Arbeitstechniken), wurde zusammen mit den Rahmenbedingungen als „Kernkategorie“ Schulkultur im Sinne der Grounded Theory gefasst. Indem die Lehrerinnen und Lehrer an beiden Schulen zuerst die besonderen Begabungen aller ihrer Schülerinnen und Schüler sahen und die auffälligen nicht als spezielle Gruppe heraushoben (die zudem nicht als immer störend oder „schwierig“ klassifiziert wurden), trugen sie nicht nur entscheidend zur gelingenden Integration dieser konkreten Schülerinnen und Schüler bei, sondern stellen auch ein Beispiel für die Erweiterung der pädagogischen Professionalität von Lehrern dar. Die anfängliche enge Fragestellung auf das Integrationsgeschehen von auffälligen Schülerinnen und Schülern konnte durch den Bezug zur Schulkultur und zum schulkulturellen Passungsverhältnis der Schüler erweitert werden. Die vorliegende Arbeit gibt so nicht nur Aufschluss über die Integrationspraxis an Freinet-Schulen, sondern auch über die verschiedenen Dimensionen ihrer jeweiligen Schulkultur.
Resumo:
In questa Tesi di Dottorato di Ricerca sono state studiate le caratteristiche strutturali e le relative prestazioni dei sistemi strutturali cellulari a pareti tozze di tipo sandwich in c. a. gettato in opera realizzate con la tecnologia del pannello di supporto in polistirene. Tali sistemi strutturali sono caratterizzati da numerose peculiarità; infatti, (i) il comportamento globale delle strutture risulta essere di tipo cellulare, e, le pareti che costituiscono il sistema resistente alle azioni sia orizzontali che verticali risultano essere: (ii) tozze, (iii) di tipo sandwich e caratterizzate da: (iv) basse percentuali di armatura, (v) ridotti tassi di lavoro a sforzo assiale e (vi) stesso quantitativo di armatura orizzontale e verticale. Date le specificità dei sistemi strutturali in esame, si è, in primo luogo, cercato di inquadrare le peculiarità strutturali sopra elencate nell’ambito scientifico. Ciò ha consentito di riscontrare una profonda carenza nella conoscenza relativa al comportamento di tali strutture specialmente nei confronti delle azioni orizzontali di tipo sismico. Pertanto i due principali obiettivi di questa Tesi di Dottorato sono stati: (1) la sistematizzazione scientifica e la relativa interpretazione di 10 anni di prove sperimentali condotte sul sistema strutturale in esame; e (2) la progettazione, la realizzazione e l’interpretazione preliminare dei risultati di una prova su tavola vibrante di una struttura a tre piani con pianta rettangolare, realizzata con la tecnologia del pannello di supporto in polistirene (la prova è stata effettuata nell’ambito del progetto di ricerca Europeo SERIES). Questa ricerca ha dunque consentito di far luce sul comportamento (in particolar modo, nei confronti delle azioni orizzontali di tipo sismico) dei sistemi strutturali composti da pareti tozze di tipo sandwich in c. a. gettato in opera realizzati con la tecnologia del pannello di supporto in polistirene.
Resumo:
Ziel der Arbeit ist die Analyse von Prinzipien der Konturintegration im menschlichen visuellen System. Die perzeptuelle Verbindung benachbarter Teile in einer visuellen Szene zu einem Ganzen wird durch zwei gestalttheoretisch begründete Propositionen gekennzeichnet, die komplementäre lokale Mechanismen der Konturintegration beschreiben. Das erste Prinzip der Konturintegration fordert, dass lokale Ähnlichkeit von Elementen in einem anderen Merkmal als Orientierung nicht hinreicht für die Entdeckung von Konturen, sondern ein zusätzlicher statistischer Merkmalsunterschied von Konturelementen und Umgebung vorliegen muss, um Konturentdeckung zu ermöglichen. Das zweite Prinzip der Konturintegration behauptet, dass eine kollineare Ausrichtung von Konturelementen für Konturintegration hinreicht, und es bei deren Vorliegen zu robuster Konturintegrationsleistung kommt, auch wenn die lokalen merkmalstragenden Elemente in anderen Merkmalen in hohem Maße zufällig variieren und damit keine nachbarschaftliche Ähnlichkeitsbeziehung entlang der Kontur aufweisen. Als empirische Grundlage für die beiden vorgeschlagenen Prinzipien der Konturintegration werden drei Experimente berichtet, die zunächst die untergeordnete Rolle globaler Konturmerkmale wie Geschlossenheit bei der Konturentdeckung aufweisen und daraufhin die Bedeutung lokaler Mechanismen für die Konturintegration anhand der Merkmale Kollinearität, Ortsfrequenz sowie der spezifischen Art der Interaktion zwischen beiden Merkmalen beleuchten. Im ersten Experiment wird das globale Merkmal der Geschlossenheit untersucht und gezeigt, dass geschlossene Konturen nicht effektiver entdeckt werden als offene Konturen. Das zweite Experiment zeigt die Robustheit von über Kollinearität definierten Konturen über die zufällige Variation im Merkmal Ortsfrequenz entlang der Kontur und im Hintergrund, sowie die Unmöglichkeit der Konturintegration bei nachbarschaftlicher Ähnlichkeit der Konturelemente, wenn Ähnlichkeit statt über kollineare Orientierung über gleiche Ortsfrequenzen realisiert ist. Im dritten Experiment wird gezeigt, dass eine redundante Kombination von kollinearer Orientierung mit einem statistischen Unterschied im Merkmal Ortsfrequenz zu erheblichen Sichtbarkeitsgewinnen bei der Konturentdeckung führt. Aufgrund der Stärke der Summationswirkung wird vorgeschlagen, dass durch die Kombination mehrerer Hinweisreize neue kortikale Mechanismen angesprochen werden, die die Konturentdeckung unterstützen. Die Resultate der drei Experimente werden in den Kontext aktueller Forschung zur Objektwahrnehmung gestellt und ihre Bedeutung für die postulierten allgemeinen Prinzipien visueller Gruppierung in der Konturintegration diskutiert. Anhand phänomenologischer Beispiele mit anderen Merkmalen als Orientierung und Ortsfrequenz wird gezeigt, dass die gefundenen Prinzipien Generalisierbarkeit für die Verarbeitung von Konturen im visuellen System beanspruchen können.
Resumo:
In dieser Dissertation Die Universalität der Hermeneutik wurde die folgenden zwei Fragen behandelt: Erstens: kann die Psychoanalyse - konkreter gesagt, die Übertragungssituation in dem szenischen Verstehen - eine Ausnahme von der Universalität der Hermeneutik darstellen? Zweitens: ist kritische Reflexion überhaupt moglich?, und konnen die Universalität der Hermeneutik und die kritische Reflexion miteinander in Übereinstimmung gebracht werden? Durch das szenische Verstehen erlautert Habermas den Vorgang, wie die Umgangssprache des Patienten von dem Analytiker analysiert wird. Zumal in der Übertragungssituation ist der Gegenstand des Symptoms des Patienten nichts anderes als der Analytiker selbst, und demzufolge kann der Analytiker selbst dann an dem Symptom seines Patienten teilnehmen. Durch diese Teilnahme kann er die Bedeutung des Symptoms seines Patienten genau erfassen. Aber wenn der Analytiker nicht das Unbewusste, das sein Patient ihm offenbart, umgangssprachlich akzeptiert hätte, oder anders gesagt, wenn das Unbewusste des Patienten sich dem Analytiker nicht als "ein Gesagtes" gezeigt hätte, hätte der Analytiker auf keinem Fall daraus etwas erfassen können. Infolgedessen kann die Psychoanalyse nicht das Gegenbeispiel fur die Universalität der Hermeneutik werden. Damit die kritische Reflexion möglich wäre, müssten vor allem unser Bewusstsein und die Sprache voneinander getrennt werden. Deswegen wurde in dieser Arbeit behauptet, dass sie - obwohl es in der Tat selbstverstandlich unmöglich ist - aber sehr wohl rein begrifflich gesehen voneinander getrennt und unterschieden werden können. In diesem Fall kann das Einflussverhältnis zwischen der Sprache und den außersprachlichen Faktoren in das Einflussverhältnis zwischen der "Arbeit und Herrschaft" und der Sprache und unserem Bewusstsein, unterteilt und differenziert werden: Arbeit und Herrschaft übt auf die Sprache Einfluss aus, und die Sprache übt auf unser Bewusstsein Einfluss aus. Und mit der Tatsache, dass die Praxis des Verstehens verändert wird, kann man beweisen, dass unser Bewusstsein auf die Arbeit und Herrschaft Einfluss ausüben kann. Und das bedeutet, dass unser Bewusstsein, obwohl es nur mittelbar ist, auf jeden Fall auch auf die Sprache Einfluss ausüben kann. Infolgedessen, wenn die Universalität der Hermeneutik gültig ist, kann man auch sagen, dass auf dieselbe Weise, die kritische Reflexion Habermas´ möglich ist. Und diese Einflussverhältnisse sind aber in dauernder Zirkulationsbewegung. Und diese Zirkulationsbewegung an sich ist das Wesen des Menschen, und daraus bildet sich seine Geschichte.
Resumo:
In questa tesi abbiamo studiato la quantizzazione di una teoria di gauge di forme differenziali su spazi complessi dotati di una metrica di Kaehler. La particolarità di queste teorie risiede nel fatto che esse presentano invarianze di gauge riducibili, in altre parole non indipendenti tra loro. L'invarianza sotto trasformazioni di gauge rappresenta uno dei pilastri della moderna comprensione del mondo fisico. La caratteristica principale di tali teorie è che non tutte le variabili sono effettivamente presenti nella dinamica e alcune risultano essere ausiliarie. Il motivo per cui si preferisce adottare questo punto di vista è spesso il fatto che tali teorie risultano essere manifestamente covarianti sotto importanti gruppi di simmetria come il gruppo di Lorentz. Uno dei metodi più usati nella quantizzazione delle teorie di campo con simmetrie di gauge, richiede l'introduzione di campi non fisici detti ghosts e di una simmetria globale e fermionica che sostituisce l'iniziale invarianza locale di gauge, la simmetria BRST. Nella presente tesi abbiamo scelto di utilizzare uno dei più moderni formalismi per il trattamento delle teorie di gauge: il formalismo BRST Lagrangiano di Batalin-Vilkovisky. Questo metodo prevede l'introduzione di ghosts per ogni grado di riducibilità delle trasformazioni di gauge e di opportuni “antifields" associati a ogni campo precedentemente introdotto. Questo formalismo ci ha permesso di arrivare direttamente a una completa formulazione in termini di path integral della teoria quantistica delle (p,0)-forme. In particolare esso permette di dedurre correttamente la struttura dei ghost della teoria e la simmetria BRST associata. Per ottenere questa struttura è richiesta necessariamente una procedura di gauge fixing per eliminare completamente l'invarianza sotto trasformazioni di gauge. Tale procedura prevede l'eliminazione degli antifields in favore dei campi originali e dei ghosts e permette di implementare, direttamente nel path integral condizioni di gauge fixing covarianti necessari per definire correttamente i propagatori della teoria. Nell'ultima parte abbiamo presentato un’espansione dell’azione efficace (euclidea) che permette di studiare le divergenze della teoria. In particolare abbiamo calcolato i primi coefficienti di tale espansione (coefficienti di Seeley-DeWitt) tramite la tecnica dell'heat kernel. Questo calcolo ha tenuto conto dell'eventuale accoppiamento a una metrica di background cosi come di un possibile ulteriore accoppiamento alla traccia della connessione associata alla metrica.
Resumo:
L’obiettivo della ricerca condotta dal candidato è stato sin dal principio la proposta di un’analisi del popolamento e delle dinamiche culturali dell’età neolitica nella Puglia Centrale. Tale aspirazione derivava dal fatto che il territorio oggetto di tale ricerca è stato, negli ultimi decenni, assai meno investigato rispetto alle limitrofe aree, come la piana del Tavoliere ed il Salento in particolare. Questa mancanza di informazioni rendeva necessaria una rivisitazione delle ricerche e degli studi, attraverso la costruzione di un atlante del popolamento, al fine di colmare questo vuoto. Infatti, una valutazione del popolamento dell’età neolitica nell’Italia sud-orientale non può essere considerata per aree culturali distinte e geograficamente limitate. Nonostante vi siano importanti differenziazioni di facies archeologiche, è solo attraverso una visione complessiva e con un controllo articolato delle informazioni che è possibile descrivere i processi e le dinamiche che hanno portato ad un popolamento così imponente, dalla sua espansione al repentino collasso, causando la trasformazione del paesaggio pugliese. La scelta di guardare alla complessità neolitica di questo versante della Puglia si lega culturalmente, oltre che geograficamente, alla ricerca già effettuata sulla grande diffusione del neolitico nella piana del Tavoliere di Puglia, unico esempio europeo in quanto a colonizzazione capillare del territorio..Ciò ha permesso di disegnare un quadro globale, che al momento esclude solo la penisola salentina, del popolamento neolitico della Puglia settentrionale e centrale. Le caratteristiche che differenziano i due complessi, sono strettamente legate sia all’habitat insediativo, inteso come scelte insediamentali, che nella regione indagata appare organizzato su diversi livelli (area costiera adriatica, area prospiciente antichi alvei torrentizi, propaggini dell’altopiano delle Murge), che alle forme culturali, intese come produzione artigianale e soprattutto aspetti rituali connessi alla frequentazione delle grotte naturali.
Resumo:
Durch globale Expressionsprofil-Analysen auf Transkriptom-, Proteom- oder Metabolom-Ebene können biotechnologische Produktionsprozesse besser verstanden und die Erkenntnisse für die zielgerichtete, rationale Optimierung von Expressionssystemen genutzt werden. In der vorliegenden Arbeit wurde die Überexpression einer Glukose-Dehydrogenase (EC 1.1.5.2), die von der Roche Diagnostics GmbH für die diagnostische Anwendung optimiert worden war, in Escherichia coli untersucht. Die Enzymvariante unterscheidet sich in sieben ihrer 455 Aminosäuren vom Wildtyp-Enzym und wird im sonst isogenen Wirt-/Vektor-System in signifikant geringeren Mengen (Faktor 5) gebildet. Das prokaryontische Expressionssystem wurde auf Proteom-Ebene charakterisiert. Die 2-dimensionale differenzielle Gelelektrophorese (DIGE) wurde zuvor unter statistischen Aspekten untersucht. Unter Berücksichtigung von technischen und biologischen Variationen, falsch-positiven (α-) und falsch-negativen (β-) Fehlern sowie einem daraus abgeleiteten Versuchsdesign konnten Expressionsunterschiede als signifikant quantifiziert werden, wenn sie um den Faktor ≥ 1,4 differierten. Durch eine Hauptkomponenten-Analyse wurde gezeigt, dass die DIGE-Technologie für die Expressionsprofil-Analyse des Modellsystems geeignet ist. Der Expressionsstamm für die Enzymvariante zeichnete sich durch eine höhere Variabilität an Enzymen für den Zuckerabbau und die Nukleinsäure-Synthese aus. Im Expressionssystem für das Wildtyp-Enzym wurde eine unerwartet erhöhte Plasmidkopienzahl nachgewiesen. Als potenzieller Engpass in der Expression der rekombinanten Glukose-Dehydrogenase wurde die Löslichkeitsvermittlung identifiziert. Im Expressionsstamm für das Wildtyp-Enzym wurden viele Proteine für die Biogenese der äußeren Membran verstärkt exprimiert. Als Folge dessen wurde ein sog. envelope stress ausgelöst und die Zellen gingen in die stationäre Wuchsphase über. Die Ergebnisse der Proteomanalyse wurden weiterführend dazu genutzt, die Produktionsleistung für die Enzymvariante zu verbessern. Durch den Austausch des Replikationsursprungs im Expressionsvektor wurde die Plasmidkopienzahl erhöht und die zelluläre Expressionsleistung für die diagnostisch interessantere Enzymvariante um Faktor 7 - 9 gesteigert. Um die Löslichkeitsvermittlung während der Expression zu verbessern, wurde die Plasmidkopienzahl gesenkt und die Coexpression von Chaperonen initiiert. Die Ausbeuten aktiver Glukose-Dehydrogenase wurden durch die Renaturierung inaktiven Produkts aus dem optimierten Expressionssystem insgesamt um einen Faktor von 4,5 erhöht. Somit führte im Rahmen dieser Arbeit eine proteombasierte Expressionsprofil-Analyse zur zielgerichteten, rationalen Expressionsoptimierung eines prokaryontischen Modellsystems.
Resumo:
Within this doctoral thesis, biogenic emissions of several globally relevant halocarbons (methyl chloride, methyl bromide, methyl iodide, dibromomethane, chloroform and bromoform) have been investigated in different environments. An airborne study was focused on the tropical rainforest ecosystem, while shipborne measurements investigated naturally occurring oceanic plankton blooms. Laboratory experiments using dried plant material were made to elucidate abiotic production mechanisms occurring in organic matter. Airborne measurements over the tropical rainforest of Suriname and French Guyana (3 - 6 °N, 51 - 59 °W) revealed net fluxes of 9.5 (± 3.8 2σ) µg m-2 h-1 methyl chloride and 0.35 (± 0.15 2σ) µg m-2 h-1 chloroform emitted in the long dry season (October) 2005. An extrapolation of these numbers to all tropical forests helped to narrow down the range of the recently discovered and poorly quantified methyl chloride source from tropical ecosystems. The value for methyl chloride obtained (1.5 (± 0.6 2σ) Tg yr-1) affirms that the contribution of the tropical forest ecosystem is the major source in the global budget of methyl chloride. The extrapolated global net chloroform flux from tropical forests (56 (± 23 2σ) Gg yr-1) is of minor importance (5 - 10 %) compared to the global sources. A source of methyl bromide from this region could not be verified. The abiotic formation of methyl chloride and methyl bromide from dead plant material was tested in a laboratory study. The release from plant tissue representative of grassland, deciduous forest, agricultural areas and coastal salt marshes (hay, ash, tomato and saltwort) has been monitored. Incubations at different temperatures (25 - 50 °C) revealed significant emissions even at ambient temperature, and that the emissions increased exponentially with temperature. The strength of the emission was found to be additionally dependent on the availability of halide and the methoxyl group within the plant tissue. However, high water content in the plant material was found to inhibit methyl halide emissions. The abiotic nature of the reaction yielding methyl halides was confirmed by its high activation energy calculated via Arrhenius plots. Shipborne measurements of the atmospheric mixing ratios of methyl chloride, methyl bromide, methyl iodide, dibromomethane and bromoform have been conducted along a South Atlantic transect from the 27.01. - 05.02.2007 to characterize halocarbon emissions from a large-scale natural algae bloom encountered off the coast of Argentina. Mixing ratios of methyl chloride and methyl bromide were not significantly affected by the occurrence of the phytoplankton bloom. Emissions of methyl iodide, dibromomethane and bromoform showed pronounced mixing ratio variations, triggered by phytoplankton abundance. Methyl iodide was strongly correlated with dimethyl sulfide throughout the sampled region. A new technique combining satellite derived biomass marker (chlorophyll a) data with back trajectory analysis was successfully used to attribute variations in mixing ratios to air masses, which recently passed over areas of enhanced biological production.
Resumo:
Diese Arbeit analysiert den Alltag in einem gymnasialen Jungeninternat in der Upper West Region in Ghana und setzt diese Analyse in eine anthropologische Perspektive zum Staat. Angeregt durch die Überlegungen von Michel Foucault zu Disziplinarmechanismen und „Technologien des Selbst“ steht die alltägliche Disziplinierung der Schüler im Mittelpunkt dieser Arbeit. Dabei wird Disziplin nicht als restriktiv, übergeordnet und allgegenwärtig gedacht, sondern als etwas, das die Schüler aktiv mitgestalten. Einerseits sind die Schüler der Nandom Secondary School Disziplinartechniken ausgesetzt, die sich auf die Kontrolle ihrer Körper beziehen: Sie werden vereinheitlicht, klassifiziert, hierarchisiert, überwacht, geprüft und bestraft. Andererseits sind die Schüler keine übermächtigten Objekte einer totalen Institution, sondern sie wirken kreativ mit beim Flechten des Netzes aus Kontrolle und Freiräumen in ihrer Schule: Sie spielen eine wichtige Rolle bei der Kontrolle der Lehrer; sie erkennen und nutzen Freiräume, deren Rahmen sie mit den Lehrern aushandeln. Auch ihr Selbst bekommen die Schüler nicht von den Lehrern einfach diktiert. Zwar wird ihnen durch das Bild des guten Schülers eine bestimmte Sicht auf sich selbst nahe gelegt, doch wie sie dieses Bild aufnehmen, ablehnen oder umdeuten liegt in ihren eigenen Händen.