974 resultados para Presentation at LIBER 2014 in Riga
Resumo:
The Cherenkov Telescope Array (CTA) is a new observatory for very high-energy (VHE) gamma rays. CTA has ambitions science goals, for which it is necessary to achieve full-sky coverage, to improve the sensitivity by about an order of magnitude, to span about four decades of energy, from a few tens of GeV to above 100 TeV with enhanced angular and energy resolutions over existing VHE gamma-ray observatories. An international collaboration has formed with more than 1000 members from 27 countries in Europe, Asia, Africa and North and South America. In 2010 the CTA Consortium completed a Design Study and started a three-year Preparatory Phase which leads to production readiness of CTA in 2014. In this paper we introduce the science goals and the concept of CTA, and provide an overview of the project.
Resumo:
The humans process the numbers in a similar way to animals. There are countless studies in which similar performance between animals and humans (adults and/or children) are reported. Three models have been developed to explain the cognitive mechanisms underlying the number processing. The triple-code model (Dehaene, 1992) posits an mental number line as preferred way to represent magnitude. The mental number line has three particular effects: the distance, the magnitude and the SNARC effects. The SNARC effect shows a spatial association between number and space representations. In other words, the small numbers are related to left space while large numbers are related to right space. Recently a vertical SNARC effect has been found (Ito & Hatta, 2004; Schwarz & Keus, 2004), reflecting a space-related bottom-to-up representation of numbers. The magnitude representations horizontally and vertically could influence the subject performance in explicit and implicit digit tasks. The goal of this research project aimed to investigate the spatial components of number representation using different experimental designs and tasks. The experiment 1 focused on horizontal and vertical number representations in a within- and between-subjects designs in a parity and magnitude comparative tasks, presenting positive or negative Arabic digits (1-9 without 5). The experiment 1A replied the SNARC and distance effects in both spatial arrangements. The experiment 1B showed an horizontal reversed SNARC effect in both tasks while a vertical reversed SNARC effect was found only in comparative task. In the experiment 1C two groups of subjects performed both tasks in two different instruction-responding hand assignments with positive numbers. The results did not show any significant differences between two assignments, even if the vertical number line seemed to be more flexible respect to horizontal one. On the whole the experiment 1 seemed to demonstrate a contextual (i.e. task set) influences of the nature of the SNARC effect. The experiment 2 focused on the effect of horizontal and vertical number representations on spatial biases in a paper-and-pencil bisecting tasks. In the experiment 2A the participants were requested to bisect physical and number (2 or 9) lines horizontally and vertically. The findings demonstrated that digit 9 strings tended to generate a more rightward bias comparing with digit 2 strings horizontally. However in vertical condition the digit 2 strings generated a more upperward bias respect to digit 9 strings, suggesting a top-to-bottom number line. In the experiment 2B the participants were asked to bisect lines flanked by numbers (i.e. 1 or 7) in four spatial arrangements: horizontal, vertical, right-diagonal and left-diagonal lines. Four number conditions were created according to congruent or incongruent number line representation: 1-1, 1-7, 7-1 and 7-7. The main results showed a more reliable rightward bias in horizontal congruent condition (1-7) respect to incongruent condition (7-1). Vertically the incongruent condition (1-7) determined a significant bias towards bottom side of line respect to congruent condition (7-1). The experiment 2 suggested a more rigid horizontal number line while in vertical condition the number representation could be more flexible. In the experiment 3 we adopted the materials of experiment 2B in order to find a number line effect on temporal (motor) performance. The participants were presented horizontal, vertical, rightdiagonal and left-diagonal lines flanked by the same digits (i.e. 1-1 or 7-7) or by different digits (i.e. 1-7 or 7-1). The digits were spatially congruent or incongruent with their respective hypothesized mental representations. Participants were instructed to touch the lines either close to the large digit, or close to the small digit, or to bisected the lines. Number processing influenced movement execution more than movement planning. Number congruency influenced spatial biases mostly along the horizontal but also along the vertical dimension. These results support a two-dimensional magnitude representation. Finally, the experiment 4 addressed the visuo-spatial manipulation of number representations for accessing and retrieval arithmetic facts. The participants were requested to perform a number-matching and an addition verification tasks. The findings showed an interference effect between sum-nodes and neutral-nodes only with an horizontal presentation of digit-cues, in number-matching tasks. In the addition verification task, the performance was similar for horizontal and vertical presentations of arithmetic problems. In conclusion the data seemed to show an automatic activation of horizontal number line also used to retrieval arithmetic facts. The horizontal number line seemed to be more rigid and the preferred way to order number from left-to-right. A possible explanation could be the left-to-right direction for reading and writing. The vertical number line seemed to be more flexible and more dependent from the tasks, reflecting perhaps several example in the environment representing numbers either from bottom-to-top or from top-to-bottom. However the bottom-to-top number line seemed to be activated by explicit task demands.
Resumo:
The obligate intracellular pathogen Chlamydia trachomatis is a gram negative bacterium which infects epithelial cells of the reproductive tract. C. trachomatis is the leading cause of bacterial sexually transmitted disease worldwide and a vaccine against this pathogen is highly needed. Many evidences suggest that both antigen specific-Th1 cells and antibodies may be important to provide protection against Chlamydia infection. In a previous study we have identified eight new Chlamydia antigens inducing CD4-Th1 and/or antibody responses that, when combined properly, can protect mice from Chlamydia infection. However, all selected recombinant antigens, upon immunization in mice, elicited antibodies not able to neutralize Chlamydia infectivity in vitro. With the aim to improve the quality of the immune response by inducing effective neutralizing antibodies, we used a novel delivery system based on the unique capacity of E. coli Outer Membrane Vesicles (OMV) to present membrane proteins in their natural composition and conformation. We have expressed Chlamydia antigens, previously identified as vaccine candidates, in the OMV system. Among all OMV preparations, the one expressing HtrA Chlamydia antigen (OMV-HtrA), showed to be the best in terms of yield and quantity of expressed protein, was used to produce mice immune sera to be tested in neutralization assay in vitro. We observed that OMV-HtrA elicited specific antibodies able to neutralize efficiently Chlamydia infection in vitro, indicating that the presentation of the antigens in their natural conformation is crucial to induce an effective immune response. This is one of the first examples in which antibodies directed against a new Chlamydia antigen, other than MOMP (the only so far known antigen inducing neutralizing antibodies), are able to block the Chlamydia infectivity in vitro. Finally, by performing an epitope mapping study, we investigated the specificity of the antibody response induced by the recombinant HtrA and by OMV-HtrA. In particular, we identified some linear epitopes exclusively recognized by antibodies raised with the OMV-HtrA system, detecting in this manner the antigen regions likely responsible of the neutralizing effect.
Resumo:
Introduzione. Il rapido e globale incremento dell’utilizzo dei telefoni cellulari da parte degli adolescenti e dei bambini ha generato un considerevole interesse circa i possibili effetti sulla salute dell’esposizione a campi elettromagnetici a radiofrequenza. Perciò è stato avviato lo studio internazionale caso-controllo Mobi-kids, all’interno del quale si colloca quello italiano condotto in 4 Regioni (Piemonte, Lombardia, Toscana, Emilia-Romagna). Obiettivi. Lo studio ha come obiettivo quello di valutare la stima del rischio degli effetti potenzialmente avversi di queste esposizioni sul sistema nervoso centrale nei bambini e negli adolescenti. Materiali e Metodi. La popolazione include tutte le persone di età compresa tra 10 e 24 anni residenti nelle 4 Regioni, con una diagnosi confermata di neoplasia cerebrale primitiva, diagnosticata durante il periodo di studio (3 anni). Sono stati selezionati due controlli - ospedalizzati per appendicite acuta - per ciascun caso. I controlli sono stati appaiati individualmente a ciascun caso per età, sesso e residenza del caso. Risultati. In Italia sono stati intervistati a Giugno 2014, 106 casi e 191 controlli. In Emilia-Romagna i casi reclutati sono stati fino ad ora 21 e i controlli 20, con una rispondenza del’81% e dell’65% rispettivamente. Dei 41 soggetti totali, il 61% era di sesso maschile con un’età media generale pari a 16,5 (±4,5) anni. Inoltre il 44% degli intervistati proveniva dalla classe di età più giovane (10-14). In merito allo stato di appaiamento, nella nostra Regione sono state effettuate 7 triplette (33%) - 1 caso e 2 controlli - e 6 doppiette (29%) - 1 caso ed 1 controllo. Conclusioni. Nonostante le varie difficoltà affrontate data la natura del progetto, l’esperienza maturata fin ad ora ha comunque portato alla fattibilità dello studio e porterà probabilmente a risultati che contribuiranno alla comprensione dei potenziali rischi di neoplasie cerebrali associati all'uso di telefoni cellulari tra i giovani.
Resumo:
In dieser Arbeit wurde der Effekt verschiedener Hilfsstoffe auf die Permeabilität von Substanzen der BCS Klasse III untersucht. Drei pharmazeutische Hilfsstoffe wurden hinsichtlich der Möglichkeit ihres Einsatzes als Permeationsverbesserer in Arzneistoffformulierungen untersucht. Außerdem wurde die Beteiligung von Gallensalzen an der Nahrungsmittel-Interaktion von Trospium untersucht.rnEs wurden Komplexe aus Trospium und λ-Carrageen hergestellt. Eine verbesserte Permeation, die höchstwahrscheinlich durch Mukoadhäsion zustande kam, war im Ussing-Kammer-Modell sehr gut reproduzierbar. In vivo war der Effekt nur bei einigen Tieren zu sehen und es kam zu hohen Standardabweichungen.rnTrospium bildet Ionenpaare mit Gallensalzen, welche zu einer besseren Permeabilität des Wirkstoffes führten. In Gegenwart von Nahrungsfetten blieb dieser Effekt aus. Eine Beteiligung der Interaktion von Trospium und Gallensalzen am Food-Effekt kann auf Basis dieser Ergebnisse als wahrscheinlich gelten.rnIm Caco-2-Modell konnte bereits eine Verbesserung der Permeabilität von Trospium durch Zusatz von Eudragit E gezeigt werden. Nun konnte gezeigt werden, dass durch den Hilfsstoff auch in vivo in Ratten eine verbesserte Permeation erreicht werden kann.rnDie Permeationsverbesserung von Aciclovir durch Zusatz von Chitosan-HCl sollte untersucht werden. Im Caco-2-Modell kam es zu einer signifikanten Permeationsverbesserung. Im Ussing-Kammer-Modell wurde die Permeation nicht verbessert. In Loop-Studien konnte nur bei hohen Hilfsstoff-Konzentrationen eine Tendenz zur Permeationsverbesserung erkannt werden.rn
Resumo:
In der vorliegenden Arbeit wurde gezeigt, wie man das Potential nanopartikulärer Systeme, die vorwiegend via Miniemulsion hergestellt wurden, im Hinblick auf „Drug Delivery“ ausnutzen könnte, indem ein Wirkstoffmodell auf unterschiedliche Art und Weise intrazellulär freigesetzt wurde. Dies wurde hauptsächlich mittels konfokaler Laser-Raster-Mikrokopie (CLSM) in Kombination mit dem Bildbearbeitungsprogramm Volocity® analysiert.rnPBCA-Nanokapseln eigneten sich besonders, um hydrophile Substanzen wie etwa Oligonukleotide zu verkapseln und sie so auf ihrem Transportweg in die Zellen vor einem etwaigen Abbau zu schützen. Es konnte eine Freisetzung der Oligonukleotide in den Zellen aufgrund der elektrostatischen Anziehung des mitochondrialen Membranpotentials nachgewiesen werden. Dabei war die Kombination aus Oligonukleotid und angebundenem Cyanin-Farbstoff (Cy5) an der 5‘-Position der Oligonukleotid-Sequenz ausschlaggebend. Durch quantitative Analysen mittels Volocity® konnte die vollständige Kolokalisation der freigesetzten Oligonukleotide an Mitochondrien bewiesen werden, was anhand der Kolokalisationskoeffizienten „Manders‘ Coefficients“ M1 und M2 diskutiert wurde. Es konnte ebenfalls aufgrund von FRET-Studien doppelt markierter Oligos gezeigt werden, dass die Oligonukleotide weder beim Transport noch bei der Freisetzung abgebaut wurden. Außerdem wurde aufgeklärt, dass nur der Inhalt der Nanokapseln, d. h. die Oligonukleotide, an Mitochondrien akkumulierte, das Kapselmaterial selbst jedoch in anderen intrazellulären Bereichen aufzufinden war. Eine Kombination aus Cyanin-Farbstoffen wie Cy5 mit einer Nukleotidsequenz oder einem Wirkstoff könnte also die Basis für einen gezielten Wirkstofftransport zu Mitochondrien liefern bzw. die Grundlage schaffen, eine Freisetzung aus Kapseln ins Zytoplasma zu gewährleisten.rnDer vielseitige Einsatz der Miniemulsion gestattete es, nicht nur Kapseln sondern auch Nanopartikel herzustellen, in welchen hydrophobe Substanzen im Partikelkern eingeschlossen werden konnten. Diese auf hydrophobe Wechselwirkungen beruhende „Verkapselung“ eines Wirkstoffmodells, in diesem Fall PMI, wurde bei PDLLA- bzw. PS-Nanopartikeln ausgenutzt, welche durch ein HPMA-basiertes Block-Copolymer stabilisiert wurden. Dabei konnte gezeigt werden, dass das hydrophobe Wirkstoffmodell PMI innerhalb kürzester Zeit in die Zellen freigesetzt wurde und sich in sogenannte „Lipid Droplets“ einlagerte, ohne dass die Nanopartikel selbst aufgenommen werden mussten. Daneben war ein intrazelluläres Ablösen des stabilisierenden Block-Copolymers zu verzeichnen, welches rn8 h nach Partikelaufnahme erfolgte und ebenfalls durch Analysen mittels Volocity® untermauert wurde. Dies hatte jedoch keinen Einfluss auf die eigentliche Partikelaufnahme oder die Freisetzung des Wirkstoffmodells. Ein großer Vorteil in der Verwendung des HPMA-basierten Block-Copolymers liegt darin begründet, dass auf zeitaufwendige Waschschritte wie etwa Dialyse nach der Partikelherstellung verzichtet werden konnte, da P(HPMA) ein biokompatibles Polymer ist. Auf der anderen Seite hat man aufgrund der Syntheseroute dieses Block-Copolymers vielfältige Möglichkeiten, Funktionalitäten wie etwa Fluoreszenzmarker einzubringen. Eine kovalente Anbindung eines Wirkstoffs ist ebenfalls denkbar, welcher intrazellulär z. B. aufgrund von enzymatischen Abbauprozessen langsam freigesetzt werden könnte. Somit bietet sich die Möglichkeit mit Nanopartikeln, die durch HPMA-basierte Block-Copolymere stabilisiert wurden, gleichzeitig zwei unterschiedliche Wirkstoffe in die Zellen zu bringen, wobei der eine schnell und der zweite über einen längeren Zeitraum hinweg (kontrolliert) freigesetzt werden könnte.rnNeben Nanokapseln sowie –partikeln, die durch inverse bzw. direkte Miniemulsion dargestellt wurden, sind auch Nanohydrogelpartikel untersucht worden, die sich aufgrund von Selbstorganisation eines amphiphilen Bock-Copolymers bildeten. Diese Nanohydrogelpartikel dienten der Komplexierung von siRNA und wurden hinsichtlich ihrer Anreicherung in Lysosomen untersucht. Aufgrund der Knockdown-Studien von Lutz Nuhn konnte ein Unterschied in der Knockdown-Effizienz festgestellt werden, je nach dem, ob 100 nm oder 40 nm große Nanohydrogelpartikel verwendet wurden. Es sollte festgestellt werden, ob eine größenbedingte, unterschiedlich schnelle Anreicherung dieser beiden Partikel in Lysosomen erfolgte, was die unterschiedliche Knockdown-Effizienz erklären könnte. CLSM-Studien und quantitative Kolokalisationsstudien gaben einen ersten Hinweis auf diese Größenabhängigkeit. rnBei allen verwendeten nanopartikulären Systemen konnte eine Freisetzung ihres Inhalts gezeigt werden. Somit bieten sie ein großes Potential als Wirkstoffträger für biomedizinische Anwendungen.rn
Resumo:
In the early 20th century, Gouy, Chapman, and Stern developed a theory to describe the capacitance and the spatial ion distribution of diluted electrolytes near an electrode. After a century of research, considerable progress has been made in the understanding of the electrolyte/electrode interface. However, its molecular-scale structure and its variation with an applied potential is still under debate. In particular for room-temperature ionic liquids, a new class of solventless electrolytes, the classical theories for the electrical double layer are not applicable. Recently, molecular dynamics simulations and phenomenological theories have attempted to explain the capacitance of the ionic liquid/electrode interface with the molecular-scale structure and dynamics of the ionic liquid near the electrode. rnHowever, experimental evidence is very limited. rnrnIn the presented study, the ion distribution of an ionic liquid near an electrode and its response to applied potentials was examined with sub-molecular resolution. For this purpose, a new sample chamber was constructed, allowing in situ high energy X-ray reflectivity experiments under potential control, as well as impedance spectroscopy measurements. The combination of structural information and electrochmical data provided a comprehensive picture of the electric double layer in ionic liquids. Oscillatory charge density profiles were found, consisting of alternating anion- and cation-enriched layers at both, cathodic and anodic, potentials. This structure was shown to arise from the same ion-ion correlations dominating the liquid bulk structure that were observed as a distinct X-ray diffraction peak. Therefore, existing physically motivated models were refined and verified by comparison with independent measurements. rnrnThe relaxation dynamics of the interfacial structure upon potential variation were studied by time resolved X-ray reflectivity experiments with sub-millisecond resolution. The observed relaxation times during charging/discharging are consistent with the impedance spectroscopy data revealing three processes of vastly different characteristic time-scales. Initially, the ion transport normal to the interface happens on a millisecond-scale. Another 100-millisecond-scale process is associated with molecular reorientation of electrode-adsorbed cations. Further, a minute-scale relaxation was observed, which is tentatively assigned to lateral ordering within the first layer.
Resumo:
In der vorliegenden Arbeit wird die Theorie der analytischen zweiten Ableitungen für die EOMIP-CCSD-Methode formuliert sowie die durchgeführte Implementierung im Quantenchemieprogramm CFOUR beschrieben. Diese Ableitungen sind von Bedeutung bei der Bestimmung statischer Polarisierbarkeiten und harmonischer Schwingungsfrequenzen und in dieser Arbeit wird die Genauigkeit des EOMIP-CCSD-Ansatzes bei der Berechnung dieser Eigenschaften für verschiedene radikalische Systeme untersucht. Des Weiteren können mit Hilfe der ersten und zweiten Ableitungen vibronische Kopplungsparameter berechnet werden, welche zur Simulation von Molekülspektren in Kombination mit dem Köppel-Domcke-Cederbaum (KDC)-Modell - in der Arbeit am Beispiel des Formyloxyl (HCO2)-Radikals demonstriert - benötigt werden.rnrnDer konzeptionell einfache EOMIP-CC-Ansatz wurde gewählt, da hier die Wellenfunktion eines Radikalsystems ausgehend von einem stabilen geschlossenschaligen Zustand durch die Entfernung eines Elektrons gebildet wird und somit die Problematik der Symmetriebrechung umgangen werden kann. Im Rahmen der Implementierung wurden neue Programmteile zur Lösung der erforderlichen Gleichungen für die gestörten EOMIP-CC-Amplituden und die gestörten Lagrange-Multiplikatoren zeta zum Quantenchemieprogramm CFOUR hinzugefügt. Die unter Verwendung des Programms bestimmten Eigenschaften werden hinsichtlich ihrer Leistungsfähigkeit im Vergleich zu etablierten Methoden wie z.B. CCSD(T) untersucht. Bei der Berechnung von Polarisierbarkeiten und harmonischen Schwingungsfrequenzen liefert die EOMIP-CCSD-Theorie meist gute Resultate, welche nur wenig von den CCSD(T)-Ergebnissen abweichen. Einzig bei der Betrachtung von Radikalen, für die die entsprechenden Anionen nicht stabil sind (z.B. NH2⁻ und CH3⁻), liefert der EOMIP-CCSD-Ansatz aufgrund methodischer Nachteile keine aussagekräftige Beschreibung. rnrnDie Ableitungen der EOMIP-CCSD-Energie lassen sich auch zur Simulation vibronischer Kopplungen innerhalb des KDC-Modells einsetzen.rnZur Kopplung verschiedener radikalischer Zustände in einem solchen Modellpotential spielen vor allem die Ableitungen von Übergangsmatrixelementen eine wichtige Rolle. Diese sogenannten Kopplungskonstanten können in der EOMIP-CC-Theorie besonders leicht definiert und berechnet werden. Bei der Betrachtung des Photoelektronenspektrums von HCO2⁻ werden zwei Alternativen untersucht: Die vertikale Bestimmung an der Gleichgewichtsgeometrie des HCO2⁻-Anions und die Ermittlung adiabatischer Kraftkonstanten an den Gleichgewichtsgeometrien des Radikals. Lediglich das adiabatische Modell liefert bei Beschränkung auf harmonische Kraftkonstanten eine qualitativ sinnvolle Beschreibung des Spektrums. Erweitert man beide Modelle um kubische und quartische Kraftkonstanten, so nähern sich diese einander an und ermöglichen eine vollständige Zuordnung des gemessenen Spektrums innerhalb der ersten 1500 cm⁻¹. Die adiabatische Darstellung erreicht dabei nahezu quantitative Genauigkeit.
Resumo:
In 49 kurzen Kolumnen wird die Geschichte des Sachbuchs von 1870 bis 1918 erzählt. Berücksichtigt werden eigenständige Veröffentlichungen aus den Bereichen Naturwissenschaft, Wirtschaft, Geschichte, Politik, Musik, Literatur, Kunst, Philosophie, Religion, Reise, Pädagogik und Psychologie. Das Buch schließt mit einem Kapitel über Verlegerkultur und Verlagskonjunktur ab.
Resumo:
In der vorliegenden Arbeit wurde der nachwachsende Rohstoff Weizenstroh für die Produktion des Biopolymers Polyhydroxybuttersäure genutzt. Als Lignocellulose enthält Weizenstroh einen hohen Anteil an Glucose und Xylose in Form von Cellulose und Hemicellulose. Eine Gewinnung ist aufgrund der komplexen Struktur mit Lignin als dritte Hauptkomponente nur durch eine Vorbehandlung möglich. Hierzu wurde ein thermochemisches Vorbehandlungsverfahren im halbtechnischen (125 l Reaktor) und technisch (425 l Reaktor) Maßstab mit verdünnter Salpetersäure (bis 1 % v/v) etabliert und hinsichtlich verschiedener Versuchsparameter (Behandlungstemperatur, Säure-Konzentration, etc.) optimiert. Auf eine mechanische Vorbehandlung wurde verzichtet. Danach erfolgte eine enzymatische Hydrolyse der vorbehandelten Biomasse. Der PHB-Produzent Cupriavidus necator DSM 545 wurde eingesetzt, um aus den freigesetzten Zuckern PHB zu synthetisieren. rnDurch die Optimierung der Vorbehandlung konnten bis zu 90 % der Glucose und 82 % der Xylose nach der enzymatischen Hydrolyse aus dem Stroh als Monomere und Oligomere freigesetzt werden. Außerdem wurde eine erfolgreiche Überführung des Vorbehandlungsprozesses in den 425 l Reaktor demonstriert. In den gewonnenen Zucker-Hydrolysaten konnten hohe Zelldichten und PHB-Gehalte mit bis zu 38 % erreicht werden. Eine vorherige kostenintensive Reinigung der Hydrolysate war nicht nötig. Zusätzlich konnte gezeigt werden, dass die Reststoffe nach der enzymatischen Hydrolyse, Zellkultur und PHB-Extraktion ausreichendes Potential für eine Biogas-Produktion besitzen. rn
Resumo:
In den vergangenen Jahren wurden einige bislang unbekannte Phänomene experimentell beobachtet, wie etwa die Existenz unterschiedlicher Prä-Nukleations-Strukturen. Diese haben zu einem neuen Verständnis von Prozessen, die auf molekularer Ebene während der Nukleation und dem Wachstum von Kristallen auftreten, beigetragen. Die Auswirkungen solcher Prä-Nukleations-Strukturen auf den Prozess der Biomineralisation sind noch nicht hinreichend verstanden. Die Mechanismen, mittels derer biomolekulare Modifikatoren, wie Peptide, mit Prä-Nukleations-Strukturen interagieren und somit den Nukleationsprozess von Mineralen beeinflussen könnten, sind vielfältig. Molekulare Simulationen sind zur Analyse der Formation von Prä-Nukleations-Strukturen in Anwesenheit von Modifikatoren gut geeignet. Die vorliegende Arbeit beschreibt einen Ansatz zur Analyse der Interaktion von Peptiden mit den in Lösung befindlichen Bestandteilen der entstehenden Kristalle mit Hilfe von Molekular-Dynamik Simulationen.rnUm informative Simulationen zu ermöglichen, wurde in einem ersten Schritt die Qualität bestehender Kraftfelder im Hinblick auf die Beschreibung von mit Calciumionen interagierenden Oligoglutamaten in wässrigen Lösungen untersucht. Es zeigte sich, dass große Unstimmigkeiten zwischen etablierten Kraftfeldern bestehen, und dass keines der untersuchten Kraftfelder eine realistische Beschreibung der Ionen-Paarung dieser komplexen Ionen widerspiegelte. Daher wurde eine Strategie zur Optimierung bestehender biomolekularer Kraftfelder in dieser Hinsicht entwickelt. Relativ geringe Veränderungen der auf die Ionen–Peptid van-der-Waals-Wechselwirkungen bezogenen Parameter reichten aus, um ein verlässliches Modell für das untersuchte System zu erzielen. rnDas umfassende Sampling des Phasenraumes der Systeme stellt aufgrund der zahlreichen Freiheitsgrade und der starken Interaktionen zwischen Calciumionen und Glutamat in Lösung eine besondere Herausforderung dar. Daher wurde die Methode der Biasing Potential Replica Exchange Molekular-Dynamik Simulationen im Hinblick auf das Sampling von Oligoglutamaten justiert und es erfolgte die Simulation von Peptiden verschiedener Kettenlängen in Anwesenheit von Calciumionen. Mit Hilfe der Sketch-Map Analyse konnten im Rahmen der Simulationen zahlreiche stabile Ionen-Peptid-Komplexe identifiziert werden, welche die Formation von Prä-Nukleations-Strukturen beeinflussen könnten. Abhängig von der Kettenlänge des Peptids weisen diese Komplexe charakteristische Abstände zwischen den Calciumionen auf. Diese ähneln einigen Abständen zwischen den Calciumionen in jenen Phasen von Calcium-Oxalat Kristallen, die in Anwesenheit von Oligoglutamaten gewachsen sind. Die Analogie der Abstände zwischen Calciumionen in gelösten Ionen-Peptid-Komplexen und in Calcium-Oxalat Kristallen könnte auf die Bedeutung von Ionen-Peptid-Komplexen im Prozess der Nukleation und des Wachstums von Biomineralen hindeuten und stellt einen möglichen Erklärungsansatz für die Fähigkeit von Oligoglutamaten zur Beeinflussung der Phase des sich formierenden Kristalls dar, die experimentell beobachtet wurde.
Resumo:
In the year 2013, the detection of a diffuse astrophysical neutrino flux with the IceCube neutrino telescope – constructed at the geographic South Pole – was announced by the IceCube collaboration. However, the origin of these neutrinos is still unknown as no sources have been identified to this day. Promising neutrino source candidates are blazars, which are a subclass of active galactic nuclei with radio jets pointing towards the Earth. In this thesis, the neutrino flux from blazars is tested with a maximum likelihood stacking approach, analyzing the combined emission from uniform groups of objects. The stacking enhances the sensitivity w.r.t. the still unsuccessful single source searches. The analysis utilizes four years of IceCube data including one year from the completed detector. As all results presented in this work are compatible with background, upper limits on the neutrino flux are given. It is shown that, under certain conditions, some hadronic blazar models can be challenged or even rejected. Moreover, the sensitivity of this analysis – and any other future IceCube point source search – was enhanced by the development of a new angular reconstruction method. It is based on a detailed simulation of the photon propagation in the Antarctic ice. The median resolution for muon tracks, induced by high-energy neutrinos, is improved for all neutrino energies above IceCube’s lower threshold at 0.1TeV. By reprocessing the detector data and simulation from the year 2010, it is shown that the new method improves IceCube’s discovery potential by 20% to 30% depending on the declination.
Resumo:
In der vorliegenden Arbeit wird die Variation abgeschlossener Unterräume eines Hilbertraumes untersucht, die mit isolierten Komponenten der Spektren von selbstadjungierten Operatoren unter beschränkten additiven Störungen assoziiert sind. Von besonderem Interesse ist hierbei die am wenigsten restriktive Bedingung an die Norm der Störung, die sicherstellt, dass die Differenz der zugehörigen orthogonalen Projektionen eine strikte Normkontraktion darstellt. Es wird ein Überblick über die bisher erzielten Resultate gegeben. Basierend auf einem Iterationsansatz wird eine allgemeine Schranke an die Variation der Unterräume für Störungen erzielt, die glatt von einem reellen Parameter abhängen. Durch Einführung eines Kopplungsparameters wird das Ergebnis auf den Fall additiver Störungen angewendet. Auf diese Weise werden zuvor bekannte Ergebnisse verbessert. Im Falle von additiven Störungen werden die Schranken an die Variation der Unterräume durch ein Optimierungsverfahren für die Stützstellen im Iterationsansatz weiter verschärft. Die zugehörigen Ergebnisse sind die besten, die bis zum jetzigen Zeitpunkt erzielt wurden.
Resumo:
In der vorliegenden Arbeit wurde Neuroglobin (Ngb), ein evolutiv altes und in Metazoen konserviertes respiratorisches Protein, funktionell untersucht. Mittels des induzierbaren Tet on / Tet off Systems wurde Ngb ektopisch in der murinen Leber und im Gehirn überexprimiert. Die Transkriptome von Leber und Gehirnregionen Ngb-transgener Mäuse wurden mittels Microarrays und RNA-Seq im Vergleich zum Wildtyp analysiert, um Auswirkungen der Ngb-Überexpression zu ermitteln. Die Transkriptom-Analyse in Leber und Gehirn zeigte eine nur geringe Anzahl differenziell regulierter Gene und Stoffwechselwege nach Ngb-Überexpression. Ngb transgene Mäuse wurden CCl4-induziertem ROS-Stress ausgesetzt und die Leberfunktion untersucht. Zudem wurden primäre Hepatozyten-Kulturen etabliert und in diesen in vitro die extrinsische Apoptose induziert. Die Stressversuche zeigten: (i) Die Ngb-Überexpression hat keine protektive Wirkung in der Leber in vivo. (ii) In Leberzellen in vitro hingegen verminderte eine Ngb-Überexpression effizient die Aktivierung der apoptotischen Kaskade. Eine protektive Wirkung von Ngb ist vermutlich von betrachtetem Gewebe und dem verwendeten Stressor abhängig und keine generelle, selektierte Funktion des Proteins.rnWeiterhin wurde eine Ngb-KnockOut-Mauslinie mit einem LacZ-KnockIn-Genotyp etabliert. Hierbei zeigten die KO-Mäuse keinen offensichtlichen Phänotyp in ihrer Entwicklung, Fortpflanzung und Retina-Funktion. Unter Verwendung des LacZ-Knockin-Konstrukts konnten kontrovers diskutierte Ngb-Expressionsorte im adulten Mausgehirn (Hippocampus, Cortex und Cerebellum) sowie in Testes experimentell bestätigt werden. Parallel wurden öffentlich verfügbare RNA-Seq Datensätze ausgewertet, um die regionale Ngb-Expression systematisch ohne Antikörper-assoziierte Spezifitätsprobleme zu charakterisieren. Eine basale Ngb-Expression (RPKM: ~1-5) wurde im Hippocampus, Cortex und Cerebellum, sowie in Retina und Testes ermittelt. Eine 20-40fach höhere, starke Expression (RPKM: ~160) wurde im Hypothalamus bzw. im Hirnstamm nachgewiesen. Die „digitale“ Expressionsuntersuchung wurde mittels qRT-PCR und Western Blot bestätigt. Dieses Expressionsprofil von Ngb in der Maus weist auf eine besondere funktionelle Bedeutung von Ngb im Hypothalamus hin. Eine Funktion von Ngb in der Sauerstoffversorgung der Retina und eine generelle Funktion von Ngb in der Protektion von Neuronen sind mit dem beobachteten Expressionsspektrum weniger gut vereinbar.
Resumo:
In dieser Arbeit wird ein neuer Dynamikkern entwickelt und in das bestehendernnumerische Wettervorhersagesystem COSMO integriert. Für die räumlichernDiskretisierung werden diskontinuierliche Galerkin-Verfahren (DG-Verfahren)rnverwendet, für die zeitliche Runge-Kutta-Verfahren. Hierdurch ist ein Verfahrenrnhoher Ordnung einfach zu realisieren und es sind lokale Erhaltungseigenschaftenrnder prognostischen Variablen gegeben. Der hier entwickelte Dynamikkern verwendetrngeländefolgende Koordinaten in Erhaltungsform für die Orographiemodellierung undrnkoppelt das DG-Verfahren mit einem Kessler-Schema für warmen Niederschlag. Dabeirnwird die Fallgeschwindigkeit des Regens, nicht wie üblich implizit imrnKessler-Schema diskretisiert, sondern explizit im Dynamikkern. Hierdurch sindrndie Zeitschritte der Parametrisierung für die Phasenumwandlung des Wassers undrnfür die Dynamik vollständig entkoppelt, wodurch auch sehr große Zeitschritte fürrndie Parametrisierung verwendet werden können. Die Kopplung ist sowohl fürrnOperatoraufteilung, als auch für Prozessaufteilung realisiert.rnrnAnhand idealisierter Testfälle werden die Konvergenz und die globalenrnErhaltungseigenschaften des neu entwickelten Dynamikkerns validiert. Die Massernwird bis auf Maschinengenauigkeit global erhalten. Mittels Bergüberströmungenrnwird die Orographiemodellierung validiert. Die verwendete Kombination ausrnDG-Verfahren und geländefolgenden Koordinaten ermöglicht die Behandlung vonrnsteileren Bergen, als dies mit dem auf Finite-Differenzenverfahren-basierendenrnDynamikkern von COSMO möglich ist. Es wird gezeigt, wann die vollernTensorproduktbasis und wann die Minimalbasis vorteilhaft ist. Die Größe desrnEinflusses auf das Simulationsergebnis der Verfahrensordnung, desrnParametrisierungszeitschritts und der Aufteilungsstrategie wirdrnuntersucht. Zuletzt wird gezeigt dass bei gleichem Zeitschritt die DG-Verfahrenrnaufgrund der besseren Skalierbarkeit in der Laufzeit konkurrenzfähig zurnFinite-Differenzenverfahren sind.