883 resultados para Simulation Based Method
Resumo:
The scale down of transistor technology allows microelectronics manufacturers such as Intel and IBM to build always more sophisticated systems on a single microchip. The classical interconnection solutions based on shared buses or direct connections between the modules of the chip are becoming obsolete as they struggle to sustain the increasing tight bandwidth and latency constraints that these systems demand. The most promising solution for the future chip interconnects are the Networks on Chip (NoC). NoCs are network composed by routers and channels used to inter- connect the different components installed on the single microchip. Examples of advanced processors based on NoC interconnects are the IBM Cell processor, composed by eight CPUs that is installed on the Sony Playstation III and the Intel Teraflops pro ject composed by 80 independent (simple) microprocessors. On chip integration is becoming popular not only in the Chip Multi Processor (CMP) research area but also in the wider and more heterogeneous world of Systems on Chip (SoC). SoC comprehend all the electronic devices that surround us such as cell-phones, smart-phones, house embedded systems, automotive systems, set-top boxes etc... SoC manufacturers such as ST Microelectronics , Samsung, Philips and also Universities such as Bologna University, M.I.T., Berkeley and more are all proposing proprietary frameworks based on NoC interconnects. These frameworks help engineers in the switch of design methodology and speed up the development of new NoC-based systems on chip. In this Thesis we propose an introduction of CMP and SoC interconnection networks. Then focusing on SoC systems we propose: • a detailed analysis based on simulation of the Spidergon NoC, a ST Microelectronics solution for SoC interconnects. The Spidergon NoC differs from many classical solutions inherited from the parallel computing world. Here we propose a detailed analysis of this NoC topology and routing algorithms. Furthermore we propose aEqualized a new routing algorithm designed to optimize the use of the resources of the network while also increasing its performance; • a methodology flow based on modified publicly available tools that combined can be used to design, model and analyze any kind of System on Chip; • a detailed analysis of a ST Microelectronics-proprietary transport-level protocol that the author of this Thesis helped developing; • a simulation-based comprehensive comparison of different network interface designs proposed by the author and the researchers at AST lab, in order to integrate shared-memory and message-passing based components on a single System on Chip; • a powerful and flexible solution to address the time closure exception issue in the design of synchronous Networks on Chip. Our solution is based on relay stations repeaters and allows to reduce the power and area demands of NoC interconnects while also reducing its buffer needs; • a solution to simplify the design of the NoC by also increasing their performance and reducing their power and area consumption. We propose to replace complex and slow virtual channel-based routers with multiple and flexible small Multi Plane ones. This solution allows us to reduce the area and power dissipation of any NoC while also increasing its performance especially when the resources are reduced. This Thesis has been written in collaboration with the Advanced System Technology laboratory in Grenoble France, and the Computer Science Department at Columbia University in the city of New York.
Resumo:
This work describes the development of a simulation tool which allows the simulation of the Internal Combustion Engine (ICE), the transmission and the vehicle dynamics. It is a control oriented simulation tool, designed in order to perform both off-line (Software In the Loop) and on-line (Hardware In the Loop) simulation. In the first case the simulation tool can be used in order to optimize Engine Control Unit strategies (as far as regard, for example, the fuel consumption or the performance of the engine), while in the second case it can be used in order to test the control system. In recent years the use of HIL simulations has proved to be very useful in developing and testing of control systems. Hardware In the Loop simulation is a technology where the actual vehicles, engines or other components are replaced by a real time simulation, based on a mathematical model and running in a real time processor. The processor reads ECU (Engine Control Unit) output signals which would normally feed the actuators and, by using mathematical models, provides the signals which would be produced by the actual sensors. The simulation tool, fully designed within Simulink, includes the possibility to simulate the only engine, the transmission and vehicle dynamics and the engine along with the vehicle and transmission dynamics, allowing in this case to evaluate the performance and the operating conditions of the Internal Combustion Engine, once it is installed on a given vehicle. Furthermore the simulation tool includes different level of complexity, since it is possible to use, for example, either a zero-dimensional or a one-dimensional model of the intake system (in this case only for off-line application, because of the higher computational effort). Given these preliminary remarks, an important goal of this work is the development of a simulation environment that can be easily adapted to different engine types (single- or multi-cylinder, four-stroke or two-stroke, diesel or gasoline) and transmission architecture without reprogramming. Also, the same simulation tool can be rapidly configured both for off-line and real-time application. The Matlab-Simulink environment has been adopted to achieve such objectives, since its graphical programming interface allows building flexible and reconfigurable models, and real-time simulation is possible with standard, off-the-shelf software and hardware platforms (such as dSPACE systems).
Resumo:
Motorische Bewegungen werden über die visuelle Rückmeldung auf ihre Genauigkeit kontrolliert und ggf. korrigiert. Über einen technischen Eingriff, wie beispielsweise einer Prismenbrille, kann man eine Differenz zwischen optisch wahrgenommener und haptisch erlebter Umwelt erzeugen, um die Fähigkeiten des visuomotorischen Systems zu testen. In dieser Arbeit wurde eine computergestützte Methode entwickelt, eine solche visuomotorische Differenz zu simulieren. Die Versuchspersonen führen eine ballistische Bewegung mit Arm und Hand aus in der Absicht, ein vorgegebenes Ziel zu treffen. Die Trefferpunkte werden durch einen Computer mit Hilfe eines Digitalisierungstablettes aufgenommen. Die visuelle Umwelt, welche den Versuchspersonen präsentiert wird, ist auf einem Monitor dargestellt. Das Monitorabbild – ein Kreuz auf weißem Hintergrund – betrachten die Testpersonen über einen Spiegel. Dieser ist in einem entsprechenden Winkel zwischen Monitor und Digitalisierungstablett angebracht, so dass das Zielbild auf dem Digitalisierungstablett projiziert wird. Die Testpersonen nehmen das Zielkreuz auf dem Digitalisierungstablett liegend wahr. Führt die Versuchsperson eine Zielbewegung aus, können die aufgenommenen Koordinaten als Punkte auf dem Monitor dargestellt werden und die Testperson erhält über diese Punktanzeige ein visuelles Feedback ihrer Bewegung. Der Arbeitsbereich des Digitalisierungstabletts kann über den Computer eingerichtet und so motorische Verschiebungen simuliert werden. Die verschiedenartigen Möglichkeiten dieses Aufbaus wurden zum Teil in Vorversuchen getestet um Fragestellungen, Methodik und technische Einrichtungen aufeinander abzustimmen. Den Hauptversuchen galt besonderes Interesse an der zeitlichen Verzögerung des visuellen Feedbacks sowie dem intermanuellen Transfer. Hierbei ergaben sich folgende Ergebnisse: ● Die Versuchspersonen adaptieren an eine räumlich verschobene Umwelt. Der Adaptationsverlauf lässt sich mit einer Exponentialfunktion mathematisch berechnen und darstellen. ● Dieser Verlauf ist unabhängig von der Art des visuellen Feedbacks. Die Beobachtung der Handbewegung während der Adaptation zeigt die gleiche Zielabfolge wie eine einfache Punktprojektion, die den Trefferort der Bewegung darstellt. ● Der exponentielle Verlauf der Adaptationsbewegung ist unabhängig von den getesteten zeitlichen Verzögerungen des visuellen Feedbacks. ● Die Ergebnisse des Folgeeffektes zeigen, dass bei zunehmender zeitlicher Verzögerung des visuellen Feedbacks während der Adaptationsphase, die Größe des Folgeeffektwertes geringer wird, d.h. die anhaltende Anpassungsleistung an eine visuomotorische Differenz sinkt. ● Die Folgeeffekte weisen individuelle Eigenheiten auf. Die Testpersonen adaptieren verschieden stark an eine simulierte Verschiebung. Ein Vergleich mit den visuomotorischen Herausforderungen im Vorleben der Versuchspersonen ließ vermuten, dass das visuomotorische System des Menschen trainierbar ist und sich - je nach Trainingszustand – unterschiedlich an wahrgenommene Differenzen anpasst. ● Der intermanuelle Transfer konnte unter verschiedenen Bedingungen nachgewiesen werden. ● Ein deutlich stärkerer Folgeeffekt kann beobachtet werden, wenn die wahrgenommene visuomotorische Differenz zwischen Ziel und Trefferpunkt in eine Gehirnhälfte projiziert wird und der Folgeeffekt mit der Hand erfolgt, welche von dieser Hirnhemisphäre gesteuert wird. Der intermanuelle Transfer wird demnach begünstigt, wenn die visuelle Projektion der Fehlerbeobachtung in die Gehirnhälfte erfolgt, die während der Adaptationsphase motorisch passiv ist.
Resumo:
In this thesis we describe in detail the Monte Carlo simulation (LVDG4) built to interpret the experimental data collected by LVD and to measure the muon-induced neutron yield in iron and liquid scintillator. A full Monte Carlo simulation, based on the Geant4 (v 9.3) toolkit, has been developed and validation tests have been performed. We used the LVDG4 to determine the active vetoing and the shielding power of LVD. The idea was to evaluate the feasibility to host a dark matter detector in the most internal part, called Core Facility (LVD-CF). The first conclusion is that LVD is a good moderator, but the iron supporting structure produce a great number of neutrons near the core. The second conclusions is that if LVD is used as an active veto for muons, the neutron flux in the LVD-CF is reduced by a factor 50, of the same order of magnitude of the neutron flux in the deepest laboratory of the world, Sudbury. Finally, the muon-induced neutron yield has been measured. In liquid scintillator we found $(3.2 \pm 0.2) \times 10^{-4}$ n/g/cm$^2$, in agreement with previous measurements performed at different depths and with the general trend predicted by theoretical calculations and Monte Carlo simulations. Moreover we present the first measurement, in our knowledge, of the neutron yield in iron: $(1.9 \pm 0.1) \times 10^{-3}$ n/g/cm$^2$. That measurement provides an important check for the MC of neutron production in heavy materials that are often used as shield in low background experiments.
Resumo:
Die chronisch obstruktive Lungenerkrankung (engl. chronic obstructive pulmonary disease, COPD) ist ein Überbegriff für Erkrankungen, die zu Husten, Auswurf und Dyspnoe (Atemnot) in Ruhe oder Belastung führen - zu diesen werden die chronische Bronchitis und das Lungenemphysem gezählt. Das Fortschreiten der COPD ist eng verknüpft mit der Zunahme des Volumens der Wände kleiner Luftwege (Bronchien). Die hochauflösende Computertomographie (CT) gilt bei der Untersuchung der Morphologie der Lunge als Goldstandard (beste und zuverlässigste Methode in der Diagnostik). Möchte man Bronchien, eine in Annäherung tubuläre Struktur, in CT-Bildern vermessen, so stellt die geringe Größe der Bronchien im Vergleich zum Auflösungsvermögen eines klinischen Computertomographen ein großes Problem dar. In dieser Arbeit wird gezeigt wie aus konventionellen Röntgenaufnahmen CT-Bilder berechnet werden, wo die mathematischen und physikalischen Fehlerquellen im Bildentstehungsprozess liegen und wie man ein CT-System mittels Interpretation als lineares verschiebungsinvariantes System (engl. linear shift invariant systems, LSI System) mathematisch greifbar macht. Basierend auf der linearen Systemtheorie werden Möglichkeiten zur Beschreibung des Auflösungsvermögens bildgebender Verfahren hergeleitet. Es wird gezeigt wie man den Tracheobronchialbaum aus einem CT-Datensatz stabil segmentiert und mittels eines topologieerhaltenden 3-dimensionalen Skelettierungsalgorithmus in eine Skelettdarstellung und anschließend in einen kreisfreien Graphen überführt. Basierend auf der linearen System Theorie wird eine neue, vielversprechende, integral-basierte Methodik (IBM) zum Vermessen kleiner Strukturen in CT-Bildern vorgestellt. Zum Validieren der IBM-Resultate wurden verschiedene Messungen an einem Phantom, bestehend aus 10 unterschiedlichen Silikon Schläuchen, durchgeführt. Mit Hilfe der Skelett- und Graphendarstellung ist ein Vermessen des kompletten segmentierten Tracheobronchialbaums im 3-dimensionalen Raum möglich. Für 8 zweifach gescannte Schweine konnte eine gute Reproduzierbarkeit der IBM-Resultate nachgewiesen werden. In einer weiteren, mit IBM durchgeführten Studie konnte gezeigt werden, dass die durchschnittliche prozentuale Bronchialwandstärke in CT-Datensätzen von 16 Rauchern signifikant höher ist, als in Datensätzen von 15 Nichtrauchern. IBM läßt sich möglicherweise auch für Wanddickenbestimmungen bei Problemstellungen aus anderen Arbeitsgebieten benutzen - kann zumindest als Ideengeber dienen. Ein Artikel mit der Beschreibung der entwickelten Methodik und der damit erzielten Studienergebnisse wurde zur Publikation im Journal IEEE Transactions on Medical Imaging angenommen.
Resumo:
Tracking activities during daily life and assessing movement parameters is essential for complementing the information gathered in confined environments such as clinical and physical activity laboratories for the assessment of mobility. Inertial measurement units (IMUs) are used as to monitor the motion of human movement for prolonged periods of time and without space limitations. The focus in this study was to provide a robust, low-cost and an unobtrusive solution for evaluating human motion using a single IMU. First part of the study focused on monitoring and classification of the daily life activities. A simple method that analyses the variations in signal was developed to distinguish two types of activity intervals: active and inactive. Neural classifier was used to classify active intervals; the angle with respect to gravity was used to classify inactive intervals. Second part of the study focused on extraction of gait parameters using a single inertial measurement unit (IMU) attached to the pelvis. Two complementary methods were proposed for gait parameters estimation. First method was a wavelet based method developed for the estimation of gait events. Second method was developed for estimating step and stride length during level walking using the estimations of the previous method. A special integration algorithm was extended to operate on each gait cycle using a specially designed Kalman filter. The developed methods were also applied on various scenarios. Activity monitoring method was used in a PRIN’07 project to assess the mobility levels of individuals living in a urban area. The same method was applied on volleyball players to analyze the fitness levels of them by monitoring their daily life activities. The methods proposed in these studies provided a simple, unobtrusive and low-cost solution for monitoring and assessing activities outside of controlled environments.
Resumo:
In spite of the higher toxicity of oxygen-containing polycyclic aromatic hydrocarbons (OPAHs) than of their parent-PAHs, there are only a few studies of the concentrations, composition pattern, sources and fate of OPAHs in soil, the presumably major environmental sink of OPAHs. This is related to the fact that there are only few available methods to measure OPAHs together with PAHs in soil. rnThe objectives of my thesis were to (i) develop a GC/MS-based method to measure OPAHs and their parent-PAHs in soils of different properties and pollution levels, (ii) apply the method to soils from Uzbekistan and Slovakia and (iii) investigate into the fate of OPAHs, particularly their vertical transport in soilrnI optimized and fully evaluated an analytical method based on pressurized liquid extraction, silica gel column chromatographic fractionation of extracted compounds into alkyl-/parent-PAH and OPAH fractions, silylation of hydroxyl-/carboxyl-OPAHs with N,O-bis(trimethylsilyl)trifluoracetamide and GC/MS quantification of the target compounds. The method was targeted at 34 alkyl-/parent-PAHs, 7 carbonyl-OPAHs and 19 hydroxyl-/carboxyl-OPAHs. I applied the method to 11 soils from each of the Angren industrial region (which hosts a coal mine, power plant, rubber factory and gold refinery) in Uzbekistan and in the city of Bratislava, the densely populated capital of Slovakia.rnRecoveries of five carbonyl-OPAHs in spike experiments ranged between 78-97% (relative standard deviation, RSD, 5-12%), while 1,2-acenaphthenequinone and 1,4-naphtho-quinone had recoveries between 34-44%% (RSD, 19-28%). Five spiked hydroxyl-/carboxyl-OPAHs showed recoveries between 36-70% (RSD, 13-46%), while others showed recoveries <10% or were completely lost. With the optimized method, I determined, on average, 103% of the alkyl-/parent-PAH concentrations in a certified reference material.rnThe ∑OPAHs concentrations in surface soil ranged 62-2692 ng g-1 and those of ∑alkyl-/parent-PAHs was 842-244870 ng g-1. The carbonyl-OPAHs had higher concentrations than the hydroxyl-/carboxyl-OPAHs. The most abundant carbonyl-OPAHs were consistently 9-fluorenone (9-FLO), 9,10-anthraquinone (9,10-ANQ), 1-indanone (1-INDA) and benzo[a]anthracene-7,12-dione (7,12-B(A)A) and the most abundant hydroxyl-/carboxyl-OPAH was 2-hydroxybenzaldehyde. The concentrations of carbonyl-OPAHs were frequently higher than those of their parent-PAHs (e.g., 9-FLO/fluorene >100 near a rubber factory in Angren). The concentrations of OPAHs like those of their alkyl-/parent-PAHs were higher at locations closer to point sources and the OPAH and PAH concentrations were correlated suggesting that both compound classes originated from the same sources. Only for 1-INDA and 2-biphenylcarboxaldehyde sources other than combustion seemed to dominate. Like those of the alkyl-/parent-PAHs, OPAH concentrations were higher in topsoils than subsoils. Evidence of higher mobility of OPAHs than their parent-PAHs was provided by greater subsoil:topsoil concentration ratios of carbonyl-OPAHs (0.41-0.82) than their parent-PAHs (0.41-0.63) in Uzbekistan. This was further backed by the consistently higher contribution of more soluble 9-FLO and 1-INDA to the ∑carbonyl-OPAHs in subsoil than topsoil at the expense of 9,10-ANQ, 7,12-B(A)A and higher OPAH/parent-PAH concentration ratios in subsoil than topsoil in Bratislava.rnWith this thesis, I contribute a suitable method to determine a large number of OPAHs and PAHs in soil. My results demonstrate that carbonyl-OPAHs are more abundant than hydroxyl-/carboxyl-OPAHs and OPAH concentrations are frequently higher than parent-PAH concentrations. Furthermore, there are indications that OPAHs are more mobile in soil than PAHs. This calls for appropriate legal regulation of OPAH concentrations in soil.
Resumo:
This thesis is a collection of works focused on the topic of Earthquake Early Warning, with a special attention to large magnitude events. The topic is addressed from different points of view and the structure of the thesis reflects the variety of the aspects which have been analyzed. The first part is dedicated to the giant, 2011 Tohoku-Oki earthquake. The main features of the rupture process are first discussed. The earthquake is then used as a case study to test the feasibility Early Warning methodologies for very large events. Limitations of the standard approaches for large events arise in this chapter. The difficulties are related to the real-time magnitude estimate from the first few seconds of recorded signal. An evolutionary strategy for the real-time magnitude estimate is proposed and applied to the single Tohoku-Oki earthquake. In the second part of the thesis a larger number of earthquakes is analyzed, including small, moderate and large events. Starting from the measurement of two Early Warning parameters, the behavior of small and large earthquakes in the initial portion of recorded signals is investigated. The aim is to understand whether small and large earthquakes can be distinguished from the initial stage of their rupture process. A physical model and a plausible interpretation to justify the observations are proposed. The third part of the thesis is focused on practical, real-time approaches for the rapid identification of the potentially damaged zone during a seismic event. Two different approaches for the rapid prediction of the damage area are proposed and tested. The first one is a threshold-based method which uses traditional seismic data. Then an innovative approach using continuous, GPS data is explored. Both strategies improve the prediction of large scale effects of strong earthquakes.
Resumo:
In dieser Arbeit werden neuere methodische Entwicklungen aus dem Bereich der Numerischen Integration für die näherungsweise Berechnung von Zustandraummodellen erprobt. Die resultierenden Algorithmen werden bzgl. ihrer Approximationsgüte mit den populären simulationsbasierten Näherungsverfahren verglichen.
Resumo:
Angesichts der sich abzeichnenden Erschöpfung fossiler Ressourcen ist die Erforschung alternativer Energiequellen derzeit eines der meistbeachteten Forschungsgebiete. Durch ihr enormes Potential ist die Photovoltaik besonders im Fokus der Wissenschaft. Um großflächige Beschichtungsverfahren nutzen zu können, wird seit einigen Jahren auf dem Gebiet der Dünnschichtphotovoltaik intensiv geforscht. Jedoch sind die gegenwärtigen Solarzellenkonzepte allesamt durch die Verwendung giftiger (Cd, As) oder seltener Elemente (In, Ga) oder durch eine komplexe Phasenbildung in ihrem Potential beschränkt. Die Entwicklung alternativer Konzepte erscheint daher naheliegend.rnAufgrund dessen wurde in einem BMBF-geförderten Verbundprojekt die Abscheidung von Dünnschichten des binären Halbleiters Bi2S3 mittels physikalischer Gasphasenabscheidung mit dem Ziel der Etablierung als quasi-intrinsischer Absorber in Solarzellenstrukturen mit p-i-n-Schichtfolge hin untersucht.rnDurch sein von einem hochgradig anisotropen Bindungscharakter geprägtes Kristallwachstum war die Abscheidung glatter, einphasiger und für die Integration in eine Multischichtstruktur geeigneter Schichten mit Schichtdicken von einigen 100 nm eine der wichtigsten Herausforderungen. Die Auswirkungen der beiden Parameter Abscheidungstemperatur und Stöchiometrie wurden hinsichtlich ihrer Auswirkungen auf die relevanten Kenngrößen (wie Morphologie, Dotierungsdichte und Photolumineszenz) untersucht. Es gelang, erfolgreich polykristalline Schichten mit geeigneter Rauigkeit und einer Dotierungsdichte von n ≈ 2 1015cm-3 auf anwendungsrelevanten Substraten abzuscheiden, wobei eine besonders starke Abhängigkeit von der Gasphasenzusammensetzung ermittelt werden. Es konnten weiterhin die ersten Messungen der elektronischen Zustandsdichte unter Verwendung von Hochenergie-Photoemissionsspektroskopie durchgeführt werden, die insbesondere den Einfluss variabler Materialzusammensetzungen offenbarten.rnZum Nachweis der Eignung des Materials als Absorberschicht standen innerhalb des Projektes mit SnS, Cu2O und PbS prinzipiell geeignete p-Kontaktmaterialien zur Verfügung. Es konnten trotz der Verwendung besonders sauberer Abscheidungsmethoden im Vakuum keine funktionstüchtigen Solarzellen mit Bi2S3 deponiert werden. Jedoch war es unter Verwendung von Photoemissionspektroskopie möglich, die relevanten Grenzflächen zu spektroskopieren und die Ursachen für die Beobachtungen zu identifizieren. Zudem konnte erfolgreich die Notwendigkeit von Puffermaterialien bei der Bi2S3-Abscheidung nachgewiesen werden, um Oberflächenreaktionen zu unterbinden und die Transporteigenschaften an der Grenzfläche zu verbessern.rn
Resumo:
Am Mainzer Mikrotron können Lambda-Hyperkerne in (e,e'K^+)-Reaktionen erzeugt werden. Durch den Nachweis des erzeugten Kaons im KAOS-Spektrometer lassen sich Reaktionen markieren, bei denen ein Hyperon erzeugt wurde. Die Spektroskopie geladener Pionen, die aus schwachen Zweikörperzerfällen leichter Hyperkerne stammen, erlaubt es die Bindungsenergie des Hyperons im Kern mit hoher Präzision zu bestimmen. Neben der direkten Produktion von Hyperkernen ist auch die Erzeugung durch die Fragmentierung eines hoch angeregten Kontinuumszustands möglich. Dadurch können unterschiedliche Hyperkerne in einem Experiment untersucht werden. Für die Spektroskopie der Zerfallspionen stehen hochauflösende Magnetspektrometer zur Verfügung. Um die Grundzustandsmasse der Hyperkerne aus dem Pionimpuls zu berechnen, ist es erforderlich, dass das Hyperfragment vor dem Zerfall im Target abgebremst wird. Basierend auf dem bekannten Wirkungsquerschnitt der elementaren Kaon-Photoproduktion wurde eine Berechnung der zu erwartenden Ereignisrate vorgenommen. Es wurde eine Monte-Carlo-Simulation entwickelt, die den Fragmentierungsprozess und das Abbremsen der Hyperfragmente im Target beinhaltet. Diese nutzt ein statistisches Aufbruchsmodell zur Beschreibung der Fragmentierung. Dieser Ansatz ermöglicht für Wasserstoff-4-Lambda-Hyperkerne eine Vorhersage der zu erwartenden Zählrate an Zerfallspionen. In einem Pilotexperiment im Jahr 2011 wurde erstmalig an MAMI der Nachweis von Hadronen mit dem KAOS-Spektrometer unter einem Streuwinkel von 0° demonstriert, und koinzident dazu Pionen nachgewiesen. Es zeigte sich, dass bedingt durch die hohen Untergrundraten von Positronen in KAOS eine eindeutige Identifizierung von Hyperkernen in dieser Konfiguration nicht möglich war. Basierend auf diesen Erkenntnissen wurde das KAOS-Spektrometer so modifiziert, dass es als dedizierter Kaonenmarkierer fungierte. Zu diesem Zweck wurde ein Absorber aus Blei im Spektrometer montiert, in dem Positronen durch Schauerbildung abgestoppt werden. Die Auswirkung eines solchen Absorbers wurde in einem Strahltest untersucht. Eine Simulation basierend auf Geant4 wurde entwickelt mittels derer der Aufbau von Absorber und Detektoren optimiert wurde, und die Vorhersagen über die Auswirkung auf die Datenqualität ermöglichte. Zusätzlich wurden mit der Simulation individuelle Rückrechnungsmatrizen für Kaonen, Pionen und Protonen erzeugt, die die Wechselwirkung der Teilchen mit der Bleiwand beinhalteten, und somit eine Korrektur der Auswirkungen ermöglichen. Mit dem verbesserten Aufbau wurde 2012 eine Produktionsstrahlzeit durchgeführt, wobei erfolgreich Kaonen unter 0° Streuwinkel koninzident mit Pionen aus schwachen Zerfällen detektiert werden konnten. Dabei konnte im Impulsspektrum der Zerfallspionen eine Überhöhung mit einer Signifikanz, die einem p-Wert von 2,5 x 10^-4 entspricht, festgestellt werden. Diese Ereignisse können aufgrund ihres Impulses, den Zerfällen von Wasserstoff-4-Lambda-Hyperkernen zugeordnet werden, wobei die Anzahl detektierter Pionen konsistent mit der berechneten Ausbeute ist.
Resumo:
Eine Pollenallergie geht häufig mit einer sekundären Nahrungsmittelallergie einher, die durch die Kreuzreaktivität zwischen dem Pollen- und dem Nahrungsmittelallergen verursacht wird. In der vorliegenden Arbeit wurde eine Kohorte von 20 Allergikern mit einer Typ I-Allergie gegen Birkenpollen und einer assoziierten Nahrungsmittelallergie gegen Haselnüsse und/oder Karotten in Bezug auf eine allergenspezifische IgE-Antwort, T-Zellantwort und vor allen Dingen hinsichtlich der T-Zellkreuzreaktivität zwischen den rekombinanten Allergenen Bet v 1, Cor a 1 und Dau c 1 charakterisiert. Verwendet wurde hierzu ein Zellkultursystem mit primären CD4+ T-Zellen ohne die Zugabe von exogenem IL-2 oder wiederholten Stimulationen. Zur Analyse der T-Zellkreuzreaktivität kamen zwei unterschiedliche Analyseverfahren zum Einsatz: zum einen der bewährte 3H-Thymidinassay und zum anderen eine neue durchflusszytometrische Methode, die auf der Verwendung von zwei unterschiedlichen Proliferationsfarbstoffen basiert.rnBei der Charakterisierung der T-Zellantwort konnte festgestellt werden, dass eine robuste Th2-Antwort vorliegt, die stark von dem Zytokin IL-5 dominiert wird, begleitet von einer signifikanten Produktion von IL-9 und IL-13, allerdings ohne die Beteiligung von IL-4.rnDes Weiteren konnte zum ersten Mal mit Hilfe eines dosisabhängigen Inhibitions-ELISA eine B-Zellkreuzreaktivität zwischen Bet v 1 und Cor a 1 gezeigt werden, wobei das Cor a 1-reaktive IgE prädominant ist und eine Subpopulation des Bet v 1-reaktiven IgE darstellt.rnMittels 3H-Thymidinassay konnte eine T-Zellkreuzreaktivität zwischen Bet v 1, Cor a 1 und in einem geringeren Maße zu Dau c 1 bei primären T-Zellen von Allergikern gezeigt werden. Ebenso konnte die Kreuzreaktivität zwischen Bet v 1 und Cor a 1 durch die neue durchflusszytometrische Methode bewiesen werden. Zusätzlich ist es mit Hilfe dieser neuen Methode nun möglich, zwischen den einzelnen T-Zellsubpopulationen zu unterscheiden, die sowohl nach primärer und sekundärer oder ausschließlich nach sekundärer Stimulation proliferieren. Es konnte festgestellt werden, dass die kreuzreaktiven T-Zellen aus der T-Zellsubpopulation hervorgehen, die bereits nach der primären Stimulations stark proliferiert haben. Somit kann also innerhalb des T-Zellrepertoires der allergischen Spender eine Prädominanz der kreuzreaktiven T-Zellsubpopulationen festgestellt werden. Eine monospezifische T-Zellsubpopulation konnte unter Verwendung der neuen Methode nicht detektiert werden.rnDas Ausmaß von Qualität und Quantität einer Kreuzreaktivität kann nun visualisiert werden, was dazu beitragen kann, das Protokoll einer SIT zu verbessern und optimal an den individuellen Patienten anzupassen, um möglicherweise eine größere Chance auf eine erfolgreiche Therapie in Aussicht zu stellen.
Resumo:
Larven der Eulenfalter, Gattung Agrotis (Lepidoptera: Noctuidae), sind Schädlinge in der Landwirtschaft, welche gravierende Fraßschäden an bodennahen Pflanzenteilen verursachen. Häufig kommt es zum Absterben der noch jungen Pflanzen oder zu Beschädigungen der pflanzlichen Produkte, was zu finanziellen Ertragsverlusten führt. Zwei der wichtigsten landwirtschaftlichen Schädlinge der Gattung Agrotis sind die Larven der Saateule (Agrotis segetum) und der Ypsiloneule (Agrotis ipsilon), welche bisher überwiegend mittels chemischer Pestizide bekämpft werden. Als eine umweltfreundliche, nachhaltige und vielversprechende Alternative in der Bekämpfung wird der Einsatz von Baculoviren berücksichtigt. Baculoviren zeichnen sich durch eine hohe Virulenz und einem sehr engen Wirtsbereich aus. Häufig werden nur wenige nah verwandte Arten der gleichen Gattung infiziert. Aus der Gattung Agrotis wurden bisher mindestens vier Baculoviren isoliert und charakterisiert, welche als potentielle biologische Pflanzenschutzmittel in Frage kommen; sie gehören zu zwei Gattungen der Baculoviren: rnAlphabaculovirusrn(i) Agrotis segetum nucleopolyhedrovirus A (AgseNPV-A)rn(ii) Agrotis segetum nucleopolyhedrovirus B (AgseNPV-B)rn(iii) Agrotis ipsilon nucleopolyhedrovirus (AgipNPV)rnBetabaculovirusrn(i) Agrotis segetum granulovirus (AgseGV).rnDie Genome der AgseNPV-A, AgipNPV sowie des AgseGV wurden in vorherigen Studien bereits vollständig sequenziert und publiziert. In der vorgelegten Dissertation wurde das AgseNPV-B sequenziert und umfassend mit AgseNPV-A und AgipNPV verglichen. Das Genom von AgseNPV-B ist 148981 Kbp groß und kodiert ….. offene Leseraster. Phylogenetische Analysen zeigen eine enge Verwandtschaft dieser drei Viren und klassifizieren AgseNPV-B als eine neue Art innerhalb der Gattung Alphabaculovirus. Auf Basis der vorhandenen Genomsequenzen konnte eine PCR-basierende Methode zur Detektion und Quantifizierung on AgseNPV-A, AgseNPV-B, AgipNPV und AgseGV etabliert werden. Dises Verfahren ermöglichte die Quantifizierung von AgseNPV-B und AgseGV in Larven von A. segetum, die von beiden Viren zeitgleichinfiziert waren. Durch das gemeinsame Auftreten dieser beiden Wiren innerhalb eines Wirtsindividuums stellte sich die Frage, welche Art der Interaktion bei einer Ko-Infektion vorliegt. Durch Mischinfektionsversuche von AgseNPV-B und AgseGV konnte gezeigt werden, dass beide Viren um die Ressourcen der Larven konkurrieren. Eine für landwirtschaftliche Zwecke vorteilige Interaktion, wie das vorzeitige Verenden der Larven, das bereits für andere interagierende Baculoviren nachgewiesen wurde, konnte ausgeschlossen werden. Neben den Mischinfektionsversuchen wurden auch AgseGV und AgseNPV-B einzeln auf ihre Eignung als biologisches Pflanzenschutzmittel getestet. AgseGV zeigte in den Laborversuchen eine relativ langsame Wirkung, während AgseNPV-B durchaus Potential für ein rasche Abtötung besitzt. rnDie durchgeführten Aktivitätsstudien und die Charakterisierung von AgseNPV-B als neue Art erlauben ein vertieftes biologisches und molekulares Verständnis des Virus legen den Grundstein für und eine mögliche spätere Zulassung als Pflanzenschutzmittel. Die Methode zur Identifizierung und Quantifizierung der Agrotis-Baculoviren stellt ein wichtiges Instrument in der Qualitätskontrolle für Produzenten dar und ermöglicht zudem weitere Untersuchungen von Agrotis-Baculoviren in Mischinfektionen.
Resumo:
Surface based measurements systems play a key role in defining the ground truth for climate modeling and satellite product validation. The Italian-French station of Concordia is operative year round since 2005 at Dome C (75°S, 123°E, 3230 m) on the East Antarctic Plateau. A Baseline Surface Radiation Network (BSRN) site was deployed and became operational since January 2006 to measure downwelling components of the radiation budget, and successively was expanded in April 2007 to measure upwelling radiation. Hence, almost a decade of measurement is now available and suitable to define a statistically significant climatology for the radiation budget of Concordia including eventual trends, by specifically assessing the effects of clouds and water vapor on SW and LW net radiation. A well known and robust clear sky-id algorithm (Long and Ackerman, 2000) has been operationally applied on downwelling SW components to identify cloud free events and to fit a parametric equation to determine clear-sky reference along the Antarctic daylight periods (September to April). A new model for surface broadband albedo has been developed in order to better describe the features the area. Then, a novel clear-sky LW parametrization, based on a-priori assumption about inversion layer structure, combined with daily and annual oscillations of the surface temperature, have been adopted and validated. The longwave based method is successively exploited to extend cloud radiative forcing studies to nighttime period (winter). Results indicated inter-annual and intra-annual warming behaviour, i.e. 13.70 W/m2 on the average, specifically approaching neutral effect in summer, when SW CRF compensates LW CRF, and warming along the rest of the year due prevalentely to CRF induced on the LW component.
Resumo:
It is well known that the early initiation of a specific antiinfective therapy is crucial to reduce the mortality in severe infection. Procedures culturing pathogens are the diagnostic gold standard in such diseases. However, these methods yield results earliest between 24 to 48 hours. Therefore, severe infections such as sepsis need to be treated with an empirical antimicrobial therapy, which is ineffective in an unknown fraction of these patients. Today's microbiological point of care tests are pathogen specific and therefore not appropriate for an infection with a variety of possible pathogens. Molecular nucleic acid diagnostics such as polymerase chain reaction (PCR) allow the identification of pathogens and resistances. These methods are used routinely to speed up the analysis of positive blood cultures. The newest PCR based system allows the identification of the 25 most frequent sepsis pathogens by PCR in parallel without previous culture in less than 6 hours. Thereby, these systems might shorten the time of possibly insufficient antiinfective therapy. However, these extensive tools are not suitable as point of care diagnostics. Miniaturization and automating of the nucleic acid based method is pending, as well as an increase of detectable pathogens and resistance genes by these methods. It is assumed that molecular PCR techniques will have an increasing impact on microbiological diagnostics in the future.