951 resultados para Space-time analysis
Resumo:
We propose an alternative, nonsingular, cosmic scenario based on gravitationally induced particle production. The model is an attempt to evade the coincidence and cosmological constant problems of the standard model (Lambda CDM) and also to connect the early and late time accelerating stages of the Universe. Our space-time emerges from a pure initial de Sitter stage thereby providing a natural solution to the horizon problem. Subsequently, due to an instability provoked by the production of massless particles, the Universe evolves smoothly to the standard radiation dominated era thereby ending the production of radiation as required by the conformal invariance. Next, the radiation becomes subdominant with the Universe entering in the cold dark matter dominated era. Finally, the negative pressure associated with the creation of cold dark matter (CCDM model) particles accelerates the expansion and drives the Universe to a final de Sitter stage. The late time cosmic expansion history of the CCDM model is exactly like in the standard Lambda CDM model; however, there is no dark energy. The model evolves between two limiting (early and late time) de Sitter regimes. All the stages are also discussed in terms of a scalar field description. This complete scenario is fully determined by two extreme energy densities, or equivalently, the associated de Sitter Hubble scales connected by rho(I)/rho(f) = (H-I/H-f)(2) similar to 10(122), a result that has no correlation with the cosmological constant problem. We also study the linear growth of matter perturbations at the final accelerating stage. It is found that the CCDM growth index can be written as a function of the Lambda growth index, gamma(Lambda) similar or equal to 6/11. In this framework, we also compare the observed growth rate of clustering with that predicted by the current CCDM model. Performing a chi(2) statistical test we show that the CCDM model provides growth rates that match sufficiently well with the observed growth rate of structure.
Resumo:
We study, in a d-dimensional space-time, the nonanalyticity of the thermal free energy in the scalar phi(4) theory as well as in QED. We find that the infrared divergent contributions induce, when d is even, a nonanalyticity in the coupling alpha of the form (alpha)((d-1)/2) whereas when d is odd the nonanalyticity is only logarithmic.
Resumo:
The widespread independent evolution of analogous bioluminescent systems is one of the most impressive and diverse examples of convergent evolution on earth. There are roughly 30 extant bioluminescent systems that have evolved independently on Earth, with each system likely having unique enzymes responsible for catalysing the bioluminescent reaction. Bioluminescence is a chemical reaction involving a luciferin molecule and a luciferase or photoprotein that results in the emission of light. Some independent systems utilize the same luciferin, such as the use of tetrapyrrolic compounds by krill and dinoflagellates, and the wide use of coelenterazine by marine organisms, while the enzymes involved are unique. One common thread among all the different bioluminescent systems is the requirement of molecular oxygen. Bioluminescence is found in most forms of life, especially marine organisms. Bioluminescence in known to benefit the organism by: attraction, repulsion, communication, camouflage, and illumination. The marine ecosystem is significantly affected by bioluminescence, the only light found in the pelagic zone and below is from bioluminescent organisms. Transgenic bioluminescent organisms have revolutionized molecular research, medicine and the biotechnology industry. The use of bioluminescence in studying molecular pathways and disease allows for non-invasive and real-time analysis. Bioluminescence-based assays have been developed for several analytes by coupling luminescence to many enzyme-catalysed reactions. Received 17 February 2012, accepted 27 March 2012, first published online 2 May 2012
Resumo:
We prove that the hard thermal loop contribution to static thermal amplitudes can be obtained by setting all the external four-momenta to zero before performing the Matsubara sums and loop integrals. At the one-loop order we do an iterative procedure for all the one-particle irreducible one-loop diagrams, and at the two-loop order we consider the self-energy. Our approach is sufficiently general to the extent that it includes theories with any kind of interaction vertices, such as gravity in the weak field approximation, for d space-time dimensions. This result is valid whenever the external fields are all bosonic.
Resumo:
We compute the effective Lagrangian of static gravitational fields interacting with thermal fields. Our approach employs the usual imaginary time formalism as well as the equivalence between the static and space-time independent external gravitational fields. This allows to obtain a closed form expression for the thermal effective Lagrangian in d space-time dimensions.
Resumo:
We construct analytical and numerical vortex solutions for an extended Skyrme-Faddeev model in a (3 + 1) dimensional Minkowski space-time. The extension is obtained by adding to the Lagrangian a quartic term, which is the square of the kinetic term, and a potential which breaks the SO(3) symmetry down to SO(2). The construction makes use of an ansatz, invariant under the joint action of the internal SO(2) and three commuting U(1) subgroups of the Poincare group, and which reduces the equations of motion to an ordinary differential equation for a profile function depending on the distance to the x(3) axis. The vortices have finite energy per unit length, and have waves propagating along them with the speed of light. The analytical vortices are obtained for a special choice of potentials, and the numerical ones are constructed using the successive over relaxation method for more general potentials. The spectrum of solutions is analyzed in detail, especially its dependence upon special combinations of coupling constants.
Resumo:
We consider modifications of the nonlinear Schrodinger model (NLS) to look at the recently introduced concept of quasi-integrability. We show that such models possess an in finite number of quasi-conserved charges which present intriguing properties in relation to very specific space-time parity transformations. For the case of two-soliton solutions where the fields are eigenstates of this parity, those charges are asymptotically conserved in the scattering process of the solitons. Even though the charges vary in time their values in the far past and the far future are the same. Such results are obtained through analytical and numerical methods, and employ adaptations of algebraic techniques used in integrable field theories. Our findings may have important consequences on the applications of these models in several areas of non-linear science. We make a detailed numerical study of the modified NLS potential of the form V similar to (vertical bar psi vertical bar(2))(2+epsilon), with epsilon being a perturbation parameter. We perform numerical simulations of the scattering of solitons for this model and find a good agreement with the results predicted by the analytical considerations. Our paper shows that the quasi-integrability concepts recently proposed in the context of modifications of the sine-Gordon model remain valid for perturbations of the NLS model.
Resumo:
L’uso frequente dei modelli predittivi per l’analisi di sistemi complessi, naturali o artificiali, sta cambiando il tradizionale approccio alle problematiche ambientali e di rischio. Il continuo miglioramento delle capacità di elaborazione dei computer facilita l’utilizzo e la risoluzione di metodi numerici basati su una discretizzazione spazio-temporale che permette una modellizzazione predittiva di sistemi reali complessi, riproducendo l’evoluzione dei loro patterns spaziali ed calcolando il grado di precisione della simulazione. In questa tesi presentiamo una applicazione di differenti metodi predittivi (Geomatico, Reti Neurali, Land Cover Modeler e Dinamica EGO) in un’area test del Petén, Guatemala. Durante gli ultimi decenni questa regione, inclusa nella Riserva di Biosfera Maya, ha conosciuto una rapida crescita demografica ed un’incontrollata pressione sulle sue risorse naturali. L’area test puó essere suddivisa in sotto-regioni caratterizzate da differenti dinamiche di uso del suolo. Comprendere e quantificare queste differenze permette una migliore approssimazione del sistema reale; é inoltre necessario integrare tutti i parametri fisici e socio-economici, per una rappresentazione più completa della complessità dell’impatto antropico. Data l’assenza di informazioni dettagliate sull’area di studio, quasi tutti i dati sono stati ricavati dall’elaborazione di 11 immagini ETM+, TM e SPOT; abbiamo poi realizzato un’analisi multitemporale dei cambi uso del suolo passati e costruito l’input per alimentare i modelli predittivi. I dati del 1998 e 2000 sono stati usati per la fase di calibrazione per simulare i cambiamenti nella copertura terrestre del 2003, scelta come data di riferimento per la validazione dei risultati. Quest’ultima permette di evidenziare le qualità ed i limiti per ogni modello nelle differenti sub-regioni.
Resumo:
Nowadays, it is clear that the target of creating a sustainable future for the next generations requires to re-think the industrial application of chemistry. It is also evident that more sustainable chemical processes may be economically convenient, in comparison with the conventional ones, because fewer by-products means lower costs for raw materials, for separation and for disposal treatments; but also it implies an increase of productivity and, as a consequence, smaller reactors can be used. In addition, an indirect gain could derive from the better public image of the company, marketing sustainable products or processes. In this context, oxidation reactions play a major role, being the tool for the production of huge quantities of chemical intermediates and specialties. Potentially, the impact of these productions on the environment could have been much worse than it is, if a continuous efforts hadn’t been spent to improve the technologies employed. Substantial technological innovations have driven the development of new catalytic systems, the improvement of reactions and process technologies, contributing to move the chemical industry in the direction of a more sustainable and ecological approach. The roadmap for the application of these concepts includes new synthetic strategies, alternative reactants, catalysts heterogenisation and innovative reactor configurations and process design. Actually, in order to implement all these ideas into real projects, the development of more efficient reactions is one primary target. Yield, selectivity and space-time yield are the right metrics for evaluating the reaction efficiency. In the case of catalytic selective oxidation, the control of selectivity has always been the principal issue, because the formation of total oxidation products (carbon oxides) is thermodynamically more favoured than the formation of the desired, partially oxidized compound. As a matter of fact, only in few oxidation reactions a total, or close to total, conversion is achieved, and usually the selectivity is limited by the formation of by-products or co-products, that often implies unfavourable process economics; moreover, sometimes the cost of the oxidant further penalizes the process. During my PhD work, I have investigated four reactions that are emblematic of the new approaches used in the chemical industry. In the Part A of my thesis, a new process aimed at a more sustainable production of menadione (vitamin K3) is described. The “greener” approach includes the use of hydrogen peroxide in place of chromate (from a stoichiometric oxidation to a catalytic oxidation), also avoiding the production of dangerous waste. Moreover, I have studied the possibility of using an heterogeneous catalytic system, able to efficiently activate hydrogen peroxide. Indeed, the overall process would be carried out in two different steps: the first is the methylation of 1-naphthol with methanol to yield 2-methyl-1-naphthol, the second one is the oxidation of the latter compound to menadione. The catalyst for this latter step, the reaction object of my investigation, consists of Nb2O5-SiO2 prepared with the sol-gel technique. The catalytic tests were first carried out under conditions that simulate the in-situ generation of hydrogen peroxide, that means using a low concentration of the oxidant. Then, experiments were carried out using higher hydrogen peroxide concentration. The study of the reaction mechanism was fundamental to get indications about the best operative conditions, and improve the selectivity to menadione. In the Part B, I explored the direct oxidation of benzene to phenol with hydrogen peroxide. The industrial process for phenol is the oxidation of cumene with oxygen, that also co-produces acetone. This can be considered a case of how economics could drive the sustainability issue; in fact, the new process allowing to obtain directly phenol, besides avoiding the co-production of acetone (a burden for phenol, because the market requirements for the two products are quite different), might be economically convenient with respect to the conventional process, if a high selectivity to phenol were obtained. Titanium silicalite-1 (TS-1) is the catalyst chosen for this reaction. Comparing the reactivity results obtained with some TS-1 samples having different chemical-physical properties, and analyzing in detail the effect of the more important reaction parameters, we could formulate some hypothesis concerning the reaction network and mechanism. Part C of my thesis deals with the hydroxylation of phenol to hydroquinone and catechol. This reaction is already industrially applied but, for economical reason, an improvement of the selectivity to the para di-hydroxilated compound and a decrease of the selectivity to the ortho isomer would be desirable. Also in this case, the catalyst used was the TS-1. The aim of my research was to find out a method to control the selectivity ratio between the two isomers, and finally to make the industrial process more flexible, in order to adapt the process performance in function of fluctuations of the market requirements. The reaction was carried out in both a batch stirred reactor and in a re-circulating fixed-bed reactor. In the first system, the effect of various reaction parameters on catalytic behaviour was investigated: type of solvent or co-solvent, and particle size. With the second reactor type, I investigated the possibility to use a continuous system, and the catalyst shaped in extrudates (instead of powder), in order to avoid the catalyst filtration step. Finally, part D deals with the study of a new process for the valorisation of glycerol, by means of transformation into valuable chemicals. This molecule is nowadays produced in big amount, being a co-product in biodiesel synthesis; therefore, it is considered a raw material from renewable resources (a bio-platform molecule). Initially, we tested the oxidation of glycerol in the liquid-phase, with hydrogen peroxide and TS-1. However, results achieved were not satisfactory. Then we investigated the gas-phase transformation of glycerol into acrylic acid, with the intermediate formation of acrolein; the latter can be obtained by dehydration of glycerol, and then can be oxidized into acrylic acid. Actually, the oxidation step from acrolein to acrylic acid is already optimized at an industrial level; therefore, we decided to investigate in depth the first step of the process. I studied the reactivity of heterogeneous acid catalysts based on sulphated zirconia. Tests were carried out both in aerobic and anaerobic conditions, in order to investigate the effect of oxygen on the catalyst deactivation rate (one main problem usually met in glycerol dehydration). Finally, I studied the reactivity of bifunctional systems, made of Keggin-type polyoxometalates, either alone or supported over sulphated zirconia, in this way combining the acid functionality (necessary for the dehydrative step) with the redox one (necessary for the oxidative step). In conclusion, during my PhD work I investigated reactions that apply the “green chemistry” rules and strategies; in particular, I studied new greener approaches for the synthesis of chemicals (Part A and Part B), the optimisation of reaction parameters to make the oxidation process more flexible (Part C), and the use of a bioplatform molecule for the synthesis of a chemical intermediate (Part D).
Resumo:
Über viele Jahre hinweg wurden wieder und wieder Argumente angeführt, die diskreten Räumen gegenüber kontinuierlichen Räumen eine fundamentalere Rolle zusprechen. Unser Zugangzur diskreten Welt wird durch neuere Überlegungen der Nichtkommutativen Geometrie (NKG) bestimmt. Seit ca. 15Jahren gibt es Anstrengungen und auch Fortschritte, Physikmit Hilfe von Nichtkommutativer Geometrie besser zuverstehen. Nur eine von vielen Möglichkeiten ist dieReformulierung des Standardmodells derElementarteilchenphysik. Unter anderem gelingt es, auch denHiggs-Mechanismus geometrisch zu beschreiben. Das Higgs-Feld wird in der NKG in Form eines Zusammenhangs auf einer zweielementigen Menge beschrieben. In der Arbeit werden verschiedene Ziele erreicht:Quantisierung einer nulldimensionalen ,,Raum-Zeit'', konsistente Diskretisierungf'ur Modelle im nichtkommutativen Rahmen.Yang-Mills-Theorien auf einem Punkt mit deformiertemHiggs-Potenzial. Erweiterung auf eine ,,echte''Zwei-Punkte-Raum-Zeit, Abzählen von Feynman-Graphen in einer nulldimensionalen Theorie, Feynman-Regeln. Eine besondere Rolle werden Termini, die in derQuantenfeldtheorie ihren Ursprung haben, gewidmet. In diesemRahmen werden Begriffe frei von Komplikationen diskutiert,die durch etwaige Divergenzen oder Schwierigkeitentechnischer Natur verursacht werden könnten.Eichfixierungen, Geistbeiträge, Slavnov-Taylor-Identität undRenormierung. Iteratives Lösungsverfahren derDyson-Schwinger-Gleichung mit Computeralgebra-Unterstützung,die Renormierungsprozedur berücksichtigt.
Resumo:
Der AMANDA-II Detektor ist primär für den richtungsaufgelösten Nachweis hochenergetischer Neutrinos konzipiert. Trotzdem können auch niederenergetische Neutrinoausbrüche, wie sie von Supernovae erwartet werden, mit hoher Signifikanz nachgewiesen werden, sofern sie innerhalb der Milchstraße stattfinden. Die experimentelle Signatur im Detektor ist ein kollektiver Anstieg der Rauschraten aller optischen Module. Zur Abschätzung der Stärke des erwarteten Signals wurden theoretische Modelle und Simulationen zu Supernovae und experimentelle Daten der Supernova SN1987A studiert. Außerdem wurden die Sensitivitäten der optischen Module neu bestimmt. Dazu mussten für den Fall des südpolaren Eises die Energieverluste geladener Teilchen untersucht und eine Simulation der Propagation von Photonen entwickelt werden. Schließlich konnte das im Kamiokande-II Detektor gemessene Signal auf die Verhältnisse des AMANDA-II Detektors skaliert werden. Im Rahmen dieser Arbeit wurde ein Algorithmus zur Echtzeit-Suche nach Signalen von Supernovae als Teilmodul der Datennahme implementiert. Dieser beinhaltet diverse Verbesserungen gegenüber der zuvor von der AMANDA-Kollaboration verwendeten Version. Aufgrund einer Optimierung auf Rechengeschwindigkeit können nun mehrere Echtzeit-Suchen mit verschiedenen Analyse-Zeitbasen im Rahmen der Datennahme simultan laufen. Die Disqualifikation optischer Module mit ungeeignetem Verhalten geschieht in Echtzeit. Allerdings muss das Verhalten der Module zu diesem Zweck anhand von gepufferten Daten beurteilt werden. Dadurch kann die Analyse der Daten der qualifizierten Module nicht ohne eine Verzögerung von etwa 5 Minuten geschehen. Im Falle einer erkannten Supernova werden die Daten für die Zeitdauer mehrerer Minuten zur späteren Auswertung in 10 Millisekunden-Intervallen archiviert. Da die Daten des Rauschverhaltens der optischen Module ansonsten in Intervallen von 500 ms zur Verfgung stehen, ist die Zeitbasis der Analyse in Einheiten von 500 ms frei wählbar. Im Rahmen dieser Arbeit wurden drei Analysen dieser Art am Südpol aktiviert: Eine mit der Zeitbasis der Datennahme von 500 ms, eine mit der Zeitbasis 4 s und eine mit der Zeitbasis 10 s. Dadurch wird die Sensitivität für Signale maximiert, die eine charakteristische exponentielle Zerfallszeit von 3 s aufweisen und gleichzeitig eine gute Sensitivität über einen weiten Bereich exponentieller Zerfallszeiten gewahrt. Anhand von Daten der Jahre 2000 bis 2003 wurden diese Analysen ausführlich untersucht. Während die Ergebnisse der Analyse mit t = 500 ms nicht vollständig nachvollziehbare Ergebnisse produzierte, konnten die Resultate der beiden Analysen mit den längeren Zeitbasen durch Simulationen reproduziert und entsprechend gut verstanden werden. Auf der Grundlage der gemessenen Daten wurden die erwarteten Signale von Supernovae simuliert. Aus einem Vergleich zwischen dieser Simulation den gemessenen Daten der Jahre 2000 bis 2003 und der Simulation des erwarteten statistischen Untergrunds kann mit einem Konfidenz-Niveau von mindestens 90 % gefolgert werden, dass in der Milchstraße nicht mehr als 3.2 Supernovae pro Jahr stattfinden. Zur Identifikation einer Supernova wird ein Ratenanstieg mit einer Signifikanz von mindestens 7.4 Standardabweichungen verlangt. Die Anzahl erwarteter Ereignisse aus dem statistischen Untergrund beträgt auf diesem Niveau weniger als ein Millionstel. Dennoch wurde ein solches Ereignis gemessen. Mit der gewählten Signifikanzschwelle werden 74 % aller möglichen Vorläufer-Sterne von Supernovae in der Galaxis überwacht. In Kombination mit dem letzten von der AMANDA-Kollaboration veröffentlicheten Ergebnis ergibt sich sogar eine obere Grenze von nur 2.6 Supernovae pro Jahr. Im Rahmen der Echtzeit-Analyse wird für die kollektive Ratenüberhöhung eine Signifikanz von mindestens 5.5 Standardabweichungen verlangt, bevor eine Meldung über die Detektion eines Supernova-Kandidaten verschickt wird. Damit liegt der überwachte Anteil Sterne der Galaxis bei 81 %, aber auch die Frequenz falscher Alarme steigt auf bei etwa 2 Ereignissen pro Woche. Die Alarm-Meldungen werden über ein Iridium-Modem in die nördliche Hemisphäre übertragen, und sollen schon bald zu SNEWS beitragen, dem weltweiten Netzwerk zur Früherkennung von Supernovae.
Resumo:
In the present study, pterosaur skull constructions were analysed using a combined approach of finite element analysis (FEA), static investigations as well as applying classical beam theory and lever mechanics. The study concentrates on the operating regime „bite“, where loads are distributed via the dentition or a keratinous rhamphotheca into the skull during jaw occlusion. As a first step, pterosaur tooth constructions were analysed. The different morphologies of the tooth construction determine specific operational ranges, in which the teeth perform best (= greatest resistance against failure). The incomplete enamel-covering of the pterosaur tooth constructions thereby leads to a reduction of strain and stress and to a greater lateral elasticity than for a complete enamel cover. This permits the development of high and lateral compressed tooth constructions. Further stress-absorption occurs in the periodontal membrane, although its mechanical properties can not be clarified unambiguously. A three-dimensionally preserved skull of Anhanguera was chosen as a case-study for the investigation of the skull constructions. CT-scans were made to get information about the internal architecture, supplemented by thin-sections of a rostrum of a second Anhanguera specimen. These showed that the rostrum can be approximated as a double-walled triangular tube with a large central vacuity and an average wall-thickness of the bony layers of about 1 mm. On base of the CT-scans, a stereolithography of the skull of Anhanguera was made on which the jaw adductor and abductor muscles were modelled, permitting to determine muscular forces. The values were used for the lever mechanics, cantilever and space frame analysis. These studies and the FEA show, that the jaw reaction forces are critical for the stability of the skull construction. The large jugal area ventral to the orbita and the inclined occipital region act as buttresses against these loads. In contrast to the orbitotemporal region which is subject to varying loading conditions, the pattern in the rostrum is less complex. Here, mainly bending in dorsal direction and torsion occur. The hollow rostrum leads to a reduction of weight of the skull and to a high bending and torsional resistance. Similar to the Anhanguera skull construction, the skulls of those pterosaur taxa were analysed, from which enough skull material is know to permit a reliable reconstruction. Furthermore, FEA were made from five selected taxa. The comparison of the biomechanical behaviour of the different skull constructions results in major transformational processes: elongation of rostra, inclination of the occipital region, variation of tooth morphology, reduction of the dentition and replacement of teeth by a keratinous hook or rhamphotheca, fusion of naris and antorbital fenestra, and the development of bony and soft-tissue crests. These processes are discussed for their biomechanical effects during bite. Certain optional operational ranges for feeding are assigned to the different skull constructions and previous hypotheses (e.g. skimming) are verified. Using the principle of economisation, these processes help to establish irreversible transformations and to define possible evolutionary pathways. The resulting constructional levels and the structural variations within these levels are interpreted in light of a greater feeding efficiency and reduction of bony mass combined with an increased stability against the various loads. The biomechanical conclusive pathways are used for comparison and verification of recent hypothesis of the phylogenetic systematics of pterosaurs.
Resumo:
Zusammenfassung Die vorliegende Arbeit hat zum Ziel, pharmazeutisch-technologische Möglichkeiten der Retardierung bei ausgewählten Antiasthmatika zur pulmonalen Applikation anzuwenden. Dafür sollten Mikropartikel hergestellt und pharmazeutisch sowie biopharmazeutisch charakterisiert werden. Als Modellsubstanzen werden das Glukokortikoid Budesonid und das β2-Sympathomimetikum Salbutamol in Form seiner Base und seines Salzes verwendet. Die Auswahl erfolgt nach physikochemischen (Lipophilie, Molekulargewicht) und therapeutischen (Halbwertszeit der Wirkung, Applikationsfrequenz) Gesichtspunkten. Mikropartikel auf Polymerbasis ermöglichen eine kontrollierte Freigabe der Arzneistoffe über einen vorausbestimmten Zeitraum. Es erfolgt die Auswahl physiologisch unbedenklicher Hilfsstoffe (Polylaktide R 202H/ Poly(laktid-co-glykolide) RG 502H, RG 752-S) mit unterschiedlichen Anteilen an Coglykolid sowie unterschiedlichen Molekulargewichten, die sich prinzipiell zur Verzögerung der Freisetzung eignen und sich bei der parenteralen Applikation bereits bewährt haben. Die Sprühtrocknung wird als geeignetes pharmazeutisch-technologisches Verfahren zur Präparation von Mikropartikeln im Teilchengrößenbereich von 1- 10 Mikrometern beschrieben, welche den Wirkstoff mit möglichst hoher Beladung verkapselt. Die sprühgetrockneten Pulver sollen pharmazeutisch physikochemisch mittels Rasterelektronenmikroskopie (Morphologie), Laserdiffraktometrie (Teilchengrößenverteilung), DSC und Röntgenpulverdiffraktometrie (thermisches Verhalten) und mittels Stickstoff-Tief-Temperatur Adsorptionsverfahren (spezifische Oberfläche) charakterisiert werden. Zusätzlich wird die Wirkstoffbeladung der sprühgetrockneten Polymer-Mikropartikel mittels HPLC ermittelt. Die biopharmazeutische Charakterisierung der sprühgetrockneten Pulver erfolgt über die in-vitro Freigabekinetik und die Stabilität der Mikropartikel. Zusätzlich werden Versuche an Zellkulturen und in-vivo Versuche an Mäusen durchgeführt, um die Effekte der sprühgetrockneten Mikropartikel und des Hilfsstoffs hinsichtlich der Freisetzungsretardierung zu testen. Bei den in-vivo Versuchen werden der Atemwegswiderstand und die Verlängerung der exspiratorischen Phase (penh) als Parameter für einen antiasthmatischen Effekt gewählt. Die Lungenlavage Flüssigkeit wird zusätzlich überprüft. Die Ergebnisse zeigen, dass es mit Hilfe der Sprühtrocknung möglich ist, Polymer-Mikropartikel herzustellen, die aufgrund ihrer Partikelgröße von d50 ≤ 5,8 µm fähig sind, die unteren Abschnitte der Lunge zu erreichen. Die Morphologie der Mikropartikel ist abhängig vom zu versprühenden Produkt. Thermodynamisch und röntgenpulverdiffraktometrisch betrachtet handelt es sich um amorphe Produkte, die aber über lange Zeit in diesem Zustand stabil sind. Die Wiederfindung der eingesetzten Arzneistoffmenge in den sprühgetrockneten Polymer-Mikropartikeln und die Freigabeversuche zur Charakterisierung der Retardierungseigenschaften der verwendeten Polymere ergeben, dass es mit Hilfe der Sprühtrocknung von Budesonid und Salbutamol mit den Polymeren möglich ist, retardierende Mikropartikel herzustellen. Die Wiederfindung von Budesonid und Salbutamol in den sprühgetrockneten Polymer-Mikropartikeln entspricht nahezu der eingesetzten Menge. Bei Salbutamolsulfat ist dies nicht der Fall. In Zellkulturversuchen der murinen Zellinie RAW 264.7 ergaben sich Hinweise darauf, dass bei Konzentrationen von 10-6 M und 10-8 M, die Downregulation der IL-6 Konzentration durch die Sprüheinbettung von 9,1 % Budesonid mit PLGA in stärkerem Ausmaß erfolgte, als bei unverkapseltem Budesonid. Zusätzlich wurden in-vivo Versuche mit intranasaler und intraperitonealer Gabe durchgeführt. Die Budesonid-Polymer Sprüheinbettung wurde mit unverkapseltem Budesonid vergleichen. Nach intraperitonealer Gabe hatte die Sprüheinbettung mit Budesonid die besten Effekte hinsichtlich der Unterdrückung des penh und des Atemwegswiderstands auch bei steigenden Metacholinkonzentrationen. Die Auswertung der Lungenlavage Flüssigkeit zeigt sehr deutlich die Downregulation der IL-6 Konzentration in der Lunge durch die Sprüheinbettung mit Budesonid. Zur Zeit werden Vorbereitungen getroffen, ein Gerät zu testen, das in der Lage ist, ein Mikrospray zu generieren, so dass eine intratracheale Verabreichung möglich wäre.
Resumo:
IceCube, ein Neutrinoteleskop, welches zur Zeit am Südpol aufgebaut und voraussichtlich 2011 fertiggestellt sein wird, kann galaktische Kernkollaps-Supernovae mit hoher Signifikanz und unübertroffener statistischer Genauigkeit der Neutrinolichtkurve detektieren. Derartige Supernovae werden begleitet von einem massiven Ausbruch niederenergetischer Neutrinos aller Flavour. Beim Durchfliegen des Detektormediums Eis entstehen Positronen und Elektronen, welche wiederum lokale Tscherenkowlichtschauer produzieren, die in ihrer Summe das gesamte Eis erleuchten. Ein Nachweis ist somit, trotz der Optimierung IceCubes auf hochenergetische Teilchenspuren, über eine kollektive Rauschratenerhöhung aller optischen Module möglich. Die vorwiegende Reaktion ist der inverse Betazerfall der Antielektronneutrinos, welcher über 90,% des gesamten Signals ausmacht.rnrnDiese Arbeit beschreibt die Implementierung und Funktionsweise der Supernova-Datennahme-Software sowie der Echtzeitanalyse, mit welcher die oben genannte Nachweismethode seit August 2007 realisiert ist. Die Messdaten der ersten zwei Jahre wurden ausgewertet und belegen ein extrem stabiles Verhalten des Detektors insgesamt sowie fast aller Lichtsensoren, die eine gemittelte Ausfallquote von lediglich 0,3,% aufweisen. Eine Simulation der Detektorantwort nach zwei unterschiedlichen Supernova-Modellen ergibt eine Sichtweite IceCubes, die im besten Falle bis zur 51,kpc entfernten Großen Magellanschen Wolke reicht. Leider ist der Detektor nicht in der Lage, die Deleptonisierungsspitze aufzulösen, denn Oszillationen der Neutrinoflavour innerhalb des Sterns modifizieren die Neutrinospektren ungünstig. Jedoch können modellunabhängig anhand des frühesten Signalanstiegs die inverse Massenhierarchie sowie $sin^2 2theta_{13} > 10^{-3}$ etabliert werden, falls die Entfernung zur Supernova $leq$,6,kpc beträgt. Gleiches kann durch Auswertung eines möglichen Einflusses der Erdmaterie auf die Neutrinooszillation mit Hilfe der Messung eines zweiten Neutrinodetektors erreicht werden.
Electroweak precision observables and effective four-fermion interactions in warped extra dimensions
Resumo:
In this thesis, we study the phenomenology of selected observables in the context of the Randall-Sundrum scenario of a compactified warpedrnextra dimension. Gauge and matter fields are assumed to live in the whole five-dimensional space-time, while the Higgs sector is rnlocalized on the infrared boundary. An effective four-dimensional description is obtained via Kaluza-Klein decomposition of the five dimensionalrnquantum fields. The symmetry breaking effects due to the Higgs sector are treated exactly, and the decomposition of the theory is performedrnin a covariant way. We develop a formalism, which allows for a straight-forward generalization to scenarios with an extended gauge group comparedrnto the Standard Model of elementary particle physics. As an application, we study the so-called custodial Randall-Sundrum model and compare the resultsrnto that of the original formulation. rnWe present predictions for electroweak precision observables, the Higgs production cross section at the LHC, the forward-backward asymmetryrnin top-antitop production at the Tevatron, as well as the width difference, the CP-violating phase, and the semileptonic CP asymmetry in B_s decays.