958 resultados para Quantum Chromodynamics, Helicity Rates, One-Loop Corrections, Bremsstrahlung Contributions, Heavy Quarks, Standard Model


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Fatigue life in metals is predicted utilizing regression analysis of large sets of experimental data, thus representing the material’s macroscopic response. Furthermore, a high variability in the short crack growth (SCG) rate has been observed in polycrystalline materials, in which the evolution and distributionof local plasticity is strongly influenced by the microstructure features. The present work serves to (a) identify the relationship between the crack driving force based on the local microstructure in the proximity of the crack-tip and (b) defines the correlation between scatter observed in the SCG rates to variability in the microstructure. A crystal plasticity model based on the fast Fourier transform formulation of the elasto-viscoplastic problem (CP-EVP-FFT) is used, since the ability to account for the both elastic and plastic regime is critical in fatigue. Fatigue is governed by slip irreversibility, resulting in crack growth, which starts to occur during local elasto-plastic transition. To investigate the effects of microstructure variability on the SCG rate, sets of different microstructure realizations are constructed, in which cracks of different length are introduced to mimic quasi-static SCG in engineering alloys. From these results, the behavior of the characteristic variables of different length scale are analyzed: (i) Von Mises stress fields (ii) resolved shear stress/strain in the pertinent slip systems, and (iii) slip accumulation/irreversibilities. Through fatigue indicator parameters (FIP), scatter within the SCG rates is related to variability in the microstructural features; the results demonstrate that this relationship between microstructure variability and uncertainty in fatigue behavior is critical for accurate fatigue life prediction.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Bis heute ist die Frage nicht geklärt, warum bei der Entstehung des Universums Materie gegenüber der Antimaterie bevorzugt war und das heutige Materieuniversum entstanden ist. Eine Voraussetzung für die Entstehung dieser Materie-Antimaterie-Asymmetrie ist die Verletzung der Kombination von Ladungs- (C) und Punktsymmetrie (P), die CP-Verletzung. CP-Verletzung kann sich unter anderem in den Zerfällen K+- -> pi+- pi0 pi0 zeigen. Die NA48/2"=Kollaboration zeichnete während den Jahren 2003 und 2004 über 200~TB Daten von Zerfällen geladener Kaonen auf. In dieser Arbeit wurde die CP"=verletzende Asymmetrie der Zerfälle K+- -> pi+- pi0 pi0 mit über 90~Millionen ausgewählten Ereignissen aus diesem Datensatz gemessen. Vorhersagen im Standardmodell der Teilchenphysik sagen hier eine CP"=verletzende Asymmetrie in der Größenordnung zwischen $10^{-6}$ und $10^{-5}$ voraus. In Modellen außerhalb des Standardmodells kann es aber auch größere Asymmetrien geben. Das NA48/2"=Experiment war darauf ausgelegt, mögliche systematische Unsicherheiten zu begrenzen. Um dies zu erreichen, wurden positive und negative Kaonen simultan an einem Target erzeugt und ihr Impuls durch ein Strahlsystem mit zwei Strahlengängen auf ca. $60~GeV/c$ begrenzt. Die Strahlen wurden auf wenige Millimeter genau überlagert in die Zerfallsregion geleitet. Die Strahlengänge von positiven und negativen Kaonen sowie die Polarität des Magneten des Impulsspektrometers wurden regelmäßig gewechselt. Dies erlaubte eine Symmetrisierung von Strahlführung und Detektor für positive und negative Kaonen während der Analyse. Durch ein Vierfachverhältnis der vier Datensätze mit den unterschiedlichen Konfigurationen konnte sichergestellt werden, dass alle durch Strahlführung oder Detektor erzeugten Asymmetrien sich in erster Ordnung aufheben. Um die unterschiedlichen Produktionsspektren von positiven und negativen Kaonen auszugleichen wurde in dieser Arbeit eine Ereignisgewichtung durchgeführt. Die Analyse wurde auf mögliche systematische Unsicherheiten untersucht. Dabei zeigte sich, dass die systematischen Unsicherheiten in der Analyse deutlich kleiner als der statistischer Fehler sind. Das Ergebnis der Messung des die CP-verletzende Asymmetrie beschreibenden Parameters $A_g$ ist: begin{equation} A_g= (1,2 pm 1,7_{mathrm{(stat)}} pm 0,7_{mathrm{(sys)}}) cdot 10^{-4}. end{equation} Diese Messung ist fast zehnmal genauer als bisherige Messungen und stimmt innerhalb ihrer Unsicherheit mit dem Standardmodell überein. Modelle, die eine größere CP-Verletzung in diesem Zerfall vorhersagen, können ausgeschlossen werden.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Der Einsatz von Penningfallen in der Massenspektrometrie hat zu einem einmaligen Genauigkeitssprung geführt. Dadurch wurden Massenwerte verschiedenster Atome zu wichtigen Eingangsparametern bei immer mehr physikalischen Fragestellungen. Die Massenspektrometrie mit Hilfe von Penningfallen basiert auf der Bestimmung der freien Zyklotronfrequenz eines Ions in einem homogenen Magnetfeld νc=qB/(2πm). Sie wird mit Flugzeitmethode (TOF-ICR) bestimmt, wobei eine relative Massenungenauigkeit δm/m von wenigen 10^-9 bei Nukliden mit Lebensdauern von <500 ms erreicht wird. Dies wurde durch die im Rahmen dieser Arbeit erstmals in der Penningfallen-Massenspektrometrie eingesetzten Ramsey-Methode möglich. Dabei werden zeitlich separierte, oszillierenden Feldern zur resonanten Ionenanregung genutzt, um die Frequenzmessung durch die Flugzeitmethode zu verbessern. Damit wurden am Penningfallenmassenspektrometer ISOLTRAP an ISOLDE/CERN die Massen der Nuklide 26,27Al und 38,39Ca bestimmt. Alle Massen wurden in die „Atomic Mass Evaluation“ eingebettet. Die Massenwerte von 26Al und 38Ca dienten insbesondere zu Tests des Standardmodells. Um mit Massenwerten fundamentale Symmetrien oder die Quantenelektrodynamik (QED) in extremen Feldern zu testen wurde ein neues Penningfallenprojekt (PENTATRAP) für hochpräzise Massenmessungen an hochgeladenen Ionen konzipiert. In dieser Doktorarbeit wurde vornehmlich die Entwicklung der Penningfallen betrieben. Eine Neuerung bei Penningfallenexperimenten ist dabei die permanente Beobachtung des Magnetfeldes B und seiner zeitlichen Fluktuationen durch so genannte „Monitorfallen“.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Das Standardmodell der Teilchenphysik, das drei der vier fundamentalen Wechselwirkungen beschreibt, stimmt bisher sehr gut mit den Messergebnissen der Experimente am CERN, dem Fermilab und anderen Forschungseinrichtungen überein. rnAllerdings können im Rahmen dieses Modells nicht alle Fragen der Teilchenphysik beantwortet werden. So lässt sich z.B. die vierte fundamentale Kraft, die Gravitation, nicht in das Standardmodell einbauen.rnDarüber hinaus hat das Standardmodell auch keinen Kandidaten für dunkle Materie, die nach kosmologischen Messungen etwa 25 % unseres Universum ausmacht.rnAls eine der vielversprechendsten Lösungen für diese offenen Fragen wird die Supersymmetrie angesehen, die eine Symmetrie zwischen Fermionen und Bosonen einführt. rnAus diesem Modell ergeben sich sogenannte supersymmetrische Teilchen, denen jeweils ein Standardmodell-Teilchen als Partner zugeordnet sind.rnEin mögliches Modell dieser Symmetrie ist das R-Paritätserhaltende mSUGRA-Modell, falls Supersymmetrie in der Natur realisiert ist.rnIn diesem Modell ist das leichteste supersymmetrische Teilchen (LSP) neutral und schwach wechselwirkend, sodass es nicht direkt im Detektor nachgewiesen werden kann, sondern indirekt über die vom LSP fortgetragene Energie, die fehlende transversale Energie (etmiss), nachgewiesen werden muss.rnrnDas ATLAS-Experiment wird 2010 mit Hilfe des pp-Beschleunigers LHC mit einer Schwerpunktenergie von sqrt(s)=7-10 TeV mit einer Luminosität von 10^32 #/(cm^2*s) mit der Suche nach neuer Physik starten.rnDurch die sehr hohe Datenrate, resultierend aus den etwa 10^8 Auslesekanälen des ATLAS-Detektors bei einer Bunchcrossingrate von 40 MHz, wird ein Triggersystem benötigt, um die zu speichernde Datenmenge zu reduzieren.rnDabei muss ein Kompromiss zwischen der verfügbaren Triggerrate und einer sehr hohen Triggereffizienz für die interessanten Ereignisse geschlossen werden, da etwa nur jedes 10^8-te Ereignisse für die Suche nach neuer Physik interessant ist.rnZur Erfüllung der Anforderungen an das Triggersystem wird im Experiment ein dreistufiges System verwendet, bei dem auf der ersten Triggerstufe mit Abstand die höchste Datenreduktion stattfindet.rnrnIm Rahmen dieser Arbeit rn%, die vollständig auf Monte-Carlo-Simulationen basiert, rnist zum einen ein wesentlicher Beitrag zum grundlegenden Verständnis der Eigenschaft der fehlenden transversalen Energie auf der ersten Triggerstufe geleistet worden.rnZum anderen werden Methoden vorgestellt, mit denen es möglich ist, die etmiss-Triggereffizienz für Standardmodellprozesse und mögliche mSUGRA-Szenarien aus Daten zu bestimmen. rnBei der Optimierung der etmiss-Triggerschwellen für die erste Triggerstufe ist die Triggerrate bei einer Luminosität von 10^33 #/(cm^2*s) auf 100 Hz festgelegt worden.rnFür die Triggeroptimierung wurden verschiedene Simulationen benötigt, bei denen eigene Entwicklungsarbeit eingeflossen ist.rnMit Hilfe dieser Simulationen und den entwickelten Optimierungsalgorithmen wird gezeigt, dass trotz der niedrigen Triggerrate das Entdeckungspotential (für eine Signalsignifikanz von mindestens 5 sigma) durch Kombinationen der etmiss-Schwelle mit Lepton bzw. Jet-Triggerschwellen gegenüber dem bestehenden ATLAS-Triggermenü auf der ersten Triggerstufe um bis zu 66 % erhöht wird.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Research in fundamental physics with the free neutron is one of the key tools for testing the Standard Model at low energies. Most prominent goals in this field are the search for a neutron electric dipole moment (EDM) and the measurement of the neutron lifetime. Significant improvements of the experimental performance using ultracold neutrons (UCN) require reduction of both systematic and statistical errors.rnThe development and construction of new UCN sources based on the superthermal concept is therefore an important step for the success of future fundamental physics with ultracold neutrons. rnSignificant enhancement of today available UCN densities strongly correlates with an efficient use of an UCN converter material. The UCN converter here is to be understood as a medium which reduces the velocity of cold neutrons (CN, velocity of about 600 m/s) to the velocity of UCN (velocity of about 6 m/s).rnSeveral big research centers around the world are presently planning or constructing new superthermal UCN sources, which are mainly based on the use of either solid deuterium or superfluid helium as UCN converter.rnThanks to the idea of Yu.Pokotilovsky, there exists the opportunity to build competitive UCN sources also at small research reactors of the TRIGA type. Of course these smaller facilities don't promise high UCN densities of several 1000 UCN/cm³, but they are able to provide densities around 100 UCN/cm³ for experiments.rnIn the context of this thesis, it was possible to demonstrate succesfully the feasibility of a superthermal UCN source at the tangential beamport C of the research reactor TRIGA Mainz. Based on a prototype for the future UCN source at the Forschungs-Neutronenquelle Heinz Maier-Leibnitz (FRMII) in munich, which was planned and built in collaboration with the Technical University of Munich, further investigations and improvements were done and are presented in this thesis. rnIn parallel, a second UCN source for the radial beamport D was designed and built. The comissioning of this new source is foreseen in spring 2010.rnAt beamport D with its higher thermal neutron flux, it should be possible to increase the available UCN densities of 4 UCN/cm³ by minimum one order of magnitude.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Die Entstehung eines Marktpreises für einen Vermögenswert kann als Superposition der einzelnen Aktionen der Marktteilnehmer aufgefasst werden, die damit kumulativ Angebot und Nachfrage erzeugen. Dies ist in der statistischen Physik mit der Entstehung makroskopischer Eigenschaften vergleichbar, die von mikroskopischen Wechselwirkungen zwischen den beteiligten Systemkomponenten hervorgerufen werden. Die Verteilung der Preisänderungen an Finanzmärkten unterscheidet sich deutlich von einer Gaußverteilung. Dies führt zu empirischen Besonderheiten des Preisprozesses, zu denen neben dem Skalierungsverhalten nicht-triviale Korrelationsfunktionen und zeitlich gehäufte Volatilität zählen. In der vorliegenden Arbeit liegt der Fokus auf der Analyse von Finanzmarktzeitreihen und den darin enthaltenen Korrelationen. Es wird ein neues Verfahren zur Quantifizierung von Muster-basierten komplexen Korrelationen einer Zeitreihe entwickelt. Mit dieser Methodik werden signifikante Anzeichen dafür gefunden, dass sich typische Verhaltensmuster von Finanzmarktteilnehmern auf kurzen Zeitskalen manifestieren, dass also die Reaktion auf einen gegebenen Preisverlauf nicht rein zufällig ist, sondern vielmehr ähnliche Preisverläufe auch ähnliche Reaktionen hervorrufen. Ausgehend von der Untersuchung der komplexen Korrelationen in Finanzmarktzeitreihen wird die Frage behandelt, welche Eigenschaften sich beim Wechsel von einem positiven Trend zu einem negativen Trend verändern. Eine empirische Quantifizierung mittels Reskalierung liefert das Resultat, dass unabhängig von der betrachteten Zeitskala neue Preisextrema mit einem Anstieg des Transaktionsvolumens und einer Reduktion der Zeitintervalle zwischen Transaktionen einhergehen. Diese Abhängigkeiten weisen Charakteristika auf, die man auch in anderen komplexen Systemen in der Natur und speziell in physikalischen Systemen vorfindet. Über 9 Größenordnungen in der Zeit sind diese Eigenschaften auch unabhängig vom analysierten Markt - Trends, die nur für Sekunden bestehen, zeigen die gleiche Charakteristik wie Trends auf Zeitskalen von Monaten. Dies eröffnet die Möglichkeit, mehr über Finanzmarktblasen und deren Zusammenbrüche zu lernen, da Trends auf kleinen Zeitskalen viel häufiger auftreten. Zusätzlich wird eine Monte Carlo-basierte Simulation des Finanzmarktes analysiert und erweitert, um die empirischen Eigenschaften zu reproduzieren und Einblicke in deren Ursachen zu erhalten, die zum einen in der Finanzmarktmikrostruktur und andererseits in der Risikoaversion der Handelsteilnehmer zu suchen sind. Für die rechenzeitintensiven Verfahren kann mittels Parallelisierung auf einer Graphikkartenarchitektur eine deutliche Rechenzeitreduktion erreicht werden. Um das weite Spektrum an Einsatzbereichen von Graphikkarten zu aufzuzeigen, wird auch ein Standardmodell der statistischen Physik - das Ising-Modell - auf die Graphikkarte mit signifikanten Laufzeitvorteilen portiert. Teilresultate der Arbeit sind publiziert in [PGPS07, PPS08, Pre11, PVPS09b, PVPS09a, PS09, PS10a, SBF+10, BVP10, Pre10, PS10b, PSS10, SBF+11, PB10].

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In case of violation of CPT- and Lorentz Symmetry, the minimal Standard Model Extension (SME) of Kostelecky and coworkers predicts sidereal modulations of atomic transition frequencies as the Earth rotates relative to a Lorentz-violating background field. One method to search for these modulations is the so-called clock-comparison experiment, where the frequencies of co-located clocks are compared as they rotate with respect to the fixed stars. In this work an experiment is presented where polarized 3He and 129Xe gas samples in a glass cell serve as clocks, whose nuclear spin precession frequencies are detected with the help of highly sensitive SQUID sensors inside a magnetically shielded room. The unique feature of this experiment is the fact that the spins are precessing freely, with transverse relaxation times of up to 4.4 h for 129Xe and 14.1 h for 3He. To be sensitive to Lorentz-violating effects, the influence of external magnetic fields is canceled via the weighted difference of the 3He and 129Xe frequencies or phases. The Lorentz-violating SME parameters for the neutron are determined out of a fit on the phase difference data of 7 spin precession measurements of 12 to 16 hours length. The result of the fit gives an upper limit for the equatorial component of the neutron parameter b_n of 3.7×10^(−32) GeV at the 95% confidence level. This value is not limited by the signal-to-noise ratio, but by the strong correlations between the fit parameters. To reduce the correlations and therewith improve the sensitivity of future experiments, it will be necessary to change the time structure of the weighted phase difference, which can be realized by increasing the 129Xe relaxation time.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

P-Glykoprotein (P-gp) ist ein ATP-verbrauchender Transporter, der in Organschranken exprimiert wird, um Fremdstoffe auszuschleusen, darunter auch Psychopharmaka. Im Rahmen dieser Arbeit wurde im Tiermodell der Maus untersucht, welche pharmakokinetischen und pharmakodynamischen Konsequenzen sich bei Verabreichung von Risperidon als P-gp Modellsubstrat ergeben, wenn die Expression von P-gp induziert wird. Als potenzielle Induktoren wurden Dexamethason, Rifampicin, Quercetin, 5-Pregnen-3ß-ol-20-on-16α-Carbonitril (PCN) und Acitretin geprüft. Es konnte gezeigt werden, dass alle Substanzen die Verteilung von Risperidon und seinem aktiven Metaboliten 9-Hydroxyrisperidon beeinflussten. Während sich für Quercetin und Acitretin leichte P-gp inhibitorische Eigenschaften ergaben, die an Hand von erhöhten Konzentrationen von Risperidon und 9-Hydroxyrisperidon gezeigt werden konnten, führten die bekannten P-gp Induktoren Rifampicin, Dexamethason und PCN zu verringerten Konzentrationen im Vergleich zur Kontrollgruppe. Durch Western Blot Untersuchungen wurde bestätigt, dass die Induktoren die P-gp Expression im Hirngewebe tendenziell steigerten. Dies sprach dafür, dass bei Verabreichung einer Komedikation, die P-gp induziert, mit einer veränderten Verteilung von P-gp Substraten zu rechnen ist. Darüber hinaus konnte nachgewiesen werden, dass durch eine Hemmung bzw. Induktion von P-gp nicht nur die Pharmakokinetik, sondern auch die Pharmakodynamik von Risperidon und 9-Hydroxyrisperidon verändert wird. Dies wurde durch verhaltenspharmakologische Untersuchungen gezeigt. Durch Risperidon induzierte motorische Effekte auf dem RotaRod waren nach Induktion von P-gp abgeschwächt. Dies zeigte sich auch für Haloperidol, welches kein Substrat ist. Da P-gp abhängige Effekte in diesem Fall keine bedeutende Rolle spielen, ist davon auszugehen, dass neben der Induktion von P-gp an der Blut-Hirn Schranke auch andere Mechanismen wie z.B. eine Induktion von Enzymen der CYP-Familie an den beobachteten Effekten beteiligt sind. Bei Untersuchungen von kognitiven Leistungen in der Barnes Maze konnte gezeigt werden, dass Haloperidol im Gegensatz zu Risperidon das Lernverhalten negativ beeinflussen kann. Eine P-gp Induktion schien jedoch keinen deutlichen Einfluss auf das Lernverhalten unter Antipsychotika-Gabe zu haben und sprach vielmehr für substanzabhängige Effekte der einzelnen Antipsychotika bzw. P-gp Modulatoren. Zusatzuntersuchungen zur Hirngängigkeit von Acitretin, einem synthetischen Retinoid, welches derzeit als potenzielles Antidementivum geprüft wird, konnten belegen, dass es die Blut-Hirn Schranke überwindet. Bereits 1h nach Injektion war Acitretin in hoher Konzentration im Gehirn nachweisbar. Durch die Analyse zur Verteilung von Acitretin in Hirngewebe und Serum von P-gp Wildtyp und P-gp doppel knockout Mäusen konnte belegt werden, dass Acitretin nicht P-gp abhängig transportiert wird. Die Daten insgesamt betrachtet, lassen den Schluss zu, dass durch Verabreichung von Medikamenten, die P-gp Modulatoren sind, bei Antipsychotika mit pharmakokinetischen Interaktionen zu rechnen ist, welche die Wirksamkeit der Medikamente einschränken können.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The aSPECT spectrometer has been constructed to measure, with high precision, the integral proton spectrum of the free neutron decay. From this spectrum the neutrino electron angular correlation coefficient a can be inferred. The coefficient a is involved in several Standard Model tests, like the unitarity test of the Cabibbo-Kobayashi-Maskawa quark mixing matrix. aSPECT has been designed to determine the coefficient a with an accuracy better than 3×10−4, that is, one order of magnitude better than the best current accuracy. First measurements with neutron beam with the aSPECT spectrometer were performed in the Forschungsneutronenquelle Heinz Maier-Leibnitz, in Munich. A study of the data taken in this period is presented in this thesis, demonstrating the proof of principle of the spectrometer. However, the observation of situation and time-dependent background instabilities impedes the report of a new value of the coefficient a. A thorough data analysis is carried out to identify sources of these background instabilities in order to improve the aSPECT experiment for future beam times. The investigation indicates that trapped particles are most likely the reason for the background problems. Furthermore, it has been observed that measurements containing less trapped particles provide a-values closer to the currently Particle Data Group value. Based on this findings, different measures are proposed to eliminate potential traps in the spectrometer. Indeed, with the proposed modifications realized for the following beam-times, the observed background instabilities were greatly reduced.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The Standard Model of elementary particle physics was developed to describe the fundamental particles which constitute matter and the interactions between them. The Large Hadron Collider (LHC) at CERN in Geneva was built to solve some of the remaining open questions in the Standard Model and to explore physics beyond it, by colliding two proton beams at world-record centre-of-mass energies. The ATLAS experiment is designed to reconstruct particles and their decay products originating from these collisions. The precise reconstruction of particle trajectories plays an important role in the identification of particle jets which originate from bottom quarks (b-tagging). This thesis describes the step-wise commissioning of the ATLAS track reconstruction and b-tagging software and one of the first measurements of the b-jet production cross section in pp collisions at sqrt(s)=7 TeV with the ATLAS detector. The performance of the track reconstruction software was studied in great detail, first using data from cosmic ray showers and then collisions at sqrt(s)=900 GeV and 7 TeV. The good understanding of the track reconstruction software allowed a very early deployment of the b-tagging algorithms. First studies of these algorithms and the measurement of the b-tagging efficiency in the data are presented. They agree well with predictions from Monte Carlo simulations. The b-jet production cross section was measured with the 2010 dataset recorded by the ATLAS detector, employing muons in jets to estimate the fraction of b-jets. The measurement is in good agreement with the Standard Model predictions.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’enigma della relazione tra Gesù e Giovanni il Battista ha da sempre stimolato l’immaginazione storica degli studiosi, suscitando una varietà di ipotesi e valutazioni, spesso assai diverse. Ciò nonostante, tutti concordano su un punto: che, almeno nella sua fase maggiore in Galilea, il ministero di Gesù fosse una realtà essenzialmente autonoma, diversa, originale e irriducibile rispetto alla missione di Giovanni. In controtendenza con questa “impostazione predefinita”, il presente studio sostiene la tesi secondo cui Gesù portò avanti la sua missione come intenzionale e programmatica prosecuzione dell’opera prematuramente interrotta di Giovanni. Nella prima parte, si esamina approfonditamente quale memoria della relazione sia conservata nelle fonti più antiche, cioè Q (qui analizzata con particolare attenzione) e Marco – a cui si aggiunge Matteo, che, in ragione dello stretto legame storico-sociologico con Q, offre un esempio illuminante di rinarrazione della memoria altamente originale eppure profondamente fedele. La conclusione è che la memoria più antica della relazione Gesù-Giovanni è profondamente segnata da aspetti di accordo, conformità e allineamento. Nella seconda parte si esaminano una serie di tradizioni che attestano che Gesù era percepito pubblicamente in relazione al Battista e che egli stesso condivideva e alimentava tale percezione riallacciandosi a lui in polemica con i suoi avversari, e dipingendolo come una figura di capitale importanza nella predicazione e nell’insegnamento a seguaci e discepoli. Infine, si argomenta l’esistenza di ampie e sostanziali aree di accordo tra i due a livello di escatologia, istruzioni etiche e programma sociale, missione penitenziale verso i peccatori e attività battesimale. L’ipotesi che Gesù portasse avanti l’attività riformatrice di Giovanni, in termini di una campagna purificatoria “penitenziale-battesimale-esorcistica” in preparazione dell’avvento di Dio, consente infine di armonizzare in modo soddisfacente i due aspetti più caratteristici dell’attività di Gesù (normalmente giustapposti, quando non contrapposti): escatologia e miracoli, il Gesù profeta e il Gesù taumaturgo.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

This thesis presents an analysis for the search of Supersymmetry with the ATLAS detector at the LHC. The final state with one lepton, several coloured particles and large missing transverse energy was chosen. Particular emphasis was placed on the optimization of the requirements for lepton identification. This optimization showed to be particularly useful when combining with multi-lepton selections. The systematic error associated with the higher order QCD diagrams in Monte Carlo production is given particular focus. Methods to verify and correct the energy measurement of hadronic showers are developed. Methods for the identification and removal of mismeasurements caused by the detector are found in the single muon and four jet environment are applied. A new detector simulation system is shown to provide good prospects for future fast Monte Carlo production. The analysis was performed for $35pb^{-1}$ and no significant deviation from the Standard Model is seen. Exclusion limits subchannel for minimal Supergravity. Previous limits set by Tevatron and LEP are extended.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

One of the most precisely measured quantities in particle physics is the magnetic moment of the muon, which describes its coupling to an external magnetic field. It is expressed in form of the anomalous magnetic moment of the muon a_mu=(g_mu-2)/2 and has been determined experimentally with a precision of 0.5 parts per million. The current direct measurement and the theoretical prediction of the standard model differ by more than 3.5 standard deviations. Concerning theory, the contribution of the QED and weak interaction to a_mu can be calculated with very high precision in a perturbative approach.rnAt low energies, however, perturbation theory cannot be used to determine the hadronic contribution a^had_mu. On the other hand, a^had_mu may be derived via a dispersion relation from the sum of measured cross sections of exclusive hadronic reactions. Decreasing the experimental uncertainty on these hadronic cross sections is of utmost importance for an improved standard model prediction of a_mu.rnrnIn addition to traditional energy scan experiments, the method of Initial State Radiation (ISR) is used to measure hadronic cross sections. This approach allows experiments at colliders running at a fixed centre-of-mass energy to access smaller effective energies by studying events which contain a high-energetic photon emitted from the initial electron or positron. Using the technique of ISR, the energy range from threshold up to 4.5GeV can be accessed at Babar.rnrnThe cross section e+e- -> pi+pi- contributes with approximately 70% to the hadronic part of the anomalous magnetic moment of the muon a_mu^had. This important channel has been measured with a precision of better than 1%. Therefore, the leading contribution to the uncertainty of a_mu^had at present stems from the invariant mass region between 1GeV and 2GeV. In this energy range, the channels e+e- -> pi+pi-pi+pi- and e+e- -> pi+pi-pi0pi0 dominate the inclusive hadronic cross section. The measurement of the process e+e- -> pi+pi-pi+pi- will be presented in this thesis. This channel has been previously measured by Babar based on 25% of the total dataset. The new analysis includes a more detailed study of the background contamination from other ISR and non-radiative background reactions. In addition, sophisticated studies of the track reconstruction as well as the photon efficiency difference between the data and the simulation of the Babar detector are performed. With these auxiliary studies, a reduction of the systematic uncertainty from 5.0% to 2.4% in the peak region was achieved.rnrnThe pi+pi-pi+pi- final state has a rich internal structure. Hints are seen for the intermediate states rho(770)^0 f_2(1270), rho(770)^0 f_0(980), as well as a_1(1260)pi. In addition, the branching ratios BR(jpsi -> pi+pi-pi+pi-) and BR(psitwos -> jpsi pi+pi-) are extracted.rn

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Corruption is, in the last two decades, considered as one of the biggest problems within the international community, which harms not only a particular state or society but the whole world. The discussion on corruption in law and economics approach is mainly run under the veil of Public choice theory and principal-agent model. Based on this approach the strong international initiatives taken by the UN, the OECD and the Council of Europe, provided various measures and tools in order to support and guide countries in their combat against corruption. These anti-corruption policies created a repression -prevention-transparency model for corruption combat. Applying this model, countries around the world adopted anti-corruption strategies as part of their legal rules. Nevertheless, the recent researches on the effects of this move show non impressive results. Critics argue that “one size does not fit all” because the institutional setting of countries around the world varies. Among the countries which experience problems of corruption, even though they follow the dominant anti-corruption trends, are transitional, post-socialist countries. To this group belong the countries which are emerging from centrally planned to an open market economy. The socialist past left traces on institutional setting, mentality of the individuals and their interrelation, particularly in the domain of public administration. If the idiosyncrasy of these countries is taken into account the suggestion in this thesis is that in public administration in post-socialist countries, instead of dominant anti-corruption scheme repression-prevention-transparency, corruption combat should be improved through the implementation of a new one, structure-conduct-performance. The implementation of this model is based on three regulatory pyramids: anti-corruption, disciplinary anti-corruption and criminal anti-corruption pyramid. This approach asks public administration itself to engage in corruption combat, leaving criminal justice system as the ultimate weapon, used only for the very harmful misdeeds.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Among the different approaches for a construction of a fundamental quantum theory of gravity the Asymptotic Safety scenario conjectures that quantum gravity can be defined within the framework of conventional quantum field theory, but only non-perturbatively. In this case its high energy behavior is controlled by a non-Gaussian fixed point of the renormalization group flow, such that its infinite cutoff limit can be taken in a well defined way. A theory of this kind is referred to as non-perturbatively renormalizable. In the last decade a considerable amount of evidence has been collected that in four dimensional metric gravity such a fixed point, suitable for the Asymptotic Safety construction, indeed exists. This thesis extends the Asymptotic Safety program of quantum gravity by three independent studies that differ in the fundamental field variables the investigated quantum theory is based on, but all exhibit a gauge group of equivalent semi-direct product structure. It allows for the first time for a direct comparison of three asymptotically safe theories of gravity constructed from different field variables. The first study investigates metric gravity coupled to SU(N) Yang-Mills theory. In particular the gravitational effects to the running of the gauge coupling are analyzed and its implications for QED and the Standard Model are discussed. The second analysis amounts to the first investigation on an asymptotically safe theory of gravity in a pure tetrad formulation. Its renormalization group flow is compared to the corresponding approximation of the metric theory and the influence of its enlarged gauge group on the UV behavior of the theory is analyzed. The third study explores Asymptotic Safety of gravity in the Einstein-Cartan setting. Here, besides the tetrad, the spin connection is considered a second fundamental field. The larger number of independent field components and the enlarged gauge group render any RG analysis of this system much more difficult than the analog metric analysis. In order to reduce the complexity of this task a novel functional renormalization group equation is proposed, that allows for an evaluation of the flow in a purely algebraic manner. As a first example of its suitability it is applied to a three dimensional truncation of the form of the Holst action, with the Newton constant, the cosmological constant and the Immirzi parameter as its running couplings. A detailed comparison of the resulting renormalization group flow to a previous study of the same system demonstrates the reliability of the new equation and suggests its use for future studies of extended truncations in this framework.