952 resultados para Coulomb explosions


Relevância:

10.00% 10.00%

Publicador:

Resumo:

The complex formed by the tetracycline (TC) molecule with the Mg ion is able to prevent the replication of the genetic material in the bacterial ribosome, making an excellent antibiotic. In general, the absorption and emission spectra of TC are very sensitive to the host ions and the pH of the solvent that the set is immersed. However, the theoretical absorption spectrum available in the literature is scarce and limited to simple models that do not consider the fluctuations of the liquid. Our aim is to obtain the electronic absorption spectrum of TC and the complex Mg:TC in the ratio 1:1 and 2:1. Moreover, we analyze the changes in intensity and shifts of the bands in the systems listed. We performed the simulation using the classical Monte Carlo technique with the Lennard-Jones plus Coulomb potential applied to each atom of the both TC molecule and the Mg:TC complexes in water. The electronic absorption spectrum was obtained from the time-dependent density functional theory using different solvent models. In general, we obtained a good qualitative description of the spectra when compared with the experimental results. The Mg atom shifts the first band by 4 nm in our models, in excellent agreement to the experimental result of 4 nm. The second absorption band is found here to be useful for the characterization of the position where the ion attaches to the TC.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

137Cs is an artificial radioactive isotope produced by 235U fission. This radionuclide has a high fission yield and a half-life of 30 years. It has been detected in the environment since 1945 and its principal contamination source has been nuclear tests in the atmosphere. There are other sources of 137Cs contamination in the environment, such as: release from nuclear and reprocessing plants, radioactive dumping and nuclear accidents (Chernobyl, for example). This paper presents an inventory of 137Cs on the Continental Shelf of São Paulo State, a region located between Cabo de Santa Marta Grande (Santa Catarina state) and Cabo Frio (Rio de Janeiro state). In this area, 9 cores were collected by the Instituto Oceanográfico da Universidade de São Paulo (São Paulo University Institute of Oceanography). The cores were sliced at every 2 cm; sub-samples were lyophilized, grinded and stored in plastic containers. 137Cs was determined by 661 keV photopeak using a gamma spectrometry detector (Ge hyperpure). The analysis was performed by efficiency and background in different counting times. 137Cs concentration activities varied from 0.3 to 3.6 Bq kg-1 with a mean value of 1.2±0.6 Bq kg-1. The inventory of 137Cs in this area was 13±7 Bq m-2. Values obtained are in agreement with the Southern Hemisphere, a region contaminated by atmospheric fallout due to past nuclear explosions.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

We present the results of experiments using a 6He beam on a 9Be target at energies 7 − 9 times the Coulomb barrier. Angular distributions of the elastic, inelastic scattering (target breakup) and the -particle production in the 6He+9Be collision have been analysed. Total reaction cross sections were obtained from the elastic scattering analyses and a considerable enhancement has been observed by comparing to stable systems.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste artigo, vamos apresentar o desenvolvimento histórico dos conceitos dos potenciais vetor e quântico formulados, respectivamente, por Maxwell e Bohm. Em suas concepções iniciais, eles foram considerados apenas como um artifício matemático. Contudo, enquanto o potencial vetor já apresenta uma grande evidência experimental (efeito Aharonov-Bohm) sobre a sua interpretação física, o potencial quântico ainda aguarda a sua, muito embora esse efeito e alguns resultados teóricos sinalizem a sua existência física. Este artigo já foi publicado na revista MensAgitat vol.1(2),pp.93- 108(2006) da Academia Roraimense e Paraense de Ciências. Está sendo publicado novamente como e-print no IFUSP para que ele tenha uma divulgação mais ampla e mais ágil pela internet.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In this work a multidisciplinary study of the December 26th, 2004 Sumatra earthquake has been carried out. We have investigated both the effect of the earthquake on the Earth rotation and the stress field variations associated with the seismic event. In the first part of the work we have quantified the effects of a water mass redistribution associated with the propagation of a tsunami wave on the Earth’s pole path and on the length-of-day (LOD) and applied our modeling results to the tsunami following the 2004 giant Sumatra earthquake. We compared the result of our simulations on the instantaneous rotational axis variations with some preliminary instrumental evidences on the pole path perturbation (which has not been confirmed yet) registered just after the occurrence of the earthquake, which showed a step-like discontinuity that cannot be attributed to the effect of a seismic dislocation. Our results show that the perturbation induced by the tsunami on the instantaneous rotational pole is characterized by a step-like discontinuity, which is compatible with the observations but its magnitude turns out to be almost one hundred times smaller than the detected one. The LOD variation induced by the water mass redistribution turns out to be not significant because the total effect is smaller than current measurements uncertainties. In the second part of this work of thesis we modeled the coseismic and postseismic stress evolution following the Sumatra earthquake. By means of a semi-analytical, viscoelastic, spherical model of global postseismic deformation and a numerical finite-element approach, we performed an analysis of the stress diffusion following the earthquake in the near and far field of the mainshock source. We evaluated the stress changes due to the Sumatra earthquake by projecting the Coulomb stress over the sequence of aftershocks taken from various catalogues in a time window spanning about two years and finally analyzed the spatio-temporal pattern. The analysis performed with the semi-analytical and the finite-element modeling gives a complex picture of the stress diffusion, in the area under study, after the Sumatra earthquake. We believe that the results obtained with the analytical method suffer heavily for the restrictions imposed, on the hypocentral depths of the aftershocks, in order to obtain the convergence of the harmonic series of the stress components. On the contrary we imposed no constraints on the numerical method so we expect that the results obtained give a more realistic description of the stress variations pattern.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Since the first underground nuclear explosion, carried out in 1958, the analysis of seismic signals generated by these sources has allowed seismologists to refine the travel times of seismic waves through the Earth and to verify the accuracy of the location algorithms (the ground truth for these sources was often known). Long international negotiates have been devoted to limit the proliferation and testing of nuclear weapons. In particular the Treaty for the comprehensive nuclear test ban (CTBT), was opened to signatures in 1996, though, even if it has been signed by 178 States, has not yet entered into force, The Treaty underlines the fundamental role of the seismological observations to verify its compliance, by detecting and locating seismic events, and identifying the nature of their sources. A precise definition of the hypocentral parameters represents the first step to discriminate whether a given seismic event is natural or not. In case that a specific event is retained suspicious by the majority of the State Parties, the Treaty contains provisions for conducting an on-site inspection (OSI) in the area surrounding the epicenter of the event, located through the International Monitoring System (IMS) of the CTBT Organization. An OSI is supposed to include the use of passive seismic techniques in the area of the suspected clandestine underground nuclear test. In fact, high quality seismological systems are thought to be capable to detect and locate very weak aftershocks triggered by underground nuclear explosions in the first days or weeks following the test. This PhD thesis deals with the development of two different seismic location techniques: the first one, known as the double difference joint hypocenter determination (DDJHD) technique, is aimed at locating closely spaced events at a global scale. The locations obtained by this method are characterized by a high relative accuracy, although the absolute location of the whole cluster remains uncertain. We eliminate this problem introducing a priori information: the known location of a selected event. The second technique concerns the reliable estimates of back azimuth and apparent velocity of seismic waves from local events of very low magnitude recorded by a trypartite array at a very local scale. For the two above-mentioned techniques, we have used the crosscorrelation technique among digital waveforms in order to minimize the errors linked with incorrect phase picking. The cross-correlation method relies on the similarity between waveforms of a pair of events at the same station, at the global scale, and on the similarity between waveforms of the same event at two different sensors of the try-partite array, at the local scale. After preliminary tests on the reliability of our location techniques based on simulations, we have applied both methodologies to real seismic events. The DDJHD technique has been applied to a seismic sequence occurred in the Turkey-Iran border region, using the data recorded by the IMS. At the beginning, the algorithm was applied to the differences among the original arrival times of the P phases, so the cross-correlation was not used. We have obtained that the relevant geometrical spreading, noticeable in the standard locations (namely the locations produced by the analysts of the International Data Center (IDC) of the CTBT Organization, assumed as our reference), has been considerably reduced by the application of our technique. This is what we expected, since the methodology has been applied to a sequence of events for which we can suppose a real closeness among the hypocenters, belonging to the same seismic structure. Our results point out the main advantage of this methodology: the systematic errors affecting the arrival times have been removed or at least reduced. The introduction of the cross-correlation has not brought evident improvements to our results: the two sets of locations (without and with the application of the cross-correlation technique) are very similar to each other. This can be commented saying that the use of the crosscorrelation has not substantially improved the precision of the manual pickings. Probably the pickings reported by the IDC are good enough to make the random picking error less important than the systematic error on travel times. As a further justification for the scarce quality of the results given by the cross-correlation, it should be remarked that the events included in our data set don’t have generally a good signal to noise ratio (SNR): the selected sequence is composed of weak events ( magnitude 4 or smaller) and the signals are strongly attenuated because of the large distance between the stations and the hypocentral area. In the local scale, in addition to the cross-correlation, we have performed a signal interpolation in order to improve the time resolution. The algorithm so developed has been applied to the data collected during an experiment carried out in Israel between 1998 and 1999. The results pointed out the following relevant conclusions: a) it is necessary to correlate waveform segments corresponding to the same seismic phases; b) it is not essential to select the exact first arrivals; and c) relevant information can be also obtained from the maximum amplitude wavelet of the waveforms (particularly in bad SNR conditions). Another remarkable point of our procedure is that its application doesn’t demand a long time to process the data, and therefore the user can immediately check the results. During a field survey, such feature will make possible a quasi real-time check allowing the immediate optimization of the array geometry, if so suggested by the results at an early stage.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In this work we study the relation between crustal heterogeneities and complexities in fault processes. The first kind of heterogeneity considered involves the concept of asperity. The presence of an asperity in the hypocentral region of the M = 6.5 earthquake of June 17-th, 2000 in the South Iceland Seismic Zone was invoked to explain the change of seismicity pattern before and after the mainshock: in particular, the spatial distribution of foreshock epicentres trends NW while the strike of the main fault is N 7◦ E and aftershocks trend accordingly; the foreshock depths were typically deeper than average aftershock depths. A model is devised which simulates the presence of an asperity in terms of a spherical inclusion, within a softer elastic medium in a transform domain with a deviatoric stress field imposed at remote distances (compressive NE − SW, tensile NW − SE). An isotropic compressive stress component is induced outside the asperity, in the direction of the compressive stress axis, and a tensile component in the direction of the tensile axis; as a consequence, fluid flow is inhibited in the compressive quadrants while it is favoured in tensile quadrants. Within the asperity the isotropic stress vanishes but the deviatoric stress increases substantially, without any significant change in the principal stress directions. Hydrofracture processes in the tensile quadrants and viscoelastic relaxation at depth may contribute to lower the effective rigidity of the medium surrounding the asperity. According to the present model, foreshocks may be interpreted as induced, close to the brittle-ductile transition, by high pressure fluids migrating upwards within the tensile quadrants; this process increases the deviatoric stress within the asperity which eventually fails, becoming the hypocenter of the mainshock, on the optimally oriented fault plane. In the second part of our work we study the complexities induced in fault processes by the layered structure of the crust. In the first model proposed we study the case in which fault bending takes place in a shallow layer. The problem can be addressed in terms of a deep vertical planar crack, interacting with a shallower inclined planar crack. An asymptotic study of the singular behaviour of the dislocation density at the interface reveals that the density distribution has an algebraic singularity at the interface of degree ω between -1 and 0, depending on the dip angle of the upper crack section and on the rigidity contrast between the two media. From the welded boundary condition at the interface between medium 1 and 2, a stress drop discontinuity condition is obtained which can be fulfilled if the stress drop in the upper medium is lower than required for a planar trough-going surface: as a corollary, a vertically dipping strike-slip fault at depth may cross the interface with a sedimentary layer, provided that the shallower section is suitably inclined (fault "refraction"); this results has important implications for our understanding of the complexity of the fault system in the SISZ; in particular, we may understand the observed offset of secondary surface fractures with respect to the strike direction of the seismic fault. The results of this model also suggest that further fractures can develop in the opposite quadrant and so a second model describing fault branching in the upper layer is proposed. As the previous model, this model can be applied only when the stress drop in the shallow layer is lower than the value prescribed for a vertical planar crack surface. Alternative solutions must be considered if the stress drop in the upper layer is higher than in the other layer, which may be the case when anelastic processes relax deviatoric stress in layer 2. In such a case one through-going crack cannot fulfil the welded boundary conditions and unwelding of the interface may take place. We have solved this problem within the theory of fracture mechanics, employing the boundary element method. The fault terminates against the interface in a T-shaped configuration, whose segments interact among each other: the lateral extent of the unwelded surface can be computed in terms of the main fault parameters and the stress field resulting in the shallower layer can be modelled. A wide stripe of high and nearly uniform shear stress develops above the unwelded surface, whose width is controlled by the lateral extension of unwelding. Secondary shear fractures may then open within this stripe, according to the Coulomb failure criterion, and the depth of open fractures opening in mixed mode may be computed and compared with the well studied fault complexities observed in the field. In absence of the T-shaped decollement structure, stress concentration above the seismic fault would be difficult to reconcile with observations, being much higher and narrower.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Oggetto di questa tesi è lo studio parametrico del comportamento di paratie mediante modellazione numerica agli elementi finiti. Si è anche analizzato l’aspetto normativo relativo ad esse ed in particolare si è applicato il D.M. 2008 ad una paratia sottolineando le innovazioni nella progettazione geotecnica. Le paratie sono opere di sostegno flessibili interagenti con i fronti di scavo e costituite da una porzione fuori terra, soggetta a condizioni di spinta attiva, e una porzione interrata che contrappone la resistenza passiva del terreno. Le opere di sostegno flessibile si dividono in due categorie: diaframmi e palancole che differiscono molto fra loro sia per il materiale con cui sono realizzate, sia per la tecnica di messa in opera, sia per la geometria, ma hanno in comune il meccanismo di funzionamento. Sono stati illustrati i metodi di calcolo per lo studio delle paratie: metodi dell’equilibrio limite a rottura, metodi a molle e metodi agli elementi finiti. I metodi agli elementi finiti negli ultimi anni hanno avuto maggior successo grazie alla possibilità di definire il modello costitutivo sforzi-deformazioni, le condizioni al contorno e le condizioni iniziali. Esistono numerosi programmi di calcolo che si basano sul metodo agli elementi finiti, tra i quali è da annoverare il programma Plaxis che viene molto usato grazie alla presenza di vari modelli costitutivi in grado di simulare il comportamento del terreno. Tra i legami costitutivi presenti nel programma Plaxis, sono stati presi in esame il modello Mohr-Coulomb, l’Hardening model e il Soft Soil Creep model e sono poi stati applicati per eseguire uno studio parametrico del comportamento delle paratie. Si è voluto comprendere la sensibilità dei modelli al variare dei parametri inseriti nel programma. In particolare si è posta attenzione alla modellazione dei terreni in base ai diversi modelli costitutivi studiando il loro effetto sui risultati ottenuti. Si è inoltre eseguito un confronto tra il programma Plaxis e il programma Paratie. Quest’ultimo è un programma di calcolo che prevede la modellazione del terreno con molle elasto-plastiche incrudenti. Il lavoro di tesi viene illustrato in questo volume come segue: nel capitolo 1 si analizzano le principali caratteristiche e tipologie di paratie mettendo in evidenza la complessità dell’analisi di queste opere e i principali metodi di calcolo usati nella progettazione, nel capitolo 2 si è illustrato lo studio delle paratie secondo le prescrizioni del D.M. 2008. Per comprendere l’argomento è stato necessario illustrare i principi base di questo decreto e le caratteristiche generali del capitolo 6 dedicato alla progettazione geotecnica. Le paratie sono poi state studiate in condizioni sismiche secondo quanto previsto dal D.M. 2008 partendo dall’analisi degli aspetti innovativi nella progettazione sismica per poi illustrare i metodi pseudo-statici utilizzati nello studio delle paratie soggette ad azione sismica. Nel capitolo 3 si sono presi in esame i due programmi di calcolo maggiormente utilizzati per la modellazione delle paratie: Paratie e Plaxis. Dopo aver illustrato i due programmi per comprenderne le potenzialità, i limiti e le differenze, si sono analizzati i principali modelli costituitivi implementati nel programma Plaxis, infine si sono mostrati alcuni studi di modellazione presenti in letteratura. Si è posta molta attenzione ai modelli costitutivi, in particolare a quelli di Mohr-Coulomb, Hardening Soil model e Soft Soil Creep model capaci di rappresentare il comportamento dei diversi tipi di terreno. Nel capitolo 4, con il programma Plaxis si è eseguita un’analisi parametrica di due modelli di paratie al fine di comprendere come i parametri del terreno, della paratia e dei modelli costitutivi condizionino i risultati. Anche in questo caso si è posta molta attenzione alla modellazione del terreno, aspetto che in questa tesi ha assunto notevole importanza. Dato che nella progettazione delle paratie è spesso utilizzato il programma Paratie (Ceas) si è provveduto ad eseguire un confronto tra i risultati ottenuti con questo programma con quelli ricavati con il programma Plaxis. E’ stata inoltra eseguita la verifica della paratia secondo le prescrizioni del D.M. 2008 dal momento che tale decreto è cogente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Das Detektorsystem des Spektrometers Ader Drei-Spektrometer-Anlage am MainzerElektronenbeschleuniger MAMI wurde im Rahmen dieser Arbeitum ein Fokalebenen-Proton-Polarimeter (FPP) ergänzt.Dazu wurden zwei Horizontale Doppeldriftkammern entworfenund zusammen mit einem Kohlenstoffanalysator hinter derFokalebene des Spektrometers aufgebaut.Zur Berechnung der Spin-Präzession in den inhomogenenMagnetfeldern des Spektrometers wurde das Programm QSPINerstellt und damit eine Spin-Transfer-Matrix (STM) erzeugt,mit der über eine Fitprozedur die Polarisationskomponentender Protonen in der Streuebene an die im FPP gemessenenangepaßt werden können.Mit elastischen Elektron-Proton-Streuexperimenten wurdenfalsche Asymmetrien im FPP untersucht, die berechnete STMbestätigt, die inklusive Proton-Kohlenstoff-Analysierstärkeauf einen größeren Streuwinkelbereich erweitert und dasVerhältnis zwischen dem elektrischen und dem magnetischenSachs-Formfaktor des Protons gemessen.Zur Untersuchung der Coulomb-Quadrupol-Übergangsamplitudebei der Anregung des Nukleons zur Delta(1232)-Resonanzwurden in einem Pion-Elektroproduktions-Experiment am Protonmit dem FPP die Komponenten der Polarisation derRückstoßprotonen in paralleler Kinematik gemessen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Mögliche Verformungsmechanismen, die zu den verschiedenen Glimmer- und Mineralfischen führen, sind: intrakristalline Verformung, Kristallrotation, Biegung und Faltung, Drucklösung in Kombination mit Ausfällung und dynamische Rekristallisation oder Mechanismen, die ein großes Mineral in mehrere kleine, fischförmige Kristalle aufspalten.Experimente mit ein neues Verformungsgerät und Objekten in zwei verschiedenen Matrixmaterialien werden beschrieben. Das eine ist PDMS, (Newtonianisch viskoses Polymer), und das andere Tapioca Perlen (Mohr-Couloumb Verhalten). Die Rotation von fischförmigen Objekten in PDMS stimmt mit der theoretischen Rotationsrate für ellipsenförmige Objekte in einem Newtonianischen Material überein. In einer Matrix von Tapioca Perlen nehmen die Objekte eine stabile Lage ein. Diese Orientierung ist vergleichbar mit der von Glimmerfischen. Die Verformung in der Matrix von Tapioca Perlen ist konzentriert auf dünne Scherzonen. Diese Ergebnisse implizieren, daß die Verformung in natürlichen Gesteinen auch in dünnen Scherzonen konzentriert ist.Computersimulationen werden beschrieben, mit denen der Einfluß der Eigenschaften einer Matrix auf die Rotation von Objekten und Verteilung von Deformation untersucht wird.Mit diesen Experimenten wird gezeigt, daß die Orientierung von Glimmerfischen nicht mit Verformung in einem nicht-linearen viskosen Material erklärt werden kann. Eine solche nicht-lineare Rheologie wird im Allgemeinen für die Erdkurste angenommen. Die stabile Orientierung eines Objektes kann mit weicheren Lagen in der Matrix erklärt werden.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Realisierung einer 3D-Kreuzkorrelationsanlage zur Untersuchung von Struktur und Dynamik hochkonzentrierter Kolloide Im Rahmen dieser Arbeit wird eine neuartige 3D-Kreuzkorrelationsanlage zur mehrfachstreufreien Untersuchung des diffusiven Verhaltens hochkonzentrierter kolloidaler Suspensionen vorgestellt. Hierzu werden zwei Lichtstreuexperimente gleichzeitig am gleichen Streuvolumen und mit dem gleichen Streuvektor durchgeführt. Aus der so gewonnenen Kreuzkorrelationsfunktion kann das dynamische Verhalten der Kolloide bestimmt werden. Für die Diffusion der Partikel spielen neben der direkten Wechselwirkung elektroviskoser Effekt und die hydrodynamische Wechselwirkung eine entscheidende Rolle. Insbesondere bei hohen Konzentrationen kann keiner der drei Effekte vernachlässigt werden. Die zu messenden Unterschiede in den Diffusionskoeffizienten sind sehr klein. Daher wurde der experimentelle Aufbau detailliert charakterisiert. Hierbei konnten theoretische Überlegungen hinsichtlich des Nachpulsens und der Totzeit der verwendeten Si-Avalanche-Photodioden überprüft werden. Der Kurzzeitselbstdiffusionskoeffizient hochkonzentrierter geladener kolloidaler Suspensionen wurde gemessen. Um die Daten bei hohen Konzentrationen korrekt zu normieren, wurde der elektroviskose Effekt bei geringen Konzentrationen ausführlich untersucht. Hierbei zeigte sich, dass der elektroviskose Einzelteilcheneffekt zu einer monotonen Abnahme des Diffusionskoeffizienten bei abnehmender Ionenstärke führt. Anhand der volumenbruchabhängigen Daten des Kurzzeitselbstdiffusionskoeffizienten konnte zum ersten Mal gezeigt werden, dass die hydrodynamische Wechselwirkung einen geringeren Einfluss auf die Diffusion hat, falls das direkte Wechselwirkungspotential ein Coulomb-Potential anstelle eines Harte-Kugel-Potentials ist.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In der vorliegenden Doktorarbeit werden Struktur undEigenschaften vonflexiblen Polyelektrolyten im schlechten Lösungsmittel mitHilfe vonMolekulardynamiksimulationen studiert. Die Schwerpunkteliegen in derUntersuchung der Einzelkettenstruktur, derGegenionenverteilung undder Struktur der Polyelektrolytlösung. Dabei wird dieAbhängigkeitvon Parametern wie Dichte, Kettenlänge, Linienladungsdichte,Bjerrum-Länge und Lösungsmittelqualität behandelt. DiestarkeKopplung zwischen Gegenionenverteilung und Struktur derLösung wirdaufgezeigt und diskutiert. Die Behandlung der vollen Coulomb Wechselwirkung und dieexpliziteBerücksichtigung der Gegenionen erfordert die effizientenumerischeBehandlung von langreichweitigen Wechselwirkungen. Dazuwurde derP3M Algorithmus für massiv parallele Rechnerplattformenimplementiert, optimiert und in ein effektivesMolekulardynamikprogramm integriert. Die räumliche Verteilung der Gegenionen um diePolyelektrolyte wirduntersucht und mit dem Zellenmodell verglichen. Dabei werdenEndeffekte und die inhomogene Verteilung der Gegenionenentlang derKettenkontur quantifiziert. Dabei konnte die Analogiezwischenschwach geladenen titrierenden Polyelektrolyten und starkgeladenenPolyelektrolyten mit fixierter Ladungsverteilung zusammenmit ihrenGegenionen nachgewiesen werden. Für die Untersuchung der Einzelkettenstruktur vonPolyelektrolyten imschlechten Lösungsmittel wurde eine Methode entwickelt,sogenanntePerlenkettenstrukturen zu charakterisieren. Sowohl füreinzelneKettenkonformationen, als auch für ein statistischesEnsemble vonKetten können damit der Strukturtyp, d.h. die Anzahl derPerlen undcharakteristische Größen, wie die Perlengröße, derenAusdehnung, sowie die Steglänge bestimmt werden. Durchdiesendirekten Zugang zu den Kettenkonformationen konnten dieSchwierigkeiten, Perlenketten experimentell nachzuweisen,aufgezeigtwerden. Insbesondere sind dies die Koexistenz verschiedenerStrukturtypen, breite Verteilungen für die Perlenausdehnungund denPerlen-Perlen Abstand. Die verschiedenen, in einer Polyelektrolytlösungauftretenden,partiellen Strukturfaktoren wurden mit Hilfe vonSimulationengroßer Systeme behandelt. Für die Skalierung der Positiondesfür Polyelektrolytlösungen charakteristischen Maximums inderInter-Ketten Strukturfunktion mit der Monomerdichte wurdeein Exponent0.35 +- 0.03 gefunden. Die Ketten durchlaufen mit steigenderDichtestarke Konformationsänderungen und bilden oberhalb derÜberlappkonzentration ein transientes, physikalischesNetzwerk.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die vorliegende Arbeit untersucht mittels lichtunterstützter Tunnelmikroskopie (STM) den Elektronentransport in farbstoffbedeckten, nanoporösen TiO2-Schichten, die in photoelektrochemischen Solarzellen eingesetzt werden. Transportrelevante Eigenschaften wie die elektronische Zustandsdichte sowie lichtinduzierte Vorgänge wie der Aufbau einer lichtinduzierten Oberflächenladung und lokale Photoströme werden ortsaufgelöst gemessen. Für einen möglichen Einsatz in lichtunterstützter Tunnelmikroskopie werden desweiteren Gold-Nanopartikel auf einer Amino-Hexanthiol-Monolage auf Coulomb-Blockaden untersucht. Den zweite Schwerpunkt stellen methodische Arbeiten zur Messung optischer Nahfelder in STM-Experimenten dar. Erstens sollen die Vorteile von Apertur- und aperturloser optischer Rasternahfeld-Mikroskopie mit komplett metallisierten Faserspitzen verbunden werden, die durch die Faser beleuchtet werden. Es gelingt nicht, theoretisch vorhergesagte hohe optische Auflösungen zu bestätigen. Zweitens werden transparente Spitzen aus Sb-dotiertem Zinnoxid erfolgreich als Tunnelspitzen getestet. Die Spitzen ermöglichen STM-Elektrolumineszenz-Experimente zur Charakterisierung optischer Nahfelder, ohne diese durch eine metallische Spitze zu beeinträchtigen. In einer STM-Studie wird das Selbstorganisations-Verhalten von Oktanthiol und Oktandithiol auf Au(111) aus Ethanol untersucht. Bei geringer relativer Konzentration der Dithiole (1:2000), bildet sich eine Phase liegender Dithiole, deren Ordnung durch die Präsenz der Oktanthiole katalysiert wird. Schließlich wird ein als 'dynamische Tunnelmikroskopie' bezeichneter Modus für die Tunnelmikroskopie in elektrisch leitfähiger Umgebung erfolgreich getestet, der zur Unterdrückung des elektrochemischen Leckstromanteils die Ableitung des Stroms nach dem Abstand als STM-Abstandssignal verwendet.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Im Rahmen der vorliegenden Arbeit wurden zum ersten Mal kalorimetrische Tieftemperatur-Detektoren in der Beschleuniger-Massenspektrometrie (Accelerator Mass Spectrometry AMS), einer Standard-Methode zur Bestimmung kleinster Isotopenverhältnisse, eingesetzt, um das Isotopenverhältnis von 236U zu 238U zu bestimmen. Das Uran-Isotop 236U entsteht in der Neutroneneinfang-Reaktion 235U(n,gamma)236U und kann daher als Monitor-Nuklid für Neutronenflüsse verwendet werden. Die Detektoren bestehen aus einem Saphir-Absorber, auf den ein supraleitender Aluminium-Film aufgedampft ist, der als Thermistor dient. Ein energetisches Schwerion deponiert seine kinetische Energie als Wärme im Absorber, dessen Temperaturänderung durch die Widerstandsänderung des Supraleiters nachgewiesen wird. Mit solchen Detektoren konnte in vorhergehenden Experimenten bei GSI in einem Energiebereich von E = 5 - 300 MeV/amu für eine Vielzahl von Ionen von Neon bis Uran eine relative Energieauflösung von (1 - 4) E-3 erreicht werden. Der für die Beschleuniger-Massenspektrometrie typische Energiebereich liegt bei E = 0.1 - 1 MeV/amu. Im ersten Schritt wurde daher die systematische Untersuchung der Detektoreigenschaften auf diesen Energiebereich ausgedehnt. Diese Untersuchungen sowie die AMS-Messungen wurden am Tandem-Beschleuniger VERA des Instituts für Isotopenforschung und Kernphysik der Universität Wien durchgeführt. In einem Energiebereich von 10 - 60 MeV konnte für verschiedene Ionen (13C, 197Au, 238U) zunächst eine relative Energieauflösung von DeltaE/E = 7 E-3 erreicht werden. Dies übertrifft die Auflösung konventioneller Ionisations-Detektoren um ca. eine Größenordnung. Durch eine Verbesserung thermischer und elektronischer Rauschbeiträge konnte in einem zweiten Experiment für Uran der Energie 17 MeV die Auflösung auf DeltaE/E = 4.6 E-3 verbessert werden. Die Energie-Response des Detektors war linear über den gesamten beobachteten Energiebereich und unabhängig von der Ionenmasse; bis auf ein Niveau von 0.1 % wurde kein Pulshöhendefekt beobachtet. Diese Ergebnisse zeigen, daß solche Detektoren ein wertvolles Werkzeug in der Schwerionenphysik im Bereich relativ niedriger Ionenenergien darstellen. Mit der erreichten Energieauflösung war es möglich, für mehrere Proben aus natürlichem Uran das Isotopenverhältnis 236U/238U zu bestimmen: Um einen Material-Standard für Uran in der AMS zu etablieren, wurde das Isotopenverhältnis 236U/238U für zwei Proben aus der Mine ''K.u.K. Joachimsthal'' möglichst präzise bestimmt. Die Ergebnisse in der vorliegenden Arbeit stimmen gut mit früheren Messungen überein, die mit einem konventionellen Detektorsystem durchgeführt wurden. Sowohl der statistische als auch der systematische Fehler konnten deutlich reduziert werden. Für eine weitere Probe, extrahiert aus dem Wasser einer Uran-haltigen Quelle in Bad Gastein, wurde ein Isotopenverhältnis von 6.1 E-12 gemessen. Dies stellt das kleinste bislang für 236U/238U gemessene Isotopenverhältnis dar und bedeutet eine Steigerung der Sensitivität um eine Größenordnung. Die erreichte Energieauflösung ermöglicht es außerdem, die Detektoren zur direkten Massenidentifikation von schweren Ionen mittels einer kombinierten Energie-Flugzeit-Messung einzusetzen. In ersten Test-Messungen im Rahmen der vorliegenden Arbeit wurde eine Massenauflösung von DeltaM/M = (8.5 - 11.0) E-3 erreicht. In einem ersten Test für den Einsatz dieser Detektoren zum Nachweis sog. ''superschwerer Elemente (Z >= 112)'' erlaubte der große dynamische Bereich, die Reaktionsprodukte und ihre nachfolgenden Alpha-Zerfälle mit hoher Energieauflösung simultan und zeitaufgelöst nachzuweisen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Der AMANDA-II Detektor ist primär für den richtungsaufgelösten Nachweis hochenergetischer Neutrinos konzipiert. Trotzdem können auch niederenergetische Neutrinoausbrüche, wie sie von Supernovae erwartet werden, mit hoher Signifikanz nachgewiesen werden, sofern sie innerhalb der Milchstraße stattfinden. Die experimentelle Signatur im Detektor ist ein kollektiver Anstieg der Rauschraten aller optischen Module. Zur Abschätzung der Stärke des erwarteten Signals wurden theoretische Modelle und Simulationen zu Supernovae und experimentelle Daten der Supernova SN1987A studiert. Außerdem wurden die Sensitivitäten der optischen Module neu bestimmt. Dazu mussten für den Fall des südpolaren Eises die Energieverluste geladener Teilchen untersucht und eine Simulation der Propagation von Photonen entwickelt werden. Schließlich konnte das im Kamiokande-II Detektor gemessene Signal auf die Verhältnisse des AMANDA-II Detektors skaliert werden. Im Rahmen dieser Arbeit wurde ein Algorithmus zur Echtzeit-Suche nach Signalen von Supernovae als Teilmodul der Datennahme implementiert. Dieser beinhaltet diverse Verbesserungen gegenüber der zuvor von der AMANDA-Kollaboration verwendeten Version. Aufgrund einer Optimierung auf Rechengeschwindigkeit können nun mehrere Echtzeit-Suchen mit verschiedenen Analyse-Zeitbasen im Rahmen der Datennahme simultan laufen. Die Disqualifikation optischer Module mit ungeeignetem Verhalten geschieht in Echtzeit. Allerdings muss das Verhalten der Module zu diesem Zweck anhand von gepufferten Daten beurteilt werden. Dadurch kann die Analyse der Daten der qualifizierten Module nicht ohne eine Verzögerung von etwa 5 Minuten geschehen. Im Falle einer erkannten Supernova werden die Daten für die Zeitdauer mehrerer Minuten zur späteren Auswertung in 10 Millisekunden-Intervallen archiviert. Da die Daten des Rauschverhaltens der optischen Module ansonsten in Intervallen von 500 ms zur Verfgung stehen, ist die Zeitbasis der Analyse in Einheiten von 500 ms frei wählbar. Im Rahmen dieser Arbeit wurden drei Analysen dieser Art am Südpol aktiviert: Eine mit der Zeitbasis der Datennahme von 500 ms, eine mit der Zeitbasis 4 s und eine mit der Zeitbasis 10 s. Dadurch wird die Sensitivität für Signale maximiert, die eine charakteristische exponentielle Zerfallszeit von 3 s aufweisen und gleichzeitig eine gute Sensitivität über einen weiten Bereich exponentieller Zerfallszeiten gewahrt. Anhand von Daten der Jahre 2000 bis 2003 wurden diese Analysen ausführlich untersucht. Während die Ergebnisse der Analyse mit t = 500 ms nicht vollständig nachvollziehbare Ergebnisse produzierte, konnten die Resultate der beiden Analysen mit den längeren Zeitbasen durch Simulationen reproduziert und entsprechend gut verstanden werden. Auf der Grundlage der gemessenen Daten wurden die erwarteten Signale von Supernovae simuliert. Aus einem Vergleich zwischen dieser Simulation den gemessenen Daten der Jahre 2000 bis 2003 und der Simulation des erwarteten statistischen Untergrunds kann mit einem Konfidenz-Niveau von mindestens 90 % gefolgert werden, dass in der Milchstraße nicht mehr als 3.2 Supernovae pro Jahr stattfinden. Zur Identifikation einer Supernova wird ein Ratenanstieg mit einer Signifikanz von mindestens 7.4 Standardabweichungen verlangt. Die Anzahl erwarteter Ereignisse aus dem statistischen Untergrund beträgt auf diesem Niveau weniger als ein Millionstel. Dennoch wurde ein solches Ereignis gemessen. Mit der gewählten Signifikanzschwelle werden 74 % aller möglichen Vorläufer-Sterne von Supernovae in der Galaxis überwacht. In Kombination mit dem letzten von der AMANDA-Kollaboration veröffentlicheten Ergebnis ergibt sich sogar eine obere Grenze von nur 2.6 Supernovae pro Jahr. Im Rahmen der Echtzeit-Analyse wird für die kollektive Ratenüberhöhung eine Signifikanz von mindestens 5.5 Standardabweichungen verlangt, bevor eine Meldung über die Detektion eines Supernova-Kandidaten verschickt wird. Damit liegt der überwachte Anteil Sterne der Galaxis bei 81 %, aber auch die Frequenz falscher Alarme steigt auf bei etwa 2 Ereignissen pro Woche. Die Alarm-Meldungen werden über ein Iridium-Modem in die nördliche Hemisphäre übertragen, und sollen schon bald zu SNEWS beitragen, dem weltweiten Netzwerk zur Früherkennung von Supernovae.