990 resultados para Elementary particle sources
Resumo:
The nature of the dark matter in the Universe is one of the greatest mysteries in modern astronomy. The neutralino is a nonbaryonic dark matter candidate in minimal supersymmetric extensions to the standard model of particle physics. If the dark matter halo of our galaxy is made up of neutralinos some would become gravitationally trapped inside massive bodies like the Earth. Their pair-wise annihilation produces neutrinos that can be detected by neutrino experiments looking in the direction of the centre of the Earth. The AMANDA neutrino telescope, currently the largest in the world, consists of an array of light detectors buried deep in the Antarctic glacier at the geographical South Pole. The extremely transparent ice acts as a Cherenkov medium for muons passing the array and using the timing information of detected photons it is possible to reconstruct the muon direction. A search has been performed for nearly vertically upgoing neutrino induced muons with AMANDA-B10 data taken over the three year period 1997-99. No excess above the atmospheric neutrino background expectation was found. Upper limits at the 90 % confidence level has been set on the annihilation rate of neutralinos at the centre of the Earth and on the muon flux induced by neutrinos created by the annihilation products.
Resumo:
In den letzten fünf Jahren hat sich mit dem Begriff desspektralen Tripels eine Möglichkeit zur Beschreibungdes an Spinoren gekoppelten Gravitationsfeldes auf(euklidischen) nichtkommutativen Räumen etabliert. Die Dynamik dieses Gravitationsfeldes ist dabei durch diesogenannte spektrale Wirkung, dieSpur einer geeigneten Funktion des Dirac-Operators,bestimmt. Erstaunlicherweise kann man die vollständige Lagrange-Dichtedes (an das Gravitationsfeld gekoppelten) Standardmodellsder Elementarteilchenphysik, also insbesondere auch denmassegebenden Higgs-Sektor, als spektrale Wirkungeines entsprechenden spektralen Tripels ableiten. Diesesspektrale Tripel ist als Produkt des spektralenTripels der (kommutativen) Raumzeit mit einem speziellendiskreten spektralen Tripel gegeben. In der Arbeitwerden solche diskreten spektralen Tripel, die bis vorKurzem neben dem nichtkommutativen Torus die einzigen,bekannten nichtkommutativen Beispiele waren, klassifiziert. Damit kannnun auch untersucht werden, inwiefern sich dasStandardmodell durch diese Eigenschaft gegenüber anderenYang-Mills-Higgs-Theorien auszeichnet. Es zeigt sichallerdings, dasses - trotz mancher Einschränkung - eine sehr große Zahl vonModellen gibt, die mit Hilfe von spektralen Tripelnabgeleitet werden können. Es wäre aber auch denkbar, dass sich das spektrale Tripeldes Standardmodells durch zusätzliche Strukturen,zum Beispiel durch eine darauf ``isometrisch'' wirkendeHopf-Algebra, auszeichnet. In der Arbeit werden, um dieseFrage untersuchen zu können, sogenannte H-symmetrischespektrale Tripel, welche solche Hopf-Isometrien aufweisen,definiert.Dabei ergibt sich auch eine Möglichkeit, neue(H-symmetrische) spektrale Tripel mit Hilfe ihrerzusätzlichen Symmetrienzu konstruieren. Dieser Algorithmus wird an den Beispielender kommutativen Sphäre, deren Spin-Geometrie hier zumersten Mal vollständig in der globalen, algebraischen Sprache der NichtkommutativenGeometrie beschrieben wird, sowie dem nichtkommutativenTorus illustriert.Als Anwendung werden einige neue Beipiele konstruiert. Eswird gezeigt, dass sich für Yang-Mills Higgs-Theorien, diemit Hilfe von H-symmetrischen spektralen Tripeln abgeleitetwerden, aus den zusätzlichen Isometrien Einschränkungen andiefermionischen Massenmatrizen ergeben. Im letzten Abschnitt der Arbeit wird kurz auf dieQuantisierung der spektralen Wirkung für diskrete spektraleTripel eingegangen.Außerdem wird mit dem Begriff des spektralen Quadrupels einKonzept für die nichtkommutative Verallgemeinerungvon lorentzschen Spin-Mannigfaltigkeiten vorgestellt.
Resumo:
Das Standardmodell der Elementarteilchenphysik istexperimentell hervorragend bestätigt, hat auf theoretischerSeite jedoch unbefriedigende Aspekte: Zum einen wird derHiggssektor der Theorie von Hand eingefügt, und zum anderenunterscheiden sich die Beschreibung des beobachtetenTeilchenspektrums und der Gravitationfundamental. Diese beiden Nachteile verschwinden, wenn mandas Standardmodell in der Sprache der NichtkommutativenGeometrie formuliert. Ziel hierbei ist es, die Raumzeit der physikalischen Theoriedurch algebraische Daten zu erfassen. Beispielsweise stecktdie volle Information über eine RiemannscheSpinmannigfaltigkeit M in dem Datensatz (A,H,D), den manspektrales Tripel nennt. A ist hierbei die kommutativeAlgebra der differenzierbaren Funktionen auf M, H ist derHilbertraum der quadratintegrablen Spinoren über M und D istder Diracoperator. Mit Hilfe eines solchen Tripels (zu einer nichtkommutativenAlgebra) lassen sich nun sowohl Gravitation als auch dasStandardmodell mit mathematisch ein und demselben Mittelerfassen. In der vorliegenden Arbeit werden nulldimensionale spektraleTripel (die diskreten Raumzeiten entsprechen) zunächstklassifiziert und in Beispielen wird eine Quantisierungsolcher Objekte durchgeführt. Ein Problem der spektralenTripel stellt ihre Beschränkung auf echt RiemannscheMetriken dar. Zu diesem Problem werden Lösungsansätzepräsentiert. Im abschließenden Kapitel der Arbeit wird dersogenannte 'Feynman-Beweis der Maxwellgleichungen' aufnichtkommutative Konfigurationsräume verallgemeinert.
Resumo:
Eine wichtige Komponente des Standardmodells der Teilchenphysik bildet der Higgs-Mechanismus, der benötigt wird um den vom Standardmodell beschriebenen Teilchen Masse zu verleihen. Dieser Mechanismus beinhaltet jedoch ein weiteres schweres Elementarteilchen das bislang noch nich beobachtet werden konnte. Die Suche nach diesem Teilchen ist eines Hauptziele der derzeitigen Forschung an Teilchenbeschleunigern. Diese Arbeit untersucht die vom D0-Detektor am Tevatron des Fermi National Accelerator Laboratory (FNAL) aufgezeichneten Daten von ppbar-Kollisionen bei einer Schwerpunktsenergie von sqrt{s}=1.96 TeV, um im Kanal WH -> enu bb nach einem leichten Higgs-Boson zu suchen. Darüber hinaus wird der Produktionswirkungsquerschnitt der Wbb-Produktion ermittelt. Für die Analyse stand eine integrierte Luminosität von L=255pb^{-1} zur Verfügung. Zur Selektion dieser Prozesse, werden Ereignisse ausgewählt, die Elektronen und fehlenden Transversalimpuls enthalten, sowie mindestens zwei Jets, die sich als b-Jets identifizieren lassen. Um eine effiziente Selektion zu erhalten, wurden Schnitte auf verschiedene Kenngrößen entwickelt, getestet und optimiert. Aus den selektierten Ereignissen wird der Wbb-Wirkungsquerschnitt ermittelt, der für Ereignisse angegeben wird, in denen die b-Quarks p_T>8 GeV und |eta|<3 erfüllen. Der unter Berücksichtigung des Verzweigungsverhältnisses BR(W->enu)=0.108 errechnete Wert ist sigma(Wbb)=21.8 pb (+15.5; -20.0 pb(sys+stat)). Wegen der geringen Signifikanz der Messung von etwa 1.2sigma wurden die Ereigniszahlen auch zur Berechnung einer oberen Grenze auf den Wirkungsquerschnitt verwendet, die sich bei einem Konfidenzniveau von 95% zu sigma^95(Wbb)=60.9pb ergibt. Ebenso wurden Grenzen auf den WH-Produktionswirkungsquerschnitt ermittelt. Dafür wurde die statistische Methode von Feldman und Cousins angewandt, nachdem sie nach den Vorschlägen von Conrad et al. erweitert worden war, um systematische Unsicherheiten zu berücksichtigen. Für ein Standardmodell Higgs-Boson der Masse 115 GeV kann eine obere Grenze auf den Produktionswirkungsquerschnitt von sigma^{95} (WH)=12.2pb angegeben werden. Für höhere Massen bis 135 GeV werden ähnliche Grenzen ermittelt.
Resumo:
Es gibt kaum eine präzisere Beschreibung der Natur als die durch das Standardmodell der Elementarteilchen (SM). Es ist in der Lage bis auf wenige Ausnahmen, die Physik der Materie- und Austauschfelder zu beschreiben. Dennoch ist man interessiert an einer umfassenderen Theorie, die beispielsweise auch die Gravitation mit einbezieht, Neutrinooszillationen beschreibt, und die darüber hinaus auch weitere offene Fragen klärt. Um dieser Theorie ein Stück näher zu kommen, befasst sich die vorliegende Arbeit mit einem effektiven Potenzreihenansatz zur Beschreibung der Physik des Standardmodells und neuer Phänomene. Mit Hilfe eines Massenparameters und einem Satz neuer Kopplungskonstanten wird die Neue Physik parametrisiert. In niedrigster Ordnung erhält man das bekannte SM, Terme höherer Ordnung in der Kopplungskonstanten beschreiben die Effekte jenseits des SMs. Aus gewissen Symmetrie-Anforderungen heraus ergibt sich eine definierte Anzahl von effektiven Operatoren mit Massendimension sechs, die den hier vorgestellten Rechnungen zugrunde liegen. Wir berechnen zunächst für eine bestimmte Auswahl von Prozessen zugehörige Zerfallsbreiten bzw. Wirkungsquerschnitte in einem Modell, welches das SM um einen einzigen neuen effektiven Operator erweitertet. Unter der Annahme, dass der zusätzliche Beitrag zur Observablen innerhalb des experimentellen Messfehlers ist, geben wir anhand von vorliegenden experimentellen Ergebnissen aus leptonischen und semileptonischen Präzisionsmessungen Ausschlussgrenzen der neuen Kopplungen in Abhängigkeit von dem Massenparameter an. Die hier angeführten Resultate versetzen Physiker zum Einen in die Lage zu beurteilen, bei welchen gemessenen Observablen eine Erhöhung der Präzision sinnvoll ist, um bessere Ausschlussgrenzen angeben zu können. Zum anderen erhält man einen Anhaltspunkt, welche Prozesse im Hinblick auf Entdeckungen Neuer Physik interessant sind.
Resumo:
Il presente lavoro si rivolge all’analisi del ruolo delle forme metaforiche nella divulgazione della fisica contemporanea. Il focus è sugli aspetti cognitivi: come possiamo spiegare concetti fisici formalmente complessi ad un audience di non-esperti senza ‘snaturarne’ i significati disciplinari (comunicazione di ‘buona fisica’)? L’attenzione è sulla natura stessa della spiegazione e il problema riguarda la valutazione dell’efficacia della spiegazione scientifica a non-professionisti. Per affrontare tale questione, ci siamo orientati alla ricerca di strumenti formali che potessero supportarci nell’analisi linguistica dei testi. La nostra attenzione si è rivolta al possibile ruolo svolto dalle forme metaforiche nella costruzione di significati disciplinarmente validi. Si fa in particolare riferimento al ruolo svolto dalla metafora nella comprensione di nuovi significati a partire da quelli noti, aspetto fondamentale nel caso dei fenomeni di fisica contemporanea che sono lontani dalla sfera percettiva ordinaria. In particolare, è apparsa particolarmente promettente come strumento di analisi la prospettiva della teoria della metafora concettuale. Abbiamo allora affrontato il problema di ricerca analizzando diverse forme metaforiche di particolare rilievo prese da testi di divulgazione di fisica contemporanea. Nella tesi viene in particolare discussa l’analisi di un case-study dal punto di vista della metafora concettuale: una analogia di Schrödinger per la particella elementare. I risultati dell’analisi suggeriscono che la metafora concettuale possa rappresentare uno strumento promettente sia per la valutazione della qualità delle forme analogiche e metaforiche utilizzate nella spiegazione di argomenti di fisica contemporanea che per la creazione di nuove e più efficaci metafore. Inoltre questa prospettiva di analisi sembra fornirci uno strumento per caratterizzare il concetto stesso di ‘buona fisica’. Riteniamo infine che possano emergere altri risultati di ricerca interessanti approfondendo l’approccio interdisciplinare tra la linguistica e la fisica.
Resumo:
Während das Standardmodell der Elementarteilchenphysik eine konsistente, renormierbare Quantenfeldtheorie dreier der vier bekannten Wechselwirkungen darstellt, bleibt die Quantisierung der Gravitation ein bislang ungelöstes Problem. In den letzten Jahren haben sich jedoch Hinweise ergeben, nach denen metrische Gravitation asymptotisch sicher ist. Das bedeutet, daß sich auch für diese Wechselwirkung eine Quantenfeldtheorie konstruieren läßt. Diese ist dann in einem verallgemeinerten Sinne renormierbar, der nicht mehr explizit Bezug auf die Störungstheorie nimmt. Zudem sagt dieser Zugang, der auf der Wilsonschen Renormierungsgruppe beruht, die korrekte mikroskopische Wirkung der Theorie voraus. Klassisch ist metrische Gravitation auf dem Niveau der Vakuumfeldgleichungen äquivalent zur Einstein-Cartan-Theorie, die das Vielbein und den Spinzusammenhang als fundamentale Variablen verwendet. Diese Theorie besitzt allerdings mehr Freiheitsgrade, eine größere Eichgruppe, und die zugrundeliegende Wirkung ist von erster Ordnung. Alle diese Eigenschaften erschweren eine zur metrischen Gravitation analoge Behandlung.rnrnIm Rahmen dieser Arbeit wird eine dreidimensionale Trunkierung von der Art einer verallgemeinerten Hilbert-Palatini-Wirkung untersucht, die neben dem Laufen der Newton-Konstante und der kosmologischen Konstante auch die Renormierung des Immirzi-Parameters erfaßt. Trotz der angedeuteten Schwierigkeiten war es möglich, das Spektrum des freien Hilbert-Palatini-Propagators analytisch zu berechnen. Auf dessen Grundlage wird eine Flußgleichung vom Propertime-Typ konstruiert. Zudem werden geeignete Eichbedingungen gewählt und detailliert analysiert. Dabei macht die Struktur der Eichgruppe eine Kovariantisierung der Eichtransformationen erforderlich. Der resultierende Fluß wird für verschiedene Regularisierungsschemata und Eichparameter untersucht. Dies liefert auch im Einstein-Cartan-Zugang berzeugende Hinweise auf asymptotische Sicherheit und damit auf die mögliche Existenz einer mathematisch konsistenten und prädiktiven fundamentalen Quantentheorie der Gravitation. Insbesondere findet man ein Paar nicht-Gaußscher Fixpunkte, das Anti-Screening aufweist. An diesen sind die Newton-Konstante und die kosmologische Konstante jeweils relevante Kopplungen, wohingegen der Immirzi-Parameter an einem Fixpunkt irrelevant und an dem anderen relevant ist. Zudem ist die Beta-Funktion des Immirzi-Parameters von bemerkenswert einfacher Form. Die Resultate sind robust gegenüber Variationen des Regularisierungsschemas. Allerdings sollten zukünftige Untersuchungen die bestehenden Eichabhängigkeiten reduzieren.
Electroweak precision observables and effective four-fermion interactions in warped extra dimensions
Resumo:
In this thesis, we study the phenomenology of selected observables in the context of the Randall-Sundrum scenario of a compactified warpedrnextra dimension. Gauge and matter fields are assumed to live in the whole five-dimensional space-time, while the Higgs sector is rnlocalized on the infrared boundary. An effective four-dimensional description is obtained via Kaluza-Klein decomposition of the five dimensionalrnquantum fields. The symmetry breaking effects due to the Higgs sector are treated exactly, and the decomposition of the theory is performedrnin a covariant way. We develop a formalism, which allows for a straight-forward generalization to scenarios with an extended gauge group comparedrnto the Standard Model of elementary particle physics. As an application, we study the so-called custodial Randall-Sundrum model and compare the resultsrnto that of the original formulation. rnWe present predictions for electroweak precision observables, the Higgs production cross section at the LHC, the forward-backward asymmetryrnin top-antitop production at the Tevatron, as well as the width difference, the CP-violating phase, and the semileptonic CP asymmetry in B_s decays.
Resumo:
The Standard Model of elementary particle physics was developed to describe the fundamental particles which constitute matter and the interactions between them. The Large Hadron Collider (LHC) at CERN in Geneva was built to solve some of the remaining open questions in the Standard Model and to explore physics beyond it, by colliding two proton beams at world-record centre-of-mass energies. The ATLAS experiment is designed to reconstruct particles and their decay products originating from these collisions. The precise reconstruction of particle trajectories plays an important role in the identification of particle jets which originate from bottom quarks (b-tagging). This thesis describes the step-wise commissioning of the ATLAS track reconstruction and b-tagging software and one of the first measurements of the b-jet production cross section in pp collisions at sqrt(s)=7 TeV with the ATLAS detector. The performance of the track reconstruction software was studied in great detail, first using data from cosmic ray showers and then collisions at sqrt(s)=900 GeV and 7 TeV. The good understanding of the track reconstruction software allowed a very early deployment of the b-tagging algorithms. First studies of these algorithms and the measurement of the b-tagging efficiency in the data are presented. They agree well with predictions from Monte Carlo simulations. The b-jet production cross section was measured with the 2010 dataset recorded by the ATLAS detector, employing muons in jets to estimate the fraction of b-jets. The measurement is in good agreement with the Standard Model predictions.
Resumo:
In der vorliegenden Arbeit werden Experimente beschrieben, die zu einem vertieften Verständnis fundamentaler Prozesse bei der elektrochemischen Herstellung von Dünnschichten, sog. Targets, für kernphysikalische und -chemische Studien führten. Targets wurden mittels 'Molecular Plating' (MP) hergestellt, indem eine Elektrodeposition aus organischem Medium in der Regel bei konstantem Strom in Zwei-Elektroden-Zellen. Die Resultate erlaubten, optimierte Herstellungs-bedingungen zu ermitteln, welche die Produktion deutlich verbesserter Targets erlaubten. MP bei konstantem Strom ist ein massentransportkontrollierter Prozess. Der angelegte Strom wird durch einen konstanten Fluss elektroaktiver Spezies zur Kathode – auf der die Schicht wächst – und Anode aufrechterhalten. Die Untersuchungen zeigten, dass das Zellenpotential des Elektrodepositionsystems immer durch den Ohm'schen Spannungsabfall auf Grund des Widerstandes der verwendeten Lösung dominiert wurde. Dies erlaubte die Herleitung einer Beziehung zwischen dem Zellenpotential und der Konzentration der elektroaktiven Spezies. Die Beziehung erlaubt die Erklärung des gemessenen zeitlichen Verlaufs des Zellenpotentials während der Abscheidung als Funktion der Elektrolytkonzentration. Dies dient als Basis, auf der nun ein umfassenderes Bild der Prozesse, die für die charakteristischen Minima im Potentialverlauf einer Abscheidung verantwortlich sind, gewonnen werden kann. Es konnte gezeigt werden, dass die Minima mit der fast vollständigen Entfernung (durch Abscheidung) der aus einem gelösten Salz erzeugten Nd-Ionen korrespondieren. Die abgeschiedene Spezies wurde als Nd3+ identifiziert, vermutlich als Carboxylat, Oxid oder Hydroxid, was auf Grund der hohen negative Werte des Standardredoxpotentials der Lanthanide verständlich erscheint. Von den vorliegenden elektroaktiven Spezies tragen die Nd3+ Ionen nur zu knapp 20% zum Gesamtstrom bei. Durch Elektrolyse tragen auch die Lösungsmittelkomponenten zu diese Strom bei. Die Gegenwart von elektrolysiertem Lösungsmittel wurde in Analysen der Dünnschichten bestätigt. Diese waren immer mit chemi- und physisorbierten Lösungsmittelmolekülen bedeckt. Die Analyse der Dünnschichten zeigte, dass die Oberflächen von einem furchenartiges Netz durchzogen waren, und dass diese während des Trocknen der Schichten nach dem MP entstanden. Ob die Schichten an Luft oder in inerter Atmosphäre trockneten, hatte keinen Einfluss. Es wurden Experimente mit mehreren Lösungsmitteln durchgeführt, die sich deutlich in ihren physikalischen Eigenschaften, v.a. dem Siedepunkt, unterschieden. Furchenfreie Dünnschichten konnten insbesondere bei MP in N,N-dimethylformamide (DMF) erzeugt werden. Die Verwendung von DMF in Kombination mit einer Abscheidung auf sehr glatten Substraten erlaubte die Produktion von sehr homogenen, glatten und defektfreien Schichten. Diese waren vermutlich geringeren inneren Spannungen während des Trocknens ausgesetzt, als Schichten auf raueren Substraten oder solche, die aus flüchtigeren Lösungsmitteln hergestellt wurden. Die Oberflächenrauigkeit des Substrats und das gewählte Lösungsmittel wurden so als Schlüsselfaktoren für die Produktion hochqualitativer Schichten identifiziert. Es konnte gezeigt werden, dass mit MP eine sehr effiziente Methode zur Herstellung homogener Schichten mit exzellenter Ausbeute ist. In weiteren Experimenten mit dem primordialen Alpha-Emitter 147Sm als Modellisotop wurde die Eignung solcher Schichten als Alpha-Quelle untersucht. Sowohl die Energieauflösung als auch der Anteil der Alpha-Teilchen, die den Detektor erreichten, waren von den Quelleneigenschaften abhängig. Die Effekte wurden verschiedenen Variablen der Dünnschicht zugeordnet, welche die Alpha-Spektren beeinflussten. Dominant war die Wahl des Lösungsmittels und die Rauigkeit des Substrats. Dies beeinflusste Schichtdicke und -morphologie sowie die Art des Schichtwachstums und veränderte die Detektionseffizienz in Alpha-Messungen bis zu 15%. Nur homogene, ebene Schichten, die aus DMF auf glatten Substraten abgeschieden wurden, eignen sich optimal als Alpha-Quelle. Die gewonnenen Ergebnisse erlauben die optimierte Herstellung nuklearer Targets durch MP. Künftige Anwendungen beinhalten insbesondere die Herstellung von Targets für neutroneninduzierte Spaltexperimente und untergrundarmeAlpha-Messungen sehr kleiner Aktivitäten.
Resumo:
The future goal of modern physics is the discovery of physics beyond the Standard Model. One of the most significant hints for New Physics can be seen in the anomalous magnetic moment of the muon - one of the most precise measured variables in modern physics and the main motivation of this work. This variable is associated with the coupling of the muon, an elementary particle, to an external electromagnetic field and is defined as a = (g - 2)/2, whereas g is the gyromagnetic factor of the muon. The muon anomaly has been measured with a relative accuracy of 0.5·10-6. However, a difference between the direct measurement and the Standard Model prediction of 3.6 standard deviations can be observed. This could be a hint for the existence of New Physics. Unfortunately, it is, yet, not significant enough to claim an observation and, thus, more precise measurements and calculations have to be performed.rnThe muon anomaly has three contributions, whereas the ones from quantum electrodynamics and weak interaction can be determined from perturbative calculations. This cannot be done in case of the hadronic contributions at low energies. The leading order contribution - the hadronic vacuum polarization - can be computed via a dispersion integral, which needs as input hadronic cross section measurements from electron-positron annihilations. Hence, it is essential for a precise prediction of the muon anomaly to measure these hadronic cross sections, σ(e+e-→hadrons), with high accuracy. With a contribution of more than 70%, the final state containing two charged pions is the most important one in this context.rnIn this thesis, a new measurement of the σ(e+e-→π+π-) cross section and the pion form factor is performed with an accuracy of 0.9% in the dominant ρ(770) resonance region between 600 and rn900 MeV at the BESIII experiment. The two-pion contribution to the leading-order (LO) hadronic vacuum polarization contribution to (g - 2) from the BESIII result, obtained in this work, is computed to be a(ππ,LO,600-900 MeV) = (368.2±2.5stat±3.3sys)·10-10. With the result presented in this thesis, we make an important contribution on the way to solve the (g - 2) puzzle.
Resumo:
BACKGROUND Epidemiological studies show that elevated levels of particulate matter in ambient air are highly correlated with respiratory and cardiovascular diseases. Atmospheric particles originate from a large number of sources and have a highly complex and variable composition. An assessment of their potential health risks and the identification of the most toxic particle sources would require a large number of investigations. Due to ethical and economic reasons, it is desirable to reduce the number of in vivo studies and to develop suitable in vitro systems for the investigation of cell-particle interactions. METHODS We present the design of a new particle deposition chamber in which aerosol particles are deposited onto cell cultures out of a continuous air flow. The chamber allows for a simultaneous exposure of 12 cell cultures. RESULTS Physiological conditions within the deposition chamber can be sustained constantly at 36-37°C and 90-95% relative humidity. Particle deposition within the chamber and especially on the cell cultures was determined in detail, showing that during a deposition time of 2 hr 8.4% (24% relative standard deviation) of particles with a mean diameter of 50 nm [mass median diameter of 100 nm (geometric standard deviation 1.7)] are deposited on the cell cultures, which is equal to 24-34% of all charged particles. The average well-to-well variability of particles deposited simultaneously in the 12 cell cultures during an experiment is 15.6% (24.7% relative standard deviation). CONCLUSIONS This particle deposition chamber is a new in vitro system to investigate realistic cell-particle interactions at physiological conditions, minimizing stress on the cell cultures other than from deposited particles. A detailed knowledge of particle deposition characteristics on the cell cultures allows evaluating reliable dose-response relationships. The compact and portable design of the deposition chamber allows for measurements at any particle sources of interest.
Resumo:
IMB (Irvine, Michigan, Brookline), a collaboration between the University of Michigan, the University of California at Irvine, and the U.S. Department of Energy, was an experiment designed to determine the ultimate stability of matter. Construction image. Mechanical "mole" (dosco machine) brought in by Morton Salt Co. to dig the cavity of IMB, 1979-1980
Resumo:
IMB (Irvine, Michigan, Brookline), a collaboration between the University of Michigan, the University of California at Irvine, and the U.S. Department of Energy, was an experiment designed to determine the ultimate stability of matter. Construction image. Finished cavity -- looking through tunnel to main part of mine.
Resumo:
IMB (Irvine, Michigan, Brookline), a collaboration between the University of Michigan, the University of California at Irvine, and the U.S. Department of Energy, was an experiment designed to determine the ultimate stability of matter. IMB construction image. Double-walled liner being installed in cavity. Walls already covered.