947 resultados para Which-way experiments
Resumo:
Gewebe, Zellen und speziell Zellkompartimente unterscheiden sich in ihrer Sauerstoffkonzentration, Stoffwechselrate und in der Konzentration an gebildeten reaktiven Sauerstoffspezies. Um eine mögliche Änderung in der Aminosäurennutzung durch den Einfluss von Sauerstoff und seinen reaktiven Spezies untersuchen zu können wurden, Bereiche bzw. Kompartimente der menschlichen Zelle definiert, die einen Referenzrahmen bildeten und bekannt dafür sind, einen relativ hohen Grad an reaktiven Sauerstoffspezies aufzuweisen. Aus dem Vergleich wurde deutlich, dass vor allem die beiden redox-aktiven und schwefeltragenden Aminosäuren Cystein und Methionin durch eine besondere Verteilung und Nutzung charakterisiert sind. Cystein ist hierbei diejenige Aminosäure mit den deutlichsten Änderungen in den fünf untersuchten Modellen der oxidativen Belastung. In all diesen Modellen war die Nutzung von Cystein deutlich reduziert, wohingegen Methionin in Proteinen des Mitochondriums und der Elektronentransportkette angereichert war. Dieser auf den ersten Blick paradoxe Unterschied zwischen Cystein und Methionin wurde näher untersucht, indem die differenzierte Methioninnutzung in verschiedenen Zellkompartimenten von Homo sapiens charakterisiert wurde.rnDie sehr leicht zu oxidierende Aminosäure Methionin zeigt ein ungewöhnliches Verteilungsmuster in ihrer Nutzungshäufigkeit. Entgegen mancher Erwartung wird Methionin in zellulären Bereichen hoher oxidativer Belastung und starker Radikalproduktion intensiv verwendet. Dieses Verteilungsmuster findet man sowohl im intrazellulären Vergleich, als auch im Vergleich verschiedener Spezies untereinander, was daraufhin deutet, dass es einen lokalen Bedarf an redox-aktiven Aminosäuren gibt, der einen sehr starken Effekt auf die Nutzungshäufigkeit von Methionin ausübt. Eine hohe Stoffwechselrate, die im Allgemeinen mit einer erhöhten Produktion von Oxidantien assoziiert wird, scheint ein maßgeblicher Faktor der Akkumulation von Methionin in Proteinen der Atmungskette zu sein. Die Notwendigkeit, oxidiertes Antioxidans wieder zu reduzieren, findet auch bei Methionin Anwendung, denn zu Methioninsulfoxid oxidiertes Methionin wird durch die Methioninsulfoxidreduktase wieder zu Methionin reduziert. Daher kann die spezifische Akkumulation von Methionin in Proteinen, die verstärkt reaktiven Sauerstoffspezies ausgesetzt sind, als eine systematische Strategie angesehen werden, um andere labile Strukturen vor ungewollter Oxidation zu schützen. rnDa Cystein in allen untersuchten Modellen der oxidativen Belastung und im Besonderen in Membranproteinen der inneren Mitochondrienmembran lebensspannenabhängig depletiert war, wurde dieses Merkmal näher untersucht. Deshalb wurde die Hypothese getestet, ob ein besonderer Redox-Mechanismus der Thiolfunktion für diese selektive Depletion einer im Allgemeinen als harmlos oder antioxidativ geltenden Aminosäure verantwortlich ist. Um den Effekt von Cysteinresten in Membranen nachzustellen, wurden primäre humane Lungenfibroblasten (IMR90) mit diversen Modellsubstanzen behandelt. Geringe Konzentrationen der lipophilen Substanz Dodecanthiol verursachten eine signifikante Toxizität in IMR90-Zellen, die von einer schnellen Zunahme an polyubiquitinierten Proteinen und anderen Indikatoren des proteotoxischen Stresses, wie Sequestosom 1 (P62), HSP70 und HSP90 begleitet wurde. Dieser Effekt konnte spezifisch der Chemie der Thiolfunktion in Membranen zugeordnet werden, da Dodecanol (DOH), Dodecylmethylsulfid (DMS), Butanthiol oder wasserlösliche Thiole weder eine cytotoxische Wirkung noch eine Polyubiquitinierung von Proteinen verursachten. Die Ergebnisse stimmen mit der Hypothese überein, dass Thiole innerhalb von biologischen Membranen als radikalische Kettentransferagentien wirken. Diese Eigenschaft wird in der Polymerchemie durch Nutzung von lipophilen Thiolen in hydrophoben Milieus technisch für die Produktion von Polymeren benutzt. Da die Thiylradikal-spezifische Reaktion von cis-Fettsäuren zu trans-Fettsäuren in 12SH behandelten Zellen verstärkt ablief, kann gefolgert werden, dass 12SH zellulär radikalisiert wurde. In lebenden Organismen kann demnach die Oxidation von Cystein die Schädigung von Membranen beschleunigen und damit Einfallstore für die laterale Radikalisierung von integralen Membranproteinen schaffen, welche möglicherweise der Langlebigkeit abträglich ist, zumindest, wenn sie in der inneren Mitochondrienmembran auftritt.
Resumo:
Die rasante Entwicklung der Computerindustrie durch die stetige Verkleinerung der Transistoren führt immer schneller zum Erreichen der Grenze der Si-Technologie, ab der die Tunnelprozesse in den Transistoren ihre weitere Verkleinerung und Erhöhung ihrer Dichte in den Prozessoren nicht mehr zulassen. Die Zukunft der Computertechnologie liegt in der Verarbeitung der Quanteninformation. Für die Entwicklung von Quantencomputern ist die Detektion und gezielte Manipulation einzelner Spins in Festkörpern von größter Bedeutung. Die Standardmethoden der Spindetektion, wie ESR, erlauben jedoch nur die Detektion von Spinensembles. Die Idee, die das Auslesen von einzelnen Spins ermöglich sollte, besteht darin, die Manipulation getrennt von der Detektion auszuführen.rn Bei dem NV−-Zentrum handelt es sich um eine spezielle Gitterfehlstelle im Diamant, die sich als einen atomaren, optisch auslesbaren Magnetfeldsensor benutzen lässt. Durch die Messung seiner Fluoreszenz sollte es möglich sein die Manipulation anderer, optisch nicht detektierbaren, “Dunkelspins“ in unmittelbarer Nähe des NV-Zentrums mittels der Spin-Spin-Kopplung zu detektieren. Das vorgeschlagene Modell des Quantencomputers basiert auf dem in SWCNT eingeschlossenen N@C60.Die Peapods, wie die Einheiten aus den in Kohlenstoffnanoröhre gepackten Fullerenen mit eingefangenem Stickstoff genannt werden, sollen die Grundlage für die Recheneinheiten eines wahren skalierbaren Quantencomputers bilden. Die in ihnen mit dem Stickstoff-Elektronenspin durchgeführten Rechnungen sollen mit den oberflächennahen NV-Zentren (von Diamantplatten), über denen sie positioniert sein sollen, optisch ausgelesen werden.rnrnDie vorliegende Arbeit hatte das primäre Ziel, die Kopplung der oberflächennahen NV-Einzelzentren an die optisch nicht detektierbaren Spins der Radikal-Moleküle auf der Diamantoberfläche mittels der ODMR-Kopplungsexperimente optisch zu detektieren und damit entscheidende Schritte auf dem Wege der Realisierung eines Quantenregisters zu tun.rn Es wurde ein sich im Entwicklungsstadium befindende ODMR-Setup wieder aufgebaut und seine bisherige Funktionsweise wurde an kommerziellen NV-Zentrum-reichen Nanodiamanten verifiziert. Im nächsten Schritt wurde die Effektivität und Weise der Messung an die Detektion und Manipulation der oberflächennah (< 7 nm Tiefe) implantieren NV-Einzelzenten in Diamantplatten angepasst.Ein sehr großer Teil der Arbeit, der hier nur bedingt beschrieben werden kann, bestand aus derrnAnpassung der existierenden Steuersoftware an die Problematik der praktischen Messung. Anschließend wurde die korrekte Funktion aller implementierten Pulssequenzen und anderer Software-Verbesserungen durch die Messung an oberflächennah implantierten NV-Einzelzentren verifiziert. Auch wurde der Messplatz um die zur Messung der Doppelresonanz notwendigen Komponenten wie einen steuerbaren Elektromagneten und RF-Signalquelle erweitert. Unter der Berücksichtigung der thermischen Stabilität von N@C60 wurde für zukünftige Experimente auch ein optischer Kryostat geplant, gebaut, in das Setup integriert und charakterisiert.rn Die Spin-Spin-Kopplungsexperimente wurden mit dem sauerstoffstabilen Galvinoxyl-Radikalals einem Modell-System für Kopplung durchgeführt. Dabei wurde über die Kopplung mit einem NVZentrum das RF-Spektrum des gekoppelten Radikal-Spins beobachtet. Auch konnte von dem gekoppelten Spin eine Rabi-Nutation aufgenommen werden.rn Es wurden auch weitere Aspekte der Peapod Messung und Oberflächenimplantation betrachtet.Es wurde untersucht, ob sich die NV-Detektion durch die SWCNTs, Peapods oder Fullerene stören lässt. Es zeigte sich, dass die Komponenten des geplanten Quantencomputers, bis auf die C60-Cluster, für eine ODMR-Messanordnung nicht detektierbar sind und die NV-Messung nicht stören werden. Es wurde auch betrachtet, welche Arten von kommerziellen Diamantplatten für die Oberflächenimplantation geeignet sind, für die Kopplungsmessungen geeignete Dichte der implantierten NV-Zentren abgeschätzt und eine Implantation mit abgeschätzter Dichte betrachtet.
Resumo:
Future experiments in nuclear and particle physics are moving towards the high luminosity regime in order to access rare processes. In this framework, particle detectors require high rate capability together with excellent timing resolution for precise event reconstruction. In order to achieve this, the development of dedicated FrontEnd Electronics (FEE) for detectors has become increasingly challenging and expensive. Thus, a current trend in R&D is towards flexible FEE that can be easily adapted to a great variety of detectors, without impairing the required high performance. This thesis reports on a novel FEE for two different detector types: imaging Cherenkov counters and plastic scintillator arrays. The former requires high sensitivity and precision for detection of single photon signals, while the latter is characterized by slower and larger signals typical of scintillation processes. The FEE design was developed using high-bandwidth preamplifiers and fast discriminators which provide Time-over-Threshold (ToT). The use of discriminators allowed for low power consumption, minimal dead-times and self-triggering capabilities, all fundamental aspects for high rate applications. The output signals of the FEE are readout by a high precision TDC system based on FPGA. The performed full characterization of the analogue signals under realistic conditions proved that the ToT information can be used in a novel way for charge measurements or walk corrections, thus improving the obtainable timing resolution. Detailed laboratory investigations proved the feasibility of the ToT method. The full readout chain was investigated in test experiments at the Mainz Microtron: high counting rates per channel of several MHz were achieved, and a timing resolution of better than 100 ps after walk correction based on ToT was obtained. Ongoing applications to fast Time-of-Flight counters and future developments of FEE have been also recently investigated.
Resumo:
Seit seiner Entdeckung im Jahre 1978 wurden für hyperpolarisiertes (HP) 129Xe zahlreiche Anwendungen gefunden. Aufgrund seiner hohen Verstärkung von NMR-Signalen wird es dabei typischerweise für Tracer- und Oberflächenstudien verwendet. Im gasförmigen Zustand ist es ein interessantes, klinisches Kontrastmittel, welches für dynamische Lungen MRT genutzt oder auch in Blut oder lipophilen Flüssigkeiten gelöst werden kann. Weiterhin findet HP-Xe auch in der Grundlagenphysik in He-Xe Co-Magnetometern Verwendung, mit welchen z. B. das elektrische Dipolmoment von Xe bestimmt werden soll, oder es dient zur Überprüfung auf Lorentz-Invarianzen. Alle diese Anwendungen profitieren von einem hohen Polarisationsgrad (PXe), um hohe Signalstärken und lange Lagerzeiten zu erreichen. rnIn dieser Arbeit wurden zwei mobile Xe-Polarisatoren konstruiert: einer für Experimente in der Grundlagenphysik mit einer Produktionsrate von 400 mbar·l/h mit PXe ≈ 5%. Der zweite Xe-Polarisator wurde für medizinische Anwendungen entwickelt und soll 1 bar l/h mit PXe > 20% erzeugen. Der letztere wurde noch nicht getestet. Die Arbeitsbedingungen des Xe-Polarisators für Grundlagenphysik (Strömung des Gasgemischs, Temperatur, Druck und Konzentration von Xe) wurden variiert, um einen höchstmöglichen Polarisationsgrad zu erzielen. Die maximale Polarisation von 5,6 % wurde bei Verwendung eine Gasmischung von 1% Xe bei einem Durchfluss von 200 ml/min, einer Temperatur von 150°C und einem Gesamtdruck von 4 bar erreicht. rnWeiterhin muss HP-Xe auch effizient gelagert werden, um Polarisationsverluste zu minimieren. Das ist besonders für solche Anwendungen notwendig, welche an einem entfernten Standort durchgeführt werden sollen oder auch wenn lange Spinkohärenzeiten gefordert sind, z.B. bei He-Xe Co-Magnetometern. rnHierbei bestand bisher die größte Schwierigkeit darin, die Reproduzierbarkeit der gemessenen Lagerzeiten sicherzustellen. In dieser Arbeit konnte die Spin-Gitter-Relaxationszeit (T1) von HP-129Xe in unbeschichteten, Rb-freien, sphärischen Zellen aus Aluminiumsilikatglas (GE-180) signifikant verbessert werden. Die T1–Zeit wurde in einem selbstgebauten Niederfeld-NMR-System (2 mT) sowohl für reines HP-Xe als auch für HP-Xe in Mischungen mit N2, SF6 und CO2 bestimmt. Bei diesen Experimenten wurde die maximale Relaxationszeit für reines Xe (85% 129 Xe) bei (4,6 ± 0,1) h festgestellt. Dabei lagen die typischen Wand-Relaxationszeiten bei ca. 18 h für Glaszellen mit einem Durchmesser von 10 cm. Des Weiteren wurde herausgefunden, dass CO2 eine unerwartet hohe Effizienz bei der Verkürzung der Lebensdauer der Xe-Xe Moleküle zeigte und somit zu einer deutlichen Verlängerung der gesamten T1-Zeit genutzt werden kann. rnIm Verlauf vieler Experimente wurde durch wiederholte Messungen mit der gleichen Zelle, ein "Alterungsprozess“ bei der Wandrelaxation identifiziert und untersucht. Dieser Effekt könnte leicht rückgängig gemacht werden, indem die anfängliche Reinigungsprozedur wiederholt wurde. Auf diese Weise kann eine konstante Wandrelaxation sichergestellt werden, durch die sehr reproduzierbare T1-Messungen möglich werden. rnSchließlich wurde die maximale Relaxationszeit für HP-Xe mit natürlicher Häufigkeit in Mischungen mit SF6 bestimmt. Überraschenderweise war dieser Wert um ca. 75% niedriger als der Wert für Xenon, das zu 85% mit 129Xe angereichert war. Dieser Effekt wurde durch drei unabhängige Experimente bestätigt, da er nicht von der bestehenden Theorie der Xe-Relaxation ableitbar ist. rnDie Polarisation von HP-Xe, PXe, wird normalerweise durch den Vergleich der NMR-Signale des HP-Xe mit einer thermischen polarisierten Probe (z. B. 1H2O oder Xe) bestimmt. Dabei beinhaltet der Vergleich unterschiedlicher Messungen an verschiedenen Proben (unterschiedlicher Druck, Signalintensität und Messverfahren) viele experimentelle Unsicherheiten, welche sich oft nicht leicht bestimmen lassen. Eine einfache, genaue und kostengünstige Methode zur Bestimmung von PXe durch eine direkte Messung der makroskopischen Magnetisierung in einem statischen Magnetfeld vermeidet alle diese Unsicherheiten. Dieses Verfahren kann Polarisationen von > 2 % mit einer Genauigkeit von maximal 10% fast ohne Polarisationsverlust bestimmen. Zusätzlich kann diese Methode ohne weitere Änderungen auch für Bestimmungen des Polarisationsgrades anderer HP-Gase verwendet werden.rn
Resumo:
Die Erdatmosphäre besteht hauptsächlich aus Stickstoff (78%), Sauerstoff (21%) und Edelga¬sen. Obwohl Partikel weniger als 0,1% ausmachen, spielen sie eine entscheidende Rolle in der Chemie und Physik der Atmosphäre, da sie das Klima der Erde sowohl direkt als auch indirekt beeinflussen. Je nach Art der Bildung unterscheidet man zwischen primären und sekundären Partikeln, wobei primäre Partikel direkt in die Atmosphäre eingetragen werden. Sekundäre Partikel hingegen entstehen durch Kondensation von schwerflüchtigen Verbindungen aus der Gasphase, welche durch Reaktionen von gasförmigen Vorläufersubstanzen (volatile organic compounds, VOCs) mit atmosphärischen Oxidantien wie Ozon oder OH-Radikalen gebildet werden. Da die meisten Vorläufersubstanzen organischer Natur sind, wird das daraus gebil¬dete Aerosol als sekundäres organisches Aerosol (SOA) bezeichnet. Anders als die meisten primären Partikel stammen die VOCs überwiegend aus biogenen Quellen. Es handelt sich da¬bei um ungesättigte Kohlenwasserstoffe, die bei intensiver Sonneneinstrahlung und hohen Temperaturen von Pflanzen emittiert werden. Viele der leichtflüchtigen Vorläufersubstanzen sind chiral, sowohl die Vorläufer als auch die daraus gebildeten Partikel werden aber in den meisten Studien als eine Verbindung betrachtet und gemeinsam analysiert. Die mit Modellen berechneten SOA-Konzentrationen, welche auf dieser traditionellen Vorstellung der SOA-Bil¬dung beruhen, liegen deutlich unterhalb der in der Atmosphäre gefundenen, so dass neben diesem Bildungsweg auch noch andere SOA-Bildungsarten existieren müssen. Aus diesem Grund wird der Fokus der heutigen Forschung vermehrt auf die heterogene Chemie in der Partikelphase gerichtet. Glyoxal als Modellsubstanz kommt hierbei eine wichtige Rolle zu. Es handelt sich bei dieser Verbindung um ein Molekül mit einem hohen Dampfdruck, das auf Grund dieser Eigenschaft nur in der Gasphase zu finden sein sollte. Da es aber über zwei Alde¬hydgruppen verfügt, ist es sehr gut wasserlöslich und kann dadurch in die Partikelphase über¬gehen, wo es heterogenen chemischen Prozessen unterliegt. Unter anderem werden in An¬wesenheit von Ammoniumionen Imidazole gebildet, welche wegen der beiden Stickstoff-He¬teroatome lichtabsorbierende Eigenschaften besitzen. Die Verteilung von Glyoxal zwischen der Gas- und der Partikelphase wird durch das Henrysche Gesetz beschrieben, wobei die Gleichgewichtskonstante die sogenannte Henry-Konstante ist. Diese ist abhängig von der un¬tersuchten organischen Verbindung und den im Partikel vorhandenen anorganischen Salzen. Für die Untersuchung chiraler Verbindungen im SOA wurde zunächst eine Filterextraktions¬methode entwickelt und die erhaltenen Proben anschließend mittels chiraler Hochleistungs-Flüssigchromatographie, welche an ein Elektrospray-Massenspektrometer gekoppelt war, analysiert. Der Fokus lag hierbei auf dem am häufigsten emittierten Monoterpen α-Pinen und seinem Hauptprodukt, der Pinsäure. Da bei der Ozonolyse des α-Pinens das cyclische Grund¬gerüst erhalten bleibt, können trotz der beiden im Molekül vorhanden chiralen Zentren nur zwei Pinsäure Enantiomere gebildet werden. Als Extraktionsmittel wurde eine Mischung aus Methanol/Wasser 9/1 gewählt, mit welcher Extraktionseffizienzen von 65% für Pinsäure Enan¬tiomer 1 und 68% für Pinsäure Enantiomer 2 erreicht werden konnten. Des Weiteren wurden Experimente in einer Atmosphärensimulationskammer durchgeführt, um die Produkte der α-Pinen Ozonolyse eindeutig zu charakterisieren. Enantiomer 1 wurde demnach aus (+)-α-Pinen gebildet und Enantiomer 2 entstand aus (-)-α-Pinen. Auf Filterproben aus dem brasilianischen Regenwald konnte ausschließlich Pinsäure Enantiomer 2 gefunden werden. Enantiomer 1 lag dauerhaft unterhalb der Nachweisgrenze von 18,27 ng/mL. Im borealen Nadelwald war das Verhältnis umgekehrt und Pinsäure Enantiomer 1 überwog vor Pinsäure Enantiomer 2. Das Verhältnis betrug 56% Enantiomer 1 zu 44% Enantiomer 2. Saisonale Verläufe im tropischen Regenwald zeigten, dass die Konzentrationen zur Trockenzeit im August höher waren als wäh¬rend der Regenzeit im Februar. Auch im borealen Nadelwald wurden im Sommer höhere Kon¬zentrationen gemessen als im Winter. Die Verhältnisse der Enantiomere änderten sich nicht im jahreszeitlichen Verlauf. Die Bestimmung der Henry-Konstanten von Glyoxal bei verschiedenen Saataerosolen, nämlich Ammoniumsulfat, Natriumnitrat, Kaliumsulfat, Natriumchlorid und Ammoniumnitrat sowie die irreversible Produktbildung aus Glyoxal in Anwesenheit von Ammoniak waren Forschungs¬gegenstand einer Atmosphärensimulationskammer-Kampagne am Paul-Scherrer-Institut in Villigen, Schweiz. Hierzu wurde zunächst das zu untersuchende Saataerosol in der Kammer vorgelegt und dann aus photochemisch erzeugten OH-Radikalen und Acetylen Glyoxal er¬zeugt. Für die Bestimmung der Glyoxalkonzentration im Kammeraerosol wurde zunächst eine beste¬hende Filterextraktionsmethode modifiziert und die Analyse mittels hochauflösender Mas¬senspektrometrie realisiert. Als Extraktionsmittel kam 100% Acetonitril, ACN zum Einsatz wo¬bei die Extraktionseffizienz bei 85% lag. Für die anschließende Derivatisierung wurde 2,4-Di¬nitrophenylhydrazin, DNPH verwendet. Dieses musste zuvor drei Mal mittels Festphasenex¬traktion gereinigt werden um störende Blindwerte ausreichend zu minimieren. Die gefunde¬nen Henry-Konstanten für Ammoniumsulfat als Saataerosol stimmten gut mit in der Literatur gefundenen Werten überein. Die Werte für Natriumnitrat und Natriumchlorid als Saataerosol waren kleiner als die von Ammoniumsulfat aber größer als der Wert von reinem Wasser. Für Ammoniumnitrat und Kaliumsulfat konnten keine Konstanten berechnet werden. Alle drei Saataerosole führten zu einem „Salting-in“. Das bedeutet, dass bei Erhöhung der Salzmolalität auch die Glyoxalkonzentration im Partikel stieg. Diese Beobachtungen sind auch in der Litera¬tur beschrieben, wobei die Ergebnisse dort nicht auf der Durchführung von Kammerexperi¬menten beruhen, sondern mittels bulk-Experimenten generiert wurden. Für die Trennung der Imidazole wurde eine neue Filterextraktionsmethode entwickelt, wobei sich ein Gemisch aus mit HCl angesäuertem ACN/H2O im Verhältnis 9/1 als optimales Extrak¬tionsmittel herausstellte. Drei verschiedenen Imidazole konnten mit dieser Methode quanti¬fiziert werden, nämlich 1-H-Imidazol-4-carbaldehyd (IC), Imidazol (IM) und 2,2‘-Biimidazol (BI). Die Effizienzen lagen für BI bei 95%, für IC bei 58% und für IM bei 75%. Kammerexperimente unter Zugabe von Ammoniak zeigten höhere Imidazolkonzentrationen als solche ohne. Wurden die Experimente ohne Ammoniak in Anwesenheit von Ammoni¬umsulfat durchgeführt, wurden höhere Imidazol-Konzentrationen gefunden als ohne Ammo¬niumionen. Auch die relative Luftfeuchtigkeit spielte eine wichtige Rolle, da sowohl eine zu hohe als auch eine zu niedrige relative Luftfeuchtigkeit zu einer verminderten Imidazolbildung führte. Durch mit 13C-markiertem Kohlenstoff durchgeführte Experimente konnte eindeutig gezeigt werden, dass es sich bei den gebildeten Imidazolen und Glyoxalprodukte handelte. Außerdem konnte der in der Literatur beschriebene Bildungsmechanismus erfolgreich weiter¬entwickelt werden. Während der CYPHEX Kampagne in Zypern konnten erstmalig Imidazole in Feldproben nach¬gewiesen werden. Das Hauptprodukt IC zeigte einen tageszeitlichen Verlauf mit höheren Kon¬zentrationen während der Nacht und korrelierte signifikant aber schwach mit der Acidität und Ammoniumionenkonzentration des gefundenen Aerosols.
Resumo:
n this paper we present a novel hybrid approach for multimodal medical image registration based on diffeomorphic demons. Diffeomorphic demons have proven to be a robust and efficient way for intensity-based image registration. A very recent extension even allows to use mutual information (MI) as a similarity measure to registration multimodal images. However, due to the intensity correspondence uncertainty existing in some anatomical parts, it is difficult for a purely intensity-based algorithm to solve the registration problem. Therefore, we propose to combine the resulting transformations from both intensity-based and landmark-based methods for multimodal non-rigid registration based on diffeomorphic demons. Several experiments on different types of MR images were conducted, for which we show that a better anatomical correspondence between the images can be obtained using the hybrid approach than using either intensity information or landmarks alone.
Resumo:
The presynaptic terminal contains a complex network of filaments whose precise organization and functions are not yet understood. The cryoelectron tomography experiments reported in this study indicate that these structures play a prominent role in synaptic vesicle release. Docked synaptic vesicles did not make membrane to membrane contact with the active zone but were instead linked to it by tethers of different length. Our observations are consistent with an exocytosis model in which vesicles are first anchored by long (>5 nm) tethers that give way to multiple short tethers once vesicles enter the readily releasable pool. The formation of short tethers was inhibited by tetanus toxin, indicating that it depends on soluble N-ethyl-maleimide sensitive fusion protein attachment protein receptor complex assembly. Vesicles were extensively interlinked via a set of connectors that underwent profound rearrangements upon synaptic stimulation and okadaic acid treatment, suggesting a role of these connectors in synaptic vesicle mobilization and neurotransmitter release.
Resumo:
Experimental modal analysis techniques are applied to characterize the planar dynamic behavior of two spur planetary gears. Rotational and translational vibrations of the sun gear, carrier, and planet gears are measured. Experimentally obtained natural frequencies, mode shapes, and dynamic response are compared to the results from lumped-parameter and finite element models. Two qualitatively different classes of mode shapes in distinct frequency ranges are observed in the experiments and confirmed by the lumped-parameter model, which considers the accessory shafts and fixtures in the system to capture all of the natural frequencies and modes. The finite element model estimates the high-frequency modes that have significant tooth mesh deflection without considering the shafts and fixtures. The lumped-parameter and finite element models accurately predict the natural frequencies and modal properties established by experimentation. Rotational, translational, and planet mode types presented in published mathematical studies are confirmed experimentally. The number and types of modes in the low-frequency and high-frequency bands depend on the degrees of freedom in the central members and planet gears, respectively. The accuracy of natural frequency prediction is improved when the planet bearings have differing stiffnesses in the tangential and radial directions, consistent with the bearing load direction. (C) 2012 Elsevier Ltd. All rights reserved.
Resumo:
Simulation is an important resource for researchers in diverse fields. However, many researchers have found flaws in the methodology of published simulation studies and have described the state of the simulation community as being in a crisis of credibility. This work describes the project of the Simulation Automation Framework for Experiments (SAFE), which addresses the issues that undermine credibility by automating the workflow in the execution of simulation studies. Automation reduces the number of opportunities for users to introduce error in the scientific process thereby improvingthe credibility of the final results. Automation also eases the job of simulation users and allows them to focus on the design of models and the analysis of results rather than on the complexities of the workflow.
Resumo:
The objective of this study was to develop a criteria catalogue serving as a guideline for authors to improve quality of reporting experiments in basic research in homeopathy. A Delphi Process was initiated including three rounds of adjusting and phrasing plus two consensus conferences. European researchers who published experimental work within the last 5 years were involved. A checklist for authors provide a catalogue with 23 criteria. The “Introduction” should focus on underlying hypotheses, the homeopathic principle investigated and state if experiments are exploratory or confirmatory. “Materials and methods” should comprise information on object of investigation, experimental setup, parameters, intervention and statistical methods. A more detailed description on the homeopathic substances, for example, manufacture, dilution method, starting point of dilution is required. A further result of the Delphi process is to raise scientists' awareness of reporting blinding, allocation, replication, quality control and system performance controls. The part “Results” should provide the exact number of treated units per setting which were included in each analysis and state missing samples and drop outs. Results presented in tables and figures are as important as appropriate measures of effect size, uncertainty and probability. “Discussion” in a report should depict more than a general interpretation of results in the context of current evidence but also limitations and an appraisal of aptitude for the chosen experimental model. Authors of homeopathic basic research publications are encouraged to apply our checklist when preparing their manuscripts. Feedback is encouraged on applicability, strength and limitations of the list to enable future revisions.
Resumo:
The progress of wet age-related macular degeneration can now be controlled by intravitreal drug injection. This approach requires repeated injections, which could be avoided by delivering the drug to the retina. Intraocular implants are a promising solution for drug delivery near the retina. Currently, their accurate placement is challenging, and they can only be removed after a vitrectomy. In this paper, we introduce an approach for minimally invasive retinal drug delivery using magnetic intraocular inserts. We briefly discuss the electromagnetic-control system for magnetic implants and then focus on evaluating their ability to move in the vitreous humor. The mobility of magnetic intraocular implants is estimated in vitro with synthesized vitreous humors, and ex vivo with experiments on cadaver porcine eyes. Preliminary results show that with such magnetic implants a vitrectomy can be avoided.
Resumo:
We previously reported that nuclear grade assignment of prostate carcinomas is subject to a cognitive bias induced by the tumor architecture. Here, we asked whether this bias is mediated by the non-conscious selection of nuclei that "match the expectation" induced by the inadvertent glance at the tumor architecture. 20 pathologists were asked to grade nuclei in high power fields of 20 prostate carcinomas displayed on a computer screen. Unknown to the pathologists, each carcinoma was shown twice, once before a background of a low grade, tubule-rich carcinoma and once before the background of a high grade, solid carcinoma. Eye tracking allowed to identify which nuclei the pathologists fixated during the 8 second projection period. For all 20 pathologists, nuclear grade assignment was significantly biased by tumor architecture. Pathologists tended to fixate on bigger, darker, and more irregular nuclei when those were projected before kigh grade, solid carcinomas than before low grade, tubule-rich carcinomas (and vice versa). However, the morphometric differences of the selected nuclei accounted for only 11% of the architecture-induced bias, suggesting that it can only to a small part be explained by the unconscious fixation on nuclei that "match the expectation". In conclusion, selection of « matching nuclei » represents an unconscious effort to vindicate the gravitation of nuclear grades towards the tumor architecture.
Resumo:
Nowadays computer simulation is used in various fields, particularly in laboratories where it is used for the exploration data which are sometimes experimentally inaccessible. In less developed countries where there is a need for up to date laboratories for the realization of practical lessons in chemistry, especially in secondary schools and some higher institutions of learning, it may permit learners to carryout experiments such as titrations without the use of laboratory materials and equipments. Computer simulations may also permit teachers to better explain the realities of practical lessons, given that computers have now become very accessible and less expensive compared to the acquisition of laboratory materials and equipments. This work is aimed at coming out with a virtual laboratory that shall permit the simulation of an acid-base titration and an oxidation-reduction titration with the use of synthetic images. To this effect, an appropriate numerical method was used to obtain appropriate organigram, which were further transcribed into source codes with the help of a programming language so as to come out with the software.
Resumo:
Brain functions, such as learning, orchestrating locomotion, memory recall, and processing information, all require glucose as a source of energy. During these functions, the glucose concentration decreases as the glucose is being consumed by brain cells. By measuring this drop in concentration, it is possible to determine which parts of the brain are used during specific functions and consequently, how much energy the brain requires to complete the function. One way to measure in vivo brain glucose levels is with a microdialysis probe. The drawback of this analytical procedure, as with many steadystate fluid flow systems, is that the probe fluid will not reach equilibrium with the brain fluid. Therefore, brain concentration is inferred by taking samples at multiple inlet glucose concentrations and finding a point of convergence. The goal of this thesis is to create a three-dimensional, time-dependent, finite element representation of the brainprobe system in COMSOL 4.2 that describes the diffusion and convection of glucose. Once validated with experimental results, this model can then be used to test parameters that experiments cannot access. When simulations were run using published values for physical constants (i.e. diffusivities, density and viscosity), the resulting glucose model concentrations were within the error of the experimental data. This verifies that the model is an accurate representation of the physical system. In addition to accurately describing the experimental brain-probe system, the model I created is able to show the validity of zero-net-flux for a given experiment. A useful discovery is that the slope of the zero-net-flux line is dependent on perfusate flow rate and diffusion coefficients, but it is independent of brain glucose concentrations. The model was simplified with the realization that the perfusate is at thermal equilibrium with the brain throughout the active region of the probe. This allowed for the assumption that all model parameters are temperature independent. The time to steady-state for the probe is approximately one minute. However, the signal degrades in the exit tubing due to Taylor dispersion, on the order of two minutes for two meters of tubing. Given an analytical instrument requiring a five μL aliquot, the smallest brain process measurable for this system is 13 minutes.
Resumo:
Meta-cognition, or "thinking about thinking," has been studied extensively in humans, but very little is known about the process in animals. Although great apes and rhesus macaques (Macaca mulatta) have demonstrated multiple apparently meta-cognitive abilities, other species have either been largely ignored or failed to convincingly display meta-cognitive traits. Recent work by Marsh, however, raised the possibility that some species may possess rudimentary or partial forms of meta-cognition. This thesis sought to further investigate this possibility by running multiple comparative experiments. The goal of the first study was to examine whether lion-tailed macaques, a species that may have a rudimentary form of meta-cognition, are able to use an uncertainty response adaptively, and if so, whether they could use the response flexibly when the stimuli for which the subjects should be uncertain changed. The macaques' acquisition of the initial discrimination task is ongoing, and as such there were not yet data to support a conclusion either way. In the second study, tufted capuchins were required to locate a food reward hidden beneath inverted cups that sat on a Plexiglas tray. In some conditions the capuchins were shown where the food was hidden, in others they could infer its location, and in yet others they were not given information about the location of the food. On all trials, however, capuchins could optionally seek additional information by looking up through the Plexiglas into the cups. In general, capuchins did this less often when they were shown the food reward, but not when they could infer the reward's location. These data suggest capuchins only meta-cognitively control their information seeking in some conditions, and thus, add support to the potential for a rudimentary form of meta-cognition. In convergence with other studies, these results may represent early models for rudimentary meta-cognition, although viable alternative explanations still remain.