999 resultados para Multimediale Methode
Resumo:
This thesis focused on the polymer’s influence on the interaction of polymeric NPs with epithelial cells. Furthermore, the measurement of single submicron nanoparticles in a commercially available flow cytometer was established, to provide a new method in the toolbox for nanoparticle-cell studies. This gave way to develop a routine for the absolute quantification of intracellular NPs via flow cytometry. rnThe cellular uptake of poly(methyl methacrylate) (PMMA), polystyrene (PS) and poly(L-lactide) (PLLA) nanoparticles was investigated via flow cytometry. PLLA-NPs were internalized the most efficiently. But upon co-incubation of PS and PLLA particles with cells, the two particles mutually influenced their uptake, slightly shifting the relative uptake efficiencies. This phenomenon should be based on specific properties of the different polymer materials. The findings indicated a competition (which is strongly influenced by properties of the respective polymeric material) for the uptake into the cells, allegedly due to competition for specific coatings with serum components that enhances the NPs’ cellular uptake. The fluorescence of single 150 nm particles was determined with a benchtop cytometer, breaching the machine’s detection limit but yielding precise NP fluorescence standardization factors. Up to now, these standardization factors are mostly determined by spectroscopic analysis of the particles’ dye content. Finally a flow cytometric routine for absolute particle counting in cells was devised. This quantitation revealed a low uptake efficiency for un-functionalized PMMA NPs of less than 150 NPs (approx. 0,001 % of added) per cell.rn
Resumo:
Das Glaukom ist, nach dem Katarakt, die zweithäufigste Ursache für Erblindungen weltweit mit Milionen von Betroffenen, die von dieser zunächst weitgehend symptomfreien neurodegenerativen Erkrankung heimgesucht werden. Die Möglichkeiten auf dem Feld der Diagnose beschränken sich bislang weitestgehend auf die Messung des Augeninnendrucks und der Beurteilung des Augenhintergrundes durch einen erfahrenen Augenarzt. Eine labordiagnostische Prophylaxe ist bis heute nicht verfügbar, die Zahl unerkannter Erkrankungen dementsprechend hoch. Hierdurch geht wertvolle Zeit verloren, die man für eine effektive Therapie nutzen könnte.rnBezüglich der Pathogenese des Glaukoms geht man heute von mehreren, miteinander wechselwirkenden Pathomechanismen aus, zu denen neben mechanischen Einflüssen durch einen erhöhten IOD auch Hypoxie, verminderte Neutrophinversorgung, Exzitotoxizität, oxidativer Stress und eine Beteiligung autoimmuner Prozesse gezählt werden. Unabhängig vom Pathomechanismus folgt stets die Etablierung umfangreicher degenerativer Prozesse im Sehnervenkopf, den retinalen Ganglienzellen und den Axonen des Sehnerven, die letztlich im irreversiblen Untergang dieser Neuronen münden. Diese pathologischen Prozesse im ZNS hinterlassen auf Proteomebene Spuren, die mithilfe moderner massenspektrometrischer Methoden in Kombination mit multivariaten statistischen Methoden detektierbar und als sogenannte Biomarker-Kandidaten mit definiertem Molekulargewicht darstellbar sind. In dieser Arbeit wurde ein „Workflow“ entwickelt, der es ermöglicht, diese Biomarker-Kandidaten im Blutserum und in der Tränenflüssigkeit in einfachen, reproduzierbaren Schritten zu identifizieren und zu charakterisieren. Abweichend von der etablierten Methotik der Bottom-Up-Proteomics musste hierfür eine Methode entsprechend einer Top-Down-Philosophie entwickelt werden, die es erlaubt, die Spuren des Glaukoms im Proteom zu detektieren und zu charakterisieren.rnDies erfolgte in dieser Arbeit durch sowohl massenspektroskopischen Methoden wie SELDI-TOF® und MALDI-Tof-Tof als auch durch Bead-, Gel- und Flüssigkeits-chromatographisch-basierte Separations und Fraktionierungstechniken.rnDie erfolgreiche Kombination dieser Methoden führte zu Identifikationen einer ganzen Reihe von Biomarker-Kandidaten. Unter den identifizierten Proteinen, die bezüglich ihres korrespondierenden SELDI-Peaks im Massenbereich von Biomarker-Kandidaten liegen, finden sich Zytokine und Effektormoleküle der angeborernen Immunität, stressinduzierbare Kinasen, Faktoren, die zum Schutz der Telomeren dienen, Proliferationsmarker, neuronale Antigene und Transportproteine. Darüber hinaus wurden Komponenten identifiziert, die an der neuronalen Neutrophinversorgung beteiligt sind, neuronale Rezeptoren und Antigene, Komponenten des Komplementsystems und des MHC-I-Komplexes. All diese identifizierten Proteine sind bezüglich ihrer Funktion und möglichen Rolle innerhalb der Pathogenese des Glaukoms detailliert beschrieben und charakterisiert. Dies erlaubt einen umfassenden Einblick in alle Pathomechanismen, denen nach heutigem Kenntnisstand, eine Rolle an der Pathogenese des Glaukoms unterstellt wird.rn
Resumo:
Questo elaborato si specializza nell'ambito della traduzione multimediale, un campo che a mio parere, risalta lo sviluppo tecnologico e sociale del nostro tempo. Nello specifico, ho focalizzato la mia attenzione sul sottotitolaggio di un frammento della seconda puntata di una serie televisiva spagnola dal titolo "El tiempo entre costuras". Tale serie è tratta da un romanzo spagnolo di successo dallo stesso titolo, dell'autrice María Dueñas. Il mio elaborato perciò, tratterà delineare un confronto di tipo linguistico e traduttivo fra la versione letteraria del romanzo e il sottotitolaggio correlato della serie. L'elaborato si suddivide in tre capitoli che trattano in maniera sistematica il processo lavorativo che ho deciso di seguire. Il primo capitolo riguarda la descrizione della serie televisiva trattata e allo stesso tempo una presentazione del romanzo cui si ispira. In altre parole, una panoramica del contesto storico, culturale, sociale e linguistico di queste due opere e dei loro risvolti traduttivi. Il secondo capitolo affronta in maniera generale il tema della traduzione audiovisiva, la sua evoluzione nel tempo, l'importanza di questa nella società odierna, in modo particolare del sottotitolaggio in Italia. Inoltre, si vuole anche trattare il tema della traduzione intersemiotica, cioè l’azione di trasportare un romanzo a livello multimediale e il relativo regolamento del processo traduttivo.Infine, il terzo capitolo è dedicato al confronto delle due realtà di traduzione, quella letterale e quella multimediale e soprattutto alle differenze che esistono tra i due processi linguistici e alle particolarità culturali della lingua spagnola con rispetto a quella italiana.
Resumo:
L'elaborato consiste in una proposta di traduzione del libro “>>”. Si tratta di una raccolta di vignette di Oleg Tiščenkov, disegnatore e fumettista ormai affermato in Russia. La traduzione è introdotta da una breve panoramica sulla storia del fumetto in questo Paese e da una presentazione dell’autore e della sua opera. Segue un commento nel quale si dà una definizione di fumetto come testo multimediale e si affrontano sinteticamente le principali difficoltà che presenta tale genere testuale a livello traduttivo. A partire dagli aspetti generali della questione, si passa poi a una riflessione più dettagliata sulle problematiche del testo scelto.
Resumo:
The behaviour of a polymer depends strongly on the length- and time scale as well as on the temperature rnat which it is probed. In this work, I describe investigations of polymer surfaces using scanning probe rnmicroscopy with heatable probes. With these probes, surfaces can be heated within seconds down to rnmicroseconds. I introduce experiments for the local and fast determination of glass transition and melting rntemperatures. I developed a method which allows the determination of glass transition and melting rntemperatures on films with thicknesses below 100 nm: A background measurement on the substrate was rnperformed. The resulting curve was subtracted from the measurement on the polymer film. The rndifferential measurement on polystyrene films with thicknesses between 35 nm and 160 nm showed rncharacteristic signals at 95 ± 1 °C, in accordance with the glass transition of polystyrene. Pressing heated rnprobes into polymer films causes plastic deformation. Nanometer sized deformations are currently rninvestigated in novel concepts for high density data storage. A suitable medium for such a storage system rnhas to be easily indentable on one hand, but on the other hand it also has to be very stable towards rnsurface induced wear. For developing such a medium I investigated a new approach: A comparably soft rnmaterial, namely polystyrene, was protected with a thin but very hard layer made of plasma polymerized rnnorbornene. The resulting bilayered media were tested for surface stability and deformability. I showed rnthat the bilayered material combines the deformability of polystyrene with the surface stability of the rnplasma polymer, and that the material therefore is a very good storage medium. In addition we rninvestigated the glass transition temperature of polystyrene at timescales of 10 µs and found it to be rnapprox. 220 °C. The increase of this characteristic temperature of the polymer results from the short time rnat which the polymer was probed and reflects the well-known time-temperature superposition principle. rnHeatable probes were also used for the characterization of silverazide filled nanocapsules. The use of rnheatable probes allowed determining the decomposition temperature of the capsules from few rnnanograms of material. The measured decomposition temperatures ranged from 180 °C to 225 °C, in rnaccordance with literature values. The investigation of small amounts of sample was necessary due to the rnlimited availability of the material. Furthermore, investigating larger amounts of the capsules using rnconventional thermal gravimetric analysis could lead to contamination or even damage of the instrument. rnBesides the analysis of material parameters I used the heatable probes for the local thermal rndecomposition of pentacene precursor material in order to form nanoscale conductive structures. Here, rnthe thickness of the precursor layer was important for complete thermal decomposition. rnAnother aspect of my work was the investigation of redox active polymers - Poly-10-(4-vinylbenzyl)-10H-rnphenothiazine (PVBPT)- for data storage. Data is stored by changing the local conductivity of the material rnby applying a voltage between tip and surface. The generated structures were stable for more than 16 h. It rnwas shown that the presence of water is essential for succesfull patterning.
Resumo:
Keying e composizione sono da sempre tecniche ampiamente utilizzate in contesti multimediali, quali produzione cinematografica e televisiva; il chroma keying è in particolare la tecnica più popolare, ma presenta una serie di limiti e problematiche. In questo elaborato viene proposta una tecnica alternativa di estrazione, basata sull'uso della profondità, operante in tempo reale e che sfrutta il device Kinect di Microsoft. Sono proposti una serie di algoritmi, basati su tecniche di edge detection, utilizzati per il miglioramento della depth map lungo i bordi di estrazione; viene infine testato il risultato ottenuto dall'implementazione del sistema e proposta una possibile applicazione nell'ambito del teatro multimediale.
Resumo:
Hintergrund: Die antimetabolitgestützte Trabekulektomie stellt seit längeren denrnGoldstandard bei medikamentös nicht ausreichend therapierbaren Glaukomen dar. Kurz- und mittelfristige Erfolge wurden durch viele Studien bestätigt. Allerdings unterliegen diese sehr unterschiedlichen Erfolgsdefinitionen. Eine strikte Druckkontrolle ≤ 15 mm Hg ohne zusätzliche medikamentöse Therapie erscheint sinnvoll einen risikofreien Therapieerfolg zu bewerten. Es existieren nur wenige Langzeitstudien mit diesem Erfolgskriterium. Die durchgeführte Studie soll einen Eindruck der ophthalmologischen Versorgung trabekulektomierter Patienten an der Universitätsaugenklinik Mainz über einen bewusst langen Zeitraum bieten. Patienten und Methoden: In diese retrospektiven Studie wurden alle Patienten, die aufgrund einer fortgeschrittenen Glaukomerkrankung in den Jahren 1996, 2001 oder 2006 eine Trabekulektomie erhielten, aufgenommen. Von den 723 Augen der 664 Patienten dieser Jahrgänge konnten 447 (61,8%) nachverfolgt werden. Die Zusammensetzung der Patienten war mit anderen Studien vergleichbar. 28% konnten mindestens 7 Jahre, 10% sogar 10 Jahre nachverfolgt werden. Esrnwurde untersucht, ob ein signifikanter Zusammenhang zwischen dem ophthalomologisch-internistischem Entlassstatus (Visus, Tensio, Gesichtsfeld,rnGlaukomtyp, Voroperationen, Medikation, Vorerkrankungen, Art der Operation) undrnder erstrebten Kontrolle des Intraokulardruckes besteht. Ergebnisse: Die mittlere Nachbeobachtungszeit betrug 4,3 ± 3,4 Jahre. Nach 1, 3,rn5, 7 und 10 Jahren wiesen 217 (82,1%) (p < 0,001), 133 (67,7%) (p < 0,001), 70rn(50%) (p < 0,001), 59 (47,7%) (p = 0,056) und 16 (38,1%) (p = 0,06) Augen Intraokulardrücke ≤ 15 mm Hg ohne zusätzliche Antiglaukomatosa auf. Nichtrnstatistisch signifikant waren die 7- und 10-Jahresergebnisse. Mit Hilfe von Antiglaukomatosa waren es insgesamt, 225 (85,1%), 156 (79,7%), 87 (62,5%), 93 (75%) und 23 (54,7%) (alle p < 0,001). Die mediane Überlebenszeit für IOD ≤ 15 mm Hg ohne Medikation betrug 7,4 Jahre ± 5 Monate. Druckobergrenzen von ≤ 18 bzw. 21 mm Hg erfüllten bis zu 20% mehr Patienten. Der mittlere Visus von 0,32 ± 6 Stufen blieb nach einem mittleren postoperativen Abfall auf 0,25 ± 5 Stufen in den Folgeuntersuchungen stabil. Er zeigte ab dem 3-Jahresintervall keine statistisch signifikante Verschlechterung zum präoperativen Visus. 5,8 Jahre ± 80 Tage betrug die mediane Überlebenszeit für ein stabiles Gesichtsfeld. Gesichtsfelddaten, MD und PSD zeigten keine statistisch signifikante Verschlechterung (p > 0,05). Risikofaktoren für ein Scheitern der Operation waren Patientenalter (RR = 1,01, KI: 0,95 - 1,34, p = 0,043), arterielle Hypertonie (RR = 1,87, KI: 1,21-2,9, p = 0,005) und männliches Geschlecht (RR = 1,24; KI: 1,07 – 1,43; p = 0,004). Komplikationen waren passagere okuläre Hypotonien an 85 (19%), Fistulation an 46(10,2%), Aderhautschwellung an 29 (6,4%) –abhebung an 14 (3,1%), retinale Amotio an 9 (2%), hypotone Makulopathie an 5 (1,1%) und Hypertonien an 70 (15,6%) Augen. 150 (33,5%) Augen erhielten einen Folgeeingriff, 117 (26%) eine Phakoemulsifikation, 149 (33%) eine Fadenlockerung, 122 (27%) 5-FU-Injektionen, 42 (9,4%) eine Fadennachlegung, 33 (7,4%) ein Needling, 26 (5,8%) eine Zyklophotokoagulation, 19 (4,3%) eine Re-TE und 9 (2%) sonstige chirurgische Revisionen. Schlussfolgerung: Die Kontrolle des Augeninnendruckes ≤ 15 mm Hg ohne zusätzliche Medikation erreichten viele Patienten über einen langen Nachbeobachtungszeitraum. Die Häufigkeit der Komplikationen oder nötiger Folgeeingriffe war meist niedriger als in vergleichbaren Studien. Selbst Patienten mit hohem Risikoprofil hatten gute Ergebnisse. Aufgrund mangelnder Gesichtsfelddaten fanden sich keine Hinweise auf statistisch relevantes Fortschreiten des Glaukoms zur angestrebten medikationsfreien Druckkontrolle. Weitere Studien für einen Untersuchungszeitraum von 10 Jahren mit gleichen Erfolgskriterien wie in der vorliegenden Arbeit mit genauer Analyse der Gesichtsfelddaten wären wünschenswert, um zu belegen, dass die guten Langzeitergebnisse nach Trabekulektomie an der Universitätsaugenklinik Mainz auch eine Glaukomprogredienz dauerhaft verhindern. Damit stellt die an der Universitätsaugenklinik Mainz durchgeführte antimetabolitgestützte Trabekulektomie und deren postoperative Nachbetreuung an einer repräsentativen Population eine sichere und komplikationsarme Methode dar.
Resumo:
Lattice Quantum Chromodynamics (LQCD) is the preferred tool for obtaining non-perturbative results from QCD in the low-energy regime. It has by nowrnentered the era in which high precision calculations for a number of phenomenologically relevant observables at the physical point, with dynamical quark degrees of freedom and controlled systematics, become feasible. Despite these successes there are still quantities where control of systematic effects is insufficient. The subject of this thesis is the exploration of the potential of todays state-of-the-art simulation algorithms for non-perturbativelyrn$\mathcal{O}(a)$-improved Wilson fermions to produce reliable results in thernchiral regime and at the physical point both for zero and non-zero temperature. Important in this context is the control over the chiral extrapolation. Thisrnthesis is concerned with two particular topics, namely the computation of hadronic form factors at zero temperature, and the properties of the phaserntransition in the chiral limit of two-flavour QCD.rnrnThe electromagnetic iso-vector form factor of the pion provides a platform to study systematic effects and the chiral extrapolation for observables connected to the structure of mesons (and baryons). Mesonic form factors are computationally simpler than their baryonic counterparts but share most of the systematic effects. This thesis contains a comprehensive study of the form factor in the regime of low momentum transfer $q^2$, where the form factor is connected to the charge radius of the pion. A particular emphasis is on the region very close to $q^2=0$ which has not been explored so far, neither in experiment nor in LQCD. The results for the form factor close the gap between the smallest spacelike $q^2$-value available so far and $q^2=0$, and reach an unprecedented accuracy at full control over the main systematic effects. This enables the model-independent extraction of the pion charge radius. The results for the form factor and the charge radius are used to test chiral perturbation theory ($\chi$PT) and are thereby extrapolated to the physical point and the continuum. The final result in units of the hadronic radius $r_0$ is rn$$ \left\langle r_\pi^2 \right\rangle^{\rm phys}/r_0^2 = 1.87 \: \left(^{+12}_{-10}\right)\left(^{+\:4}_{-15}\right) \quad \textnormal{or} \quad \left\langle r_\pi^2 \right\rangle^{\rm phys} = 0.473 \: \left(^{+30}_{-26}\right)\left(^{+10}_{-38}\right)(10) \: \textnormal{fm} \;, $$rn which agrees well with the results from other measurements in LQCD and experiment. Note, that this is the first continuum extrapolated result for the charge radius from LQCD which has been extracted from measurements of the form factor in the region of small $q^2$.rnrnThe order of the phase transition in the chiral limit of two-flavour QCD and the associated transition temperature are the last unkown features of the phase diagram at zero chemical potential. The two possible scenarios are a second order transition in the $O(4)$-universality class or a first order transition. Since direct simulations in the chiral limit are not possible the transition can only be investigated by simulating at non-zero quark mass with a subsequent chiral extrapolation, guided by the universal scaling in the vicinity of the critical point. The thesis presents the setup and first results from a study on this topic. The study provides the ideal platform to test the potential and limits of todays simulation algorithms at finite temperature. The results from a first scan at a constant zero-temperature pion mass of about 290~MeV are promising, and it appears that simulations down to physical quark masses are feasible. Of particular relevance for the order of the chiral transition is the strength of the anomalous breaking of the $U_A(1)$ symmetry at the transition point. It can be studied by looking at the degeneracies of the correlation functions in scalar and pseudoscalar channels. For the temperature scan reported in this thesis the breaking is still pronounced in the transition region and the symmetry becomes effectively restored only above $1.16\:T_C$. The thesis also provides an extensive outline of research perspectives and includes a generalisation of the standard multi-histogram method to explicitly $\beta$-dependent fermion actions.
Resumo:
Intense research is being done in the field of organic photovoltaics in order to synthesize low band-gap organic molecules. These molecules are electron donors which feature in combination with acceptor molecules, typically fullerene derivarntives, forming an active blend. This active blend has phase separated bicontinuous morphology on a nanometer scale. The highest recorded power conversionrnefficiencies for such cells have been 10.6%. Organic semiconductors differ from inorganic ones due to the presence of tightly bonded excitons (electron-hole pairs)resulting from their low dielectric constant (εr ≈2-4). An additional driving force is required to separate such Frenkel excitons since their binding energy (0.3-1 eV) is too large to be dissociated by an electric field alone. This additional driving force arises from the energy difference between the lowest unoccupied molecular orbital (LUMO) of the donor and the acceptor materials. Moreover, the efficiency of the cells also depends on the difference between the highest occupied molecular orbital (HOMO) of the donor and LUMO of the acceptor. Therefore, a precise control and estimation of these energy levels are required. Furthermore any external influences that change the energy levels will cause a degradation of the power conversion efficiency of organic solar cell materials. In particular, the role of photo-induced degradation on the morphology and electrical performance is a major contribution to degradation and needs to be understood on a nanometer scale. Scanning Probe Microscopy (SPM) offers the resolution to image the nanometer scale bicontinuous morphology. In addition SPM can be operated to measure the local contact potential difference (CPD) of materials from which energy levels in the materials can be derived. Thus SPM is an unique method for the characterization of surface morphology, potential changes and conductivity changes under operating conditions. In the present work, I describe investigations of organic photovoltaic materials upon photo-oxidation which is one of the major causes of degradation of these solar cell materials. SPM, Nuclear Magnetic Resonance (NMR) and UV-Vis spectroscopy studies allowed me to identify the chemical reactions occurring inside the active layer upon photo-oxidation. From the measured data, it was possible to deduce the energy levels and explain the various shifts which gave a better understanding of the physics of the device. In addition, I was able to quantify the degradation by correlating the local changes in the CPD and conductivity to the device characteristics, i.e., open circuit voltage and short circuit current. Furthermore, time-resolved electrostatic force microscopy (tr-EFM) allowed us to probe dynamic processes like the charging rate of the individual donor and acceptor domains within the active blend. Upon photo-oxidation, it was observed, that the acceptor molecules got oxidized first preventing the donor polymer from degrading. Work functions of electrodes can be tailored by modifying the interface with monomolecular thin layers of molecules which are made by a chemical reaction in liquids. These modifications in the work function are particularly attractive for opto-electronic devices whose performance depends on the band alignment between the electrodes and the active material. In order to measure the shift in work function on a nanometer scale, I used KPFM in situ, which means in liquids, to follow changes in the work function of Au upon hexadecanethiol adsorption from decane. All the above investigations give us a better understanding of the photo-degradation processes of the active material at the nanoscale. Also, a method to compare various new materials used for organic solar cells for stability is proposed which eliminates the requirement to make fully functional devices saving time and additional engineering efforts.
Resumo:
Infektionen zählen bei hämodialysepflichtigen Intensivpatienten zu den häufigsten Todesursachen. Um die Wirksamkeit und Sicherheit der Antibiotikatherapie zu verbessern, müssen verschiedene Faktoren, zum Beispiel die Pharmakodynamik und Pharmakokinetik des Antibiotikums, die Art des Hämodialyseverfahrens, die Art des Dialysefilters und der Zustand des Patienten berücksichtigt werden. Im Rahmen einer klinischen Studie wurde die antibiotische Wirkung von Piperacillin und Ciprofloxacin bei kontinuierlichen Hämodialyseverfahren mittels pharmakokinetischer Methoden bestimmt.Für die klinische Studie wurde eine HPLC-Methode mit kombinierter Festphasenextraktion (SPE) entwickelt und nach den Grenzwerten der EMA Guideline on Bioanalytical Method Validation validiert. Die Methode erwies sich für die gleichzeitige Bestimmung von Piperacillin und Ciprofloxacin in Plasma- und Dialysatproben als valide und zuverlässig. Die ermittelten Konzentrationen der beiden Antibiotika wurden für die Berechnung der pharmakokinetischen Parameter verwendet.In der klinischen Studie wurden bei 24 Intensivpatienten mit kontinuierlicher venovenöser Hämodialyse (CVVHD) bzw. kontinuierlicher venovenöser Hämodiafiltration (CVVHDF), bei denen Piperacillin/Tazobactam, Ciprofloxacin oder eine Kombination dieser Antibiotika indiziert war, die Antibiotikakonzentrationen im Plasma und Dialysat im Steady State gemessen. Unmittelbar vor einer Antibiotikainfusion (0 min) wurde ein Volumen von sechs Milliliter Blut entnommen. Weitere Blutentnahmen erfolgten 30 Minuten nach der Infusion sowie nach 1, 2, 3, 4, 8, 12 und 24 Stunden. Sobald ein Filtratbeutel ausgetauscht wurde, wurden parallel zu den Blutproben Dialysatproben entnommen. Die Konzentrationen von Piperacillin und Ciprofloxacin wurden nach der Festphasenextraktion aus den Plasmaproben mit der validierten HPLC-Methode innerhalb von 15 Minuten zuverlässig bestimmt. Neben den gemessenen Plasmakonzentrationen (Cmax, Cmin) wurden pharmakokinetische Parameter wie t0,5, VdSS, AUC, Cltot, ClCRRT und Clextrarenal berechnet. Für Piperacillin wurde untersucht, ob die Plasmaspiegel der Patienten für das gesamte Dosierungsintervall oberhalb der geforderten vierfachen MHK von 64 mg/l liegen. Für Ciprofloxacin wurde untersucht, ob die aus gemessenen Plasmaspiegeln berechnete AUC den Quotienten aus AUC und MHK (=AUIC) ≥ 125 h erfüllt.Bei zehn der 21 mit Piperacillin behandelten Patienten lagen die Plasmaspiegel unterhalb der angestrebten Konzentration von 64 mg/l für das gesamte Dosierungsintervall. Das Patientenkollektiv wies eine große interindividuelle Variabilität auf. Mit einer Wahrscheinlichkeit von 95 % waren 26 - 70 % der Patienten unterdosiert. In der Gruppe der mit Ciprofloxacin behandelten Patienten wurde die angestrebte AUIC von 125 h nur bei neun der 20 Patienten erreicht. Mit einer Wahrscheinlichkeit von 95 % waren 29 - 76 % der Patienten unterdosiert. Die kontinuierlichen Nierenersatzverfahren hatten nur einen geringen Anteil an der totalen Clearance der untersuchten Antibiotika. Während die Clearance des kontinuierlichen Nierenersatzverfahren bei Piperacillin für ein Drittel der Arzneistoffelimination verantwortlich war, trug diese im Fall von Ciprofloxacin lediglich zu 16 % zur Arzneistoffelimination bei.Die Dosierung von Piperacillin/Tazobactam bzw. Ciprofloxacin sollte bei kritisch kranken Intensivpatienten mit kontinuierlicher Hämodialyse mindestens 4 mal 4/0,5 g pro Tag bzw. 2 mal 400 mg pro Tag betragen. Diese Empfehlungen sind insbesondere für die verwendeten Dialyseverfahren und -bedingungen zutreffend. Zur weiteren Optimierung der Antibiotikatherapie ist ein Therapeutisches Drug Monitoring empfehlenswert.
Resumo:
A major challenge in imaging is the detection of small amounts of molecules of interest. In the case of magnetic resonance imaging (MRI) their signals are typically concealed by the large background signal of e.g. the tissue of the body. This problem can be tackled by hyperpolarization which increases the NMR signals up to several orders of magnitude. However, this strategy is limited for 1H, the most widely used nucleus in NMR andrnMRI, because the enormous number of protons in the body screen the small amount of hyperpolarized ones.Here, I describe a method giving rise to high 1H MRI contrast for hyperpolarized molecules against a large background signal. The contrast is based on the J-coupling induced rephasing of the NMR signal of molecules hyperpolarized via parahydrogen induce polarization (PHIP) and it can easily be implemented in common pulse sequences.rnrnHyperpolarization methods typically require expensive technical equipment (e.g. lasers or microwaves) and most techniques work only in batch mode, thus the limited lifetime of the hyperpolarization is limiting its applications. Therefore, the second part of my thesis deals with the simple and efficient generation of an hyperpolarization.These two achievements open up alternative opportunities to use the standard MRI nucleus 1H for e.g. metabolic imaging in the future.
Resumo:
In this thesis we are presenting a broadly based computer simulation study of two-dimensional colloidal crystals under different external conditions. In order to fully understand the phenomena which occur when the system is being compressed or when the walls are being sheared, it proved necessary to study also the basic motion of the particles and the diffusion processes which occur in the case without these external forces. In the first part of this thesis we investigate the structural transition in the number of rows which occurs when the crystal is being compressed by placing the structured walls closer together. Previous attempts to locate this transition were impeded by huge hysteresis effects. We were able to determine the transition point with higher precision by applying both the Schmid-Schilling thermodynamic integration method and the phase switch Monte Carlo method in order to determine the free energies. These simulations showed not only that the phase switch method can successfully be applied to systems with a few thousand particles and a soft crystalline structure with a superimposed pattern of defects, but also that this method is way more efficient than a thermodynamic integration when free energy differences are to be calculated. Additionally, the phase switch method enabled us to distinguish between several energetically very similar structures and to determine which one of them was actually stable. Another aspect considered in the first result chapter of this thesis is the ensemble inequivalence which can be observed when the structural transition is studied in the NpT and in the NVT ensemble. The second part of this work deals with the basic motion occurring in colloidal crystals confined by structured walls. Several cases are compared where the walls are placed in different positions, thereby introducing an incommensurability into the crystalline structure. Also the movement of the solitons, which are created in the course of the structural transition, is investigated. Furthermore, we will present results showing that not only the well-known mechanism of vacancies and interstitial particles leads to diffusion in our model system, but that also cooperative ring rotation phenomena occur. In this part and the following we applied Langevin dynamics simulations. In the last chapter of this work we will present results on the effect of shear on the colloidal crystal. The shear was implemented by moving the walls with constant velocity. We have observed shear banding and, depending on the shear velocity, that the inner part of the crystal breaks into several domains with different orientations. At very high shear velocities holes are created in the structure, which originate close to the walls, but also diffuse into the inner part of the crystal.
Resumo:
Amphiphile Peptide, Pro-Glu-(Phe-Glu)n-Pro, Pro-Asp-(Phe-Asp)n-Pro, und Phe-Glu-(Phe-Glu)n-Phe, können so aus n alternierenden Sequenzen von hydrophoben und hydrophilen Aminosäuren konstruiert werden, dass sie sich in Monolagen an der Luft-Wasser Grenzfläche anordnen. In biologischen Systemen können Strukturen an der organisch-wässrigen Grenzfläche als Matrix für die Kristallisation von Hydroxyapatit dienen, ein Vorgang der für die Behandlung von Osteoporose verwendet werden kann. In der vorliegenden Arbeit wurden Computersimulationenrneingesetzt, um die Strukturen und die zugrunde liegenden Wechselwirkungen welche die Aggregation der Peptide auf mikroskopischer Ebene steuern, zu untersuchen. Atomistische Molekulardynamik-Simulationen von einzelnen Peptidsträngen zeigen, dass sie sich leicht an der Luft-Wasser Grenzfläche anordnen und die Fähigkeit haben, sich in β-Schleifen zu falten, selbst für relativ kurze Peptidlängen (n = 2). Seltene Ereignisse wie diese (i.e. Konformationsänderungen) erfordern den Einsatz fortgeschrittener Sampling-Techniken. Hier wurde “Replica Exchange” Molekulardynamik verwendet um den Einfluss der Peptidsequenzen zu untersuchen. Die Simulationsergebnisse zeigten, dass Peptide mit kürzeren azidischen Seitenketten (Asp vs. Glu) gestrecktere Konformationen aufwiesen als die mit längeren Seitenketten, die in der Lage waren die Prolin-Termini zu erreichen. Darüber hinaus zeigte sich, dass die Prolin-Termini (Pro vs. Phe) notwendig sind, um eine 2D-Ordnung innerhalb derrnAggregate zu erhalten. Das Peptid Pro-Asp-(Phe-Asp)n-Pro, das beide dieser Eigenschaften enthält, zeigt das geordnetste Verhalten, eine geringe Verdrehung der Hauptkette, und ist in der Lage die gebildeten Aggregate durch Wasserstoffbrücken zwischen den sauren Seitenketten zu stabilisieren. Somit ist dieses Peptid am besten zur Aggregation geeignet. Dies wurde auch durch die Beurteilung der Stabilität von experimentnah-aufgesetzten Peptidaggregaten, sowie der Neigung einzelner Peptide zur Selbstorganisation von anfänglich ungeordneten Konfigurationen unterstützt. Da atomistische Simulationen nur auf kleine Systemgrößen und relativ kurze Zeitskalen begrenzt sind, wird ein vergröbertes Modell entwickelt damit die Selbstorganisation auf einem größeren Maßstab studiert werden kann. Da die Selbstorganisation an der Grenzfläche vonrnInteresse ist, wurden existierenden Vergröberungsmethoden erweitert, um nicht-gebundene Potentiale für inhomogene Systeme zu bestimmen. Die entwickelte Methode ist analog zur iterativen Boltzmann Inversion, bildet aber das Update für das Interaktionspotential basierend auf der radialen Verteilungsfunktion in einer Slab-Geometrie und den Breiten des Slabs und der Grenzfläche. Somit kann ein Kompromiss zwischen der lokalen Flüssigketsstruktur und den thermodynamischen Eigenschaften der Grenzfläche erreicht werden. Die neue Methode wurde für einen Wasser- und einen Methanol-Slab im Vakuum demonstriert, sowie für ein einzelnes Benzolmolekül an der Vakuum-Wasser Grenzfläche, eine Anwendung die von besonderer Bedeutung in der Biologie ist, in der oft das thermodynamische/Grenzflächenpolymerisations-Verhalten zusätzlich der strukturellen Eigenschaften des Systems erhalten werden müssen. Daraufrnbasierend wurde ein vergröbertes Modell über einen Fragment-Ansatz parametrisiert und die Affinität des Peptids zur Vakuum-Wasser Grenzfläche getestet. Obwohl die einzelnen Fragmente sowohl die Struktur als auch die Wahrscheinlichkeitsverteilungen an der Grenzfläche reproduzierten, diffundierte das Peptid als Ganzes von der Grenzfläche weg. Jedoch führte eine Reparametrisierung der nicht-gebundenen Wechselwirkungen für eines der Fragmente der Hauptkette in einem Trimer dazu, dass das Peptid an der Grenzfläche blieb. Dies deutet darauf hin, dass die Kettenkonnektivität eine wichtige Rolle im Verhalten des Petpids an der Grenzfläche spielt.
Resumo:
Atmosphärische Aerosolpartikel wirken in vielerlei Hinsicht auf die Menschen und die Umwelt ein. Eine genaue Charakterisierung der Partikel hilft deren Wirken zu verstehen und dessen Folgen einzuschätzen. Partikel können hinsichtlich ihrer Größe, ihrer Form und ihrer chemischen Zusammensetzung charakterisiert werden. Mit der Laserablationsmassenspektrometrie ist es möglich die Größe und die chemische Zusammensetzung einzelner Aerosolpartikel zu bestimmen. Im Rahmen dieser Arbeit wurde das SPLAT (Single Particle Laser Ablation Time-of-flight mass spectrometer) zur besseren Analyse insbesondere von atmosphärischen Aerosolpartikeln weiterentwickelt. Der Aerosoleinlass wurde dahingehend optimiert, einen möglichst weiten Partikelgrößenbereich (80 nm - 3 µm) in das SPLAT zu transferieren und zu einem feinen Strahl zu bündeln. Eine neue Beschreibung für die Beziehung der Partikelgröße zu ihrer Geschwindigkeit im Vakuum wurde gefunden. Die Justage des Einlasses wurde mithilfe von Schrittmotoren automatisiert. Die optische Detektion der Partikel wurde so verbessert, dass Partikel mit einer Größe < 100 nm erfasst werden können. Aufbauend auf der optischen Detektion und der automatischen Verkippung des Einlasses wurde eine neue Methode zur Charakterisierung des Partikelstrahls entwickelt. Die Steuerelektronik des SPLAT wurde verbessert, so dass die maximale Analysefrequenz nur durch den Ablationslaser begrenzt wird, der höchsten mit etwa 10 Hz ablatieren kann. Durch eine Optimierung des Vakuumsystems wurde der Ionenverlust im Massenspektrometer um den Faktor 4 verringert.rnrnNeben den hardwareseitigen Weiterentwicklungen des SPLAT bestand ein Großteil dieser Arbeit in der Konzipierung und Implementierung einer Softwarelösung zur Analyse der mit dem SPLAT gewonnenen Rohdaten. CRISP (Concise Retrieval of Information from Single Particles) ist ein auf IGOR PRO (Wavemetrics, USA) aufbauendes Softwarepaket, das die effiziente Auswertung der Einzelpartikel Rohdaten erlaubt. CRISP enthält einen neu entwickelten Algorithmus zur automatischen Massenkalibration jedes einzelnen Massenspektrums, inklusive der Unterdrückung von Rauschen und von Problemen mit Signalen die ein intensives Tailing aufweisen. CRISP stellt Methoden zur automatischen Klassifizierung der Partikel zur Verfügung. Implementiert sind k-means, fuzzy-c-means und eine Form der hierarchischen Einteilung auf Basis eines minimal aufspannenden Baumes. CRISP bietet die Möglichkeit die Daten vorzubehandeln, damit die automatische Einteilung der Partikel schneller abläuft und die Ergebnisse eine höhere Qualität aufweisen. Daneben kann CRISP auf einfache Art und Weise Partikel anhand vorgebener Kriterien sortieren. Die CRISP zugrundeliegende Daten- und Infrastruktur wurde in Hinblick auf Wartung und Erweiterbarkeit erstellt. rnrnIm Rahmen der Arbeit wurde das SPLAT in mehreren Kampagnen erfolgreich eingesetzt und die Fähigkeiten von CRISP konnten anhand der gewonnen Datensätze gezeigt werden.rnrnDas SPLAT ist nun in der Lage effizient im Feldeinsatz zur Charakterisierung des atmosphärischen Aerosols betrieben zu werden, während CRISP eine schnelle und gezielte Auswertung der Daten ermöglicht.
Resumo:
Spectroscopy of the 1S-2S transition of antihydrogen confined in a neutral atom trap and comparison with the equivalent spectral line in hydrogen will provide an accurate test of CPT symmetry and the first one in a mixed baryon-lepton system. Also, with neutral antihydrogen atoms, the gravitational interaction between matter and antimatter can be tested unperturbed by the much stronger Coulomb forces.rnAntihydrogen is regularly produced at CERN's Antiproton Decelerator by three-body-recombination (TBR) of one antiproton and two positrons. The method requires injecting antiprotons into a cloud of positrons, which raises the average temperature of the antihydrogen atoms produced way above the typical 0.5 K trap depths of neutral atom traps. Therefore only very few antihydrogen atoms can be confined at a time. Precision measurements, like laser spectroscopy, will greatly benefit from larger numbers of simultaneously trapped antihydrogen atoms.rnTherefore, the ATRAP collaboration developed a different production method that has the potential to create much larger numbers of cold, trappable antihydrogen atoms. Positrons and antiprotons are stored and cooled in a Penning trap in close proximity. Laser excited cesium atoms collide with the positrons, forming Rydberg positronium, a bound state of an electron and a positron. The positronium atoms are no longer confined by the electric potentials of the Penning trap and some drift into the neighboring cloud of antiprotons where, in a second charge exchange collision, they form antihydrogen. The antiprotons remain at rest during the entire process, so much larger numbers of trappable antihydrogen atoms can be produced. Laser excitation is necessary to increase the efficiency of the process since the cross sections for charge-exchange collisions scale with the fourth power of the principal quantum number n.rnThis method, named double charge-exchange, was demonstrated by ATRAP in 2004. Since then, ATRAP constructed a new combined Penning Ioffe trap and a new laser system. The goal of this thesis was to implement the double charge-exchange method in this new apparatus and increase the number of antihydrogen atoms produced.rnCompared to our previous experiment, we could raise the numbers of positronium and antihydrogen atoms produced by two orders of magnitude. Most of this gain is due to the larger positron and antiproton plasmas available by now, but we could also achieve significant improvements in the efficiencies of the individual steps. We therefore showed that the double charge-exchange can produce comparable numbers of antihydrogen as the TBR method, but the fraction of cold, trappable atoms is expected to be much higher. Therefore this work is an important step towards precision measurements with trapped antihydrogen atoms.