991 resultados para Quantitative Analyse


Relevância:

60.00% 60.00%

Publicador:

Resumo:

Therapeutisches Drug Monitoring (TDM) umfasst die Messung von Medikamentenspiegeln im Blut und stellt die Ergebnisse in Zusammenhang mit dem klinischen Erscheinungsbild der Patienten. Dabei wird angenommen, dass die Konzentrationen im Blut besser mit der Wirkung korrelieren als die Dosis. Dies gilt auch für Antidepressiva. Voraussetzung für eine Therapiesteuerung durch TDM ist die Verfügbarkeit valider Messmethoden im Labor und die korrekte Anwendung des Verfahrens in der Klinik. Ziel dieser Arbeit war es, den Einsatz von TDM für die Depressionsbehandlung zu analysieren und zu verbessern. Im ersten Schritt wurde für das neu zugelassene Antidepressivum Duloxetin eine hochleistungsflüssig-chromatographische (HPLC) Methode mit Säulenschaltung und spektrophotometrischer Detektion etabliert und an Patienten für TDM angewandt. Durch Analyse von 280 Patientenproben wurde herausgefunden, dass Duloxetin-Konzentrationen von 60 bis 120 ng/ml mit gutem klinischen Ansprechen und einem geringen Risiko für Nebenwirkungen einhergingen. Bezüglich seines Interaktionspotentials erwies sich Duloxetin im Vergleich zu anderen Antidepressiva als schwacher Inhibitor des Cytochrom P450 (CYP) Isoenzyms 2D6. Es gab keinen Hinweis auf eine klinische Relevanz. Im zweiten Schritt sollte eine Methode entwickelt werden, mit der möglichst viele unterschiedliche Antidepressiva einschließlich deren Metaboliten messbar sind. Dazu wurde eine flüssigchromatographische Methode (HPLC) mit Ultraviolettspektroskopie (UV) entwickelt, mit der die quantitative Analyse von zehn antidepressiven und zusätzlich zwei antipsychotischen Substanzen innerhalb von 25 Minuten mit ausreichender Präzision und Richtigkeit (beide über 85%) und Sensitivität erlaubte. Durch Säulenschaltung war eine automatisierte Analyse von Blutplasma oder –serum möglich. Störende Matrixbestandteile konnten auf einer Vorsäule ohne vorherige Probenaufbereitung abgetrennt werden. Das kosten- und zeiteffektive Verfahren war eine deutliche Verbesserung für die Bewältigung von Proben im Laboralltag und damit für das TDM von Antidepressiva. Durch Analyse des klinischen Einsatzes von TDM wurden eine Reihe von Anwendungsfehlern identifiziert. Es wurde deshalb versucht, die klinische Anwendung des TDM von Antidepressiva durch die Umstellung von einer weitgehend händischen Dokumentation auf eine elektronische Bearbeitungsweise zu verbessern. Im Rahmen der Arbeit wurde untersucht, welchen Effekt man mit dieser Intervention erzielen konnte. Dazu wurde eine Labor-EDV eingeführt, mit der der Prozess vom Probeneingang bis zur Mitteilung der Messergebnisse auf die Stationen elektronisch erfolgte und die Anwendung von TDM vor und nach der Umstellung untersucht. Die Umstellung fand bei den behandelnden Ärzten gute Akzeptanz. Die Labor-EDV erlaubte eine kumulative Befundabfrage und eine Darstellung des Behandlungsverlaufs jedes einzelnen Patienten inklusive vorhergehender Klinikaufenthalte. Auf die Qualität der Anwendung von TDM hatte die Implementierung des Systems jedoch nur einen geringen Einfluss. Viele Anforderungen waren vor und nach der Einführung der EDV unverändert fehlerhaft, z.B. wurden häufig Messungen vor Erreichen des Steady State angefordert. Die Geschwindigkeit der Bearbeitung der Proben war im Vergleich zur vorher händischen Ausführung unverändert, ebenso die Qualität der Analysen bezüglich Richtigkeit und Präzision. Ausgesprochene Empfehlungen hinsichtlich der Dosierungsstrategie der angeforderten Substanzen wurden häufig nicht beachtet. Verkürzt wurde allerdings die mittlere Latenz, mit der eine Dosisanpassung nach Mitteilung des Laborbefundes erfolgte. Insgesamt ist es mit dieser Arbeit gelungen, einen Beitrag zur Verbesserung des Therapeutischen Drug Monitoring von Antidepressiva zu liefern. In der klinischen Anwendung sind allerdings Interventionen notwendig, um Anwendungsfehler beim TDM von Antidepressiva zu minimieren.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

In der vorliegenden Studie wurden verschiedene Techniken eingesetzt um drei Proben (4, 7, and 8) die aus denrnKorrosionsprodukten von aus dem Kosovo Krieg stammenden Munitionskugeln, bestehend aus abgereichertem Uranrn(Depleted Uranium - DU), zu untersuchen. Als erstes Verfahren wurde die Raman-Spektroskopie eingesetzt. Hierbeirnzeigte sichin den Proben, charakterisiert durch einen Doppelpeak, die Anwesenheit von Schoepitrn(UO2)8O2(OH)12(H2O)12. Der erste und zweite Peakzeigte sich im Spektralbereich von 840,3-842,5 cm-1rnbeziehungsweise 853,6-855,8 cm-1. Diese Werte stimmen mit den Literaturwerten für Raman-Peaks für Schoepitrnüberein. Des Weiteren wurde bei dieser Untersuchungsmethode Becquerelite Ca(UO2)6O4(OH)6(H2O)8 mit einemrnPeak im Bereich zwischen 829 to 836 cm-1 gefunden. Aufgrund des Fehlens des Becquerelitespektrums in derrnSpektralbibliothek wurde eine in der Natur vorkommende Variante analysiert und deren Peak bei 829 cm-1 bestimmt,rnwas mit den Ergebnissen in den Proben korrespondiert. Mittels Röntgenbeugung (X-Ray Diffraction, XRD) zeigtenrnsich in allen Proben ähnliche Spektren. Das lässt darauf schließen, dass das pulverisierte Material in allen Probenrndas gleiche ist. Hierbei zeigte sich eine sehr gute Übereinstimmung mit Schoepit und/oder meta-rnSchoepit(UO2)8O2(OH)12(H2O)10, sowie Becquerelite. Weiterhin war weder Autunit, Sabugalit noch Uranylphosphatrnanwesend, was die Ergebnisse einer anderen Studie, durchgeführt an denselben Proben, wiederlegt. DiernAnwesenheit von P, C oder Ca im Probenmaterial konnte ausgeschlossen werden. Im Falle von Calciumkann diesrnmit der Anwesenheit von Uran erklärt werden, welches aufgrund seines Atomradius bevorzugt in Becquerelite (1:6)rneingebaut wird. Die beiden Hauptpeaks für Uran lagen im Falle von U 4f 7/2 bei 382.0 eV und im Falle von U 4f 5/2rnbei 392 eV. Diese Werte mit den Literaturwerten für Schoepit und meta-Schoepitüberein. Die Ergebnissernelektronenmikroskopischen Untersuchung zeigen U, O, Ca, Ti als dominante Komponenten in allen Messungen.rnElemente wie Si, Al, Fe, S, Na, und C wurden ebenfalls detektiert; allerdings kann nicht ausgeschlossen werden,rndass diese Elemente aus dem Boden in der unmittelbaren Umgebung der Munitionsgeschosse stammen. Gold wurdernebenfalls gemessen, was aber auf die Goldarmierung in den Probenaufbereitungsbehältern zurückgeführt werdenrnkann. Die Elektronenmikroskopie zeigte außerdem einige Stellen in denen elementares Uran und Bodenmineralernsowie sekundäre Uranminerale auftraten. Die Elementübersicht zeigt einen direkten Zusammenhang zwischen U andrnCa und gleichzeitig keine Korrelation zwischen U und Si, oder Mg. Auf der anderen Seite zeigte sich aber einrnZusammenhang zwischen Si und Al da beide Konstituenten von Bodenmineralen darstellen. Eine mit Hilfe derrnElektronenstrahlmikroanalyse durchgeführte quantitative Analyse zeigte den Massenanteil von Uran bei ca. 78 - 80%,rnwas mit den 78,2% and 79,47% für Becquerelite beziehungsweise Schoepit aufgrund ihrer Summenformelrnkorrespondiert. Zusätzlich zeigt sich für Calcium ein Massenanteil von 2% was mit dem Wert in Becquerelite (2.19%)rnrecht gut übereinstimmt. Der Massenanteil von Ti lag in einigen Fällen bei 0,77%, was auf eine noch nicht korrodierternDU-Legierung zurückzuführen ist. Ein Lösungsexperiment wurde weiterhin durchgeführt, wobei eine 0,01 M NaClO4-rnLösung zum Einsatz kam in der die verbliebene Probensubstanz der Korrosionsprodukte gelöst wurde;rnNatriumperchlorate wurde hierbei genutzt um die Ionenstärke bei 0,01 zu halten. Um Verunreinigungen durchrnatmosphärisches CO2 zu vermeiden wurden die im Versuch für die drei Hauptproben genutzten 15 Probenbehälterrnmit Stickstoffgas gespült. Eine Modelkalkulation für den beschriebenen Versuchsaufbau wurde mit Visual MINTEQrnv.3.0 für die mittels vorgenannten Analysemethoden beschriebenen Mineralphasen im pH-Bereich von 6 – 10 imrnFalle von Becquerelite, und Schoepit berechnet. Die modellierten Lösungskurven wurden unter An- und Abwesenheitrnvon atmosphärischem CO2 kalkuliert. Nach dem Ende des Lösungsexperiments (Dauer ca. 6 Monate) zeigten diernKonzentrationen des gelösten Urans, gemessen mittels ICP-OES, gute Übereinstimmung mit den modelliertenrnSchoepit und Becquerelite Kurven. Auf Grund des ähnlichen Löslichkeitverhaltens war es nicht möglich zwichen denrnbeiden Mineralen zu unterscheiden. Schoepit kontrolliert im sauren Bereich die Löslichkeit des Urans, währendrnbecquerelit im basichen am wenigsten gelöst wird. Des Weiteren bleibt festzuhalten, dass ein Anteil an CO2 in diernverschlossenen Probenbehälter eingedrungen ist, was sich mit der Vorhersage der Modeldaten deckt. Die Löslichkeitrnvon Uran in der Lösung als Funktion des pH-Wertes zeigte die niedrigsten Konzentrationen im Falle einer Zunahmerndes pH-Wertes von 5 auf 7 (ungefähr 5,1 x 10-6 mol/l) und einer Zunahme des pH-Wertes auf 8 (ungefähr 1,5 x 10-6rnmol/l bei). Oberhalb dieses Bereichs resultiert jeder weitere Anstieg des pH-Wertes in einer Zunahme gelösten Uransrnin der Lösung. Der ph-Wert der Lösung wie auch deren pCO2-Wert kontrollieren hier die Menge des gelösten Urans.rnAuf der anderen Seite zeigten im Falle von Becquerelite die Ca-Konzentrationen höhere Werte als erwartet, wobeirnwahrscheinlich auf eine Vermischung der Proben mit Bodensubstanz zurückgeführt werden kann. Abschließendrnwurde, unter Berücksichtigung der oben genannten Ergebnisse, eine Fallstudie aus Basrah (Irak) diskutiert, wo inrnzwei militärischen Konflikten Uranmunition in zwei Regionen unter verschiedenen Umweltbedingungen eingesetztrnwurden.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Natürliche hydraulische Bruchbildung ist in allen Bereichen der Erdkruste ein wichtiger und stark verbreiteter Prozess. Sie beeinflusst die effektive Permeabilität und Fluidtransport auf mehreren Größenordnungen, indem sie hydraulische Konnektivität bewirkt. Der Prozess der Bruchbildung ist sowohl sehr dynamisch als auch hoch komplex. Die Dynamik stammt von der starken Wechselwirkung tektonischer und hydraulischer Prozesse, während sich die Komplexität aus der potentiellen Abhängigkeit der poroelastischen Eigenschaften von Fluiddruck und Bruchbildung ergibt. Die Bildung hydraulischer Brüche besteht aus drei Phasen: 1) Nukleation, 2) zeitabhängiges quasi-statisches Wachstum so lange der Fluiddruck die Zugfestigkeit des Gesteins übersteigt, und 3) in heterogenen Gesteinen der Einfluss von Lagen unterschiedlicher mechanischer oder sedimentärer Eigenschaften auf die Bruchausbreitung. Auch die mechanische Heterogenität, die durch präexistierende Brüche und Gesteinsdeformation erzeugt wird, hat großen Einfluß auf den Wachstumsverlauf. Die Richtung der Bruchausbreitung wird entweder durch die Verbindung von Diskontinuitäten mit geringer Zugfestigkeit im Bereich vor der Bruchfront bestimmt, oder die Bruchausbreitung kann enden, wenn der Bruch auf Diskontinuitäten mit hoher Festigkeit trifft. Durch diese Wechselwirkungen entsteht ein Kluftnetzwerk mit komplexer Geometrie, das die lokale Deformationsgeschichte und die Dynamik der unterliegenden physikalischen Prozesse reflektiert. rnrnNatürliche hydraulische Bruchbildung hat wesentliche Implikationen für akademische und kommerzielle Fragestellungen in verschiedenen Feldern der Geowissenschaften. Seit den 50er Jahren wird hydraulisches Fracturing eingesetzt, um die Permeabilität von Gas und Öllagerstätten zu erhöhen. Geländebeobachtungen, Isotopenstudien, Laborexperimente und numerische Analysen bestätigen die entscheidende Rolle des Fluiddruckgefälles in Verbindung mit poroelastischen Effekten für den lokalen Spannungszustand und für die Bedingungen, unter denen sich hydraulische Brüche bilden und ausbreiten. Die meisten numerischen hydromechanischen Modelle nehmen für die Kopplung zwischen Fluid und propagierenden Brüchen vordefinierte Bruchgeometrien mit konstantem Fluiddruck an, um das Problem rechnerisch eingrenzen zu können. Da natürliche Gesteine kaum so einfach strukturiert sind, sind diese Modelle generell nicht sonderlich effektiv in der Analyse dieses komplexen Prozesses. Insbesondere unterschätzen sie die Rückkopplung von poroelastischen Effekten und gekoppelte Fluid-Festgestein Prozesse, d.h. die Entwicklung des Porendrucks in Abhängigkeit vom Gesteinsversagen und umgekehrt.rnrnIn dieser Arbeit wird ein zweidimensionales gekoppeltes poro-elasto-plastisches Computer-Model für die qualitative und zum Teil auch quantitativ Analyse der Rolle lokalisierter oder homogen verteilter Fluiddrücke auf die dynamische Ausbreitung von hydraulischen Brüchen und die zeitgleiche Evolution der effektiven Permeabilität entwickelt. Das Programm ist rechnerisch effizient, indem es die Fluiddynamik mittels einer Druckdiffusions-Gleichung nach Darcy ohne redundante Komponenten beschreibt. Es berücksichtigt auch die Biot-Kompressibilität poröser Gesteine, die implementiert wurde um die Kontrollparameter in der Mechanik hydraulischer Bruchbildung in verschiedenen geologischen Szenarien mit homogenen und heterogenen Sedimentären Abfolgen zu bestimmen. Als Resultat ergibt sich, dass der Fluiddruck-Gradient in geschlossenen Systemen lokal zu Störungen des homogenen Spannungsfeldes führen. Abhängig von den Randbedingungen können sich diese Störungen eine Neuausrichtung der Bruchausbreitung zur Folge haben kann. Durch den Effekt auf den lokalen Spannungszustand können hohe Druckgradienten auch schichtparallele Bruchbildung oder Schlupf in nicht-entwässerten heterogenen Medien erzeugen. Ein Beispiel von besonderer Bedeutung ist die Evolution von Akkretionskeilen, wo die große Dynamik der tektonischen Aktivität zusammen mit extremen Porendrücken lokal starke Störungen des Spannungsfeldes erzeugt, die eine hoch-komplexe strukturelle Entwicklung inklusive vertikaler und horizontaler hydraulischer Bruch-Netzwerke bewirkt. Die Transport-Eigenschaften der Gesteine werden stark durch die Dynamik in der Entwicklung lokaler Permeabilitäten durch Dehnungsbrüche und Störungen bestimmt. Möglicherweise besteht ein enger Zusammenhang zwischen der Bildung von Grabenstrukturen und großmaßstäblicher Fluid-Migration. rnrnDie Konsistenz zwischen den Resultaten der Simulationen und vorhergehender experimenteller Untersuchungen deutet darauf hin, dass das beschriebene numerische Verfahren zur qualitativen Analyse hydraulischer Brüche gut geeignet ist. Das Schema hat auch Nachteile wenn es um die quantitative Analyse des Fluidflusses durch induzierte Bruchflächen in deformierten Gesteinen geht. Es empfiehlt sich zudem, das vorgestellte numerische Schema um die Kopplung mit thermo-chemischen Prozessen zu erweitern, um dynamische Probleme im Zusammenhang mit dem Wachstum von Kluftfüllungen in hydraulischen Brüchen zu untersuchen.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Moderne ESI-LC-MS/MS-Techniken erlauben in Verbindung mit Bottom-up-Ansätzen eine qualitative und quantitative Charakterisierung mehrerer tausend Proteine in einem einzigen Experiment. Für die labelfreie Proteinquantifizierung eignen sich besonders datenunabhängige Akquisitionsmethoden wie MSE und die IMS-Varianten HDMSE und UDMSE. Durch ihre hohe Komplexität stellen die so erfassten Daten besondere Anforderungen an die Analysesoftware. Eine quantitative Analyse der MSE/HDMSE/UDMSE-Daten blieb bislang wenigen kommerziellen Lösungen vorbehalten. rn| In der vorliegenden Arbeit wurden eine Strategie und eine Reihe neuer Methoden zur messungsübergreifenden, quantitativen Analyse labelfreier MSE/HDMSE/UDMSE-Daten entwickelt und als Software ISOQuant implementiert. Für die ersten Schritte der Datenanalyse (Featuredetektion, Peptid- und Proteinidentifikation) wird die kommerzielle Software PLGS verwendet. Anschließend werden die unabhängigen PLGS-Ergebnisse aller Messungen eines Experiments in einer relationalen Datenbank zusammengeführt und mit Hilfe der dedizierten Algorithmen (Retentionszeitalignment, Feature-Clustering, multidimensionale Normalisierung der Intensitäten, mehrstufige Datenfilterung, Proteininferenz, Umverteilung der Intensitäten geteilter Peptide, Proteinquantifizierung) überarbeitet. Durch diese Nachbearbeitung wird die Reproduzierbarkeit der qualitativen und quantitativen Ergebnisse signifikant gesteigert.rn| Um die Performance der quantitativen Datenanalyse zu evaluieren und mit anderen Lösungen zu vergleichen, wurde ein Satz von exakt definierten Hybridproteom-Proben entwickelt. Die Proben wurden mit den Methoden MSE und UDMSE erfasst, mit Progenesis QIP, synapter und ISOQuant analysiert und verglichen. Im Gegensatz zu synapter und Progenesis QIP konnte ISOQuant sowohl eine hohe Reproduzierbarkeit der Proteinidentifikation als auch eine hohe Präzision und Richtigkeit der Proteinquantifizierung erreichen.rn| Schlussfolgernd ermöglichen die vorgestellten Algorithmen und der Analyseworkflow zuverlässige und reproduzierbare quantitative Datenanalysen. Mit der Software ISOQuant wurde ein einfaches und effizientes Werkzeug für routinemäßige Hochdurchsatzanalysen labelfreier MSE/HDMSE/UDMSE-Daten entwickelt. Mit den Hybridproteom-Proben und den Bewertungsmetriken wurde ein umfassendes System zur Evaluierung quantitativer Akquisitions- und Datenanalysesysteme vorgestellt.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

In den letzten Jahren stieg in Deutschland der Gebrauch bzw. Missbrauch von Opioid-Analgetika zunehmend an. Das entwickelte Verfahren sollte unter Einbeziehung neuer Substanzen möglichst viele verschiedene Opioide und auch ihre pharmakologisch aktiven Stoffwechselprodukte berücksichtigen.rnVor Analyse wurden Blut-, Serum- oder Urinproben mit Phosphatpuffer versetzt und mittels Festphasenextraktion an C18-Säulenmaterial aufgearbeitet. Post-Mortem-Gewebematerial wurde mit isotonischer Kochsalzlösung versetzt, homogenisiert und anschließend durch eine Festphasenextraktion aufgereinigt. Haarproben wurden nach Zerkleinerung mit Methanol unter Ultrabeschallung extrahiert. Die Flüssigchromatographie gekoppelt mit Tandem-Massenspektrometrie (Elektrosprayionisation im positiven Modus) erwies sich als geeignetes Verfahren für die simultane Bestimmung der Opioide in biologischem Probenmaterial (Körperflüssigkeiten, Gewebe und Haaren). Der Multi-Analyt Assay erlaubt die quantitative Analyse von 35 verschiedenen Opioiden. Die Analyten wurden durch eine Phenyl-Hexyl Säule und einen Wasser/Acetonitril Gradienten durch eine UPLC 1290 Infinity gekoppelt mit einem 6490 Triple Quadrupol von Agilent Technologies separiert.rnDie LC/MS Methode zur simultanen Bestimmung von 35 Opioiden in Serum und Haaren wurde nach den Richtlinien der Gesellschaft für Toxikologische und Forensische Chemie (GTFCh) validiert. Im Fall der Serumvalidierung lagen die Nachweisgrenzen zwischen 0.02 und 0.6 ng/ml und die Bestimmungsgrenzen im Bereich von 0.1 bis 2.0 ng/ml. Die Kalibrationskurven waren für die Kalibrationslevel 1 bis 6 linear. Wiederfindungsraten lagen für alle Verbindungen zwischen 51 und 88 %, außer für Alfentanil, Bisnortiliidn, Pethidin und Morphin-3-Glucuronid. Der Matrixeffekt lag zwischen 86 % (Ethylmorphin) und 105 % (Desomorphin). Für fast alle Analyten konnten akzeptable Werte bei der Bestimmung der Genauigkeit und Richtigkeit nach den Richtlinien der GTFCh erhalten werden. Im Fall der Validierung der Haarproben lagen die Nachweisgrenzen zwischen 0.004 und 0.6 ng/Probe und die Bestimmungsgrenzen zwischen 0.1 ng/Probe und 2.0 ng/Probe. Für die Kalibrationslevel 1 bis 6 waren alle Kalibrationsgeraden linear. Die Wiederfindungsraten lagen für die Opioide im Bereich von 73.5 % (Morphin-6-Glucuronid) und 114.1 % (Hydrocodon). Die Werte für die Bestimmung der Richtigkeit lagen zwischen - 6.6 % (Methadon) und + 11.7 % (Pholcodin). Präzisionsdaten wurden zwischen 1.0 % für Dextromethorphan und 11.5 % für Methadon ermittelt. Die Kriterien der GTFCh konnten bei Ermittlung des Matrixeffekts für alle Substanzen erfüllt werden, außer für 6-Monoacetylmorphin, Bisnortilidin, Meperidin, Methadon, Morphin-3-glucuronid, Morphin-6-glucuronid, Normeperidin, Nortilidin und Tramadol.rnZum Test des Verfahrens an authentischem Probenmaterial wurden 206 Proben von Körperflüssigkeiten mit Hilfe der simultanen LC/MS Screening Methode untersucht. Über 150 Proben wurden im Rahmen von forensisch-toxikologischen Untersuchungen am Instituts für Rechtsmedizin Mainz analysiert. Dabei konnten 23 der 35 Opioide in den realen Proben nachgewiesen werden. Zur Untersuchung der Pharmakokinetik von Opioiden bei Patienten der anästhesiologischen Intensivstation mit Sepsis wurden über 50 Blutproben untersucht. Den Patienten wurde im Rahmen einer klinischen Studie einmal täglich vier Tage lang Blut abgenommen. In den Serumproben wurde hauptsächlich Sufentanil (0.2 – 0.8 ng/ml in 58 Fällen) und Piritramid (0.4 – 11 ng/ml in 56 Fällen) gefunden. Außerdem wurden die Proben von Körperflüssigkeiten und Gewebe von 13 verschiedenen Autopsiefällen mit Hilfe des Multi-Analyt Assays auf Opioide untersucht.rnIn einem zweiten Schritt wurde die Extraktions- und Messmethode zur Quantifizierung der 35 Opioide am Forensic Medicine Center in Ho Chi Minh City (Vietnam) etabliert. Insgesamt wurden 85 Herzblutproben von Obduktionsfällen mit Verdacht auf Opiatintoxikation näher untersucht. Der überwiegende Teil der untersuchten Fälle konnte auf eine Heroin- bzw. Morphin-Vergiftung zurückgeführt werden. Morphin wurde in 68 Fällen im Konzentrationsbereich 1.7 – 1400 ng/ml und der Heroinmetabolit 6-Monoactetylmorphin in 34 Fällen (0.3 – 160 ng/ml) nachgewiesen werden.rnSchließlich wurden noch 15 Haarproben von Patienten einer psychiatrischen Klinik, die illegale Rauschmittel konsumiert hatten, mit Hilfe der simultanen Opioid-LC/MS Screeningmethode gemessen. Die Ergebnisse der Untersuchung wurden mit früheren Auswertungen von gaschromatographischen Analysen verglichen. Es zeigte sich eine weitgehende Übereinstimmung der Untersuchungsergebnisse für die Opioide 6-Monoacetylmorphin, Morphin, Codein, Dihydrocodein und Methadon. Mit der LC/MS Methode konnten weitere Substanzen, wie zum Beispiel Bisnortilidin, Dextromethorphan und Tramadol in den Haarproben gefunden werden, die bislang nicht entdeckt worden waren.rn

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Flexible und wandelbare Fabrikstrukturen sind von hoher Bedeutung, wenn Produktionsstätten in einem turbulenten Umfeld langfristig wettbewerbsfähig bleiben sollen; darin sind sich Forschung und Praxis einig. Während der jüngsten weltweiten Wirtschaftskrise wurden Experten aus dem Airline-Catering-Umfeld befragt, wie Betriebe dieser Branche auf starke Veränderungen vorbereitet sind. Vorgespräche und Analysen des Autors legten die Vermutung nahe, dass diese Dienstleistungsbranche besonderen Flexibilitätsanforderungen unterliegt. Im Rahmen einer detaillierten Studie, deren Erkenntnisse in einer Dissertation zusammengefasst werden, sind Interviews mit Experten geführt worden. Aus den Ergebnissen der Interviews wurden Schlussfolgerungen auf erforderliche, flexible Materialflusstechniklösungen, im Speziellen Elektrohängebahnen (EHB), und bauliche Anpassungen nach dem „Konzept Internet der Dinge“ gezogen. Szenarioanalysen zu Wirtschaftlichkeits- und Risikoaspekten durchleuchteten die generierten Ansätze. Anschließend an die quantitative Analyse wurden die Ansätze ebenfalls durch eine qualitative Bewertung herkömmlichen Lösungen gegenübergestellt. Die aufgebaute Bewertungsmethode ist sowohl geeignet, um in zukünftigen Projekten die Entscheidung für oder gegen eine wandelbare Ausführung zu treffen, als auch andere Branchen auf die grundsätzliche Sinnhaftigkeit des Einsatzes wandelbarer Materialflusstechnik zu überprüfen.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

In dieser Arbeit werden optische Filterarrays für hochqualitative spektroskopische Anwendungen im sichtbaren (VIS) Wellenlängenbereich untersucht. Die optischen Filter, bestehend aus Fabry-Pérot (FP)-Filtern für hochauflösende miniaturisierte optische Nanospektrometer, basieren auf zwei hochreflektierenden dielektrischen Spiegeln und einer zwischenliegenden Resonanzkavität aus Polymer. Jeder Filter erlaubt einem schmalbandigem spektralen Band (in dieser Arbeit Filterlinie genannt) ,abhängig von der Höhe der Resonanzkavität, zu passieren. Die Effizienz eines solchen optischen Filters hängt von der präzisen Herstellung der hochselektiven multispektralen Filterfelder von FP-Filtern mittels kostengünstigen und hochdurchsatz Methoden ab. Die Herstellung der multiplen Spektralfilter über den gesamten sichtbaren Bereich wird durch einen einzelnen Prägeschritt durch die 3D Nanoimprint-Technologie mit sehr hoher vertikaler Auflösung auf einem Substrat erreicht. Der Schlüssel für diese Prozessintegration ist die Herstellung von 3D Nanoimprint-Stempeln mit den gewünschten Feldern von Filterkavitäten. Die spektrale Sensitivität von diesen effizienten optischen Filtern hängt von der Genauigkeit der vertikalen variierenden Kavitäten ab, die durch eine großflächige ‚weiche„ Nanoimprint-Technologie, UV oberflächenkonforme Imprint Lithographie (UV-SCIL), ab. Die Hauptprobleme von UV-basierten SCIL-Prozessen, wie eine nichtuniforme Restschichtdicke und Schrumpfung des Polymers ergeben Grenzen in der potenziellen Anwendung dieser Technologie. Es ist sehr wichtig, dass die Restschichtdicke gering und uniform ist, damit die kritischen Dimensionen des funktionellen 3D Musters während des Plasmaätzens zur Entfernung der Restschichtdicke kontrolliert werden kann. Im Fall des Nanospektrometers variieren die Kavitäten zwischen den benachbarten FP-Filtern vertikal sodass sich das Volumen von jedem einzelnen Filter verändert , was zu einer Höhenänderung der Restschichtdicke unter jedem Filter führt. Das volumetrische Schrumpfen, das durch den Polymerisationsprozess hervorgerufen wird, beeinträchtigt die Größe und Dimension der gestempelten Polymerkavitäten. Das Verhalten des großflächigen UV-SCIL Prozesses wird durch die Verwendung von einem Design mit ausgeglichenen Volumen verbessert und die Prozessbedingungen werden optimiert. Das Stempeldesign mit ausgeglichen Volumen verteilt 64 vertikal variierenden Filterkavitäten in Einheiten von 4 Kavitäten, die ein gemeinsames Durchschnittsvolumen haben. Durch die Benutzung der ausgeglichenen Volumen werden einheitliche Restschichtdicken (110 nm) über alle Filterhöhen erhalten. Die quantitative Analyse der Polymerschrumpfung wird in iii lateraler und vertikaler Richtung der FP-Filter untersucht. Das Schrumpfen in vertikaler Richtung hat den größten Einfluss auf die spektrale Antwort der Filter und wird durch die Änderung der Belichtungszeit von 12% auf 4% reduziert. FP Filter die mittels des Volumengemittelten Stempels und des optimierten Imprintprozesses hergestellt wurden, zeigen eine hohe Qualität der spektralen Antwort mit linearer Abhängigkeit zwischen den Kavitätshöhen und der spektralen Position der zugehörigen Filterlinien.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Rezension von: Jürg Aeppli / Luciano Gasser / Eveline Gutzwiller / Annette Tettenborn: Empirisches wissenschaftliches Arbeiten. Ein Studienbuch für die Bildungswissenschaften 2. Bad Heilbrunn: Klinkhardt 2011 (389 S.; ISBN 978-3-7815-1812-4)

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Das Thema dieser Arbeit ist die Interferenzuntersuchung im Sprachenpaar Deutsch–Finnisch und das Thema wird anhand der Theorie der grammatischen Komplexität betrachtet. In dieser Arbeit findet die Theorie mit ihren zentralen Elementen der Komplexität des Finnischen in studentischen und maschinellen Übersetzungen eines von der Autorin ausgesuchten Textes ihre Anwendung. Der Fokus liegt jedoch in studentischen Übersetzungen. Anhand der Ergebnisse wird versucht herauszufinden, ob beim Übersetzen eines komplexeren Ausgangstextes mehr Interferenz vorkommt als bei einem einfacheren Text. Dazu gibt es zwei von ihrem Komplexitätsgrad unterschiedliche Versionen desselben Ausgangstextes. Eine weitere Zuteilung wird aufgrund der Studienphase (Grund- bzw. Fachstudium) gemacht. In der Untersuchung wird angenommen, dass Interferenz sich messen lässt. Jedoch wird die quantitative Analyse durch eine qualitative Betrachtung erweitert. Anhand der Ergebnisse wird auch versucht, einen ersten Rahmen zum Modell zum Messen von Interferenz zu skizzieren. Neben den zentralen Elementen der Komplexität wären dabei die numerische Stellung des Verbes, Anzahl an geketteten Nomina sowie Modi miteinzubeziehen. Die quantitative Annäherung könnte mit qualitativer Betrachtung bzw. Expertenverfahren ergänzt werden. Aus den somit analysierten maschinell übersetzten Texten könnte der mit dem geringsten Interferenzgrad ausgesucht werden. Die quantitative Analyse ergab, dass in beiden Textversionen die wesentlichsten Faktoren der Komplexität die Wortanzahl und die Satzlänge waren, wobei die letztere auch statistisch bestätigt wurde. Zwischen den Studentengruppen waren auch die Satzlänge sowie die Anzahl an Ableitungen von Bedeutung. Die maschinell übersetzten Texte haben andere Eigenschaften erwiesen als die studentischen, und diese Unterschiede waren kleiner als erwartet. Laut qualitativer Betrachtung waren die meisten Vorkommnisse der Interferenz auf syntagmatisch-syntaktischem Niveau, d.h. in der Wort- und Satzstellung, wie auch erwartet wurde. Aufgrund der Ergebnisse lässt sich nicht verallgemeinern, ob sich die Hypothese von mehr Interferenz mit wachsender Komplexität im Ausgangstext sich bestätigen lässt, was auf den geringen Umfang des Korpuses (n=10) zurückzuführen ist. Das schließt jedoch nicht eine weitere Betrachtung mit einem größeren Korpus aus.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

This dissertation deals with the terminology of the Euro currency. Its aims are to determine the characteristics of the designations in a certain LSP and to discover whether the recommendations and rules that have been given to the formation of designations and 'ideal' designations have any influence on the usage of the designations. The characteristics analysed include length of the designation, part of speech, form, formation method, constancy, monosemy, suitability to a concept system and degree of specialty. The study analyses the actual usage of the designations in texts and the implementation of the designations. The study is an adaptation of a terminometric survey and uses concept analysis and quantitative analysis as its basic methods. The frequency of each characteristic is measured in terms of statistics. It is assumed that the 'ideality' of a designation influences its usage, for example that if a designation is short, it is used more than its longer rivals (synonyms). The results are analysed in a corpus consisting of a compilation of different texts concerning the Euro. The corpus is divided according to three features: year (1998-2003), genre (judicial texts, annual reports and brochures) and language (Finnish and German). Each analysis is performed according to each of these features and compared with the others. The results indicate that some of the characteristics of the designations indeed seem to have an influence on the usage of the designations. For example, monosemy and suitability to the concept system often lead to the implementation of the designation having the ideal or certain value in these characteristics in the analysed Finnish material. In German material, an 'ideal' value in the characteristics leads to the implementation of the designations more often than in Finnish. The contrastive study indicates that, for example, suitability to a concept system leads to implementation of a designation in judicial texts more often than in other genres. The recommendations given to an 'ideal' designation are thus often acceptable, but they cannot be generalized for all languages in the same extent.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Avec la hausse mondiale de la fréquence des floraisons de cyanobactéries (CB), dont certaines produisent des cyanotoxines (CT), le développement d’une méthode de détection/quantification rapide d’un maximum de CT s’impose. Cette méthode permettrait de faire un suivi quotidien de la toxicité de plans d’eau contaminés par des CB et ainsi d’émettre rapidement des avis d’alerte appropriés afin de protéger la santé publique. Une nouvelle technologie utilisant la désorption thermique induite par diode laser (LDTD) couplée à l’ionisation chimique sous pression atmosphérique (APCI) et reliée à la spectrométrie de masse en tandem (MS/MS) a déjà fait ses preuves avec des temps d'analyse de l’ordre de quelques secondes. Les analytes sont désorbés par la LDTD, ionisés en phase gazeuse par APCI et détectés par la MS/MS. Il n’y a donc pas de séparation chromatographique, et la préparation de l’échantillon avant l’analyse est minimale selon la complexité de la matrice contenant les analytes. Parmi les quatre CT testées (microcystine-LR, cylindrospermopsine, saxitoxine et anatoxine-a (ANA-a)), seule l’ANA-a a généré une désorption significative nécessaire au développement d’une méthode analytique avec l’interface LDTD-APCI. La forte polarité ou le poids moléculaire élevé des autres CT empêche probablement leur désorption. L’optimisation des paramètres instrumentaux, tout en tenant compte de l’interférence isobarique de l’acide aminé phénylalanine (PHE) lors de la détection de l’ANA-a par MS/MS, a généré une limite de détection d’ANA-a de l’ordre de 1 ug/L. Celle-ci a été évaluée à partir d’une matrice apparentée à une matrice réelle, démontrant qu’il serait possible d’utiliser la LDTD pour effectuer le suivi de l’ANA-a dans les eaux naturelles selon les normes environnementales applicables (1 à 12 ug/L). Il a été possible d’éviter l’interférence isobarique de la PHE en raison de sa très faible désorption avec l’interface LDTD-APCI. En effet, il a été démontré qu’une concentration aussi élevée que 500 ug/L de PHE ne causait aucune interférence sur le signal de l’ANA-a.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Les calculs statistiques ont été effectués à l'aide du logiciel SPSS.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Speckle Pattern Shearing Interferometrie (Shearografie) ist eine speckle-interferometrische Messmethode und zeichnet sich durch die ganzflächige, berührungslose Arbeitsweise, hohe räumliche Auflösung und hohe Messempfindlichkeit aus. Diese Dissertation beinhaltet die neue bzw. weitere Entwicklung der Shearografie zur qualitativen Schwingungsbeobachtung und zur quantitativen Schwingungsmessung. Für die qualitative Schwingungsbeobachtung in Echtzeit werden die Optimierung des Zeitmittelungsverfahrens und die neue entwickelte Online-Charakterisierung von Streifenmustern mit statistischen Verfahren vorgestellt. Auf dieser Basis können sowohl eine genaue Fehlstellen-Detektion bei der zerstörungsfreien Materialprüfung als auch eine präzise Resonanzuntersuchung zeitsparend und vollautomatisch durchgeführt werden. Für die quantitative Schwingungsmessung wird eine sog. dynamische Phasenschiebe-Technik neu entwickelt, welche durch die Einführung eines synchron zum Objekt schwingenden Referenzspiegels realisiert wird. Mit dieser Technik ermöglicht das Zeitmittelungsverfahren die Amplituden und Phasen einer Objektschwingung quantitativ zu ermitteln. Auch eine Weiterentwicklung des stroboskopischen Verfahrens in Kombination mit zeitlicher Phasenverschiebung wird in der Arbeit präsentiert, womit der gesamte Prozess der Schwingungsmessung und -rekonstruktion beschleunigt und automatisch durchgeführt wird. Zur Bestimmung des Verschiebungsfeldes aus den gemessenen Amplituden und Phasen des Verformungsgradienten stellt diese Arbeit auch eine Weiterentwicklung des Summationsverfahrens vor. Das Verfahren zeichnet sich dadurch aus, dass die Genauigkeit des ermittelten Verschiebungsfelds unabhängig von der Sheargröße ist und gleichzeitig das praktische Problem - Unstetigkeit - gelöst wird. Eine quantitative Messung erfordert eine genaue Kalibrierung der gesamten Messkette. Ein auf dem Least-Square-Verfahren basierendes Kalibrierverfahren wird in der Arbeit zur Kalibrierung der statischen und dynamischen Phasenverschiebung vorgestellt. Auch die Ermittelung der Sheargröße mit Hilfe der 1D- bzw. 2D-Kreuz-Korrelation wird präsentiert. Zum Schluss wurde die gesamte Entwicklung durch eine Vergleichsmessung mit einem handelsüblichen Scanning-Laser-Doppler-Vibrometer experimentell verifiziert.