949 resultados para Reduced-basis method


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Die Arbeit behandelt das Problem der Skalierbarkeit von Reinforcement Lernen auf hochdimensionale und komplexe Aufgabenstellungen. Unter Reinforcement Lernen versteht man dabei eine auf approximativem Dynamischen Programmieren basierende Klasse von Lernverfahren, die speziell Anwendung in der Künstlichen Intelligenz findet und zur autonomen Steuerung simulierter Agenten oder realer Hardwareroboter in dynamischen und unwägbaren Umwelten genutzt werden kann. Dazu wird mittels Regression aus Stichproben eine Funktion bestimmt, die die Lösung einer "Optimalitätsgleichung" (Bellman) ist und aus der sich näherungsweise optimale Entscheidungen ableiten lassen. Eine große Hürde stellt dabei die Dimensionalität des Zustandsraums dar, die häufig hoch und daher traditionellen gitterbasierten Approximationsverfahren wenig zugänglich ist. Das Ziel dieser Arbeit ist es, Reinforcement Lernen durch nichtparametrisierte Funktionsapproximation (genauer, Regularisierungsnetze) auf -- im Prinzip beliebig -- hochdimensionale Probleme anwendbar zu machen. Regularisierungsnetze sind eine Verallgemeinerung von gewöhnlichen Basisfunktionsnetzen, die die gesuchte Lösung durch die Daten parametrisieren, wodurch die explizite Wahl von Knoten/Basisfunktionen entfällt und so bei hochdimensionalen Eingaben der "Fluch der Dimension" umgangen werden kann. Gleichzeitig sind Regularisierungsnetze aber auch lineare Approximatoren, die technisch einfach handhabbar sind und für die die bestehenden Konvergenzaussagen von Reinforcement Lernen Gültigkeit behalten (anders als etwa bei Feed-Forward Neuronalen Netzen). Allen diesen theoretischen Vorteilen gegenüber steht allerdings ein sehr praktisches Problem: der Rechenaufwand bei der Verwendung von Regularisierungsnetzen skaliert von Natur aus wie O(n**3), wobei n die Anzahl der Daten ist. Das ist besonders deswegen problematisch, weil bei Reinforcement Lernen der Lernprozeß online erfolgt -- die Stichproben werden von einem Agenten/Roboter erzeugt, während er mit der Umwelt interagiert. Anpassungen an der Lösung müssen daher sofort und mit wenig Rechenaufwand vorgenommen werden. Der Beitrag dieser Arbeit gliedert sich daher in zwei Teile: Im ersten Teil der Arbeit formulieren wir für Regularisierungsnetze einen effizienten Lernalgorithmus zum Lösen allgemeiner Regressionsaufgaben, der speziell auf die Anforderungen von Online-Lernen zugeschnitten ist. Unser Ansatz basiert auf der Vorgehensweise von Recursive Least-Squares, kann aber mit konstantem Zeitaufwand nicht nur neue Daten sondern auch neue Basisfunktionen in das bestehende Modell einfügen. Ermöglicht wird das durch die "Subset of Regressors" Approximation, wodurch der Kern durch eine stark reduzierte Auswahl von Trainingsdaten approximiert wird, und einer gierigen Auswahlwahlprozedur, die diese Basiselemente direkt aus dem Datenstrom zur Laufzeit selektiert. Im zweiten Teil übertragen wir diesen Algorithmus auf approximative Politik-Evaluation mittels Least-Squares basiertem Temporal-Difference Lernen, und integrieren diesen Baustein in ein Gesamtsystem zum autonomen Lernen von optimalem Verhalten. Insgesamt entwickeln wir ein in hohem Maße dateneffizientes Verfahren, das insbesondere für Lernprobleme aus der Robotik mit kontinuierlichen und hochdimensionalen Zustandsräumen sowie stochastischen Zustandsübergängen geeignet ist. Dabei sind wir nicht auf ein Modell der Umwelt angewiesen, arbeiten weitestgehend unabhängig von der Dimension des Zustandsraums, erzielen Konvergenz bereits mit relativ wenigen Agent-Umwelt Interaktionen, und können dank des effizienten Online-Algorithmus auch im Kontext zeitkritischer Echtzeitanwendungen operieren. Wir demonstrieren die Leistungsfähigkeit unseres Ansatzes anhand von zwei realistischen und komplexen Anwendungsbeispielen: dem Problem RoboCup-Keepaway, sowie der Steuerung eines (simulierten) Oktopus-Tentakels.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The lattice Boltzmann method is a popular approach for simulating hydrodynamic interactions in soft matter and complex fluids. The solvent is represented on a discrete lattice whose nodes are populated by particle distributions that propagate on the discrete links between the nodes and undergo local collisions. On large length and time scales, the microdynamics leads to a hydrodynamic flow field that satisfies the Navier-Stokes equation. In this thesis, several extensions to the lattice Boltzmann method are developed. In complex fluids, for example suspensions, Brownian motion of the solutes is of paramount importance. However, it can not be simulated with the original lattice Boltzmann method because the dynamics is completely deterministic. It is possible, though, to introduce thermal fluctuations in order to reproduce the equations of fluctuating hydrodynamics. In this work, a generalized lattice gas model is used to systematically derive the fluctuating lattice Boltzmann equation from statistical mechanics principles. The stochastic part of the dynamics is interpreted as a Monte Carlo process, which is then required to satisfy the condition of detailed balance. This leads to an expression for the thermal fluctuations which implies that it is essential to thermalize all degrees of freedom of the system, including the kinetic modes. The new formalism guarantees that the fluctuating lattice Boltzmann equation is simultaneously consistent with both fluctuating hydrodynamics and statistical mechanics. This establishes a foundation for future extensions, such as the treatment of multi-phase and thermal flows. An important range of applications for the lattice Boltzmann method is formed by microfluidics. Fostered by the "lab-on-a-chip" paradigm, there is an increasing need for computer simulations which are able to complement the achievements of theory and experiment. Microfluidic systems are characterized by a large surface-to-volume ratio and, therefore, boundary conditions are of special relevance. On the microscale, the standard no-slip boundary condition used in hydrodynamics has to be replaced by a slip boundary condition. In this work, a boundary condition for lattice Boltzmann is constructed that allows the slip length to be tuned by a single model parameter. Furthermore, a conceptually new approach for constructing boundary conditions is explored, where the reduced symmetry at the boundary is explicitly incorporated into the lattice model. The lattice Boltzmann method is systematically extended to the reduced symmetry model. In the case of a Poiseuille flow in a plane channel, it is shown that a special choice of the collision operator is required to reproduce the correct flow profile. This systematic approach sheds light on the consequences of the reduced symmetry at the boundary and leads to a deeper understanding of boundary conditions in the lattice Boltzmann method. This can help to develop improved boundary conditions that lead to more accurate simulation results.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

One of the main goals of the COMPASS experiment at CERN is the determination of the gluon polarisation in the nucleon. It is determined from spin asymmetries in the scattering of 160 GeV/c polarised muons on a polarised LiD target. The gluon polarisation is accessed by the selection of photon-gluon fusion (PGF) events. The PGF-process can be tagged through hadrons with high transverse momenta or through charmed hadrons in the final state. The advantage of the open charm channel is that, in leading order, the PGF-process is the only process for charm production, thus no physical background contributes to the selected data sample. This thesis presents a measurement of the gluon polarisation from the COMPASS data taken in the years 2002-2004. In the analysis, charm production is tagged through a reconstructed D0-meson decaying in $D^{0}-> K^{-}pi^{+}$ (and charge conjugates). The reconstruction is done on a combinatorial basis. The background of wrong track pairs is reduced using kinematic cuts to the reconstructed D0-candidate and the information on particle identification from the Ring Imaging Cerenkov counter. In addition, the event sample is separated into D0-candidates, where a soft pion from the decay of the D*-meson to a D0-meson, is found, and the D0-candidates without this tag. Due to the small mass difference between D*-meson and D0-meson the signal purity of the D*-tagged sample is about 7 times higher than in the untagged sample. The gluon polarisation is measured from the event asymmetries for the for the different spin configurations of the COMPASS target. To improve the statistical precision of the final results, the events in the final sample are weighted. This method results in an average value of the gluon polarisation in the x-range covered by the data. For the COMPASS data from 2002-2004, the resulting value of the gluon polarisation is $=-0.47+-0.44 (stat)+-0.15(syst.)$. The result is statistically compatible with the existing measurements of $$ in the high-pT channel. Compared to these, the open charm measurement has the advantage of a considerably smaller model dependence.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

During the last twenty years, Cydia pomonolla granulovirus (CpGV, Baculoviridae) has become the most important biological control agent for the codling moth (CM) in organic and integrated apple production. All registered products in Europe are based on the isolate CpGV-M, which was discovered 1964 in Mexico. A serious threat to future application of CpGV is the occurrence of CM field populations resistant to CpGV. Since 2003, populations with up to 10,000-fold reduced susceptibility were reported from orchards in Germany, France, Italy, Switzerland, Austria and the Netherlands. A putative alternative to CpGV-M are novel CpGV isolates which are able to overcome CM resistance. This thesis focuses on the identification and characterisation of resistance overcoming CpGV isolates and the analysis of their molecular difference to CpGV-M.rnSixteen CpGV isolates were tested against CM lab strains in bioassays. Hereby, five isolates were identified which were able to completely overcome resistance. The genomes of these isolates were compared to CpGV-M by restriction fragment length polymorphism (RFLP) analysis. To identify the molecular factor responsible for improved virulence of some CpGV isolates, major genomic differences were sequenced and analysed. A 0.7 kb insertion was found in CpGV-I01, -I12 and -E2, but not in other resistance overcoming isolates. Analysis of the insertions sequence revealed that it might be due to a transposition event, but not involved in overcoming resistance. rnFor unequivocal identification of CpGV isolates, a new method based on molecular analysis was established. Partial sequencing of the conserved polyhedrin/granulin (polh/gran), late expression factor-8 (lef-8) and late expression factor-9 (lef-9) genes revealed single nucleotide polymorphisms (SNPs). SNP analysis correlated with the grouping obtained by RFLP analysis. A phylogenetic classification due to different genome types A-E is proposed. Phylogenetic analysis suggested that CpGV-M was the phylogenetically youngest of the tested CpGV isolates.rnWhole genome sequencing of two resistance overcoming isolates CpGV-I12 (type D genome) and -S (type E genome) and CpGV-M (type A genome) was performed. Comparison of the three genomes revealed a high sequence identity. Several insertions and deletions ranging from 1-700 nucleotides (nt) were found. Comparison on open reading frame (ORF) level revealed that CpGV-I12 and -S shared only one protein alteration when compared to CpGV-M: a stretch of 24 nt present in ORF cp24 was not found in any of the resistance overcoming isolates. Cp24 codes for the early gene pe38. Combined with the results of phylogenetic analysis, it is proposed that these 24 nt are a recent insertion into the CpGV-M genome. The role of pe38 in overcoming resistance was investigated by knocking out pe38 of a CpGV-M based bacmid and swapping of CpGV-I12 pe38 of into the k.o. bacmid. When pe38 of CpGV-I12 was inserted into the k.o. bacmid, the infectivity could not be rescued, suggesting that the genomic portion of pe38 might play a role in its function.rnIt can be concluded that the recently observed CpGV resistance in CM is only related to type A genomes. RFLP and SNP analysis provide tools for identifying and characterising different CpGV isolates reliably, a pre-condition for a future registration of CpGV products based on novel CpGV isolates.rnrnrn

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Vegetation-cycles are of general interest for many applications. Be it for harvest-predictions, global monitoring of climate-change or as input to atmospheric models.rnrnCommon Vegetation Indices use the fact that for vegetation the difference between Red and Near Infrared reflection is higher than in any other material on Earth’s surface. This gives a very high degree of confidence for vegetation-detection.rnrnThe spectrally resolving data from the GOME and SCIAMACHY satellite-instrumentsrnprovide the chance to analyse finer spectral features throughout the Red and Near Infrared spectrum using Differential Optical Absorption Spectroscopy (DOAS). Although originally developed to retrieve information on atmospheric trace gases, we use it to gain information on vegetation. Another advantage is that this method automatically corrects for changes in the atmosphere. This renders the vegetation-information easily comparable over long time-spans.rnThe first results using previously available reference spectra were encouraging, but also indicated substantial limitations of the available reflectance spectra of vegetation. This was the motivation to create new and more suitable vegetation reference spectra within this thesis.rnThe set of reference spectra obtained is unique in its extent and also with respect to its spectral resolution and the quality of the spectral calibration. For the first time, this allowed a comprehensive investigation of the high-frequency spectral structures of vegetation reflectance and of their dependence on the viewing geometry.rnrnThe results indicate that high-frequency reflectance from vegetation is very complex and highly variable. While this is an interesting finding in itself, it also complicates the application of the obtained reference spectra to the spectral analysis of satellite observations.rnrnThe new set of vegetation reference spectra created in this thesis opens new perspectives for research. Besides refined satellite analyses, these spectra might also be used for applications on other platforms such as aircraft. First promising studies have been presented in this thesis, but the full potential for the remote sensing of vegetation from satellite (or aircraft) could bernfurther exploited in future studies.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Therapeutisches Drug Monitoring (TDM) findet Anwendung in der Therapie mit Immunosuppressiva, Antibiotika, antiretroviraler Medikation, Antikonvulsiva, Antidepressiva und auch Antipsychotika, um die Effizienz zu steigern und das Risiko von Intoxikationen zu reduzieren. Jedoch ist die Anwendung von TDM für Substanzen, die Einsatz finden in der Rückfallprophylaxe, der Substitution oder dem Entzug von Abhängigkeitserkrankungen nicht etabliert. Für diese Arbeit wurde im ersten Schritt eine sensitive Rating-Skala mit 22 Items entwickelt, mit Hilfe derer der theoretische Nutzen von TDM in der Pharmakotherapie von substanzbezogenen Abhängigkeitserkrankungen auf der Basis von pharmakologischen Eigenschaften der Medikamente und von Patientencharakteristika evaluiert wurde. Die vorgenommene Einschätzung zeigte für Bupropion, Buprenorphin, Disulfiram (oder einen Metaboliten), Methadon (chirale Bestimmung wenn möglich) und Naltrexon einen potentiellen Nutzen von TDM.rnFür die meisten Medikamente, die zur Behandlung von Abhängigkeitserkrankungen zugelassen sind, fehlen valide Messverfahren für TDM. Im Alltag werden überwiegend Drogen Screening-Tests in Form immunologischer Schnelltests angewendet. Für die Anwendung von TDM wurden in dieser Arbeit chromatographische Verfahren für die Bestimmung von Naltrexon und 6β-Naltrexol, Bupropion und Hydroxybupropion sowie R,S-Methadon und R,S-2-Ethyliden-1,5-dimethyl-3,3-diphenylpyrrolidin entwickelt, optimiert und validiert. Es handelt sich dabei HPLC-UV-Methoden mit Säulenschaltung sowie zur Bestimmung von Naltrexon und 6β-Naltrexol zusätzlich eine LC-MS/MS-Methode. Voraussetzung für die Interpretation der Plasmaspiegel ist im Wesentlichen die Kenntnis eines therapeutischen Bereichs. Für Naltrexon und seinen aktiven Metaboliten 6β-Naltrexol konnte eine signifikante Korrelation zwischen dem auftretenden Craving und der Summenkonzentration gefunden werden. Mittels Receiver-Operation-Characteristics-Kurven-Analyse wurde ein Schwellenwert von 16,6 ng/ml ermittelt, oberhalb dessen mit einem erhöhten Ansprechen gerechnet werden kann. Für Levomethadon wurde bezüglich der Detoxifikationsbehandlung ein Zusammenhang in der prozentualen Reduktion des Plasmaspiegels und den objektiven und subjektiven Entzugssymptomen gefunden. rnDoch nicht nur die Wirkstoffe, sondern auch das Patientenmerkmal substanzbezogene Abhängigkeit wurde charakterisiert, zum einen bezüglich pharmakokinetischer Besonderheiten, zum anderen in Hinsicht auf die Therapietreue (Adhärenz). Für Patienten mit komorbider Substanzabhängigkeit konnte eine verminderte Adhärenz unabhängig von der Hauptdiagnose gezeigt werden. Die Betrachtung des Einflusses von veränderten Leberwerten zeigt für komorbide Patienten eine hohe Korrelation mit dem Metabolisiererstatus, nicht aber für Patienten ohne Substanzabhängigkeit.rnÜbergeordnetes Ziel von TDM ist die Erhöhung der Therapiesicherheit und die Steigerung der Therapieeffizienz. Dies ist jedoch nur möglich, wenn TDM im klinischen Alltag integriert ist und korrekt eingesetzt wird. Obwohl es klare Evidenz für TDM von psychiatrischer Medikation gibt, ist die Diskrepanz zwischen Laborempfehlung und der klinischen Umsetzung hoch. Durch Intensivierung der interdisziplinären Zusammenarbeit zwischen Ärzten und Labor, der Entwicklung von interaktivem TDM (iTDM), konnte die Qualität der Anwendung von TDM verbessert und das Risiko von unerwünschten Arzneimittelwirkungen vermindert werden. rnInsgesamt konnte durch die eigenen Untersuchungen gezeigt werden, dass TDM für die medikamentöse Einstellung von Patienten mit Abhängigkeitserkrankung sinnvoll ist und dass optimales TDM eine interdisziplinäre Zusammenarbeit erfordert.rn

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The aim of this study is to investigate on some molecular mechanisms contributing to the pathogenesis of osteoarthritis (OA) and in particular to the senescence of articular chondrocytes. It is focused on understanding molecular events downstream GSK3β inactivation or dependent on the activity of IKKα, a kinase that does not belong to the phenotype of healthy articular chondrocytes. Moreover, the potential of some nutraceuticals on scavenging ROS thus reducing oxidative stress, DNA damage, and chondrocyte senescence has been evaluated in vitro. The in vitro LiCl-mediated GSK3β inactivation resulted in increased mitochondrial ROS production, that impacted on cellular proliferation, with S-phase transient arrest, increased SA-β gal and PAS staining, cell size and granularity. ROS are also responsible for the of increased expression of two major oxidative lesions, i.e. 1) double strand breaks, tagged by γH2AX, that associates with activation of GADD45β and p21, and 2) 8-oxo-dG adducts, that associate with increased IKKα and MMP-10 expression. The pattern observed in vitro was confirmed on cartilage from OA patients. IKKa dramatically affects the intensity of the DNA damage response induced by oxidative stress (H2O2 exposure) in chondrocytes, as evidenced by silencing strategies. At early time point an higher percentage of γH2AX positive cells and more foci in IKKa-KD cells are observed, but IKKa KD cells proved to almost completely recover after 24 hours respect to their controls. Telomere attrition is also reduced in IKKaKD. Finally MSH6 and MLH1 genes are up-regulated in IKKαKD cells but not in control cells. Hydroxytyrosol and Spermidine have a great ROS scavenging capacity in vitro. Both treatments revert the H2O2 dependent increase of cell death and γH2AX-foci formation and senescence, suggesting the ability of increasing cell homeostasis. These data indicate that nutraceuticals represent a great challenge in OA management, for both therapeutical and preventive purposes.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

In Rahmen der vorliegenden Arbeit wurde ein neuartiger Zugang zu einer Vielzahl von Polymerstrukturen auf Basis des klinisch zugelassenen Polymers Poly(N-(2-Hydroxypropyl)-methacrylamide) (PHPMA) entwickelt. Der synthetische Zugang beruht zum einen auf der Verwendung von Reaktivesterpolymeren und zum anderen auf der Reversible Addition Fragmentation Chain Transfer (RAFT) Polymerisationsmethode. Diese Form einer kontrollierten radikalischen Polymerisation ermöglichte es, neben der Synthese von besser definierten Homopolymeren auch statistische und Blockcopolymere herzustellen. Die Reaktivesterpolymere können durch einfache Aminolyse in HPMA-basierte Systeme überführt werden. Somit können sie als eine vielversprechende Basis zur Synthese von umfangreichen Polymerbibliotheken angesehen werden. Die hergestellten Polymere kombinieren verschiedene Funktionalitäten bei konstantem Polymerisationsgrad. Dies ermöglicht eine Optimierung auf eine gezielte Anwendung hin ohne den Parameter der Kettenlänge zu verändern.rnIm weiteren war es durch Verwendung der RAFT Polymerisation möglich partiell bioabbaubare Blockcopolymere auf Basis von Polylactiden und HPMA herzustellen, in dem ein Kettentransferreagenz (CTA) an ein wohl definiertes Polylactid Homopolymer gekoppelt wurde. Diese Strukturen wurden in ihrer Zusammensetzung variiert und mit Erkennungsstrukturen (Folaten) und markierenden Elementen (Fluoreszenzfarbstoffe und +-emittierenden Radionukleide) versehen und im weiteren in vitro und in vivo evaluiert.rnAuf Grund dieser Errungenschaften war es möglich den Einfluss der Polymermikrostruktur auf das Aggregationsverhalten hin mittel Lichtstreuung und Fluoreszenzkorrelationsspektroskopie zu untersuchen. Es konnte gezeigt werden, dass erst diese Informationen über die Überstrukturbildung die Kinetik der Zellaufnahme erklären können. Somit wurde die wichtige Rolle von Strukturwirkungsbeziehungen nachgewiesen.rnSomit konnte neben der Synthese, Charakterisierung und ersten biologischen Evaluierungen ein Beitrag zum besseres Verständnis zur Interaktion von polymeren Partikeln mit biologischen Systemen geleistet werden.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Durch steigende Energiekosten und erhöhte CO2 Emission ist die Forschung an thermoelektrischen (TE) Materialien in den Fokus gerückt. Die Eignung eines Materials für die Verwendung in einem TE Modul ist verknüpft mit der Gütezahl ZT und entspricht α2σTκ-1 (Seebeck Koeffizient α, Leitfähigkeit σ, Temperatur T und thermische Leitfähigkeit κ). Ohne den Leistungsfaktor α2σ zu verändern, soll ZT durch Senkung der thermischen Leitfähigkeit mittels Nanostrukturierung angehoben werden.rnBis heute sind die TE Eigenschaften von den makroskopischen halb-Heusler Materialen TiNiSn und Zr0.5Hf0.5NiSn ausgiebig erforscht worden. Mit Hilfe von dc Magnetron-Sputterdeposition wurden nun erstmals halbleitende TiNiSn und Zr0.5Hf0.5NiSn Schichten hergestellt. Auf MgO (100) Substraten sind stark texturierte polykristalline Schichten bei Substrattemperaturen von 450°C abgeschieden worden. Senkrecht zur Oberfläche haben sich Korngrößen von 55 nm feststellen lassen. Diese haben Halbwertsbreiten bei Rockingkurven von unter 1° aufgewiesen. Strukturanalysen sind mit Hilfe von Röntgenbeugungsexperimenten (XRD) durchgeführt worden. Durch Wachstumsraten von 1 nms 1 konnten in kürzester Zeit Filmdicken von mehr als einem µm hergestellt werden. TiNiSn zeigte den höchsten Leistungsfaktor von 0.4 mWK 2m 1 (550 K). Zusätzlich wurde bei Raumtemperatur mit Hilfe der differentiellen 3ω Methode eine thermische Leitfähigkeit von 2.8 Wm 1K 1 bestimmt. Es ist bekannt, dass die thermische Leitfähigkeit mit der Variation von Massen abnimmt. Weil zudem angenommen wird, dass sie durch Grenzflächenstreuung von Phononen ebenfalls reduziert wird, wurden Übergitter hergestellt. Dabei wurden TiNiSn und Zr0.5Hf0.5NiSn nacheinander abgeschieden. Die sehr hohe Kristallqualität der Übergitter mit ihren scharfen Grenzflächen konnte durch Satellitenpeaks und Transmissionsmikroskopie (STEM) nachgewiesen werden. Für ein Übergitter mit einer Periodizität von 21 nm (TiNiSn und Zr0.5Hf0.5NiSn jeweils 10.5 nm) ist bei einer Temperatur von 550 K ein Leistungsfaktor von 0.77 mWK 2m 1 nachgewiesen worden (α = 80 µVK 1; σ = 8.2 µΩm). Ein Übergitter mit der Periodizität von 8 nm hat senkrecht zu den Grenzflächen eine thermische Leitfähigkeit von 1 Wm 1K 1 aufgewiesen. Damit hat sich die Reduzierung der thermischen Leitfähigkeit durch die halb-Heusler Übergitter bestätigt. Durch die isoelektronischen Eigenschaften von Titan, Zirkonium und Hafnium wird angenommen, dass die elektrische Bandstruktur und damit der Leistungsfaktor senkrecht zu den Grenzflächen nur schwach beeinflusst wird.rn

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Herz-Kreislauf-Erkrankungen zählen weltweit zu den Hauptursachen, die zu frühzeitigem Tod führen. Pathophysiologisch liegt eine Gefäßwandverdickung durch Ablagerung arteriosklerotischer Plaques (Arteriosklerose) vor. Die molekulare Bildgebung mit den nuklearmedizinischen Verfahren SPECT und PET zielt darauf ab, minderperfundierte Myokardareale zu visualisieren, um den Krankheitsverlauf durch frühzeitige Therapie abschwächen zu können. Routinemäßig eingesetzt werden die SPECT-Perfusionstracer [99mTc]Sestamibi und [99mTc]Tetrofosmin. Zum Goldstandard für die Quantifizierung der Myokardperfusion werden allerdings die PET-Tracer [13N]NH3 und [15O]H2O, da eine absolute Bestimmung des Blutflusses in mL/min/g sowohl in der Ruhe als auch bei Belastung möglich ist. 2007 wurde [18F]Flurpiridaz als neuer Myokardtracer vorgestellt, dessen Bindung an den MC I sowohl in Ratten, Hasen, Primaten als auch in ersten klinischen Humanstudien eine selektive Myokardaufnahme zeigte. Um eine Verfügbarkeit des Radionuklids über einen Radionuklidgenerator gewährleisten zu können, sollten makrozyklische 68Ga-Myokard-Perfusionstracer auf Pyridaben-Basis synthetisiert und evaluiert werden. Die neue Tracer-Klasse setzte sich aus dem makrozyklischen Chelator, einem Linker und dem Insektizid Pyridaben als Targeting-Vektor zusammen. Struktur-Affinitätsbeziehungen konnten auf Grund von Variation des Linkers (Länge und Polarität), der Komplexladung (neutral und einfach positiv geladen), des Chelators (DOTA, NODAGA, DO2A) sowie durch einen Multivalenzansatz (Monomer und Dimer) aufgestellt werden. Insgesamt wurden 16 neue Verbindungen synthetisiert. Ihre 68Ga-Markierung wurde hinsichtlich pH-Wert, Temperatur, Vorläufermenge und Reaktionszeit optimiert. Die DOTA/NODAGA-Pyridaben-Derivate ließen sich mit niedrigen Substanzmengen (6 - 25 nmol) in 0,1 M HEPES-Puffer (pH 3,4) bei 95°C innerhalb 15 min mit Ausbeuten > 95 % markieren. Für die DO2A-basierenden Verbindungen bedurfte es einer mikrowellengestützen Markierung (300 W, 1 min, 150°C), um vergleichbare Ausbeuten zu erzielen. Die in vitro-Stabilitätstests aller Verbindungen erfolgten in EtOH, NaCl und humanem Serum. Es konnten keine Instabilitäten innerhalb 80 min bei 37°C festgestellt werden. Unter Verwendung der „shake flask“-Methode wurden die Lipophilien (log D = -1,90 – 1,91) anhand des Verteilungs-quotienten in Octanol/PBS-Puffer ermittelt. Die kalten Referenzsubstanzen wurden mit GaCl3 hergestellt und zur Bestimmung der IC50-Werte (34,1 µM – 1 µM) in vitro auf ihre Affinität zum MC I getestet. In vivo-Evaluierungen erfolgten mit den zwei potentesten Verbindungen [68Ga]VN160.MZ und [68Ga]VN167.MZ durch µ-PET-Aufnahmen (n=3) in gesunden Ratten über 60 min. Um die Organverteilung ermitteln zu können, wurden ex vivo-Biodistributionsstudien (n=3) vorgenommen. Sowohl die µ-PET-Untersuchungen als auch die Biodistributionsstudien zeigten, dass es bei [68Ga]VN167.MZ zwar zu einer Herzaufnahme kam, die jedoch eher perfusionsabhängig ist. Eine Retention des Tracers im Myokard konnte in geringem Umfang festgestellt werden.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Moderne ESI-LC-MS/MS-Techniken erlauben in Verbindung mit Bottom-up-Ansätzen eine qualitative und quantitative Charakterisierung mehrerer tausend Proteine in einem einzigen Experiment. Für die labelfreie Proteinquantifizierung eignen sich besonders datenunabhängige Akquisitionsmethoden wie MSE und die IMS-Varianten HDMSE und UDMSE. Durch ihre hohe Komplexität stellen die so erfassten Daten besondere Anforderungen an die Analysesoftware. Eine quantitative Analyse der MSE/HDMSE/UDMSE-Daten blieb bislang wenigen kommerziellen Lösungen vorbehalten. rn| In der vorliegenden Arbeit wurden eine Strategie und eine Reihe neuer Methoden zur messungsübergreifenden, quantitativen Analyse labelfreier MSE/HDMSE/UDMSE-Daten entwickelt und als Software ISOQuant implementiert. Für die ersten Schritte der Datenanalyse (Featuredetektion, Peptid- und Proteinidentifikation) wird die kommerzielle Software PLGS verwendet. Anschließend werden die unabhängigen PLGS-Ergebnisse aller Messungen eines Experiments in einer relationalen Datenbank zusammengeführt und mit Hilfe der dedizierten Algorithmen (Retentionszeitalignment, Feature-Clustering, multidimensionale Normalisierung der Intensitäten, mehrstufige Datenfilterung, Proteininferenz, Umverteilung der Intensitäten geteilter Peptide, Proteinquantifizierung) überarbeitet. Durch diese Nachbearbeitung wird die Reproduzierbarkeit der qualitativen und quantitativen Ergebnisse signifikant gesteigert.rn| Um die Performance der quantitativen Datenanalyse zu evaluieren und mit anderen Lösungen zu vergleichen, wurde ein Satz von exakt definierten Hybridproteom-Proben entwickelt. Die Proben wurden mit den Methoden MSE und UDMSE erfasst, mit Progenesis QIP, synapter und ISOQuant analysiert und verglichen. Im Gegensatz zu synapter und Progenesis QIP konnte ISOQuant sowohl eine hohe Reproduzierbarkeit der Proteinidentifikation als auch eine hohe Präzision und Richtigkeit der Proteinquantifizierung erreichen.rn| Schlussfolgernd ermöglichen die vorgestellten Algorithmen und der Analyseworkflow zuverlässige und reproduzierbare quantitative Datenanalysen. Mit der Software ISOQuant wurde ein einfaches und effizientes Werkzeug für routinemäßige Hochdurchsatzanalysen labelfreier MSE/HDMSE/UDMSE-Daten entwickelt. Mit den Hybridproteom-Proben und den Bewertungsmetriken wurde ein umfassendes System zur Evaluierung quantitativer Akquisitions- und Datenanalysesysteme vorgestellt.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Vertebroplasty and kyphoplasty are well-established minimally invasive treatment options for compression fractures of osteoporotic vertebral bodies. Possible procedural disadvantages, however, include incomplete fracture reduction or a significant loss of reduction after balloon tamp deflation, prior to cement injection. A new procedure called "vertebral body stenting" (VBS) was tested in vitro and compared to kyphoplasty. VBS uses a specially designed catheter-mounted stent which can be implanted and expanded inside the vertebral body. As much as 24 fresh frozen human cadaveric vertebral bodies (T11-L5) were utilized. After creating typical compression fractures, the vertebral bodies were reduced by kyphoplasty (n = 12) or by VBS (n = 12) and then stabilized with PMMA bone cement. Each step of the procedure was performed under fluoroscopic control and analysed quantitatively. Finally, static and dynamic biomechanical tests were performed. A complete initial reduction of the fractured vertebral body height was achieved by both systems. There was a significant loss of reduction after balloon deflation in kyphoplasty compared to VBS, and a significant total height gain by VBS (mean +/- SD in %, p < 0.05, demonstrated by: anterior height loss after deflation in relation to preoperative height [kyphoplasty: 11.7 +/- 6.2; VBS: 3.7 +/- 3.8], and total anterior height gain [kyphoplasty: 8.0 +/- 9.4; VBS: 13.3 +/- 7.6]). Biomechanical tests showed no significant stiffness and failure load differences between systems. VBS is an innovative technique which allows for the possibly complete reduction of vertebral compression fractures and helps maintain the restored height by means of a stent. The height loss after balloon deflation is significantly decreased by using VBS compared to kyphoplasty, thus offering a new promising option for vertebral augmentation.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Introduction The objective of this study was to assess three-dimensional bone geometry and density at the epiphysis and shaft of the third meta-carpal bone of rheumatoid arthritis (RA) patients in comparison to healthy controls with the novel method of peripheral quantitative computed tomography (pQCT). Methods PQCT scans were performed in 50 female RA patients and 100 healthy female controls at the distal epiphyses and shafts of the third metacarpal bone, the radius and the tibia. Reproducibility was determined by coefficient of varia-tion. Bone densitometric and geometric parameters were compared between the two groups and correlated to disease characteristics. Results Reproducibility of different pQCT parameters was between 0.7% and 2.5%. RA patients had 12% to 19% lower trabecular bone mineral density (BMD) (P ≤ 0.001) at the distal epiphyses of radius, tibia and metacarpal bone. At the shafts of these bones RA patients had 7% to 16% thinner cortices (P ≤ 0.03). Total cross-sectional area (CSA) at the metacarpal bone shaft of pa-tients was larger (between 5% and 7%, P < 0.02), and relative cortical area was reduced by 13%. Erosiveness by Ratingen score correlated negatively with tra-becular and total BMD at the epiphyses and shaft cortical thickness of all measured bones (P < 0.04). Conclusions Reduced trabecular BMD and thinner cortices at peripheral bones, and a greater bone shaft diameter at the metacarpal bone suggest RA spe-cific bone alterations. The proposed pQCT protocol is reliable and allows measuring juxta-articular trabecular BMD and shaft geometry at the metacarpal bone.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

CT pulmonary angiography is the currently accepted standard in ruling out acute pulmonary embolism. Issues of radiation dose received by patients via CT have been extensively disputed by radiologists and reported by the media. In recent years there has been considerable research performed to find ways for reducing radiation exposure from CT. Herein, we will discuss specific measures that have been shown to be valuable for CT pulmonary angiography. The limitations and the potential benefits of reduced CT peak tube kilovoltage will be detailed as this method is capable of reducing both radiation exposure and iodine load to the patient simultaneously. We discuss some of the emerging tools, which will hopefully play a significant role in wider acceptance of low-dose CT pulmonary angiography protocols.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Complete basis set and Gaussian-n methods were combined with Barone and Cossi's implementation of the polarizable conductor model (CPCM) continuum solvation methods to calculate pKa values for six carboxylic acids. Four different thermodynamic cycles were considered in this work. An experimental value of −264.61 kcal/mol for the free energy of solvation of H+, ΔGs(H+), was combined with a value for Ggas(H+) of −6.28 kcal/mol, to calculate pKa values with cycle 1. The complete basis set gas-phase methods used to calculate gas-phase free energies are very accurate, with mean unsigned errors of 0.3 kcal/mol and standard deviations of 0.4 kcal/mol. The CPCM solvation calculations used to calculate condensed-phase free energies are slightly less accurate than the gas-phase models, and the best method has a mean unsigned error and standard deviation of 0.4 and 0.5 kcal/mol, respectively. Thermodynamic cycles that include an explicit water in the cycle are not accurate when the free energy of solvation of a water molecule is used, but appear to become accurate when the experimental free energy of vaporization of water is used. This apparent improvement is an artifact of the standard state used in the calculation. Geometry relaxation in solution does not improve the results when using these later cycles. The use of cycle 1 and the complete basis set models combined with the CPCM solvation methods yielded pKa values accurate to less than half a pKa unit. © 2001 John Wiley & Sons, Inc. Int J Quantum Chem, 2001