697 resultados para Adaptives Verfahren


Relevância:

10.00% 10.00%

Publicador:

Resumo:

In this work, we consider a simple model problem for the electromagnetic exploration of small perfectly conducting objects buried within the lower halfspace of an unbounded two–layered background medium. In possible applications, such as, e.g., humanitarian demining, the two layers would correspond to air and soil. Moving a set of electric devices parallel to the surface of ground to generate a time–harmonic field, the induced field is measured within the same devices. The goal is to retrieve information about buried scatterers from these data. In mathematical terms, we are concerned with the analysis and numerical solution of the inverse scattering problem to reconstruct the number and the positions of a collection of finitely many small perfectly conducting scatterers buried within the lower halfspace of an unbounded two–layered background medium from near field measurements of time–harmonic electromagnetic waves. For this purpose, we first study the corresponding direct scattering problem in detail and derive an asymptotic expansion of the scattered field as the size of the scatterers tends to zero. Then, we use this expansion to justify a noniterative MUSIC–type reconstruction method for the solution of the inverse scattering problem. We propose a numerical implementation of this reconstruction method and provide a series of numerical experiments.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Phylogenie der Westpaläarktischen Langohren (Mammalia, Chiroptera, Plecotus) – eine molekulare Analyse Die Langohren stellen eine Fledermausgattung dar, die fast alle westpaläarktischen Habitate bist zum Polarkreis hin besiedeln und in vielerlei Hinsicht rätselhaft sind. In der Vergangenheit wurden zahlreiche Formen und Varietäten beschrieben. Trotzdem galt für lange Zeit, dass nur zwei Arten in Europa anerkannt wurden. Weitere Arten waren aus Nordafrika, den Kanaren und Asien bekannt, aber auch deren Artstatus wurde vielfach in Frage gestellt. In der vorliegenden Dissertation habe ich mittels molekularer Daten,der partiellen Sequenzierung mitochondrialer Gene (16S rRNA und ND1), sowie der mitochondrialen Kontrollregion, eine molekular Analyse der phylogenetischen Verwandtschaftsverhältnisse innerhalb und zwischen den Linien der westpaläarktischen Langohren durchgeführt. Die besten Substitutionsmodelle wurden berechnet und phylogenetische Bäume mit Hilfe vier verschiedener Methoden konstruiert: dem neighbor joining Verfahren (NJ), dem maximum likelihood Verfahren (ML), dem maximum parsimony Verfahren (MP) und dem Bayesian Verfahren. Sechs Linien der Langohren sind genetisch auf einem Artniveau differenziert: Plecotus auritus, P. austriacus, P. balensis, P. christii, P. sardus, und P. macrobullaris. Im Falle der Arten P. teneriffae, P. kolombatovici und P. begognae ist die alleinige Interpretation der genetischen Daten einzelner mitochondrialer Gene für eine Festlegung des taxonomischen Ranges nicht ausreichend. Ich beschreibe in dieser Dissertation drei neue Taxa: Plecotus sardus, P. kolombatovici gaisleri (=Plecotus teneriffae gaisleri, Benda et al. 2004) and P. macrobullaris alpinus [=Plecotus alpinus, Kiefer & Veith 2002). Morphologische Kennzeichen, insbesondere für die Erkennung im Feld, werden hier dargestellt. Drei der sieben Arten sind polytypisch: P. auritus (eine west- und ein osteuropäische Linie, eine sardische Linie und eine aktuell entdeckte kaukasische Linie, Plecotus kolombatovici (P. k. kolombatovici, P. k. gaisleri und P. k. ssp.) und P. macrobullaris (P. m. macrobullaris und P. m. alpinus). Die Verbreitungsgebiete der meisten Arten werden in dieser Arbeit erstmals ausschließlich anhand genetisch zugeordneter Tiere dargestellt.Die Untersuchung der ökologischen Einnischung der nun anerkannten Formen, insbesondere in Gebieten sympatrischer Verbreitung, bietet ein spannendes und lohnendes Feld für zukünftige Forschungen. Nicht zuletzt muss sich die Entdeckung eines beachtlichen Anteils kryptischer Diversität innerhalb der westpaläarktischen Langohren auch bei der Entwicklung spezieller Artenschutzkonzepte widerspiegeln.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

„Photovernetzbare flüssigkristalline Polymere unterschiedlicher Kettentopologien“, Patrick Beyer, Mainz 2007 Zusammenfassung In der vorliegenden Arbeit wurde die Synthese und Charakterisierung flüssigkristalliner Elastomere unterschiedlicher Polymertopologien vorgestellt. Dabei wurden Systeme synthetisiert, bei denen die mesogenen Einheiten entweder als Seitengruppen an ein Polymerrückgrat angebunden (Seitenkettenelastomere) oder direkt in die Polymerkette integriert (Hauptkettenelastomere) sind (siehe Abbildung). Bezüglich der Seitenkettensysteme konnten erstmals photovernetzbare smektische Seitenkettenpolymere, in denen aufgrund der Anknüpfung eines photoisomerisierbaren Azobenzols eine Photo- modulation der ferroelektrischen Eigenschaften möglich ist, dargestellt werden. Homöotrop orientierte freistehende Filme dieser Materialien konnten durch Spincoaten dargestellt und unter Ausnutzung des Dichroismus der Azobenzole durch geeignete Wahl der Bestrahlungsgeometrie photovernetzt werden. Aufbauend auf diesen Untersuchungen wurde anhand eines nicht vernetzbaren Modellsystems im Detail der Einfluss der trans-cis Isomerisierung des Azobenzols auf die ferroelektrischen Parameter untersucht. Durch zeitaufgelöste Messungen der Absorption der Azobenzole, der spontanen Polarisation und des Direktorneigungswinkels und Auswertung der kinetischen Prozesse konnte eine lineare Abhängigkeit der ferroelektrischen Eigenschaften vom Grad der Isomerisierungsreaktion festgestellt werden. Durch Vergleich dieser in der flüssigkristallinen Phase erhaltenen Ergebnisse mit der Kinetik der thermischen Reisomerisierung in Lösung (Toluol) konnte ferner eine deutliche Reduzierung der Relaxationszeiten in der anisotropen flüssigkristallinen Umgebung festgestellt und auf eine Absenkung der Aktivierungsenergie zurückgeführt werden. Makroskopische Formänderungen der Seitenkettenelastomere am Phasenübergang von der flüssigkristallinen in die isotrope Phase konnten jedoch nicht festgestellt werden. Aus diesem Grund wurden neue Synthesestrategien für die Darstellung von Hauptkettenelastomeren entwickelt, die sich aufgrund der direkten Kopplung von flüssigkristallinem Ordnungsgrad und Polymerkettenkonformation besser für die Herstellung thermischer Aktuatoren eignen. Auf Basis flüssigkristalliner Polymalonate konnten dabei lateral funktionalisierte smektische Hauptkettenpolymere synthetisiert werden, welche erstmals die Darstellung von LC-Hauptkettenelastomeren durch Photovernetzung in der flüssigkristallinen Phase erlauben. Durch laterale Bromierung konnte in diesen Systemen die Kristallisationstendenz der verwendeten Biphenyleinheiten unterdrückt werden. Bezüglich der Photovernetzung konnten zwei neue Synthesemethoden entwickelt werden, bei denen der Vernetzungsschritt entweder durch radikalische Polymerisation lateral angebundener Acrylatgruppen oder durch photoaktive Benzophenongruppen erfolgte. Basierend auf den Benzophenon funktionalisierten Systemen konnte ein neuartiges Verfahren zur Darstellung makroskopisch orientierter Hauptkettenelastomere durch Photovernetzung entwickelt werden. Die Elastomerproben, deren Ordnungsgrad durch Röntgenuntersuchungen ermittelt werden konnte, zeigen am Phasenübergang von der flüssigkristallinen in die isotrope Phase eine reversible Formänderung von 40%. Im Gegensatz zu anderen bekannten smektischen Systemen konnten die in dieser Arbeit vorgestellten Elastomere ohne Zerstörung der Phase bis zu 60% entlang der smektischen Schichtnormalen gestreckt werden, was im Kontext einer geringen Korrelation der smektischen Schichten in Hauptkettenelastomeren diskutiert wurde.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Abstract Originalsprache (englisch) Visual perception relies on a two-dimensional projection of the viewed scene on the retinas of both eyes. Thus, visual depth has to be reconstructed from a number of different cues that are subsequently integrated to obtain robust depth percepts. Existing models of sensory integration are mainly based on the reliabilities of individual cues and disregard potential cue interactions. In the current study, an extended Bayesian model is proposed that takes into account both cue reliability and consistency. Four experiments were carried out to test this model's predictions. Observers had to judge visual displays of hemi-cylinders with an elliptical cross section, which were constructed to allow for an orthogonal variation of several competing depth cues. In Experiment 1 and 2, observers estimated the cylinder's depth as defined by shading, texture, and motion gradients. The degree of consistency among these cues was systematically varied. It turned out that the extended Bayesian model provided a better fit to the empirical data compared to the traditional model which disregards covariations among cues. To circumvent the potentially problematic assessment of single-cue reliabilities, Experiment 3 used a multiple-observation task, which allowed for estimating perceptual weights from multiple-cue stimuli. Using the same multiple-observation task, the integration of stereoscopic disparity, shading, and texture gradients was examined in Experiment 4. It turned out that less reliable cues were downweighted in the combined percept. Moreover, a specific influence of cue consistency was revealed. Shading and disparity seemed to be processed interactively while other cue combinations could be well described by additive integration rules. These results suggest that cue combination in visual depth perception is highly flexible and depends on single-cue properties as well as on interrelations among cues. The extension of the traditional cue combination model is defended in terms of the necessity for robust perception in ecologically valid environments and the current findings are discussed in the light of emerging computational theories and neuroscientific approaches.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Form und Gestalt kraniofazialer Strukturen sind primär beeinflusst durch die inhärente Integration der unterschiedlichsten Funktionssysteme und externer selektiver Einflüsse. Die Variabilität der Schädel-Morphe ist ein Indikator für solche Einflussfaktoren und damit ein idealer Gegenstand für vergleichende Analysen morphogenetischer Formbildung. Zur Ermittlung morphologisch-adaptiver Trends und Muster wurden sowohl Hypothesen zur morphologischen Differenziertheit als auch zu Korrelationen zwischen modularen Schädelkompartimenten (fazial, neurokranial, basikranial) untersucht. Zusätzlich wurden aus Schichtröntgenaufnahmen (CT) virtuelle Modelle rekonstruiert, welche die Interpretation der statistischen Befunde unterstützen sollten. Zur Berechnung der Gestaltunterschiede wurden mittels eines mechanischen Gelenkarm-Messgerätes (MicroScribe-G2) max. 85 ektokraniale Messpunkte (Landmarks) bzw. dreidimensionale Koordinaten an ca. 520 Schädeln von fünf rezenten Gattungen der Überfamilie Hominoidea (Hylobates, Pongo, Gorilla, Pan und Homo) akquiriert. Aus dem Datensatz wurden geometrische Störfaktoren (Größe, Translation, Rotation) mathematisch eliminiert und die verbleibenden Residuale bzw. ‚Gestalt-Variablen‘ diversen multivariat-statistischen Verfahren unterzogen (Faktoren, Cluster-, Regressions- und Korrelationsanalysen sowie statistische Tests). Die angewandten Methoden erhalten die geometrische Information der Untersuchungsobjekte über alle Analyseschritte hinweg und werden unter der Bezeichnung „Geometric Morphometrics (GMM)“ als aktueller Ansatz der Morphometrie zusammengefasst. Für die unterschiedlichen Fragestellungen wurden spezifische Datensätze generiert. Es konnten diverse morphologische Trends und adaptive Muster mit Hilfe der Synthese statistischer Methoden und computer-basierter Rekonstruktionen aus den generierten Datensätzen ermittelt werden. Außerdem war es möglich, präzise zu rekonstruieren, welche kranialen Strukturen innerhalb der Stichprobe miteinander wechselwirken, einzigartige Variabilitäten repräsentieren oder eher homogen gestaltet sind. Die vorliegenden Befunde lassen erkennen, dass Fazial- und Neurokranium am stärksten miteinander korrelieren, während das Basikranium geringe Abhängigkeiten in Bezug auf Gesichts- oder Hirnschädelveränderungen zeigte. Das Basikranium erweist sich zudem bei den nicht-menschlichen Hominoidea und über alle Analysen hinweg als konservative und evolutiv-persistente Struktur mit dem geringsten Veränderungs-Potential. Juvenile Individuen zeigen eine hohe Affinität zueinander und zu Formen mit einem kleinem Gesichts- und großem Hirnschädel. Während das Kranium des rezenten Menschen primär von Enkephalisation und fazialer Retraktion (Orthognathisierung) dominiert ist und somit eine einzigartige Gestalt aufweist, zeigt sich der Kauapparat als maßgeblich formbildendes Kompartiment bei den nicht-menschlichen Formen. Die Verbindung von GMM mit den interaktiven Möglichkeiten computergenerierter Modelle erwies sich als valides Werkzeug zur Erfassung der aufgeworfenen Fragestellungen. Die Interpretation der Befunde ist durch massive Interkorrelationen der untersuchten Strukturen und der statistisch-mathematischen Prozeduren als hoch komplex zu kennzeichnen. Die Studie präsentiert einen innovativen Ansatz der modernen Morphometrie, welcher für zukünftige Untersuchungen im Bereich der kraniofazialen Gestaltanalyse ausgebaut werden könnte. Dabei verspricht die Verknüpfung mit ‚klassischen’ und modernen Zugängen (z. B. Molekularbiologie) gesteigerte Erkenntnismöglichkeiten für künftige morphometrische Fragestellungen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The optical resonances of metallic nanoparticles placed at nanometer distances from a metal plane were investigated. At certain wavelengths, these “sphere-on-plane” systems become resonant with the incident electromagnetic field and huge enhancements of the field are predicted localized in the small gaps created between the nanoparticle and the plane. An experimental architecture to fabricate sphere-on-plane systems was successfully achieved in which in addition to the commonly used alkanethiols, polyphenylene dendrimers were used as molecular spacers to separate the metallic nanoparticles from the metal planes. They allow for a defined nanoparticle-plane separation and some often are functionalized with a chromophore core which is therefore positioned exactly in the gap. The metal planes used in the system architecture consisted of evaporated thin films of gold or silver. Evaporated gold or silver films have a smooth interface with their substrate and a rougher top surface. To investigate the influence of surface roughness on the optical response of such a film, two gold films were prepared with a smooth and a rough side which were as similar as possible. Surface plasmons were excited in Kretschmann configuration both on the rough and on the smooth side. Their reflectivity could be well modeled by a single gold film for each individual measurement. The film has to be modeled as two layers with significantly different optical constants. The smooth side, although polycrystalline, had an optical response that was very similar to a monocrystalline surface while for the rough side the standard response of evaporated gold is retrieved. For investigations on thin non-absorbing dielectric films though, this heterogeneity introduces only a negligible error. To determine the resonant wavelength of the sphere-on-plane systems a strategy was developed which is based on multi-wavelength surface plasmon spectroscopy experiments in Kretschmann-configuration. The resonant behavior of the system lead to characteristic changes in the surface plasmon dispersion. A quantitative analysis was performed by calculating the polarisability per unit area /A treating the sphere-on-plane systems as an effective layer. This approach completely avoids the ambiguity in the determination of thickness and optical response of thin films in surface plasmon spectroscopy. Equal area densities of polarisable units yielded identical response irrespective of the thickness of the layer they are distributed in. The parameter range where the evaluation of surface plasmon data in terms of /A is applicable was determined for a typical experimental situation. It was shown that this analysis yields reasonable quantitative agreement with a simple theoretical model of the sphere-on-plane resonators and reproduces the results from standard extinction experiments having a higher information content and significantly increased signal-to-noise ratio. With the objective to acquire a better quantitative understanding of the dependence of the resonance wavelength on the geometry of the sphere-on-plane systems, different systems were fabricated in which the gold nanoparticle size, type of spacer and ambient medium were varied and the resonance wavelength of the system was determined. The gold nanoparticle radius was varied in the range from 10 nm to 80 nm. It could be shown that the polyphenylene dendrimers can be used as molecular spacers to fabricate systems which support gap resonances. The resonance wavelength of the systems could be tuned in the optical region between 550 nm and 800 nm. Based on a simple analytical model, a quantitative analysis was developed to relate the systems’ geometry with the resonant wavelength and surprisingly good agreement of this simple model with the experiment without any adjustable parameters was found. The key feature ascribed to sphere-on-plane systems is a very large electromagnetic field localized in volumes in the nanometer range. Experiments towards a quantitative understanding of the field enhancements taking place in the gap of the sphere-on-plane systems were done by monitoring the increase in fluorescence of a metal-supported monolayer of a dye-loaded dendrimer upon decoration of the surface with nanoparticles. The metal used (gold and silver), the colloid mean size and the surface roughness were varied. Large silver crystallites on evaporated silver surfaces lead to the most pronounced fluorescence enhancements in the order of 104. They constitute a very promising sample architecture for the study of field enhancements.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Das Vorliegen einer Leistenhernie ist Ausdruck einer Insuffizienz der bindegewebi-gen Stabilisierungsmechanismen der Leistenkanalrückwand. Deshalb können auch nur diejenigen Operationsmethoden, welche die Hinterwand des Leistenkanals stabil verstärken, zu einem dauerhaftem Erfolg führen. Die sogenannten konventionellen Methoden nach Bassini, Mcvay und Shouldice versuchen, durch einen anterioren inguinalen Zugang die Hinterwand des Leisten-kanals mit autologem ortsständigem Gewebe zu verstärken. Dabei wird jedoch durch die Verwendung lokaler Strukturen die erzielte Stabilitätserhöhung mit einem allgemeinen Anstieg der Gewebsspannung in der Leistenregion erkauft. Das Konzept der spannungsfreien Operationsmethoden versucht, auf eine Verstär-kung der Hinterwand des Leistenkanals durch die Raffung lokaler Strukturen zu verzichten und damit verbundene postoperative Schmerzen und spannungsbeding-te Gewebsnekrosen zu minimieren. Die spannungsfreie Verstärkung der Hinter-wand des Leistenkanals wird dabei durch Verwendung synthetischer Fremdmateri-alien erreicht. Diese können sowohl in einem konventionellen anterioren Zugang (z.B. nach Lichtenstein, Rutkow) als auch minimalinvasiv endoskopisch (z.B. TAPP, TEPP) eingebracht werden. Seit Anfang der 1990er Jahre hat die laparoskopische Chirurgie sprunghaft zuge-nommen (Schumpelick et al. 1996), denn durch minimale Invasivität, modernes Instrumentarium und computergestützte Technologie erfüllt sie alle Forderungen der modernen Chirurgie nach Praktikabilität, Gewebeschonung, geringer Schmerz-haftigkeit und schneller Rehabilitation (Mayer et al. 1997). Dabei kam es zu einer vielfältigen Weiterentwicklung der endoskopischen Technik zur Leistenhernioplastik: standen zunächst noch endoskopische Naht- und Klam-mertechniken im Fokus (Ger et al. 1990, Meyer 1991), lag bald schon der Schwer-punkt auf einer spannungsfreien Reparation mit Hilfe alloplastischer Materialien (Arregui et al. 1992, Corbitt 1991, Corbitt et al. 1993), die sowohl als zweidimensi-onale Netze als auch in dreidimensionaler Ausprägung (Röllchen, Schirmchen, Plugs) zum Einsatz kamen (Shultz et al. 1990, Schleef et al. 1992, Amid et al. 19994, Dudai 1995). In der Folgezeit entwickelte sich noch eine Diskussion um den endoskopischen Zugangsweg, als nach zunächst rein laparoskopischem Vorgehen (TAPP) auch ein total extraperitonealer Zugang im präperitonealen Raum (TEPP) beschrieben und mit entsprechend verlässlichem Instrumentarium verfügbar wurde. Allgemein anerkannt sind heute bei den minimal invasiven Verfahren sowohl TAPP als auch TEPP und die Verwendung alloplastischer Netze oder dreidimensionaler Plug-Netz-Kombinationen zur dorsalen Verstärkung der Fascia transversalis (Bitt-ner et al. 1995, Horeyseck et al. 1999). Reine Naht- oder Cliptechniken werden wegen schlechter Ergebnisse nicht mehr empfohlen. Zugleich mit der Laparoskopie hat die offene Netzhernioplastik nach Lichtenstein ihre Aktualität jedoch nicht verloren (Horeyseck et al. 1999), im Gegenteil: durch zunehmende Verlagerung der Leistenhernienchirurgie in den ambulanten Bereich nimmt sie wieder an Umfang deutlich zu.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

We present new algorithms to approximate the discrete volume of a polyhedral geometry using boxes defined by the US standard SAE J1100. This problem is NP-hard and has its main application in the car design process. The algorithms produce maximum weighted independent sets on a so-called conflict graph for a discretisation of the geometry. We present a framework to eliminate a large portion of the vertices of a graph without affecting the quality of the optimal solution. Using this framework we are also able to define the conflict graph without the use of a discretisation. For the solution of the maximum weighted independent set problem we designed an enumeration scheme which uses the restrictions of the SAE J1100 standard for an efficient upper bound computation. We evaluate the packing algorithms according to the solution quality compared to manually derived results. Finally, we compare our enumeration scheme to several other exact algorithms in terms of their runtime. Grid-based packings either tend to be not tight or have intersections between boxes. We therefore present an algorithm which can compute box packings with arbitrary placements and fixed orientations. In this algorithm we make use of approximate Minkowski Sums, computed by uniting many axis-oriented equal boxes. We developed an algorithm which computes the union of equal axis-oriented boxes efficiently. This algorithm also maintains the Minkowski Sums throughout the packing process. We also extend these algorithms for packing arbitrary objects in fixed orientations.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The lattice Boltzmann method is a popular approach for simulating hydrodynamic interactions in soft matter and complex fluids. The solvent is represented on a discrete lattice whose nodes are populated by particle distributions that propagate on the discrete links between the nodes and undergo local collisions. On large length and time scales, the microdynamics leads to a hydrodynamic flow field that satisfies the Navier-Stokes equation. In this thesis, several extensions to the lattice Boltzmann method are developed. In complex fluids, for example suspensions, Brownian motion of the solutes is of paramount importance. However, it can not be simulated with the original lattice Boltzmann method because the dynamics is completely deterministic. It is possible, though, to introduce thermal fluctuations in order to reproduce the equations of fluctuating hydrodynamics. In this work, a generalized lattice gas model is used to systematically derive the fluctuating lattice Boltzmann equation from statistical mechanics principles. The stochastic part of the dynamics is interpreted as a Monte Carlo process, which is then required to satisfy the condition of detailed balance. This leads to an expression for the thermal fluctuations which implies that it is essential to thermalize all degrees of freedom of the system, including the kinetic modes. The new formalism guarantees that the fluctuating lattice Boltzmann equation is simultaneously consistent with both fluctuating hydrodynamics and statistical mechanics. This establishes a foundation for future extensions, such as the treatment of multi-phase and thermal flows. An important range of applications for the lattice Boltzmann method is formed by microfluidics. Fostered by the "lab-on-a-chip" paradigm, there is an increasing need for computer simulations which are able to complement the achievements of theory and experiment. Microfluidic systems are characterized by a large surface-to-volume ratio and, therefore, boundary conditions are of special relevance. On the microscale, the standard no-slip boundary condition used in hydrodynamics has to be replaced by a slip boundary condition. In this work, a boundary condition for lattice Boltzmann is constructed that allows the slip length to be tuned by a single model parameter. Furthermore, a conceptually new approach for constructing boundary conditions is explored, where the reduced symmetry at the boundary is explicitly incorporated into the lattice model. The lattice Boltzmann method is systematically extended to the reduced symmetry model. In the case of a Poiseuille flow in a plane channel, it is shown that a special choice of the collision operator is required to reproduce the correct flow profile. This systematic approach sheds light on the consequences of the reduced symmetry at the boundary and leads to a deeper understanding of boundary conditions in the lattice Boltzmann method. This can help to develop improved boundary conditions that lead to more accurate simulation results.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Except the article forming the main content most HTML documents on the WWW contain additional contents such as navigation menus, design elements or commercial banners. In the context of several applications it is necessary to draw the distinction between main and additional content automatically. Content extraction and template detection are the two approaches to solve this task. This thesis gives an extensive overview of existing algorithms from both areas. It contributes an objective way to measure and evaluate the performance of content extraction algorithms under different aspects. These evaluation measures allow to draw the first objective comparison of existing extraction solutions. The newly introduced content code blurring algorithm overcomes several drawbacks of previous approaches and proves to be the best content extraction algorithm at the moment. An analysis of methods to cluster web documents according to their underlying templates is the third major contribution of this thesis. In combination with a localised crawling process this clustering analysis can be used to automatically create sets of training documents for template detection algorithms. As the whole process can be automated it allows to perform template detection on a single document, thereby combining the advantages of single and multi document algorithms.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

DcuS is a membrane-integral sensory histidine kinase involved in the DcuSR two-component regulatory system in Escherichia coli by regulating the gene expression of C4-dicarboxylate metabolism in response to external stimuli. How DcuS mediates the signal transduction across the membrane remains little understood. This study focused on the oligomerization and protein-protein interactions of DcuS by using quantitative Fluorescence Resonance Energy Transfer (FRET) spectroscopy. A quantitative FRET analysis for fluorescence spectroscopy has been developed in this study, consisting of three steps: (1) flexible background subtraction to yield background-free spectra, (2) a FRET quantification method to determine FRET efficiency (E) and donor fraction (fD = [donor] / ([donor]+[acceptor])) from the spectra, and (3) a model to determine the degree of oligomerization (interaction stoichiometry) in the protein complexes based on E vs. fD. The accuracy and applicability of this analysis was validated by theoretical simulations and experimental systems. These three steps were integrated into a computer procedure as an automatic quantitative FRET analysis which is easy, fast, and allows high-throughout to quantify FRET accurately and robustly, even in living cells. This method was subsequently applied to investigate oligomerization and protein-protein interactions, in particular in living cells. Cyan (CFP) and yellow fluorescent protein (YFP), two spectral variants of green fluorescent protein, were used as a donor-acceptor pair for in vivo measurements. Based on CFP- and YFP-fusions of non-interacting membrane proteins in the cell membrane, a minor FRET signal (E = 0.06 ± 0.01) can be regarded as an estimate of direct interaction between CFP and YFP moieties of fusion proteins co-localized in the cell membrane (false-positive). To confirm if the FRET occurrence is specific to the interaction of the investigated proteins, their FRET efficiency should be clearly above E = 0.06. The oligomeric state of DcuS was examined both in vivo (CFP/YFP) and in vitro (two different donor-acceptor pairs of organic dyes) by three independent experimental systems. The consistent occurrence of FRET in vitro and in vivo provides the evidence for the homo-dimerization of DcuS as full-length protein for the first time. Moreover, novel interactions (hetero-complexes) between DcuS and its functionally related proteins, citrate-specific sensor kinase CitA and aerobic dicarboxylate transporter DctA respectively, have been identified for the first time by intermolecular FRET in vivo. This analysis can be widely applied as a robust method to determine the interaction stoichiometry of protein complexes for other proteins of interest labeled with adequate fluorophores in vitro or in vivo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The central aim of this thesis work is the application and further development of a hybrid quantum mechanical/molecular mechanics (QM/MM) based approach to compute spectroscopic properties of molecules in complex chemical environments from electronic structure theory. In the framework of this thesis, an existing density functional theory implementation of the QM/MM approach is first used to calculate the nuclear magnetic resonance (NMR) solvent shifts of an adenine molecule in aqueous solution. The findings show that the aqueous solvation with its strongly fluctuating hydrogen bond network leads to specific changes in the NMR resonance lines. Besides the absolute values, also the ordering of the NMR lines changes under the influence of the solvating water molecules. Without the QM/MM scheme, a quantum chemical calculation could have led to an incorrect assignment of these lines. The second part of this thesis describes a methodological improvement of the QM/MM method that is designed for cases in which a covalent chemical bond crosses the QM/MM boundary. The development consists in an automatized protocol to optimize a so-called capping potential that saturates the electronic subsystem in the QM region. The optimization scheme is capable of tuning the parameters in such a way that the deviations of the electronic orbitals between the regular and the truncated (and "capped") molecule are minimized. This in turn results in a considerable improvement of the structural and spectroscopic parameters when computed with the new optimized capping potential within the QM/MM technique. This optimization scheme is applied and benchmarked on the example of truncated carbon-carbon bonds in a set of small test molecules. It turns out that the optimized capping potentials yield an excellent agreement of NMR chemical shifts and protonation energies with respect to the corresponding full molecules. These results are very promising, so that the application to larger biological complexes will significantly improve the reliability of the prediction of the related spectroscopic properties.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Therapeutisches Drug Monitoring (TDM) umfasst die Messung von Medikamentenspiegeln im Blut und stellt die Ergebnisse in Zusammenhang mit dem klinischen Erscheinungsbild der Patienten. Dabei wird angenommen, dass die Konzentrationen im Blut besser mit der Wirkung korrelieren als die Dosis. Dies gilt auch für Antidepressiva. Voraussetzung für eine Therapiesteuerung durch TDM ist die Verfügbarkeit valider Messmethoden im Labor und die korrekte Anwendung des Verfahrens in der Klinik. Ziel dieser Arbeit war es, den Einsatz von TDM für die Depressionsbehandlung zu analysieren und zu verbessern. Im ersten Schritt wurde für das neu zugelassene Antidepressivum Duloxetin eine hochleistungsflüssig-chromatographische (HPLC) Methode mit Säulenschaltung und spektrophotometrischer Detektion etabliert und an Patienten für TDM angewandt. Durch Analyse von 280 Patientenproben wurde herausgefunden, dass Duloxetin-Konzentrationen von 60 bis 120 ng/ml mit gutem klinischen Ansprechen und einem geringen Risiko für Nebenwirkungen einhergingen. Bezüglich seines Interaktionspotentials erwies sich Duloxetin im Vergleich zu anderen Antidepressiva als schwacher Inhibitor des Cytochrom P450 (CYP) Isoenzyms 2D6. Es gab keinen Hinweis auf eine klinische Relevanz. Im zweiten Schritt sollte eine Methode entwickelt werden, mit der möglichst viele unterschiedliche Antidepressiva einschließlich deren Metaboliten messbar sind. Dazu wurde eine flüssigchromatographische Methode (HPLC) mit Ultraviolettspektroskopie (UV) entwickelt, mit der die quantitative Analyse von zehn antidepressiven und zusätzlich zwei antipsychotischen Substanzen innerhalb von 25 Minuten mit ausreichender Präzision und Richtigkeit (beide über 85%) und Sensitivität erlaubte. Durch Säulenschaltung war eine automatisierte Analyse von Blutplasma oder –serum möglich. Störende Matrixbestandteile konnten auf einer Vorsäule ohne vorherige Probenaufbereitung abgetrennt werden. Das kosten- und zeiteffektive Verfahren war eine deutliche Verbesserung für die Bewältigung von Proben im Laboralltag und damit für das TDM von Antidepressiva. Durch Analyse des klinischen Einsatzes von TDM wurden eine Reihe von Anwendungsfehlern identifiziert. Es wurde deshalb versucht, die klinische Anwendung des TDM von Antidepressiva durch die Umstellung von einer weitgehend händischen Dokumentation auf eine elektronische Bearbeitungsweise zu verbessern. Im Rahmen der Arbeit wurde untersucht, welchen Effekt man mit dieser Intervention erzielen konnte. Dazu wurde eine Labor-EDV eingeführt, mit der der Prozess vom Probeneingang bis zur Mitteilung der Messergebnisse auf die Stationen elektronisch erfolgte und die Anwendung von TDM vor und nach der Umstellung untersucht. Die Umstellung fand bei den behandelnden Ärzten gute Akzeptanz. Die Labor-EDV erlaubte eine kumulative Befundabfrage und eine Darstellung des Behandlungsverlaufs jedes einzelnen Patienten inklusive vorhergehender Klinikaufenthalte. Auf die Qualität der Anwendung von TDM hatte die Implementierung des Systems jedoch nur einen geringen Einfluss. Viele Anforderungen waren vor und nach der Einführung der EDV unverändert fehlerhaft, z.B. wurden häufig Messungen vor Erreichen des Steady State angefordert. Die Geschwindigkeit der Bearbeitung der Proben war im Vergleich zur vorher händischen Ausführung unverändert, ebenso die Qualität der Analysen bezüglich Richtigkeit und Präzision. Ausgesprochene Empfehlungen hinsichtlich der Dosierungsstrategie der angeforderten Substanzen wurden häufig nicht beachtet. Verkürzt wurde allerdings die mittlere Latenz, mit der eine Dosisanpassung nach Mitteilung des Laborbefundes erfolgte. Insgesamt ist es mit dieser Arbeit gelungen, einen Beitrag zur Verbesserung des Therapeutischen Drug Monitoring von Antidepressiva zu liefern. In der klinischen Anwendung sind allerdings Interventionen notwendig, um Anwendungsfehler beim TDM von Antidepressiva zu minimieren.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Diagnose und Therapie von neurodegenerativen Krankheiten, wie beispielsweise Morbus Parkinson besitzt in der heutigen Gesellschaft eine immer größere Bedeutung. Über moderne, bild¬gebende nuklear¬medizinische Verfahren wie SPECT und PET ist es mit geeigneten Radioliganden möglich, Morbus Parkinson vor dem Auftreten von Symptomen zu diagnostizieren. Ein wichtiger Ansatzpunkt zur Diagnose von Morbus Parkinson ist die Visualisierung der postsynaptischen Dopamin-Rezeptoren über radioaktiv (11C, 18F, 123I) markierte Benz¬amid-Derivate. Auf Grundlage der (S)-Pyrolidin-2,3-dimethoxy-Benzamid-Struktur des 18F-Liganden Fallypride wurden verschiedene 99mTc-markierte Benzamid-Derivate als potentielle Radio¬liganden zur Parkinson-Diagnostik entwickelt. Um das Potential von Metall-konjugierten Benzamiden abschätzen zu können, wurden zunächst einfache Vergleichssubstanzen entwickelt. Diese sollten die Einführung eines Chelators simulieren und wurden hierfür hinsichtlich ihrer in vitro-Bindungsaffinitäten zu den Dopamin-, Serotonin- und adrenergen Rezeptoren evaluiert. Die zunächst entwickelten Derivate mit unterschiedlichen Kettenlängen zur Kopplung des Chelators zeigten für die Propylkette Affinitäten im nanomolaren Bereich. Im Anschluss sollten basierend auf diesen Ergebnissen vier verschiedene Chelatoren (Carbony-Cyclopentadienyl, Amido-Cyclopentadienyl, 2-Pyridyl-Imin und N2S2) über eine Propylkette an die 5-Position der Benzamidgrundstruktur gekoppelt werden. Die geplante Synthese des Carbonyl-Cyclopentadienyl-Derivates gelang jedoch nicht. Für die weiteren Chelatoren (Amido-Cyclopentadieny, 2-Pyridyl-Imin und N2S2) konnten die jeweiligen Markierungs¬vorläufer und Rhenium-Komplexe dargestellt werden, die ebenfalls hinsichtlich ihrer Bindungs¬affinitäten evaluiert wurden. Die erzielten Affinitäten zeigten, dass eine Über¬tragung der Affinitäten der einfachen Vergleichssubstanzen auf die komplexeren Metall-Benzamide nicht möglich war. Insbesondere der N2S2-Rhenium-Komplex besitzt nur noch geringe Affinität (490 - 900 nM) zu den D2- und D3-Rezeptoren. Die mittel-affinen 2-Pyridyl-Imin- und Amdio¬cyclopentadien-Komplexe wurden mit 99mTc markiert und die Markierungsausbeute hinsichtlich Reaktionstemperatur, Markierungs-vorläuferkonzentration und Heizmethoden optimiert. Dabei konnte der Imin-Komplex quantitativ mittels fac-[99mTc(CO)3(H2O)3]+ in 30 Minuten bei 45°C markiert werden. Der Amido-Cyclopentadien-Komplex konnte über die Umsetzung des Ferrocen-Markierungsvorläufer mit Mn(CO)5Br und [99mTcO4]- in Ausbeuten von bis zu 60 % markiert werden. Im Anschluss an die Markierungen wurden die 99mTc-Komplexe über HPLC isoliert und in in vitro-Auto¬radiographien von Rattenhirnschnitten weiter evaluiert. Die erhaltenen Ergebnisse bestätigten die für die Rhenium-Komplexe erzielten Affinitäten und zeigten keine spezifische Anreicherung in bestimmten Hirnarealen. Aus diesen Ergebnissen kann ge¬schlossen werden, dass die dargestellten 99mTc-Benzamide aufgrund mangelnder Affinitäten und einer hohen unspezifischen Bindung keine geeigneten Liganden zur Darstellung der D2- und D3- Rezeptoren sind. Um die dargestellten 99mTc-Benzamide mit [18F]Fallypride vergleichen zu können, wurde zusätzlich [3H]Fallypride dargestellt. Hierfür wurde zunächst der Nor-Markierungsvor¬läufer synthetisiert und die Markierungsausbeute optimiert. Die finale Umsetzung mit [3H]Methylnosylat ergab nach HPLC-Aufreinigung 15 mCi [3H]Fallypride mit einer radio¬chemischen Reinheit von >99,5 %. Erste Autoradiographien zeigten eine hohe Anreicherung des Liganden im Striatum, verbunden mit einer sehr niedrigen unspezifischen Bindung.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Molecular imaging technologies as Positron Emission Tomography (PET) are playing a key role in drug discovery, development and delivery due to the possibility to quantify e.g. the binding potential in vivo, non-invasively and repetitively. In this context, it provides a significant advance in the understanding of many CNS disorders and conditions. The serotonergic receptor system is involved in a number of important physiological processes and diseases such as depression, schizophrenia, Alzheimer’s disease, sleep or sexual behaviour. Especially, the 5-HT2A and the 5-HT1A receptor subtypes are in the focus of fundamental and clinical research due to the fact that many psychotic drugs interact with these neuronal transmembrane receptors. This work describes the successful development, as well as in vitro and in vivo evaluation of 5-HT2A and 5-HT1A selective antagonistic PET-radiotracers. The major achievements obtained in this thesis are: 1. the development and in vitro evaluation of several 5-HT2A antagonistic compounds, namely MH.MZ (Ki = 9.0 nM), (R)-MH.MZ (Ki = 0.72 nM) and MA-1 (Ki = 3.0 nM). 2. the 18F-labeling procedure of these compounds and their optimization, whereby radiochemical yields > 35 % in high specific activities (> 15 GBq/µmol) could be observed. Synthesis time inclusive secondary synthon synthesis, the radioactive labeling procedure, separation and final formulation took no longer than 120 min and provided the tracer in high radiochemical purity. 3. the in vivo µPET evaluation of [18F]MH.MZ and (R)-[18F]MH.MZ resulting in promising imaging agents of the 5-HT2A receptor status; from which (R)-[18F]MH.MZ seems to be the most promising ligand. 4. the determination of the influence of P-gp on the brain biodistribution of [18F]MH.MZ showing a strong P-gp dependency but no regional alteration. 5. the four-step radiosynthesis and evaluation of [18F]MDL 100907 resulting in another high affine tracer, which is, however, limited due to its low radiochemical yield. 6. the development and evaluation of 3 novel possible 5-HT2A imaging agents combining structural elements of altanserin, MDL 100907 and SR 46349B demonstrating different binding modes of these compounds. 7. the development, the labeling and in vitro evaluation of the novel 5-HT1A antagonistic tracer [18F]AH1.MZ (Ki = 4.2 nM).