433 resultados para freiwillig erhobene geografische Informationen


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Vegetation-cycles are of general interest for many applications. Be it for harvest-predictions, global monitoring of climate-change or as input to atmospheric models.rnrnCommon Vegetation Indices use the fact that for vegetation the difference between Red and Near Infrared reflection is higher than in any other material on Earth’s surface. This gives a very high degree of confidence for vegetation-detection.rnrnThe spectrally resolving data from the GOME and SCIAMACHY satellite-instrumentsrnprovide the chance to analyse finer spectral features throughout the Red and Near Infrared spectrum using Differential Optical Absorption Spectroscopy (DOAS). Although originally developed to retrieve information on atmospheric trace gases, we use it to gain information on vegetation. Another advantage is that this method automatically corrects for changes in the atmosphere. This renders the vegetation-information easily comparable over long time-spans.rnThe first results using previously available reference spectra were encouraging, but also indicated substantial limitations of the available reflectance spectra of vegetation. This was the motivation to create new and more suitable vegetation reference spectra within this thesis.rnThe set of reference spectra obtained is unique in its extent and also with respect to its spectral resolution and the quality of the spectral calibration. For the first time, this allowed a comprehensive investigation of the high-frequency spectral structures of vegetation reflectance and of their dependence on the viewing geometry.rnrnThe results indicate that high-frequency reflectance from vegetation is very complex and highly variable. While this is an interesting finding in itself, it also complicates the application of the obtained reference spectra to the spectral analysis of satellite observations.rnrnThe new set of vegetation reference spectra created in this thesis opens new perspectives for research. Besides refined satellite analyses, these spectra might also be used for applications on other platforms such as aircraft. First promising studies have been presented in this thesis, but the full potential for the remote sensing of vegetation from satellite (or aircraft) could bernfurther exploited in future studies.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Verifikation bewertet die Güte von quantitativen Niederschlagsvorhersagen(QNV) gegenüber Beobachtungen und liefert Hinweise auf systematische Modellfehler. Mit Hilfe der merkmals-bezogenen Technik SAL werden simulierte Niederschlagsverteilungen hinsichtlich (S)truktur, (A)mplitude und (L)ocation analysiert. Seit einigen Jahren werden numerische Wettervorhersagemodelle benutzt, mit Gitterpunktabständen, die es erlauben, hochreichende Konvektion ohne Parametrisierung zu simulieren. Es stellt sich jetzt die Frage, ob diese Modelle bessere Vorhersagen liefern. Der hoch aufgelöste stündliche Beobachtungsdatensatz, der in dieser Arbeit verwendet wird, ist eine Kombination von Radar- und Stationsmessungen. Zum einem wird damit am Beispiel der deutschen COSMO-Modelle gezeigt, dass die Modelle der neuesten Generation eine bessere Simulation des mittleren Tagesgangs aufweisen, wenn auch mit zu geringen Maximum und etwas zu spätem Auftreten. Im Gegensatz dazu liefern die Modelle der alten Generation ein zu starkes Maximum, welches erheblich zu früh auftritt. Zum anderen wird mit dem neuartigen Modell eine bessere Simulation der räumlichen Verteilung des Niederschlags, durch eine deutliche Minimierung der Luv-/Lee Proble-matik, erreicht. Um diese subjektiven Bewertungen zu quantifizieren, wurden tägliche QNVs von vier Modellen für Deutschland in einem Achtjahreszeitraum durch SAL sowie klassischen Maßen untersucht. Die höher aufgelösten Modelle simulieren realistischere Niederschlagsverteilungen(besser in S), aber bei den anderen Komponenten tritt kaum ein Unterschied auf. Ein weiterer Aspekt ist, dass das Modell mit der gröbsten Auf-lösung(ECMWF) durch den RMSE deutlich am besten bewertet wird. Darin zeigt sich das Problem des ‚Double Penalty’. Die Zusammenfassung der drei Komponenten von SAL liefert das Resultat, dass vor allem im Sommer das am feinsten aufgelöste Modell (COSMO-DE) am besten abschneidet. Hauptsächlich kommt das durch eine realistischere Struktur zustande, so dass SAL hilfreiche Informationen liefert und die subjektive Bewertung bestätigt. rnIm Jahr 2007 fanden die Projekte COPS und MAP D-PHASE statt und boten die Möglich-keit, 19 Modelle aus drei Modellkategorien hinsichtlich ihrer Vorhersageleistung in Südwestdeutschland für Akkumulationszeiträume von 6 und 12 Stunden miteinander zu vergleichen. Als Ergebnisse besonders hervorzuheben sind, dass (i) je kleiner der Gitter-punktabstand der Modelle ist, desto realistischer sind die simulierten Niederschlags-verteilungen; (ii) bei der Niederschlagsmenge wird in den hoch aufgelösten Modellen weniger Niederschlag, d.h. meist zu wenig, simuliert und (iii) die Ortskomponente wird von allen Modellen am schlechtesten simuliert. Die Analyse der Vorhersageleistung dieser Modelltypen für konvektive Situationen zeigt deutliche Unterschiede. Bei Hochdrucklagen sind die Modelle ohne Konvektionsparametrisierung nicht in der Lage diese zu simulieren, wohingegen die Modelle mit Konvektionsparametrisierung die richtige Menge, aber zu flächige Strukturen realisieren. Für konvektive Ereignisse im Zusammenhang mit Fronten sind beide Modelltypen in der Lage die Niederschlagsverteilung zu simulieren, wobei die hoch aufgelösten Modelle realistischere Felder liefern. Diese wetterlagenbezogene Unter-suchung wird noch systematischer unter Verwendung der konvektiven Zeitskala durchge-führt. Eine erstmalig für Deutschland erstellte Klimatologie zeigt einen einer Potenzfunktion folgenden Abfall der Häufigkeit dieser Zeitskala zu größeren Werten hin auf. Die SAL Ergebnisse sind für beide Bereiche dramatisch unterschiedlich. Für kleine Werte der konvektiven Zeitskala sind sie gut, dagegen werden bei großen Werten die Struktur sowie die Amplitude deutlich überschätzt. rnFür zeitlich sehr hoch aufgelöste Niederschlagsvorhersagen gewinnt der Einfluss der zeitlichen Fehler immer mehr an Bedeutung. Durch die Optimierung/Minimierung der L Komponente von SAL innerhalb eines Zeitfensters(+/-3h) mit dem Beobachtungszeit-punkt im Zentrum ist es möglich diese zu bestimmen. Es wird gezeigt, dass bei optimalem Zeitversatz die Struktur und Amplitude der QNVs für das COSMO-DE besser werden und damit die grundsätzliche Fähigkeit des Modells die Niederschlagsverteilung realistischer zu simulieren, besser gezeigt werden kann.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Flüchtige organische Verbindungen (volatile organic compounds, VOCs), besonders rnTerpene, gelten als Vorläufer des sekundären organischen Aerosols (secondary rnorganic aerosols, SOA). Terpene werden von Pflanzen zur Abwehr oder zur rnAttraktion von Bestäubern emittiert. Ungesättigten Verbindungen, wie Sesquiterpene, rnsind sehr ozonolyseempfindlich und weisen nur geringe Konzentrationen in der rnAtmosphäre auf. Zudem lassen sie sich mit handelsüblichen rnThermodesorptionseinheiten meist nicht ohne Artefakte nachweisen, da sie eine hohe rnReaktivität mit vielen Oberflächen zeigen. rnDiese Arbeit präsentiert Forschungsergebnisse der qualitativen und rn(semi)quantitativen Auswertungen flüchtiger organischer Verbindungen in rnLaborstudien und biogenen Emissionsproben (Feldmessungen) mittels rnThermodesorption-Gaschromatographie-Massenspektrometrie (TD-GC/MS). Speziell rnzur Analyse hochreaktiver Verbindungen wurde eine Thermodesorptionseinheit für die rnGC/MS entwickelt. Diese besteht aus einer Kryofokussierung, einem Desorptionsofen rnund einer Heizung. Die Steuerung erfolgt über eine eigens dafür geschaffene rnBedienoberf läche von Labview® an einem PC über eine nachgeschaltete SPS rn(speicherprogrammierbare Steuerung). Das komplette Desorptionsprogramm und der rnStart der GC/MS-Analyse wurden automatisiert. rnDie Quantifizierung alle Proben wurde über Diffusionsquellen und rnVergleichsmessungen durch auf Adsorptionsröhrchen aufgebrachte rnVerdünnungsreihen realisiert. Um Informationen über die mutmaßlichen Vorläufer des rnsekundären organischen Aerosols zu erhalten, wurde zudem eine Ozon-Scrubber-rnMethode basierend auf Propen entwickelt. Diese wurde anhand von Standards in einer rnReaktionskammer getestet und in Feldmessungen erfolgreich angewendet. rnQuantitative Analysen zeigen, dass die meisten Terpene so vollständig vor der rnOzonolyse bewahrt werden können. Für hochreaktive Analyte wie α-Humulen oder rnβ-Caryophyllen wurden Wiederfindungsraten von über 80 % erreicht. So konnte die rnTemperaturabhängigkeit der Terpen-Emissionen der Fichte (Picea abies) in rnFeldmessungen nachgewiesen werden. rnEine weitere Anwendungsmöglichkeit wurde mit der Unterscheidung verschiedener rnArten der gleichen Gattung anhand der Emissionsmuster und der möglichen rnAbgrenzung verschiedener Bestäubertypen am Beispiel der Gattung Salvia untersucht. rnDie Emissionsanalysen zeigen, dass eine Zuordnung der Verwandtschaftsverhältnisse rnzusätzlich zu anderen Vergleichen möglich ist. Das gleiche gilt für die Differenzierung rnvon Bestäubertypen. Die Ergebnisse der Feldmessungen wurden durch rnMethodenvergleich zwischen biogenen Emissionsmessungen mit anschließender rnTD-GC/MS-Analyse und Extraktionen der jeweiligen Blüten/Blätter mit rnanschließender GC/MS-Messung bestätigt.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Es wurde ein Teil der life-history, die Reproduktion, von Dinosauriern, speziell der Sauropoden, den größten bekannten jemals auf der Erde existierenden Landtieren, untersucht, um unter anderem den Zusammenhang zwischen Gigantismus und Reproduktion zu erforschen. Hierzu wurde eine mögliche life-history für Sauropoden, auf Grundlage des heutigen Forschungsstands in der Biologie und der Paläontologie, anhand einer Literaturrecherche erstellt. Des Weiteren wurde ein Modell zur Reproduktion bei ausgestorbenen oviparen Amnioten, basierend auf bestehenden Zusammenhängen zwischen Körpergröße und verschiedenen masse-spezifischen Reproduktionsmerkmalen (Eigewicht, Gelegegewicht, jähr. Gelegegewicht) bei rezenten oviparen Amnioten, erarbeitet. Mit Hilfe dieses Modells und Informationen aus Fossilfunden wurde der Frage nachgegangen, wie diese Reproduktionsmerkmale bei Dinosauriern wahrscheinlich ausgesehen haben. Weiterhin erfolgte die Überprüfung der Hypothese, dass Dinosaurier, insbesondere Sauropoden, eine höhere Reproduktionskapazität hatten als gleich große landlebende Säugetiere, was ersteren im Vergleich zu letzteren ermöglicht haben soll so viel größer zu werden (Janis und Carrano 1992). rnDie Untersuchungen der Zusammenhänge zwischen Körpergewicht und den masse-spezifischen Reproduktionsmerkmalen ergaben, dass das Körpergewicht immer stark mit den untersuchten Reproduktionsmerkmalen korreliert war. Große Vögel und große Reptilien unterscheiden sich in ihrem relativen Eigewicht (Eigewicht/Körpergewicht). Vögel haben relativ größere Eier. Betrachtet man das relative Gelegegewicht oder das relative jährliche Gelegegewicht so wird der Unterschied kleiner bzw. ist zwischen manchen Reptilien- und Vogelgruppen nicht mehr vorhanden. Dinosaurier hatten relative Eigewichte, die zwischen denen von Reptilien und Vögel liegen. Basale Dinosaurier, wie Prosauropoden, waren in ihrer Reproduktion eher reptilien-ähnlich, während vogel-ähnliche Theropoden eine Reproduktion hatten, die sich besser durch ein Vogelmodel beschreiben lässt. Die Reproduktion anderer Dinosaurier, wie Sauropoden und Hadrosaurier, lässt sich nicht eindeutig durch eines der beiden Modelle beschreiben und/oder die Modelle variierten in Abhängigkeit des betrachteten Merkmals. Trotzdem war es möglich für alle untersuchten Dinosaurier eine Abschätzung zur Gelegegröße und der Anzahl der jährlich gelegten Eier zu machen. Diese Schätzungen ergaben, dass die vermutete hohe Reproduktionskapazität von mehreren hundert Eiern pro Jahr nur für extrem große Sauropoden (70 t) haltbar ist. rnMit Ausnahme der Nagetiere fand ich die Unterschiede in der Reproduktionskapazität von Vögeln und Säugetieren, die Janis und Carrano (1992) postulierten, sogar auf der Ebene von Ordnungen. Dinosauriergelege waren größer als die Würfe von gleichgroßen (extrapolierten) Säugetieren während die Gelegegröße von gleichgroßen (extrapolierten) Vögeln ähnlich der von Sauropoden war. Da das Aussterberisiko häufig mit niedriger Reproduktionskapazität korreliert ist, impliziert dies ein geringeres Aussterberisiko großer Dinosaurier im Vergleich zu großen Säugetieren. Populationen sehr großer Dinosaurier, wie der Sauropoden, konnten vermutlich daher, über evolutionäre Zeiträume betrachtet, sehr viel länger existieren als Populationen großer Säugetiere.rn

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This thesis concerns artificially intelligent natural language processing systems that are capable of learning the properties of lexical items (properties like verbal valency or inflectional class membership) autonomously while they are fulfilling their tasks for which they have been deployed in the first place. Many of these tasks require a deep analysis of language input, which can be characterized as a mapping of utterances in a given input C to a set S of linguistically motivated structures with the help of linguistic information encoded in a grammar G and a lexicon L: G + L + C → S (1) The idea that underlies intelligent lexical acquisition systems is to modify this schematic formula in such a way that the system is able to exploit the information encoded in S to create a new, improved version of the lexicon: G + L + S → L' (2) Moreover, the thesis claims that a system can only be considered intelligent if it does not just make maximum usage of the learning opportunities in C, but if it is also able to revise falsely acquired lexical knowledge. So, one of the central elements in this work is the formulation of a couple of criteria for intelligent lexical acquisition systems subsumed under one paradigm: the Learn-Alpha design rule. The thesis describes the design and quality of a prototype for such a system, whose acquisition components have been developed from scratch and built on top of one of the state-of-the-art Head-driven Phrase Structure Grammar (HPSG) processing systems. The quality of this prototype is investigated in a series of experiments, in which the system is fed with extracts of a large English corpus. While the idea of using machine-readable language input to automatically acquire lexical knowledge is not new, we are not aware of a system that fulfills Learn-Alpha and is able to deal with large corpora. To instance four major challenges of constructing such a system, it should be mentioned that a) the high number of possible structural descriptions caused by highly underspeci ed lexical entries demands for a parser with a very effective ambiguity management system, b) the automatic construction of concise lexical entries out of a bulk of observed lexical facts requires a special technique of data alignment, c) the reliability of these entries depends on the system's decision on whether it has seen 'enough' input and d) general properties of language might render some lexical features indeterminable if the system tries to acquire them with a too high precision. The cornerstone of this dissertation is the motivation and development of a general theory of automatic lexical acquisition that is applicable to every language and independent of any particular theory of grammar or lexicon. This work is divided into five chapters. The introductory chapter first contrasts three different and mutually incompatible approaches to (artificial) lexical acquisition: cue-based queries, head-lexicalized probabilistic context free grammars and learning by unification. Then the postulation of the Learn-Alpha design rule is presented. The second chapter outlines the theory that underlies Learn-Alpha and exposes all the related notions and concepts required for a proper understanding of artificial lexical acquisition. Chapter 3 develops the prototyped acquisition method, called ANALYZE-LEARN-REDUCE, a framework which implements Learn-Alpha. The fourth chapter presents the design and results of a bootstrapping experiment conducted on this prototype: lexeme detection, learning of verbal valency, categorization into nominal count/mass classes, selection of prepositions and sentential complements, among others. The thesis concludes with a review of the conclusions and motivation for further improvements as well as proposals for future research on the automatic induction of lexical features.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die vorliegende Arbeit behandelt die Entwicklung und Erprobung zweier neuer dynamischer Lichtstreumethoden: Die Resonanz verstärkte Lichtstreuung (REDLS: resonance enhanced dynamic light scattering) und die Wellenleiter verstärkte Lichtstreuung (WEDLS: waveguide enhanced dynamic light scattering). Beide Methoden verwenden eine Kombination aus evaneszenten Wellen und dynamischer Lichtstreuung: Bei der REDLS-Technik wird das evaneszentes Feld eines Oberflächenplasmons verwendet, bei der WEDLS-Technik handelt es sich um das evaneszente Feld von Metallfilm verstärkten Leckwellenleitermoden. Die neuen Methoden liefern Informationen über die Dynamik an Grenzflächen über ein breites Zeitfenster (einige Nanosekunden bis hin zu mehreren Sekunden) mit einer räumlichen Auflösung im sub-Mikrometerbereich. Sie erweitern somit das Gebiet der dynamischen Lichtstreuung in evaneszenter Geometrie, bei dem bislang nur die evanescent wave dynamic light scattering (EWDLS) - Technik zur Verfügung stand. Bei der EWDLS-Technik wird das evaneszente Feld der Totalreflexion als kohärenter Lichtstrahl für die dynamische Lichtstreuung verwendet. Ein Vergleich mit der EWDLS-Technik zeigt ein stark erhöhtes Signal/Rausch-Verhältnis bei den neu entwickelten Techniken aufgrund der resonanten Anregung. Zusätzlich ist es sowohl bei der REDLS- als auch bei der WEDLS-Technik möglich Grenzflächenmodifikationen und damit z.B. Adsorptionsprozesse zu detektieren. Der Einfluss einer Grenzfläche auf die Diffusion von PS-Latex-Partikeln wurde untersucht. Die Grenzfläche bestand im Fall der REDLS-Technik aus Gold, bei der WEDLS-Technik aus PMMA. Die Funktionsweise und die Gültigkeit der neu entwickelten Techniken wurde mit Hilfe von PS-Latex-Partikeln mit hydrodynamischen Radien von R =11nm bis hin zu R=204nm demonstriert.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In den Geisteswissenschaften verfolgt man Entwicklungen, die sich im gleichen Fachgebiet, aber außerhalb Europas/ Nordamerikas abzeichnen, bisher eher selten. Das trifft auch für die Komparatistik zu, die jedoch durchaus jenseits ihrer traditionellen Herkunftsländer anzutreffen ist. Mit der vorliegenden Arbeit soll jenes Desiderat speziell für Lateinamerika ausgelotet werden. Im Mittelpunkt der Analysen stehen dabei Brasilien und Argentinien, wo die Ausprägung einer „Literatura Comparada“ bis dato am fortgeschrittensten ist. Ausformungen in anderen Ländern werden ebenfalls, wenn auch weniger detailliert, in die Betrachtungen aufgenommen. Ziel ist es, in Ausschnitten das Panorama einer komparatistischen Wissenschaftsgeschichte nachzuskizzieren. Berücksichtigt werden komparatistische Keimzellen, kultureller Transfer und Friktionen, wie sie sich auf dem Kontinent seit präkolumbischer Zeit, desgleichen in Folge der stattgehabten Kolonialisierung, später dann als Konsequenz von Exil und Migrationsprozessen, nachweisen lassen; in der sich stetig internationalisierenden lateinamerikanischen Literatur haben sich diese Vorgänge besonders nachhaltig sedimentiert. Komparatistik wird in ihren vorinstitutionellen Anfängen des 19. und 20. Jahrhunderts sowie vor allem als universitäre Disziplin und fachliche Konstante der letzten Jahrzehnte beleuchtet. Den Interessenten sollen Fakten bereitgestellt werden, die bisher entweder nur in Lateinamerika selbst kursierten oder hierzulande lediglich ab und an in verstreuten Beiträgen tangiert werden. Außerdem sind in einer umfangreichen Bibliographie Informationen zu einschlägiger Literatur, Universitäten, Projekten etc. aufgelistet.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die vorliegende Arbeit ist ein Beitrag zur Neologismenforschung und Neologismenlexikografie (Neografie). Wiewohl letztere eine Entwicklung der 2. Hälfte des 20. Jh. ist, erlebt sie in den slavischen Sprachen vor allem nach den politischen Veränderungen der Jahre 1989/90 einen enormen Auftrieb, der in der Herausgabe neuer Neologismenwörterbücher mündet. Mit der Entwicklung der lexikografischen Praxis hat die Wörterbuchtheorie bislang nicht Schritt halten können. Anliegen dieser Arbeit ist es, zur Schließung dieser Lücke im Bereich der Makro- und Mediostruktur beizutragen. Grundlage der Untersuchung bilden knapp 60 einsprachige und 11 zweisprachige Neologismenwörterbücher und -listen des Polnischen, Russischen, Tschechischen, Deutschen und punktuell des Bulgarischen.rnDie im ersten Schritt durchgeführte Analyse der lexikologischen und lexikografischen Charakteristika der Erscheinung 'Neologismus' zeigt, dass in der Linguistik weitestgehend Konsens über den Begriff 'Neologismus' herrscht und dass die lexikologische Diskussion des Neologismusbegriffs zahlreiche Impulse durch die praktische Neologismenlexikografie erhalten hat.rnIm Rahmen der lexikografischen Bestandsaufnahme und Bestimmung der Erscheinung 'Neologismenlexikografie' bzw. 'Neografie' wird ein Modell entwickelt, das erlaubt, von einer Neografie im weiten und einer im engen Sinne, also von einem Zentrum und einer Peripherie der Neografie, zu sprechen. Die Zielsetzungen von Neologismenwörterbüchern sind primär, den neuen Wortschatz schnell und ausführlich zu registrieren und lexikografisch zu beschreiben, um so der Allgemeinlexikografie, der Forschung sowie der interessierten Öffentlichkeit entsprechende Informationen über die neue Lexik zeitnah zur Verfügung zu stellen.rnDie Untersuchung der Neologismenforschung und Neologismenlexikografie des Polnischen ergibt, dass der Neologismusbegriff in der polnischen Linguistik ähnlich wie in den übrigen untersuchten Sprachen betrachtet wird. Im Bereich der Neografie weist das Polnische zwar wichtige lexikografische Vorarbeiten auf, doch erst die Form der Bearbeitung von Neologismen im gerade entstehenden elektronischen Großwörterbuch des Polnischen und im geplanten einsprachigen Neologismenwörterbuch wird zeigen, ob es zu einer "Emanzipation" der polnischen Neografie gegenüber der Allgemeinlexikografie gekommen ist.rnDie Diskussion der makro- und mediostrukturellen Fragen zeigt, dass Aspekte wie Zusammenstellung der Wörterbuchbasis und die Kriterien für die Stichwortauswahl sowohl für gedruckte wie elektronische Neologismenwörterbücher dieselbe Geltung haben. Als wesentlich erweist sich in der Neografie das Aufzeigen der komplexen lexikalisch-semantischen Verflechtungen der neuen Wörter untereinander und mit etablierten Lexemen. Hier ergeben sich für die Neografie durch das elektronische Medium beträchtliche Möglichkeiten. Ein großes Potential stellen auch die einfachere Verknüpfbarkeit von Neologismen mit anderen lexikografischen und nicht-lexikografischen Ressourcen sowie die Entwicklung von individuellen Abfragemöglichkeiten über Drop-down-Menüs dar. Das elektronische Medium eröffnet auch die Option, auf die Herausgabe von Neologismenwörterbüchern zu verzichten und den neuen Wortschatz ausschließlich im Rahmen von elektronischen Allgemeinwörterbüchern zeitnah zu präsentieren – Voraussetzung hierfür ist allerdings eine durchgehende chronologische Markierung des Wortschatzes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ziel der vorliegenden Arbeit war die vergleichende Sequenzierung und nachfolgende Analyse des syntänen chromosomalen Abschnitts auf dem kurzen Arm des humanen Chromosoms 11 in der Region 11p15.3 mit den Genen LMO1, TUB und dem orthologen Genomabschnitt der Maus auf Chromosom 7 F2. Die im Rahmen dieser Arbeit durchgeführte Kartierung dieser beiden chromosomalen Bereiche ermöglichte die Komplettierung einer genomischen Karte auf insgesamt über eine Megabase, die im Kooperationssequenzierprojekt der Universitäts-Kinderklinik und dem Institut für Molekulargenetik in Mainz erstellt wurde. Mit Hilfe von 28 PAC- und Cosmid-Klonen konnten in dieser Arbeit 383 kb an genomischer DNA des Menschen und mit sechs BAC- und PAC-Klonen 412 kb an genomischer DNA der Maus dargestellt werden. Dies ermöglichte erstmals die exakte Festlegung der Reihenfolge der in diesem chromosomalen Abschnitt enthaltenen Gene und die genaue Kartierung von acht STS-Markern des Menschen, bzw. vier STS-Sonden der Maus. Es zeigte sich dabei, dass die chromosomale Orientierung telomer-/centromerwärts des orthologen Bereichs in der Maus im Vergleich zum Menschen in invertierter Ausrichtung vorliegt. Die Sequenzierung von drei humanen Klonen ermöglichte die Bestimmung von 319.119 bp an zusammenhängender genomischer DNA. Dadurch konnte die genaue Lokalisation und Strukturaufklärung der Gene LMO1, ein putatives Tumorsuppressorgen, das mit der Entstehung von Leukämien assoziiert ist, und TUB, ein Transkriptionsmodulator, der in die Fettstoffwechselregulation involviert ist, vorgenommen werden. Für das murine Genom wurden 412.827 bp an neuer DNA-Sequenz durch Sequenzierung von ebenfalls drei Klonen generiert. Der im Vergleich zum Menschen ca. 100 kb größere Genombereich beinhaltete zudem die neuen Gene Stk33 und Eif3. Es handelte sich dabei um zwei Gene, die erst im Rahmen dieser Arbeit entdeckt und charakterisiert wurden. Die parallele Bearbeitung beider Genombereiche ermöglichte eine umfassende komparative Analyse nach kodierenden, funktionellen und strukturgebenden Sequenzabschnitten in beiden Spezies. Es konnten dabei für beide Organismen die Exon-Intron-Strukturen der Gene LMO1/Lmo1 und TUB/Tub geklärt. Zudem konnten vier neue Exons und zwei neue speziesspezifischer Spleißvarianten für TUB/Tub beschrieben werden. Die Identifizierung dieser neuen Spleißvarianten offenbart neue Möglichkeiten für alternative Regulation und Funktion, oder für eine veränderte Proteinstruktur, die weitere Erklärungsansätze für die Entstehung der mit diesen Genen assoziierten Erkrankungen zulässt. In der sequenzierten, größeren Genomsequenz der Maus konnte in den flankierenden, nicht mit der sequenzierten Humansequenz überlappenden Bereich das neue Gen Eif3 in seiner Exon-Intron-Struktur und die beiden letzten Exons 11 und 12 des Gens Stk33 kartiert und charakterisiert werden. Die umfangreiche Sequenzanalyse beider sequenzierter Genombereiche ergab für den Abschnitt des Menschen insgesamt 229 potentielle Exonsequenzen und für den Bereich der Maus 527 mögliche Exonbereiche. Davon konnten beim Menschen explizit 21 Exons und bei der Maus 31 Exons als exprimierte Bereiche identifiziert und experimentell mittels RT-PCR, bzw. durch cDNA-Sequenzierung verifiziert werden. Diese Abschnitte beschrieben nicht nur die Exonbereiche der oben genannten vier Gene, sondern konnten auch neuen nicht weiter definierten EST-Sequenzen zugeordnet werden. Mittels des Interspeziesvergleiches war darüber hinaus auch die Analyse der nichtkodierenden Intergen-Bereiche möglich. So konnten beispielsweise im ersten Intron des LMO1/Lmo1 sieben Sequenzbereiche mit Konservierungen von ca. 90% bestimmt werden. Auch die Charakterisierung von Promotor- und putativ regulatorischen Sequenzabschnitten konnte mit Hilfe unterschiedlicher bioinformatischer Analyse-Tools durchgeführt werden. Die konservierten Sequenzbereiche der DNA zeigen im Durchschnitt eine Homologie von mehr als 65% auf. Auch die Betrachtung der Genomorganisation zeigte Gemeinsamkeiten, die sich meist nur in ihrer graduellen Ausprägung unterschieden. So weist ein knapp 80 kb großer Bereich proximal zum humanen TUB-Gen einen deutlich erhöhten AT-Gehalt auf, der ebenso im murinen Genom nur in verkürzter Version und schwächer ausgeprägt in Erscheinung tritt. Die zusätzliche Vergleichsanalyse mit einer weiteren Spezies, den orthologen Genomabschnitten von Fugu, zeigte, dass es sich bei den untersuchten Genen LMO1 und TUB um sehr konservierte und evolutiv alte Gene handelt, deren genomisches Organisationsmuster sich auch bei den paralogen Genfamilienmitglieder innerhalb derselben Spezies wiederfindet. Insgesamt konnte durch die Kartierung, Sequenzierung und Analyse eine umfassende Datenbasis für die betrachtete Genomregion und die beschriebenen Gene generiert werden, die für zukünftige Untersuchungen und Fragestellungen wertvolle Informationen bereithält.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Während Therapeutisches Drug Monitoring (TDM) im klinischen Alltag der stationären Behandlung in der Psychiatrie bereits fest etabliert ist, kommt es in der ambulanten Betreuung von psychisch Kranken bislang noch selten zum Einsatz. Ziel dieser Arbeit war es zu klären, wie TDM im ambulanten Bereich eingesetzt wird, wann seine Anwendung sinnvoll ist und ob es Hinweise gibt, dass TDM zu einer besseren Psychopharmakotherapie beitragen kann. rnEine Grundvoraussetzung für den Einsatz von TDM ist die Messbarkeit des Arzneistoffes. Am Beispiel des Antipsychotikums Flupentixol wurde eine Quantifizierungsmethode entwickelt, validiert und in die Laborroutine integriert. Die neue Methode erfüllte alle nach Richtlinien vorgegebenen Anforderungen für quantitative Laboruntersuchungen. Die Anwendbarkeit in der Laborroutine wurde anhand von Untersuchungen an Patienten gezeigt. rnEine weitere Voraussetzung für eine TDM-geleitete Dosisanpassung ist die Kenntnis des therapeutischen Referenzbereiches. In dieser Arbeit wurde exemplarisch ein Referenzbereich für das Antipsychotikum Quetiapin ermittelt. Die Untersuchung verglich darüber hinaus die neu eingeführten Arzneiformulierung Quetiapin retard mit schnell freisetzendem Quetiapin. Es zeigte sich, dass die therapiebegleitenden Blutspiegelkontrollen beider Formulierungen mit der Einstellung des Blutspiegels auf den therapeutischen Bereich von 100 - 500 ng/ml die Wahrscheinlichkeit des Therapieansprechens erhöhen. Bei den verschiedenen Formulierungen musste unbedingt auf den Zeitpunkt der Blutentnahmen nach Einnahme geachtet werden.rnEs wurde eine multizentrische Querschnittsuntersuchung zur Analyse von TDM unter naturalistischen Bedingungen an ambulanten Patienten durchgeführt, und zwar in Ambulanzen, in denen TDM als fester Bestandteil der Therapieüberwachung genutzt wurde und in Ambulanzen, in denen TDM sporadisch engesetzt, bzw. neu eingeführt wurde. Nach dieser Erhebung schien die Anwendung von TDM zu einer besseren Versorgung der Patienten beizutragen. Es wurde festgestellt, dass in den Ambulanzen mit bewusster Anwendung von TDM mehr Patienten mit Blutspiegeln im therapeutischen Bereich vorkamen als in den Ambulanzen mit nur sporadisch durchgeführten Blutspiegelmessungen. Bei Letzteren betrug die mittlere Anzahl an Medikamenten pro Patient 2,8 gegenüber 2,2 in den anderen Ambulanzen, was mit höheren Nebenwirkungsraten einherging. Die Schlussfolgerung, dass das Einstellen der Blutspiegel auf den therapeutischen Bereich auch tatsächlich zu besseren Therapieeffekten führte, konnte mit der Studie nicht valide überprüft werden, da die Psychopathologie nicht adäquat abgebildet werden konnte. Eine weitere Erkenntnis war, dass das reine Messen des Blutspiegels nicht zu einer Verbesserung der Therapie führte. Eine Verbesserung der Anwendung von TDM durch die Behandler wurde nach einer Schulung festgestellt, die das Ziel hatte, die Interpretation der Blutspiegelbefunde im Kontext mit patienten- und substanzspezifischen Informationen zu verbessern. Basierend auf dieser Erfahrung wurden Arzneistoffdatenblätter für die häufigsten angewandten Antipsychotika und Antidepressiva entwickelt, um damit die ambulanten Ärzte für eine eigenständige Befundinterpretation zu unterstützen. rnEin weiterer Schwerpunkt der Untersuchungen an ambulanten Patienten war die Aufdeckung von Non-Compliance durch TDM. Ein neu entwickeltes Verfahren, durch Berechnung der Streuung der mittleren Blutspiegel, erwies sich als geeignetes Instrument zur Compliance-Kontrolle in der Clozapin-Langzeittherapie. Es war etablierten anderen Verfahren überlegen. Demnach hatten Patienten ein erhöhtes Rückfallrisiko, wenn der Variationskoeffizient von nur drei nacheinander gemessenen Blutspiegeln größer als 20 % war. Da für die Beurteilung des Variationskoeffizienten das Messen von nur drei aufeinander folgenden Blutspiegeln notwendig war, kann diese Methode leicht in den ambulanten Alltag integriert werden. Der behandelnde Arzt hat so die Möglichkeit, einen rückfallgefährdeten Patienten noch vor seiner psychopathologischen Verschlechterung zu erkennen und ihn beispielsweise durch engmaschigeres Supervidieren vor einem Rückfall zu bewahren.rnAlles in allem konnte durch die eigenen Untersuchungen an psychiatrischen Patienten, die unter naturalistischen Bedingungen behandelt wurden, gezeigt werden, wie die Voraussetzungen für die Anwendung von TDM geschaffen werden, nämlich durch die Etablierung und Validierung einer Messmethode und durch die Evaluierung eines therapeutischen Referenzbereiches und wie TDM bei adäquatem Einsatz, nach Verbesserung der Compliance und des Kenntnisstandes der behandelnden Ärzte im praktischen und theoretischen Umgang mit TDM, die Versorgung ambulanter psychiatrischer Patienten unterstützen kann.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Durch die Möglichkeit, gleichzeitig mehrere Polarisationsfreiheitsgradernin der quasi-elastischen Elektronstreuung an $^3mathrm{He}$ zurnmessen, bietet sich ein neuer experimenteller Zugang zu kleinen, aber rnwichtigen Partialwellenbeiträgen ($S'$, $D$-Welle) desrn$^3mathrm{He}$-Grundzustands. Dies ermöglicht nicht nur ein tieferesrnVerständnis des Drei-Körper-Systems, sondern bietet auch diernMöglichkeit, Erkenntnisse über die $^3mathrm{He}$-Struktur undrnDynamik zu erlangen. Mit Hilfe dieser Informationen lassen sich abrninitio Rechnungen testen, sowie Korrekturen berechnen, die für anderernExperimente (z.B. Messung von $G_{en}$) benötigt werden. rnrnModerne Faddeev-Rechnungen liefern nicht nur eine quantitativernBeschreibung des $^3mathrm{He}$-Grundzustands, sondern geben auchrneinen Einblick in die sogenannten spinabhängigenrnImpulsverteilungen. Eine gründliche experimentelle Untersuchung ist in rndiesem Zusammenhang nötig, um eine solide Basis für die Üperprüfungrnder theoretische Modelle zu liefern. EinrnDreifach-Polarisationsexperiment liefert hier zum einen wichtigernDaten, zum anderen kann damit untersucht werden, ob mit der Methoderndes glqq Deuteron-Tagginggrqq polarisiertes $^3mathrm{He}$ alsrneffektives polarisiertes Protonentarget verwendet werden kann. rnrnDas hier vorgestellte Experiment kombiniert erstmals Strahl- undrnTargetpolarisation sowie die Messung der Polarisation des auslaufendenrnProtons. Das Experiment wurde im Sommer 2007 an derrnDrei-Spektrometer-Anlage der A1-Kollaboration an MAMI rndurchgeführt. Dabei wurde mit einer Strahlenergie vonrn$E=855,mathrm{MeV}$ bei $q^2=-0,14,(mathrm{GeV/c})^2$rn$(omega=0,13,mathrm{GeV}$, $q=0,4,mathrm{GeV/c})$ gemessen.rnrnDie bestimmten Wirkungsquerschnitte, sowie die Strahl-Target- und diernDreifach-Asymmetrie werden mit theoretischen Modellrechnungen vonrnJ. Golak (Plane Wave Impuls Approximation PWIA, sowie ein Modell mitrnEndzustandswechselwirkung) verglichen. Zudem wurde das Modell von dernForest verwendet, welches den Wirkungsquerschnitt über eine gemessenernSpektralfunktion berechnet. Der Vergleich mit den Modellrechnungenrnzeigt, dass sowohl der Wirkungsquerschnitt, als auch die Doppel- undrnDreifach-Asymmetrie gut mit den theoretischen Rechnungenrnübereinstimmen. rnrnDie Ergebnisse dieser Arbeit bestätigen, dass polarisiertesrn$^3mathrm{He}$ nicht nur als polarisiertes Neutronentarget, sondernrndurch Nachweis des Deuterons ebenfalls als polarisiertesrnProtonentarget verwendet werden kann.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The atmosphere is a global influence on the movement of heat and humidity between the continents, and thus significantly affects climate variability. Information about atmospheric circulation are of major importance for the understanding of different climatic conditions. Dust deposits from maar lakes and dry maars from the Eifel Volcanic Field (Germany) are therefore used as proxy data for the reconstruction of past aeolian dynamics.rnrnIn this thesis past two sediment cores from the Eifel region are examined: the core SM3 from Lake Schalkenmehren and the core DE3 from the Dehner dry maar. Both cores contain the tephra of the Laacher See eruption, which is dated to 12,900 before present. Taken together the cores cover the last 60,000 years: SM3 the Holocene and DE3 the marine isotope stages MIS-3 and MIS-2, respectively. The frequencies of glacial dust storm events and their paleo wind direction are detected by high resolution grain size and provenance analysis of the lake sediments. Therefore two different methods are applied: geochemical measurements of the sediment using µXRF-scanning and the particle analysis method RADIUS (rapid particle analysis of digital images by ultra-high-resolution scanning of thin sections).rnIt is shown that single dust layers in the lake sediment are characterized by an increased content of aeolian transported carbonate particles. The limestone-bearing Eifel-North-South zone is the most likely source for the carbonate rich aeolian dust in the lake sediments of the Dehner dry maar. The dry maar is located on the western side of the Eifel-North-South zone. Thus, carbonate rich aeolian sediment is most likely to be transported towards the Dehner dry maar within easterly winds. A methodology is developed which limits the detection to the aeolian transported carbonate particles in the sediment, the RADIUS-carbonate module.rnrnIn summary, during the marine isotope stage MIS-3 the storm frequency and the east wind frequency are both increased in comparison to MIS-2. These results leads to the suggestion that atmospheric circulation was affected by more turbulent conditions during MIS-3 in comparison to the more stable atmospheric circulation during the full glacial conditions of MIS-2.rnThe results of the investigations of the dust records are finally evaluated in relation a study of atmospheric general circulation models for a comprehensive interpretation. Here, AGCM experiments (ECHAM3 and ECHAM4) with different prescribed SST patterns are used to develop a synoptic interpretation of long-persisting east wind conditions and of east wind storm events, which are suggested to lead to an enhanced accumulation of sediment being transported by easterly winds to the proxy site of the Dehner dry maar.rnrnThe basic observations made on the proxy record are also illustrated in the 10 m-wind vectors in the different model experiments under glacial conditions with different prescribed sea surface temperature patterns. Furthermore, the analysis of long-persisting east wind conditions in the AGCM data shows a stronger seasonality under glacial conditions: all the different experiments are characterized by an increase of the relative importance of the LEWIC during spring and summer. The different glacial experiments consistently show a shift from a long-lasting high over the Baltic Sea towards the NW, directly above the Scandinavian Ice Sheet, together with contemporary enhanced westerly circulation over the North Atlantic.rnrnThis thesis is a comprehensive analysis of atmospheric circulation patterns during the last glacial period. It has been possible to reconstruct important elements of the glacial paleo climate in Central Europe. While the proxy data from sediment cores lead to a binary signal of the wind direction changes (east versus west wind), a synoptic interpretation using atmospheric circulation models is successful. This shows a possible distribution of high and low pressure areas and thus the direction and strength of wind fields which have the capacity to transport dust. In conclusion, the combination of numerical models, to enhance understanding of processes in the climate system, with proxy data from the environmental record is the key to a comprehensive approach to paleo climatic reconstruction.rn

Relevância:

10.00% 10.00%

Publicador:

Resumo:

During the last decades magnetic circular dichroism (MCD) has attracted much interest and evolved into various experimental methods for the investigation of magnetic thin films. For example, synchrotron-based X-ray magnetic circular dichroism (XMCD) displays the absolute values of spin and orbital magnetic moments. It thereby benefits from large asymmetry values of more than 30% due to the excitation of atomic core-levels. Similarly large values are also expected for threshold photoemission magnetic circular dichroism (TPMCD). Using lasers with photon energies in the range of the sample work function this method gives access to the occupied electronic structure close to the Fermi level. However, except for the case of Ni(001) there exist only few studies on TPMCD moreover revealing much smaller asymmetries than XMCD-measurements. Also the basic physical mechanisms of TPMCD are not satisfactorily understood. In this work we therefore investigate TPMCD in one- and two-photon photoemission (1PPE and 2PPE) for ferromagnetic Heusler alloys and ultrathin Co films using ultrashort pulsed laser light. The observed dichroism is explained by a non-conventional photoemission model using spin-resolved band-structure calculations and linear response theory. For the two Heusler alloys Ni2MnGa and Co2FeSi we give first evidence of TPMCD in the regime of two-photon photoemission. Systematic investigations concerning general properties of TPMCD in 1PPE and 2PPE are carried out at ultrathin Co films grown on Pt(111). Here, photon-energy dependent measurements reveal asymmetries of 1.9% in 1PPE and 11.7% in 2PPE. TPMCD measurements at decreased work function even yield larger asymmetries of 6.2% (1PPE) and 17% (2PPE), respectively. This demonstrates that enlarged asymmetries are also attainable for the TPMCD effect on Co(111). Furthermore, we find that the TPMCD asymmetry is bulk-sensitive for 1PPE and 2PPE. This means that the basic mechanism leading to the observed dichroism must be connected to Co bulk properties; surface effects do not play a crucial role. Finally, the enhanced TPMCD asymmetries in 2PPE compared to the 1PPE case are traced back to the dominant influence of the first excitation step and the existence of a real intermediate state. The observed TPMCD asymmetries cannot be interpreted by conventional photoemission theory which only considers direct interband transitions in the direction of observation (Γ-L). For Co(111), these transitions lead to evanescent final states. The excitation to such states, however, is incompatible with the measured bulk-sensitivity of the asymmetry. Therefore, we generalize this model by proposing the TPMCD signal to arise mostly from direct interband transitions in crystallographic directions other than (Γ-L). The necessary additional momentum transfer to the excited electrons is most probably provided by electron-phonon or -magnon scattering processes. Corresponding calculations on the basis of this model are in reasonable agreement with the experimental results so that this approach represents a promising tool for a quantitative description of the TPMCD effect. The present findings encourage an implementation of our experimental technique to time- and spatially-resolved photoemission electron microscopy, thereby enabling a real time imaging of magnetization dynamics of single excited states in a ferromagnetic material on a femtosecond timescale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Verbindungen aus nicht ferromagnetischen Bestandteilen, die ferromagnetische Eigenschaf-ten zeigen, sind seit Anfang des 20. Jahrhunderts bekannt und werden nach ihrem Entdecker als Heusler-Verbindungen bezeichnet. Seitdem haben sie nichts von ihrer Faszination eingebüßt, besitzen sie doch eine Fülle besonderer Eigenschaften mit Anwendungen z.B. in der Spintronik.rnAuf der Suche nach geeigneten Legierungen ist es wünschenswert, zunächst grundlegende Eigenschaften wie das magnetische Moment elementspezifisch bestimmen zu können. Hierfür sind Methoden wie Röntgenabsorptionsspektroskopie und magnetischer Röntgenzirkulardichroismus (XAS/XMCD) prädestiniert.rnIm Rahmen dieser Arbeit wurde eine Apparatur entwickelt, mit deren Hilfe XAS- und XMCD-Messungen an dünnen Heusler-Filmen durchgeführt werden können. Da Grenzflächeneigenschaften von besonderem Interesse sind, wurde der experimentelle Aufbau so gewählt, dass gleichzeitig Volumen und Oberflächeneigenschaften untersucht werden können. Durch Vergleich dieser Messdaten erhält man Zugang zu den Grenzflächeneigenschaften.rnSo konnte mit XAS-Messungen nachgewiesen werden, dass sich die chemischen Eigenschaften an der Grenzfläche mancher Filme von denen im Volumen des Films unterscheiden (Oxidation bzw. Interdiffusion der Abdeckschicht). Auch stöchiometrische Unterschiede zwischen Oberfläche und Volumen konnten so identifiziert werden.rnMit Hilfe von XMCD-Messungen wurden elementspezifische magnetische Momente bestimmt und mit theoretischen Vorhersagen verglichen. Auch hierbei konnten Oberflächen- und Volumenmomente miteinander verglichen werden. So wurde z.B. unter Verwendung einer Schichtserie die Anzahl magnetischer Totlagen an beiden Grenzflächen bestimmt. Diese Informationen sind wichtig, um die Qualität dünner Filme steigern zu können.rnDes Weiteren war es auch möglich, temperaturabhängige Änderungen in der Ni2MnGa Zustandsdichte, die von der Theorie vorhergesagt wurden, in den XAS-Spektren nachzuweisen. Schließlich wurde noch eine Methode entwickelt, die es erlaubt, unter bestimmten Voraussetzungen auf die partielle unbesetzte Zustandsdichte (PDOS) zu schließen. Dies liefert wichtige Hinweise auf Lage und Breite der bisher nur theoretisch vorhergesagten Bandlücke. Es ist mit der hier vorgestellten Methode nicht möglich, die gesamte PDOS für alle Elemente zu vermessen, doch können so relativ leicht vielversprechende Kandidaten für weitere Untersuchungen gefunden werden.rn

Relevância:

10.00% 10.00%

Publicador:

Resumo:

I present a new experimental method called Total Internal Reflection Fluorescence Cross-Correlation Spectroscopy (TIR-FCCS). It is a method that can probe hydrodynamic flows near solid surfaces, on length scales of tens of nanometres. Fluorescent tracers flowing with the liquid are excited by evanescent light, produced by epi-illumination through the periphery of a high NA oil-immersion objective. Due to the fast decay of the evanescent wave, fluorescence only occurs for tracers in the ~100 nm proximity of the surface, thus resulting in very high normal resolution. The time-resolved fluorescence intensity signals from two laterally shifted (in flow direction) observation volumes, created by two confocal pinholes are independently measured and recorded. The cross-correlation of these signals provides important information for the tracers’ motion and thus their flow velocity. Due to the high sensitivity of the method, fluorescent species with different size, down to single dye molecules can be used as tracers. The aim of my work was to build an experimental setup for TIR-FCCS and use it to experimentally measure the shear rate and slip length of water flowing on hydrophilic and hydrophobic surfaces. However, in order to extract these parameters from the measured correlation curves a quantitative data analysis is needed. This is not straightforward task due to the complexity of the problem, which makes the derivation of analytical expressions for the correlation functions needed to fit the experimental data, impossible. Therefore in order to process and interpret the experimental results I also describe a new numerical method of data analysis of the acquired auto- and cross-correlation curves – Brownian Dynamics techniques are used to produce simulated auto- and cross-correlation functions and to fit the corresponding experimental data. I show how to combine detailed and fairly realistic theoretical modelling of the phenomena with accurate measurements of the correlation functions, in order to establish a fully quantitative method to retrieve the flow properties from the experiments. An importance-sampling Monte Carlo procedure is employed in order to fit the experiments. This provides the optimum parameter values together with their statistical error bars. The approach is well suited for both modern desktop PC machines and massively parallel computers. The latter allows making the data analysis within short computing times. I applied this method to study flow of aqueous electrolyte solution near smooth hydrophilic and hydrophobic surfaces. Generally on hydrophilic surface slip is not expected, while on hydrophobic surface some slippage may exists. Our results show that on both hydrophilic and moderately hydrophobic (contact angle ~85°) surfaces the slip length is ~10-15nm or lower, and within the limitations of the experiments and the model, indistinguishable from zero.