35 resultados para Bewertung

em ArchiMeD - Elektronische Publikationen der Universität Mainz - Alemanha


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Im der vorliegenden Arbeit wurden die Einflüsse verschiedener wasserwirtschaftlicher und forstwirtschaftlicher Maßnahmen auf das Abflussverhalten von bewaldeten Gebieten untersucht. Der Schwerpunkt lag auf der Erfassung der Veränderungen im natürlichen System durch die jeweilige Maßnahme. Der Wassertransport wurde dabei auf der Prozessebene im Hangmaßstab betrachtet. Wichtige Erkenntnisse hinsichtlich der Hochwasserentstehung in bewaldeten Gebieten wurden gewonnen. Daraus abgeleitet wurde eine Bewertung sowohl der natürlich gegebenen Systemgrößen als auch der einzelnen Maßnahmen bezüglich einer Hochwasservorsorge in Wäldern.Berücksichtigt wurden Änderungen in der Bestockung und in der Feinerschließung der bewaldeten Flächen durch Wege und Wirtschaftstrecken. Die Wassertransportprozesse wurden im Gelände untersucht und in Abhängigkeit der globalen klimatischen Randbedingungen sowie den bodenhydraulischen und landnutzungsspezifischen Parameter mit dem Niederschlag-Abfluss-Modell CATFLOW simuliert.Die Abflussdynamik wird im untersuchten Maßstab im wesentlichen durch die gegebene Bodenhydraulik, die Vorfeuchte des Bodens bei einem Niederschlag und durch die Niederschlagsintensität bestimmt. Die vergleichende Untersuchung von zwei rheinland-pfälzischen Waldstandorten ergab, dass im Bereich Soonwald ein relativ hohes Hochwasserrisiko besteht. Hier wirken sich Eingriffe durch forstwirtschaftliche Bewirtschaftungsmaßnahmen stark aus. Im Bereich des Pfälzerwaldes ist nur ein sehr geringes Hochwasserrisiko gegeben, da hier die natürlichen Gebietseigenschaften die Eingriffe durch Bewirtschaftungsmaßnahmen überprägen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

ABSTRACT Porath, William Integrationstheorie und Integrationspraxis in Westeuropa:DIE HERAUSFORDERUNGEN FÜR DIE DEMOKRATISCHE LEGITIMATION EINES INTEGRATIONSPROZESSES Im einen ersten Teil der Arbeit wird die Frage nach dem Wesen des europäischen Integrationsprozesses diskutiert, weil die Vorschläge für die Verbesserung der Legitimationsbasis der EU davon abhängen, welches Verständnis die Autoren in bezug auf die Europäische Union (EU) haben. Für einige richtet sich die Integration auf die Vollendung eines europäischen Bundesstaates. Für andere kann sich die EU nicht weit von einem intergouvernementalen Regierungshandeln distanzieren. Im zweiten Teil wird der Vorschlag erörtert, das Europäische Parlament (EP) zu einem echten Mitspieler im politischen Prozeß der EU umzuwandeln. Aber es werden auch Autoren analysiert, die die Ansicht vertreten, daß die demokratische Legitimation der EU primär über die nationalen Parlamente bewirkt werden soll. Am Ende der Arbeit werden die möglichen Anpassungen und Ergänzungen beider parlamentarischen Kontrollen erläutert. Eine erste Bewertung zeigt, daß koordinierte parlamentarische Kontrolle auf zwei Ebenen besonders schwierig ist. Im Grunde genommen handelt es sich um zwei verschiedene Logiken, die zwei verschiedenen Dimensionen der Integration entsprechen. Dafür könnte die Rolle der nationalen politischen Parteien von Bedeutung sein, in dem Maße, in dem sie das Thema Europa besetzen. Das Engagement nationaler Parteien in einer öffentlichen Diskussion über die weitere Entwicklung europäischer Politik ist vielleicht der wichtigste Beitrag zur demokratischen Legitimation der Integration.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Wiederherstellung einer physiologischen Blutzuckerregelung durch Xenotransplantation mikroenkapsulierter Langerhans-Inseln in zwei diabetische Maus-modelle. Die Inseltransplantation ist ein vielversprechendes Verfahren zur Behandlung des Typ 1 Diabetes. Das Verfah-ren ist nicht invasiv, erfordert jedoch eine lebenslange Immunsuppression der Patienten. Zudem sind nur be-grenzte Spenderorgane verfügbar. Es wäre ein großer Fortschritt, wenn man transplantierte Inseln im Empfänger von dessen Immunsystem abschirmen könnte. Die vorliegende Arbeit zeigt, dass es möglich ist, funktionsfähige Inseln von Ratten in Alginatkügelchen (Beads) einzuschließen und in dieser Form in diabetische Mäuse zu trans-plantieren. Mit dem ultrahochviskosem Alginat stand erstmals ein speziell für die klinische Anwendung konzipiertes und hergestelltes Alginat zur Verfügung. Im Gegensatz zu den kommerziell erhältlichen Alginaten konnte dieses Al-ginat in hoher Reinheit reproduzierbar produziert werden. Zudem war es erstmals möglich, durch eine interne Kapselstabilisierung auf die bislang benötigte, äußere Stützmembran zu verzichten. Ziel der Arbeit war es, das ultrahochviskose Alginat und das neue „thermodynamisch-stabilisierte“ Verkapse-lungssystem für die Transplantation der Langerhans-Inseln zu optimieren. In der anschließenden Studie sollten verkapselte Inseln von Ratten in zwei Typen diabetische Mäuse transplantiert werden und Tauglichkeit des Ver-fahren in vivo geprüft werden. In vitro wurden die Parameter (insbesondere die Alginatkonzentration) zur Verkapselung der Langerhans-Inseln optimiert. Die Vitalität (Überleben der Inseln) und die Funktionalität (Sekretion von Insulin) des enkapsulierten Gewebes dienten zur Bewertung der Verkapselungsmethode. Die Zugabe von humanem Serumalbumin führte sowohl zur Langzeitstabilisierung der Alginatbeads als auch zur Verbesserung der Nährstoffversorgung des enkapsulierten Gewebes. Durch Transplantationen von Leerkapseln mit verschiedenen Albumin-Konzentrationen wurde die benötigte Albumin-Supplementation bestimmt. Als Empfänger dienten Streptozotozin-diabetische Balb/c- und spontan diabetische NOD-Mäuse. Die intraperitoneale Transplantation von 1.800 mikroenkapsulierten, adulten Ratteninseln bewirkten in Streptozotozin-diabetischen Balb/c-Mäusen eine langanhaltende (>30 Wochen) Normalisierung des Blutzuckerspiegels. Die Glucose-Clearance-Raten des intraperitonealen-Glucose-Toleranz-Tests in der 3., 9. und 16. Woche zeigten aber einen sukzes-siven Verlust der Transplantatfunktion, der aber in den „non fasting“ Blutzuckerwerten nicht evident wurde. Der Diabetes der NOD-Maus wird durch eine autoimmunogene Zerstörung der ß-Zellen durch ein hyperkompe-tentes Immunsystem ausgelöst, da die NOD-Tiere schon auf ß-zellspezifische Antigene konditioniert waren. Auch hier führte die Alginatkapsel zu einem deutlich verlängerten Überleben des Transplantates im Vergleich zu den unverkapselten Kontrollzellen. Jedoch trat dann nach 4-5 Wochen ein spontanes Transplantatversagen auf. Konventionell polymerisierte Kapseln zeigten inhomogene Vernetzungen des Alginates. Dies führte mit zunehmender Transplantationsdauer zu Instabilitäten der Alginatbeads, so dass schließlich Inselgewebe oder ß-Zell-spezifische Antigene frei wurden. Diese Antigene induzierten im hyperkompetenten Immunsystem der NOD-Mäuse eine massive Abwehrreaktion mit rascher Zerstörung der transplantierten Inseln. Im Rahmen der Weiterentwicklung der Verkapselungstechnik konnte mit Hilfe der neuen „Crystal Gun Verkap-selung“ erstmals eine homogene Vernetzung des gesamten Alginatbeads sichergestellt werden. Gegen Ende die-ser Arbeit konnte bei einer dreiwöchigen Kultur in vitro gezeigt werden, dass das „Crystal Gun Verfahren“ zur Mikroenkapsulierung von Langerhans-Inseln geeignet ist. Daher ist zu erwarten, dass mit Hilfe des „Crystal Gun Verfahrens“ auch ein Durchbruch bei der Transplantation von Inseln in NOD-Mäusen zu erreichen sein wird.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Thema: Quantifizierung von Steinschlagrisiken an Straßen Die Einschätzung eines bestehenden Steinschlagrisikos an Verkehrswegen ist in Gebirgs- und Mittelgebirgsregionen seit jeher eine Aufgabe, die mit verschiedensten Methoden und unterschiedlichem Aufwand bearbeitet wird. In der vorliegenden Untersuchung werden die maßgebenden Parameter zur Beschreibung einer Böschung aufgenommen und bewertet. Es wurde ein Arbeitsblatt entwickelt, in dem festgelegte Parameter erfasst werden, die teils mit Ankreuztechnik, teils mit der Eingabe von Daten, im Computer notiert werden. Das Arbeitsblatt umfasst vier Themenbereiche: Allgemeine Daten, Angaben zur Geometrie der Böschung, Angaben zum Verkehr und Angaben zum Gestein und Gebirge. Ein Computerprogramm, das auf der Basis der Software Excel von Microsoft erstellt wurde, vergibt nach der Dateneingabe Bewertungspunkte (1. Bewertungsschritt). Es werden Summen gebildet und die Teilbereiche bewertet (2. Bewertungsschritt). Jeder Teilbereich besitzt drei Bewertungsklassen. Die Verknüpfung der Bewertung der Teilbereiche Geometrische Angaben und Angaben zum Gestein und Gebirge stellt die eigentliche Risikoeinschätzung dar (3. Bewertungsschritt). Es gibt drei Einstufungen zur Beschreibung des Risikos: ð Der Verkehr ist durch Steinschlag sehr gering gefährdet. ð Der Verkehr ist durch Steinschlag gering gefährdet. Eine Detailüberprüfung muss erfolgen, da eine Gefährdung nicht auszuschließen ist. ð Der Verkehr ist gefährdet. Es besteht ein hohes Steinschlagrisiko. Bewertungen und Hinweise zu den Teilbereichen Allgemeine Daten und Angaben zum Verkehr kann der Anwender nach eigenem Ermessen zusätzlich nutzen. Die abschließende Risikoeinschätzung erfolgt durch den Anwender bzw. einen Sachverständigen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In der vorliegenden Arbeit soll der Stellenwert der ce-MRA unter Verwendung von MS-325, einem neuen intravaskulären Kontrastmittel, bei der Untersuchung der Fußgefäße im Vergleich zur DSA bewertet, und das Übereinstimmen der Befunde zweier unterschiedlich erfahrener Untersucher untersucht werden. Im Rahmen einer klinischen Phase-III-Studie wurden 18 Patienten mit pAVK und / oder diabetischem Fußsyndrom rekrutiert. Die ce-MRA-Untersuchungen wurden in einem 1,5-Tesla-Magnetom durchgeführt. Dabei wurden dynamische Serien und eine hochaufgelöste Steady-state-Sequenz des zu untersuchenden Fußes akquiriert. Als Kontrastmittel wurde MS-325 in einer an das Körpergewicht adap-tierten Dosis appliziert. Die DSA-Untersuchung enthielt eine komplette Becken-Bein-Angiographie mit selektiver Darstellung der Fußgefäße. Vor der Befundung wurden die Bilddaten der MR-Angiographie nachbearbeitet und MIP-Projektionen erstellt. Zwei Untersucher befundeten unabhängig voneinander und in zufälliger Reinfolge die MRA, die DSA wurde in einem Konsensusverfahren beider Unter-sucher beurteilt. In eine qualitative Analyse gingen die Bewertung der Bildquali-tät, die Sichtbarkeit von sieben Gefäßsegmenten und deren hämodynamisch relevanter Stenosegrad ein. Quantitativ wurde das Signal-Rausch-Verhältnis und das Kontrast-Rausch-Verhältnis untersucht. Die Bildqualität beider Modalitäten wurde im Median mit gut bewertet. Hinsichtlich der Sichtbarkeit der Gefäßsegmente zeigte sich die ce-MRA der DSA überlegen. Von insgesamt 126 Gefäßsegmenten waren nur 80 in der DSA sichtbar, dagegen waren 106 Gefäßsegmente in der ce-MRA sichtbar (p-Wert <0,001, McNemar-Test). Die Übereinstimmung zwischen beiden Untersuchern der ce-MRA war sehr gut, beide erkannten 105 von 126 Gefäßsegmenten (Kappa-Maß κ=0,97). Beide Modalitäten werteten übereinstimmend 46 Gefäßsegmente als hämodynamisch relevant stenosiert. 16 Gefäßstenosen wurden durch die ce-MRA im Gegensatz zur DSA überbewertet. Zwischen Untersucher 1 und Untersucher 2 der ce-MRA fand sich erneut eine sehr gute Übereinstimmung (Kappa-Maß к = 0,89). Die Messungen des SNR und des CNR ergaben sowohl in den dynamischen Se-quenzen als auch in der später akquirierten hochaufgelösten Steady-state Unter-suchung hohe Werte. Die Bildqualität der hochaufgelösten Steady-state ce-MRA war hervorragend, jedoch beeinträchtigt venöse Überlagerung die Interpretation. In der Literatur wird die ce-MRA als ein geeignetes Verfahren zur Darstellung von Fußgefäßen beschrieben. Zahlreiche Studien zeigen, dass mit der ce-MRA mehr Gefäßsegmente dargestellt werden können. Dieses Ergebnis konnte in der vor-liegenden Arbeit bestätigt werden. Eine mit MS-325 verstärkte Magnetresonanz-angiographie der Fußgefäße ist der selektiven DSA überlegen. Die Tatsache, dass mit der ce-MRA mehr Gefäßsegmente dargestellt werden können, hat den Begriff des angiographisch „verborgenen“ Blutgefäßes initiiert. In vielen klini-schen Zentren hat die ce-MRA die DSA weitgehend verdrängt. Aus diesem Grund wird in der Literatur vorgeschlagen, dass die ce-MRA die DSA als einen „verbes-serten Goldstandard“ ersetzten könnte. Kann mit der DSA kein passendes An-schlussgefäß für eine Revaskularisationsmaßnahme mittels Bypass gefunden werden, so sollte auf jeden Fall eine ce-MRA der Fußgefäße durchgeführt wer-den, um eine Amputation zu verhindern. In der Literatur wird von der Änderung der Behandlungsstrategie nach der Durchführung der ce-MRA berichtet. Bei der Klassifikation von Gefäßstenosen wertet die ce-MRA öfter höher als die DSA, diese Überbewertung ist in der Literatur bekannt und konnte ebenfalls in der vorliegenden Arbeit bestätigt werden. Diese Überschätzung resultiert aus „Spin-Dephasierung“ durch turbulente Blutströmung im Bereich einer Stenose oder besteht auf Grund von Partialvolumeneffekten. Die Verwendung eines intravaskulären Kontrastmittels, wie bsw. MS-325, zur MR-Angiographie bringt den Vorteil, dass sowohl dynamische als auch Steady-state Untersuchungen aller vaskulären Strukturen im menschlichen Körper durchge-führt werden können. Da eine hohe Signalintensität über einen langen Zeitraum besteht, können auch mehrere Körperregionen während einer einzigen Untersu-chung dargestellt werden. Nachteilig ist jedoch die Beeinträchtigung der Bildge-bung durch venöse Überlagerung. Mittels computergestützter Bildnachbearbeitung ist es jedoch möglich, Venen in Steady-state-Sequenzen zu unterdrücken und daraus ergibt sich die Möglichkeit, hochaufgelöste, überlage-rungsfreie Datensätze zu erhalten. Diese könnten dann der erste Schritt in Rich-tung einer Perfusionsbildgebung am Fuß sein, um bsw. den Erfolg von Revaskularisationsmaßnahmen auch auf Kapillarebene beurteilen zu können.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die vorliegende Arbeit hatte im Sinne eines geographischen Forschungsvorhabens zum Ziel, die Auswirkungen des Sporttourismus auf eine Fremdenverkehrsregion und die daraus resultierenden spezifischen, aus der differenzierten Nachfrage und den Verhaltensweisen der Sporttouristen entsprechenden raumrelevanten Veränderungen in Form einer komplexen Raumanalyse – im Kontext mit dem holistischen Konzept der nachhaltigen Entwicklung – zu erforschen und einer Bewertung zu unterziehen. Um allerdings das bis dato in der wissenschaftlichen und in der geographischen Diskussion nur unzureichend zur Kenntnis genommene Phänomen Sporttourismus in seiner Wirkungsdimension bzw. im Rahmen einer ganzheitlichen Raumanalyse auf das Konzept der nachhaltigen Entwicklung übertragen zu können, bedurfte es eines interdisziplinären Ansatzes sowie einer holistischen Interpretation des Konzeptes der nachhaltigen Entwicklung. Denn nach Auffassung des Verfassers kann eine nachhaltige sporttouristische Entwicklung in Fremdenverkehrsregionen nur dann erreicht werden, wenn parallel ökologisches Gleichgewicht, ökonomische Sicherheit und soziale Gerechtigkeit unter nachhaltig institutionellen Rahmenbedingungen langfristig für heutige wie auch zukünftige Generationen gleichrangig angestrebt werden. Die größte Herausforderung bestand jedoch darin, festzustellen, inwiefern sich das komplexe und interdisziplinäre Thema Sporttourismus auf das noch unzureichend operationalisierte Leitbild der nachhaltigen Entwicklung übertragen lässt, um die Auswirkungen einzelner Sporttourismusformen in einer Fremdenverkehrsregion messen, interpretieren, darstellen und bewerten zu können. Denn nach wie vor besteht das Hauptproblem dieses theoretischen Leitbildes darin, wie es in die Praxis umgesetzt werden kann bzw. mit welchen Indikatoren und Forschungsmethoden eine nachhaltige Entwicklung in seinen Auswirkungen überhaupt gemessen werden kann. Mittels intensiver interdisziplinärer Studien gelang es jedoch, ein sich auf unterschiedliche Untersuchungsgebiete und Sporttourismusformen übertragbares, variabel einsetzbares Indikatorensystem zu entwickeln, mit dessen Hilfe und der zur Operationalisierung notwendigen Auswahl eines vielfältigen Spektrums geeigneter empirischer Forschungsmethoden die gruppenspezifischen Auswirkungen einzelner Sporttourismusformen auf dimensionaler Ebene (ökologische, ökonomische, soziokulturelle und institutionelle Dimension), dem Konzept der nachhaltigen Entwicklung entsprechend, analysiert und bewertet werden konnten. Die zusammenfassende Erkenntnis der auf allen Dimensionen durchgeführten Analyse unterschiedlicher Sporttourismusformen führt zu dem Ergebnis, dass es sich beim Sporttourismus um ein komplexes Phänomen mit unterschiedlichen Nutzungsintensitäten, räumlichen Konzentrationen und Ausprägungsformen handelt, welches eine individuelle und ganzheitliche Betrachtungsweise im regionalen Kontext erfordert, um dem Anspruch einer mehrdimensionalen nachhaltigen Entwicklung gerecht zu werden. Generalisierende Aussagen bzgl. einer nachhaltigen Entwicklung einzelner Sporttourismusformen können nicht getroffen werden, vielmehr müssen – wie mit Hilfe des in der vorliegenden Studie zum Einsatz gekommenen Indikatorensystems und Operationalisierungsansatzes – die individuellen Auswirkungen einzelner Sporttourismusformen auf dimensionaler Ebene analysiert werden, den politischen und naturräumlichen Rahmenbedingungen des jeweiligen Zielgebietes entsprechend angepasst, auf den Nutzen für die einheimische Bevölkerung hin überprüft und gegebenenfalls Maßnahmen ergriffen werden, um dem Anspruch einer nachhaltigen Entwicklung auf allen Dimensionen gerecht zu werden. Hierbei kommt vor allem der institutionellen Organisation auf nationalstaatlicher Ebene die entscheidende Funktion zu, da der individuelle ökonomische Profit der am Sporttourismus beteiligten Personen im Vordergrund steht und – bei einer nicht existierenden Einbindung der sporttouristischen Aktivitäten in einen nachhaltigen Entwicklungsplan sowie dessen Kontrolle – negative Auswirkungen auf anderer dimensionaler Ebene, insbesondere auf ökologischer Ebene, nach sich zieht und somit den Erhalt des Tourismus auf lange Sicht hin gefährdet.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Messung der Stärke von Empfindungen hat in der Psychologie eine lange Tradition, die bis in die Zeit der Entstehung der Psychologie als eine eigenständige Wissenschaft gegen Ende des 19. Jahrhunderts zurückreicht. Gustav Theodor Fechner verband die Beobachtung Webers der Konstanz des Koeffizienten des eben merklichen Unterschieds zu der Vergleichsintensität (sog. "Weber-Quotient") mit der Annahme einer sensorischen Schwelle, und entwickelte daraus erstmals eine Skala für die Stärke von Empfindungen. Die Fechner-Skala verwendet die Anzahl sukzessiver Schwellenschritte als natürliche, psychologische Einheit. Die Stärke einer Empfindung für eine gegebene Reizintensität wird ausgedrückt als die Anzahl von Schwellenschritten, die man gehen muss, um von keiner Empfindung bis zur in Frage stehenden Empfindung zu gelangen. Die Funktion, die den Zusammenhang von Reizintensität und der Anzahl nötiger Schwellenschritte beschreibt, ist stets logarithmisch und über sukzessive Schwellenmessungen für Reize aus den verschiedensten Sinnesmodalitäten bestimmbar. Derart sich ergebende Skalierungen heißen "indirekt", weil die in Frage stehende Reizintensität selbst nicht von der Urteilsperson bewertet wird. Intensitäten sind vom Urteiler nur mit anderen Intensitäten in Bezug auf ein "stärker" oder "schwächer", also ordinal, zu vergleichen. Indirekte Skalierungsmethoden eignen sich insbesondere, wenn der Reizeindruck flüchtig und von der absoluten Stärke her schwer durch den Urteiler zu quantifizieren ist. Ein typisches Beispiel hierfür ist die Auffälligkeit (Salienz) von visuellen Objekten, die in zufällig wechselnde Hintergründe eingebettet sind und dem Betrachter nur als ein rasches raumzeitliches Aufblitzen präsentiert werden. Die Stärke des Unterschieds in Merkmalen wie Helligkeit, Farbe, Orientierung, Schattierung, Form, Krümmung, oder Bewegung bestimmt das Ausmaß der Salienz von Objekten. Obschon eine Fülle von Arbeiten existiert zu der Frage, welche Merkmale und deren Kombinationen ohne Wissen des Ortes ihrer Präsentation automatisch starke Salienz ("Pop-Out") erzeugen, existieren bislang keine systematischen Versuche, die Salienz von Merkmalen für einen weiten Bereich von Merkmalsunterschieden zu erfassen und vergleichbar zu machen. Indirekte Skalierungen liegen vor für die Merkmale Kontrast (Legge und Foley, 1980) und Orientierung (Motoyoshi und Nishida, 2001). Ein Vergleich der Salienz über mehrere Merkmale und der Nachweis, dass die Salienz eine eigene, von der Merkmalsdimension unabhängige sensorische Qualität ist, steht aber bislang aus. In der vorliegenden Arbeit wird gezeigt, dass der Unterschied von Objekten zur einbettenden Umgebung hinsichtlich visueller Merkmale zu Salienz führt und diese Salienz unabhängig von dem sie erzeugenden Merkmal der Stärke nach skalierbar ist. Es wird ferner gezeigt, dass die Einheiten der für zwei Merkmale erhobenen indirekten Skalierungsfunktionen in einem absoluten Sinne gleich sind, solange sichergestellt ist, dass (i) keine alternativen Hinweisreize existieren und nur der reine Merkmalsunterschied von Objekt und Umgebung bewertet wird und (ii) das sensorische Rauschen in den aktivierten Merkmalskanälen für beide Merkmale gleich ist. Für diesen Aufweis wurden exemplarisch die Merkmale Orientierung und Ortsfrequenz ausgewählt und die Salienz ihrer Merkmalskontraste über Naka-Rushton-Funktionen, gewonnen aus den zugrundeliegenden Salienz-Inkrementschwellenmessungen, indirekt skaliert. Für das Merkmal Ortsfrequenz liegt hiermit erstmals eine indirekte Skalierung vor. Hierfür musste eine spezielle Messtechnik entwickelt werden, die die Bewertung reiner Ortsfrequenzunterschiede, frei von konfundierenden absoluten Ausprägungen der Ortsfrequenzen, sicherstellt. Die Methode ist in Kapitel 7 dargestellt. Experimente, die die konfundierende Wirkung absoluter Merkmalsausprägungen auf die Salienzmessung demonstrieren, sind in Kapitel 6 dargestellt. In Kapitel 8 findet sich ein empirischer Abgleich der Ergebnisse von Inkrement- und Dekrementschwellenmessungen, eine Messtechnik, die zur Erfassung von Unterschiedsschwellen im Extrembereich der Orientierungsunterschiede von 90° nötig ist. Kapitel 9 enthält den empirischen Aufweis der Transitivität der Gleichheitsrelation für Salienzmessungen von Orientierung und Ortsfrequenz durch Abgleich mit einem dritten Merkmal und erbringt damit den Beleg der merkmalsunabhängigen Erfassung von Auffälligkeit über die indirekte Skalierungsmethodik. Ferner wird dort die Wirksamkeit der Grundsalienz von Mustern, gegeben über externes Rauschen in den Merkmalen (sog. "Merkmalsjitter") für die Verschiebung des Nullpunktes der Skalierungsfunktion aufgezeigt. Im letzten Experiment (Kapitel 10) wird dann die Skalierung von Orientierung und Ortsfrequenz bei gleicher Grundsalienz der Muster verglichen und gezeigt, dass beide Skalen in einem absoluten Sinne gleiche Einheiten aufweisen (also gleiche Skalenzahlen gleiche sensorische Auffälligkeiten anzeigen, obwohl sie von verschiedenen Merkmalen stammen), wenn der Effekt des sensorischen Rauschens, der im Merkmal Orientierung nicht über die verschiedenen Schwellenschritte konstant ist, kompensiert wird. Die Inkonstanz des Effektes des sensorischen Rauschens im Merkmal Orientierung wird über die Veränderung der Steigung der psychometrischen Präferenzfunktion für die Vergleichsurteile der Orientierungssalienz für eine fest vorgegebene Ortsfrequenzsalienz greifbar, und der Effekt der Steigungsveränderung kompensiert exakt die Nichtlinearität in der für beide Merkmale erhobenen Salienz-Matchingfunktion. Im letzten Kapitel wird ein Ausblick auf eine mögliche Modellierung der Salienzfunktionen über klassische Multikanal-Feedforwardmodelle gegeben. In den ersten fünf Kapiteln sind einführend die Gebiete der indirekten Skalierung, der Merkmalssalienz und der Texturtrennung im menschlichen visuellen System dargestellt.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Recent developments in the theory of plasma-based collisionally excited x-ray lasers (XRL) have shown an optimization potential based on the dependence of the absorption region of the pumping laser on its angle of incidence on the plasma. For the experimental proof of this idea, a number of diagnostic schemes were developed, tested, qualified and applied. A high-resolution imaging system, yielding the keV emission profile perpendicular to the target surface, provided positions of the hottest plasma regions, interesting for the benchmarking of plasma simulation codes. The implementation of a highly efficient spectrometer for the plasma emission made it possible to gain information about the abundance of the ionization states necessary for the laser action in the plasma. The intensity distribution and deflection angle of the pump laser beam could be imaged for single XRL shots, giving access to its refraction process within the plasma. During a European collaboration campaign at the Lund Laser Center, Sweden, the optimization of the pumping laser incidence angle resulted in a reduction of the required pumping energy for a Ni-like Mo XRL, which enabled the operation at a repetition rate of 10 Hz. Using the experiences gained there, the XRL performance at the PHELIX facility, GSI Darmstadt with respect to achievable repetition rate and at wavelengths below 20 nm was significantly improved, and also important information for the development towards multi-100 eV plasma XRLs was acquired. Due to the setup improvements achieved during the work for this thesis, the PHELIX XRL system now has reached a degree of reproducibility and versatility which is sufficient for demanding applications like the XRL spectroscopy of heavy ions. In addition, a European research campaign, aiming towards plasma XRLs approaching the water-window (wavelengths below 5 nm) was initiated.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Verifikation numerischer Modelle ist für die Verbesserung der Quantitativen Niederschlagsvorhersage (QNV) unverzichtbar. Ziel der vorliegenden Arbeit ist die Entwicklung von neuen Methoden zur Verifikation der Niederschlagsvorhersagen aus dem regionalen Modell der MeteoSchweiz (COSMO-aLMo) und des Globalmodells des Europäischen Zentrums für Mittelfristvorhersage (engl.: ECMWF). Zu diesem Zweck wurde ein neuartiger Beobachtungsdatensatz für Deutschland mit stündlicher Auflösung erzeugt und angewandt. Für die Bewertung der Modellvorhersagen wurde das neue Qualitätsmaß „SAL“ entwickelt. Der neuartige, zeitlich und räumlich hoch-aufgelöste Beobachtungsdatensatz für Deutschland wird mit der während MAP (engl.: Mesoscale Alpine Program) entwickelten Disaggregierungsmethode erstellt. Die Idee dabei ist, die zeitlich hohe Auflösung der Radardaten (stündlich) mit der Genauigkeit der Niederschlagsmenge aus Stationsmessungen (im Rahmen der Messfehler) zu kombinieren. Dieser disaggregierte Datensatz bietet neue Möglichkeiten für die quantitative Verifikation der Niederschlagsvorhersage. Erstmalig wurde eine flächendeckende Analyse des Tagesgangs des Niederschlags durchgeführt. Dabei zeigte sich, dass im Winter kein Tagesgang existiert und dies vom COSMO-aLMo gut wiedergegeben wird. Im Sommer dagegen findet sich sowohl im disaggregierten Datensatz als auch im COSMO-aLMo ein deutlicher Tagesgang, wobei der maximale Niederschlag im COSMO-aLMo zu früh zwischen 11-14 UTC im Vergleich zu 15-20 UTC in den Beobachtungen einsetzt und deutlich um das 1.5-fache überschätzt wird. Ein neues Qualitätsmaß wurde entwickelt, da herkömmliche, gitterpunkt-basierte Fehlermaße nicht mehr der Modellentwicklung Rechnung tragen. SAL besteht aus drei unabhängigen Komponenten und basiert auf der Identifikation von Niederschlagsobjekten (schwellwertabhängig) innerhalb eines Gebietes (z.B. eines Flusseinzugsgebietes). Berechnet werden Unterschiede der Niederschlagsfelder zwischen Modell und Beobachtungen hinsichtlich Struktur (S), Amplitude (A) und Ort (L) im Gebiet. SAL wurde anhand idealisierter und realer Beispiele ausführlich getestet. SAL erkennt und bestätigt bekannte Modelldefizite wie das Tagesgang-Problem oder die Simulation zu vieler relativ schwacher Niederschlagsereignisse. Es bietet zusätzlichen Einblick in die Charakteristiken der Fehler, z.B. ob es sich mehr um Fehler in der Amplitude, der Verschiebung eines Niederschlagsfeldes oder der Struktur (z.B. stratiform oder kleinskalig konvektiv) handelt. Mit SAL wurden Tages- und Stundensummen des COSMO-aLMo und des ECMWF-Modells verifiziert. SAL zeigt im statistischen Sinne speziell für stärkere (und damit für die Gesellschaft relevante Niederschlagsereignisse) eine im Vergleich zu schwachen Niederschlägen gute Qualität der Vorhersagen des COSMO-aLMo. Im Vergleich der beiden Modelle konnte gezeigt werden, dass im Globalmodell flächigere Niederschläge und damit größere Objekte vorhergesagt werden. Das COSMO-aLMo zeigt deutlich realistischere Niederschlagsstrukturen. Diese Tatsache ist aufgrund der Auflösung der Modelle nicht überraschend, konnte allerdings nicht mit herkömmlichen Fehlermaßen gezeigt werden. Die im Rahmen dieser Arbeit entwickelten Methoden sind sehr nützlich für die Verifikation der QNV zeitlich und räumlich hoch-aufgelöster Modelle. Die Verwendung des disaggregierten Datensatzes aus Beobachtungen sowie SAL als Qualitätsmaß liefern neue Einblicke in die QNV und lassen angemessenere Aussagen über die Qualität von Niederschlagsvorhersagen zu. Zukünftige Anwendungsmöglichkeiten für SAL gibt es hinsichtlich der Verifikation der neuen Generation von numerischen Wettervorhersagemodellen, die den Lebenszyklus hochreichender konvektiver Zellen explizit simulieren.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In der hier vorliegenden Arbeit wurde am Beispiel der Kraut- und Knollenfäule an Kartoffeln Phytophthora infestans und des Kartoffelkäfers Leptinotarsa decemlineata untersucht, ob durch den Einsatz von Geographischen Informationssystemen (GIS) landwirtschaftliche Schader¬reger¬prognosen für jeden beliebigen Kartoffelschlag in Deutschland erstellt werden können. Um dieses Ziel zu erreichen, wurden die Eingangsparameter (Temperatur und relative Luftfeuchte) der Prognosemodelle für die beiden Schaderreger (SIMLEP1, SIMPHYT1, SIMPHYT3 and SIMBLIGHT1) so aufbereitet, dass Wetterdaten flächendeckend für Deutschland zur Verfügung standen. Bevor jedoch interpoliert werden konnte, wurde eine Regionalisierung von Deutschland in Interpolationszonen durchgeführt und somit Naturräume geschaffen, die einen Vergleich und eine Bewertung der in ihnen liegenden Wetterstationen zulassen. Hierzu wurden die Boden-Klima-Regionen von SCHULZKE und KAULE (2000) modifiziert, an das Wetterstationsnetz angepasst und mit 5 bis 10 km breiten Pufferzonen an der Grenze der Interpolationszonen versehen, um die Wetterstationen so häufig wie möglich verwenden zu können. Für die Interpolation der Wetterdaten wurde das Verfahren der multiplen Regression gewählt, weil dieses im Vergleich zu anderen Verfahren die geringsten Abweichungen zwischen interpolierten und gemessenen Daten aufwies und den technischen Anforderungen am besten entsprach. Für 99 % aller Werte konnten bei der Temperaturberechnung Abweichungen in einem Bereich zwischen -2,5 und 2,5 °C erzielt werden. Bei der Berechnung der relativen Luftfeuchte wurden Abweichungen zwischen -12 und 10 % relativer Luftfeuchte erreicht. Die Mittelwerte der Abweichungen lagen bei der Temperatur bei 0,1 °C und bei der relativen Luftfeuchte bei -1,8 %. Zur Überprüfung der Trefferquoten der Modelle beim Betrieb mit interpolierten Wetterdaten wurden Felderhebungsdaten aus den Jahren 2000 bis 2007 zum Erstauftreten der Kraut- und Knollenfäule sowie des Kartoffelkäfers verwendet. Dabei konnten mit interpolierten Wetterdaten die gleichen und auch höhere Trefferquoten erreicht werden, als mit der bisherigen Berechnungsmethode. Beispielsweise erzielte die Berechnung des Erstauftretens von P. infestans durch das Modell SIMBLIGHT1 mit interpolierten Wetterdaten im Schnitt drei Tage geringere Abweichungen im Vergleich zu den Berechnungen ohne GIS. Um die Auswirkungen interpretieren zu können, die durch Abweichungen der Temperatur und der relativen Luftfeuchte entstanden wurde zusätzlich eine Sensitivitätsanalyse zur Temperatur und relativen Luftfeuchte der verwendeten Prognosemodelle durchgeführt. Die Temperatur hatte bei allen Modellen nur einen geringen Einfluss auf das Prognoseergebnis. Veränderungen der relativen Luftfeuchte haben sich dagegen deutlich stärker ausgewirkt. So lag bei SIMBLIGHT1 die Abweichung durch eine stündliche Veränderung der relativen Luftfeuchte (± 6 %) bei maximal 27 Tagen, wogegen stündliche Veränderungen der Temperatur (± 2 °C) eine Abweichung von maximal 10 Tagen ausmachten. Die Ergebnisse dieser Arbeit zeigen, dass durch die Verwendung von GIS mindestens die gleichen und auch höhere Trefferquoten bei Schaderregerprognosen erzielt werden als mit der bisherigen Verwendung von Daten einer nahegelegenen Wetterstation. Die Ergebnisse stellen einen wesentlichen Fortschritt für die landwirtschaftlichen Schaderregerprognosen dar. Erstmals ist es möglich, bundesweite Prognosen für jeden beliebigen Kartoffelschlag zur Bekämpfung von Schädlingen in der Landwirtschaft bereit zu stellen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die vorliegende Arbeit beschäftigt sich mit rechtlichen Fragestellungen rund um Bewertungs-portale im Internet. Zentrale Themen der Arbeit sind dabei die Zulässigkeit der Veröffentlichung der von den Nutzern abgegebenen Bewertungen vor dem Hintergrund möglicherweise entgegenstehender datenschutzrechtlicher Bestimmungen und der Persönlichkeitsrechte der Betroffenen. Des weiteren wird der Rechtsschutz der Betroffenen erörtert und in diesem Zusammenhang die haftungsrechtlichen Risiken der Forenbetreiber untersucht. Gegenstand der Arbeit sind dabei sowohl Online-Marktplätze wie eBay, auf denen sowohl der Bewertende als auch der Bewertete registriert und mit dem Bewertungsverfahren grundsätz-lich einverstanden sind (geschlossene Portale), als auch Portale, auf denen – oftmals unter einem Pseudonym und ohne vorherige Anmeldung – eine freie Bewertungsabgabe, zu Pro-dukteigenschaften, Dienstleistungen bis hinzu Persönlichkeitsmerkmalen des Bewerteten möglich ist (offene Portale). Einleitung und Erster Teil Nach einer Einleitung und Einführung in die Problematik werden im ersten Teil die verschie-denen Arten der Bewertungsportale kurz vorgestellt. Die Arbeit unterscheidet dabei zwischen so genannten geschlossenen Portalen (transaktionsbegleitende Portale wie eBay oder Ama-zon) auf der einen Seite und offenen Portalen (Produktbewertungsportale, Hotelbewertungs-portale und Dienstleistungsbewertungsportale) auf der anderen Seite. Zweiter Teil Im zweiten Teil geht die Arbeit der Frage nach, ob die Veröffentlichung der durch die Nutzer abgegebenen Bewertungen auf den offenen Portalen überhaupt erlaubt ist oder ob hier mögli-cherweise das Persönlichkeitsrecht der Betroffenen und hier insbesondere das Recht auf in-formationelle Selbstbestimmung in Form der datenschutzrechtlichen Bestimmungen die freie Bewertungsabgabe unzulässig werden lässt. Untersucht werden in diesem Zusammenhang im einzelnen Löschungs- bzw. Beseitigungsan-sprüche der Betroffenen aus § 35 Abs. 2 Satz 2 Nr. 1 BDSG bzw. §§ 1004 i. V. m. 823 Abs. 1 BGB (allgemeines Persönlichkeitsrecht). Die Arbeit kommt in datenschutzrechtlicher Hinsicht zu dem Schluss, dass die Bewertungen personenbezogene Daten darstellen, die den datenschutzrechtlichen Bestimmungen unterlie-gen und eine Veröffentlichung der Bewertungen nach dem im deutschen Recht geltenden da-tenschutzrechtlichen Erlaubnisvorbehalt grundsätzlich nicht in Betracht kommt. Vor dem Hintergrund dieser den tatsächlichen Gegebenheiten und Interessenlagen im Internet nicht mehr gerecht werdenden Gesetzeslage diskutiert der Autor sodann die Frage, ob die datenschutzrechtlichen Bestimmungen in diesen Fällen eine Einschränkung durch die grund-gesetzlich garantierten Informationsfreiheiten erfahren müssen. Nach einer ausführlichen Diskussion der Rechtslage, in der auf die Besonderheiten der ein-zelnen Portale eingegangen wird, kommt die Arbeit zu dem Schluss, dass die Frage der Zuläs-sigkeit der Veröffentlichung der Bewertungen von einer Interessenabwägung im Einzelfall abhängt. Als Grundsatz kann jedoch gelten: Ist die bewertete Tätigkeit oder Person in Bezug auf die bewertete Eigenschaft ohnehin einer breiten Öffentlichkeit zugänglich, erscheint eine Veröffentlichung der Daten nicht bedenklich. Dagegen wird man einen Löschungs- bzw. Be-seitigungsanspruch bejahen müssen für die Bewertungen, die Tätigkeiten oder Eigenschaften des Bewerteten, die in keinem Zusammenhang mit ihm als öffentlicher Person stehen, betref-fen. Anschließend geht die Arbeit auf die Persönlichkeitsrechte der Betroffenen und der sich hier-aus ergebenden Beseitigungs- und Unterlassungsansprüchen gemäß der §§ 1004 Abs. 1, 823 Abs. 1 BGB ein, verneint jedoch wegen dem Vorrang der spezialgesetzlichen Bestimmungen aus dem Bundesdatenschutzgesetz letztlich eine Anwendbarkeit der Anspruchsgrundlagen. Schließlich wird in diesem Teil noch kurz auf die Zulässigkeit der Bewertung juristischer Per-sonen eingegangen, die im Grundsatz bejaht wird. Dritter Teil Sofern der zweite Teil der Arbeit zu dem Schluss kommt, dass die Veröffentlichung der Be-wertungen zulässig ist, stellt sich im dritten Teil die Frage, welche Möglichkeiten das Recht dem Bewerteten bietet, gegen negative Bewertungen vorzugehen. Untersucht werden, dabei datenschutzrechtliche, deliktsrechtliche, vertragliche und wettbe-werbsrechtliche Ansprüche. Ein Schwerpunkt dieses Teils liegt in der Darstellung der aktuellen Rechtsprechung zu der Frage wann eine Bewertung eine Tatsachenbehauptung bzw. ein Werturteil darstellt und den sich hieraus ergebenden unterschiedlichen Konsequenzen für den Unterlassungsanspruch des Betroffenen. Diejenigen Bewertungen, die eine Meinungsäußerung darstellen, unterstehen dem starken Schutz der Meinungsäußerungsfreiheit. Grenze der Zulässigkeit sind hier im wesentlichen nur die Schmähkritik und Beleidigung. An Tatsachenbehautpungen dagegen sind schärfere Maßstäbe anzulegen. In diesem Zusammenhang wird der Frage nachgegangen, ob vertragliche Beziehungen zwischen den Beteiligten (Bewertenden, Bewertete und Portalbetreiber) die Meinungsäußerungsfreiheit einschränkt, was jedenfalls für die geschlossenen Portale bejaht wird. Vierter Teil Der vierte Teil der Arbeit beschäftigt sich mit den „Zu-gut-Bewertungen“. Es geht dabei um wettbewerbsrechtliche Ansprüche im Falle verdeckter Eigenbewertungen. Solche Eigenbewertungen, die unter dem Deckmantel der Pseudonymität als Werbemittel zur Imageverbesserung in entsprechenden Bewertungsportale verbreitet werden ohne den wahren Autor erkennen zu lassen, sind in wettbewerbsrechtlicher Hinsicht grundsätzlich unzulässig. Fünfter Teil Im letzten Teil der Arbeit wird schließlich der Frage nach der Verantwortlichkeit der Portal-betreiber für rechtswidrige Bewertungen nachgegangen. Zunächst wird die Feststellung getroffen, dass es sich bei den von den Nutzern abgegebenen Bewertungen um fremde Inhalte handelt und somit die Haftungsprivilegierungen der § 11 Abs. 1 TDG, § 9 Abs. 1 MDStV eingreifen, wonach die Forenbetreiber für die rechtswidrigen Bewertungen jedenfalls so lange nicht verantwortlich sind, solange sie hiervon keine Kenntnis haben. Da von dieser Haftungsprivilegierung nach der Rechtsprechung des Bundesgerichtshofs die Störerhaftung nicht umfasst ist, wird die Reichweite die Forenbetreiber aus der Störerhaftung treffenden Überwachungspflichten diskutiert. Die Arbeit kommt hier zu dem Ergebnis, dass in den Fällen, in denen dem Adressaten der Bewertung die Identität des Verfassers bekannt ist, sich die Verpflichtungen der Forenbetrei-ber auf die Beseitigung bzw. Sperrung der rechtswidrigen Bewertung beschränken. Sofern die Identität des Bewertenden unbekannt ist, haften die Forenbetreiber als Mitstörer und dem Be-troffenen stehen Unterlassungsansprüche auch gegen die Forenbetreiber zu.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Coupled-cluster theory provides one of the most successful concepts in electronic-structure theory. This work covers the parallelization of coupled-cluster energies, gradients, and second derivatives and its application to selected large-scale chemical problems, beside the more practical aspects such as the publication and support of the quantum-chemistry package ACES II MAB and the design and development of a computational environment optimized for coupled-cluster calculations. The main objective of this thesis was to extend the range of applicability of coupled-cluster models to larger molecular systems and their properties and therefore to bring large-scale coupled-cluster calculations into day-to-day routine of computational chemistry. A straightforward strategy for the parallelization of CCSD and CCSD(T) energies, gradients, and second derivatives has been outlined and implemented for closed-shell and open-shell references. Starting from the highly efficient serial implementation of the ACES II MAB computer code an adaptation for affordable workstation clusters has been obtained by parallelizing the most time-consuming steps of the algorithms. Benchmark calculations for systems with up to 1300 basis functions and the presented applications show that the resulting algorithm for energies, gradients and second derivatives at the CCSD and CCSD(T) level of theory exhibits good scaling with the number of processors and substantially extends the range of applicability. Within the framework of the ’High accuracy Extrapolated Ab initio Thermochemistry’ (HEAT) protocols effects of increased basis-set size and higher excitations in the coupled- cluster expansion were investigated. The HEAT scheme was generalized for molecules containing second-row atoms in the case of vinyl chloride. This allowed the different experimental reported values to be discriminated. In the case of the benzene molecule it was shown that even for molecules of this size chemical accuracy can be achieved. Near-quantitative agreement with experiment (about 2 ppm deviation) for the prediction of fluorine-19 nuclear magnetic shielding constants can be achieved by employing the CCSD(T) model together with large basis sets at accurate equilibrium geometries if vibrational averaging and temperature corrections via second-order vibrational perturbation theory are considered. Applying a very similar level of theory for the calculation of the carbon-13 NMR chemical shifts of benzene resulted in quantitative agreement with experimental gas-phase data. The NMR chemical shift study for the bridgehead 1-adamantyl cation at the CCSD(T) level resolved earlier discrepancies of lower-level theoretical treatment. The equilibrium structure of diacetylene has been determined based on the combination of experimental rotational constants of thirteen isotopic species and zero-point vibrational corrections calculated at various quantum-chemical levels. These empirical equilibrium structures agree to within 0.1 pm irrespective of the theoretical level employed. High-level quantum-chemical calculations on the hyperfine structure parameters of the cyanopolyynes were found to be in excellent agreement with experiment. Finally, the theoretically most accurate determination of the molecular equilibrium structure of ferrocene to date is presented.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Im Rahmen dieser Promotionsarbeit wurden Fragestellungen der troposphärischen Ozonproduktion, des photostationären Gleichgewicht des NO2-NO-O3-ROx-Systems, des Einflusses von heterogenen Reaktionen an Mineralstauboberflächen und der Bedeutung lokaler anthropogener Emissionen für Spurengasmessungen an einem Gebirgsobservatorium untersucht. Dazu wurde insbesondere ein atmosphärenchemisch-meteorologischer Datensatz ausgewertet, welcher während der Feldmesskampagne MINATROC II im Juli/August 2002 am Global Atmosphere Watch (GAW) Observatorium Izana (2360m über NN) auf Teneriffa gewonnen wurde. Der Datensatz enthält Messdaten von Aerosolen, Spurengasen, Strahlungsgrößen und meteorologischen Parametern. Eine dichte Sahara-Staubwolke passierte die Messstation zwischen dem 28. und 31.07.2002. Die Mischungsverhältnisse von O3, H2O2, NOx und ROx zeigten während dieses Ereignisses Abnahmen zwischen 10% und 50%. Insbesondere infolge der Reduktion von NO und HO2 wurde eine deutliche Verringerung der Netto-Ozon-Produktion in der Staubwolke berechnet. Die Bewertung der verschiedenen Terme der Ozonproduktion bzw. –vernichtung zeigte relativ geringe Beiträge der einzelnen photochemischen Verlustreaktionen am Ozonbudget. Im Rahmen einer Boxmodellstudie, welche die Eingangsdaten von MINATROC II verwendete, wurde ein Vergleich zwischen Simulation und Messung kurzlebiger Spurengase angestellt. Die Modellrechnungen weisen darauf hin, dass die reduzierten H2O2-Mischungsverhältnisse in der Sahara-Staubwolke unter Berücksichtigung heterogener Reaktionen von HO2 bzw. H2O2 an Stauboberflächen erklärt werden können. Die Betrachtungen zum photostationären Gleichgewicht des NO2-NO-O3-ROx-Systems ergeben hauptsächlich stark überhöhte Leighton-Verhältnisse. Die Abweichungen der Messdaten vom photostationären Gleichgewichtszustand sind dabei zum Verschmutzungsgrad der Atmosphäre antikorreliert. Eine Reihe potentieller Einflüsse auf das NO2-NO-O3-ROx-System wurde diskutiert, wobei gezeigt werden konnte, dass das bisherige Betrachtungsmodell nicht ausreicht, um die beobachteten Abweichungen vom photostationären Gleichgewicht zu erklären. Während für die Nachtmessungen von MINATROC II Bedingungen der freien Troposphäre vorlagen, waren die Messungen am Tage von der Kopplung zwischen photochemischer Aktivität und thermisch getriebener Hangströmung betroffen. Die zum Messort gelangte anthropogen beeinflusste Grenzschichtluft konnte dabei auf maximalen Mischungsanteilen zwischen 15% und 85% quantifiziert werden. Abschließend wurden verschiedene Aspekte der Quellen und der Verteilung anthropogener Verschmutzungen auf Teneriffa im Zusammenhang der zuvor behandelten Fragen diskutiert.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Except the article forming the main content most HTML documents on the WWW contain additional contents such as navigation menus, design elements or commercial banners. In the context of several applications it is necessary to draw the distinction between main and additional content automatically. Content extraction and template detection are the two approaches to solve this task. This thesis gives an extensive overview of existing algorithms from both areas. It contributes an objective way to measure and evaluate the performance of content extraction algorithms under different aspects. These evaluation measures allow to draw the first objective comparison of existing extraction solutions. The newly introduced content code blurring algorithm overcomes several drawbacks of previous approaches and proves to be the best content extraction algorithm at the moment. An analysis of methods to cluster web documents according to their underlying templates is the third major contribution of this thesis. In combination with a localised crawling process this clustering analysis can be used to automatically create sets of training documents for template detection algorithms. As the whole process can be automated it allows to perform template detection on a single document, thereby combining the advantages of single and multi document algorithms.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ein wichtiger Baustein für den langfristigen Erfolg einer Lebertransplantation ist die Compliance mit der lebenslang einzunehmenden immunsuppressiven Therapie. Im Rahmen der vorliegenden Arbeit wurde erstmals mittels MEMS® die Compliance bei lebertransplantierten Patienten untersucht, deren Transplantation einige Jahre zurücklag. Rekrutiert wurden Patienten, die vor 2, 5, 7 oder 10 Jahren (Gruppe 2 y.p.t., 5 y.p.t., 7 y.p.t., 10 y.p.t.) in der Universitätsmedizin Mainz lebertransplantiert wurden. 39 Patienten nahmen an der prospektiven Anwendungsbeobachtung teil. Die Compliance wurde mittels MEMS® über eine Beobachtungszeit von 6 Monaten erfasst. Bei der MEMS®-Auswertung war zu vermuten, dass 10 Patienten diese nicht wie vorgesehen verwendet hatten. Folglich konnten die mittels MEMS® gemessenen Compliance-Parameter nur für 29 Patienten valide ermittelt werden. Die mittlere Dosing Compliance betrug 81 ± 21 %, wobei die Gruppe 2 y.p.t. mit 86 ± 14 % bessere Werte zu verzeichnen hatte als die Gruppe 5 y.p.t. (75 ± 27 %) und 7 y.p.t. (74 ± 28 %). Die Ergebnisse waren jedoch nicht signifikant unterschiedlich (p=0,335, Kruskal-Wallis-Test). Unter Einbeziehung aller mittels MEMS® gemessenen Compliance-Parameter wurden 19 von 29 Patienten (66 %) als compliant eingestuft. Bei der Analyse der Gesamtcompliance basierend auf den subjektiven Compliance-Messmethoden (Morisky-Fragebogen, MESI-Fragebogen, Selbsteinschätzung), der Arzneimittel-Blutspiegel und der Anzahl an Abstoßungsreaktionen, in der alle 39 Patienten einbezogen werden konnten, wurden 35 Patienten (90 %) als compliant eingestuft. rnIm zweiten Teil der Arbeit wurde die Etablierung und Bewertung eines intersektoralen Pharmazeutischen Betreuungskonzepts für lebertransplantierte Patienten untersucht. Erstmals wurden anhand eines entwickelten schnittstellenübergreifenden, integrierten Betreuungskonzepts niedergelassene Apotheker in die Pharmazeutische Betreuung lebertransplantierter Patienten eingebunden. 20 Patienten wurden rekrutiert und während ihres stationären Aufenthaltes nach Transplantation pharmazeutisch betreut. Die Betreuung umfasste eine intensive Patientenschulung mit drei bis vier Gesprächen durch einen Krankenhausapotheker. Während des stationären Aufenthaltes wurden arzneimittelbezogene Probleme erkannt, gelöst und dokumentiert. Bei Entlassung stellte der Krankenhausapotheker einen Medikationsplan für den Hausarzt sowie für den niedergelassenen Apotheker aus und führte mit den Patienten ein ausführliches Entlassungsgespräch. Darüber hinaus wurden den Patienten Arzneimitteleinnahmepläne und eine Patienteninformation über ihr immunsuppressives Arzneimittel übergeben. 15 Patienten konnten daraufhin ambulant von niedergelassenen Apothekern pharmazeutisch weiterbetreut werden. Das kooperierende pharmazeutische Personal wurde durch ein eigens für die Studie erstelltes Manual zur Pharmazeutischen Betreuung lebertransplantierter Patienten geschult und unterstützt. Die niedergelassenen Apotheker sollten die Patienten in ihrer Arzneimitteltherapie begleiten, indem Beratungsgespräche geführt und arzneimittelbezogene Probleme erkannt und gelöst wurden. Die Nutzeffekte der intensiven Pharmazeutischen Betreuung konnte anhand verschiedener Erhebungsinstrumente dargelegt werden. Im Ergebnis resultierte eine hohe Zufriedenheit der Patienten und Apotheker mit dem Betreuungskonzept, die mittels Selbstbeurteilungsfragebögen ermittelt wurde. Die Compliance der Patienten wurde anhand des Morisky- und MESI-Fragebogens, der Selbsteinschätzung der Patienten, Blutspiegelbestimmungen sowie der Einschätzung durch den niedergelassenen Apotheker bestimmt. 86 % der Patienten wurden als compliant eingeordnet. Die Kenntnisse der Patienten über ihre immunsuppressive Therapie, welche anhand von Interviews erfragt wurden, lagen auf einem sehr hohen Niveau. Abschließend kann festgestellt werden, dass die Pharmazeutische Betreuung lebertransplantierter Patienten in den niedergelassenen Apotheken durchführbar ist. Anhand der Dokumentationsprotokolle lässt sich allerdings nur sehr schwer beurteilen, in welchem Maße die Betreuung tatsächlich erfolgte. Das tatsächliche vorliegen einer mangelnden Betreuung oder aber eine lückenhafte Dokumentation der Betreuungsleistung war nicht zu differenzieren. Ein limitierender Faktor für die intensivierte Betreuung ist sicherlich der erhebliche Aufwand für nur einen Patienten mit einem seltenen Krankheitsbild. Das Erkennen und Lösen von 48 ABP durch den Krankenhausapotheker und 32 ABP durch die niedergelassenen Apotheker, d. h. insgesamt 4,5 ABP pro Patient zeigt, dass die Pharmazeutische Betreuung einen wichtigen Beitrag für eine qualitätsgesicherte Arzneimitteltherapie leistet. Die intersektorale Pharmazeutische Betreuung stellt eine wesentliche Hilfe und Unterstützung der Patienten im sicheren Umgang mit ihrer Arzneimitteltherapie dar.rn