209 resultados para Bewertung


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die vorliegende Arbeit hatte im Sinne eines geographischen Forschungsvorhabens zum Ziel, die Auswirkungen des Sporttourismus auf eine Fremdenverkehrsregion und die daraus resultierenden spezifischen, aus der differenzierten Nachfrage und den Verhaltensweisen der Sporttouristen entsprechenden raumrelevanten Veränderungen in Form einer komplexen Raumanalyse – im Kontext mit dem holistischen Konzept der nachhaltigen Entwicklung – zu erforschen und einer Bewertung zu unterziehen. Um allerdings das bis dato in der wissenschaftlichen und in der geographischen Diskussion nur unzureichend zur Kenntnis genommene Phänomen Sporttourismus in seiner Wirkungsdimension bzw. im Rahmen einer ganzheitlichen Raumanalyse auf das Konzept der nachhaltigen Entwicklung übertragen zu können, bedurfte es eines interdisziplinären Ansatzes sowie einer holistischen Interpretation des Konzeptes der nachhaltigen Entwicklung. Denn nach Auffassung des Verfassers kann eine nachhaltige sporttouristische Entwicklung in Fremdenverkehrsregionen nur dann erreicht werden, wenn parallel ökologisches Gleichgewicht, ökonomische Sicherheit und soziale Gerechtigkeit unter nachhaltig institutionellen Rahmenbedingungen langfristig für heutige wie auch zukünftige Generationen gleichrangig angestrebt werden. Die größte Herausforderung bestand jedoch darin, festzustellen, inwiefern sich das komplexe und interdisziplinäre Thema Sporttourismus auf das noch unzureichend operationalisierte Leitbild der nachhaltigen Entwicklung übertragen lässt, um die Auswirkungen einzelner Sporttourismusformen in einer Fremdenverkehrsregion messen, interpretieren, darstellen und bewerten zu können. Denn nach wie vor besteht das Hauptproblem dieses theoretischen Leitbildes darin, wie es in die Praxis umgesetzt werden kann bzw. mit welchen Indikatoren und Forschungsmethoden eine nachhaltige Entwicklung in seinen Auswirkungen überhaupt gemessen werden kann. Mittels intensiver interdisziplinärer Studien gelang es jedoch, ein sich auf unterschiedliche Untersuchungsgebiete und Sporttourismusformen übertragbares, variabel einsetzbares Indikatorensystem zu entwickeln, mit dessen Hilfe und der zur Operationalisierung notwendigen Auswahl eines vielfältigen Spektrums geeigneter empirischer Forschungsmethoden die gruppenspezifischen Auswirkungen einzelner Sporttourismusformen auf dimensionaler Ebene (ökologische, ökonomische, soziokulturelle und institutionelle Dimension), dem Konzept der nachhaltigen Entwicklung entsprechend, analysiert und bewertet werden konnten. Die zusammenfassende Erkenntnis der auf allen Dimensionen durchgeführten Analyse unterschiedlicher Sporttourismusformen führt zu dem Ergebnis, dass es sich beim Sporttourismus um ein komplexes Phänomen mit unterschiedlichen Nutzungsintensitäten, räumlichen Konzentrationen und Ausprägungsformen handelt, welches eine individuelle und ganzheitliche Betrachtungsweise im regionalen Kontext erfordert, um dem Anspruch einer mehrdimensionalen nachhaltigen Entwicklung gerecht zu werden. Generalisierende Aussagen bzgl. einer nachhaltigen Entwicklung einzelner Sporttourismusformen können nicht getroffen werden, vielmehr müssen – wie mit Hilfe des in der vorliegenden Studie zum Einsatz gekommenen Indikatorensystems und Operationalisierungsansatzes – die individuellen Auswirkungen einzelner Sporttourismusformen auf dimensionaler Ebene analysiert werden, den politischen und naturräumlichen Rahmenbedingungen des jeweiligen Zielgebietes entsprechend angepasst, auf den Nutzen für die einheimische Bevölkerung hin überprüft und gegebenenfalls Maßnahmen ergriffen werden, um dem Anspruch einer nachhaltigen Entwicklung auf allen Dimensionen gerecht zu werden. Hierbei kommt vor allem der institutionellen Organisation auf nationalstaatlicher Ebene die entscheidende Funktion zu, da der individuelle ökonomische Profit der am Sporttourismus beteiligten Personen im Vordergrund steht und – bei einer nicht existierenden Einbindung der sporttouristischen Aktivitäten in einen nachhaltigen Entwicklungsplan sowie dessen Kontrolle – negative Auswirkungen auf anderer dimensionaler Ebene, insbesondere auf ökologischer Ebene, nach sich zieht und somit den Erhalt des Tourismus auf lange Sicht hin gefährdet.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Messung der Stärke von Empfindungen hat in der Psychologie eine lange Tradition, die bis in die Zeit der Entstehung der Psychologie als eine eigenständige Wissenschaft gegen Ende des 19. Jahrhunderts zurückreicht. Gustav Theodor Fechner verband die Beobachtung Webers der Konstanz des Koeffizienten des eben merklichen Unterschieds zu der Vergleichsintensität (sog. "Weber-Quotient") mit der Annahme einer sensorischen Schwelle, und entwickelte daraus erstmals eine Skala für die Stärke von Empfindungen. Die Fechner-Skala verwendet die Anzahl sukzessiver Schwellenschritte als natürliche, psychologische Einheit. Die Stärke einer Empfindung für eine gegebene Reizintensität wird ausgedrückt als die Anzahl von Schwellenschritten, die man gehen muss, um von keiner Empfindung bis zur in Frage stehenden Empfindung zu gelangen. Die Funktion, die den Zusammenhang von Reizintensität und der Anzahl nötiger Schwellenschritte beschreibt, ist stets logarithmisch und über sukzessive Schwellenmessungen für Reize aus den verschiedensten Sinnesmodalitäten bestimmbar. Derart sich ergebende Skalierungen heißen "indirekt", weil die in Frage stehende Reizintensität selbst nicht von der Urteilsperson bewertet wird. Intensitäten sind vom Urteiler nur mit anderen Intensitäten in Bezug auf ein "stärker" oder "schwächer", also ordinal, zu vergleichen. Indirekte Skalierungsmethoden eignen sich insbesondere, wenn der Reizeindruck flüchtig und von der absoluten Stärke her schwer durch den Urteiler zu quantifizieren ist. Ein typisches Beispiel hierfür ist die Auffälligkeit (Salienz) von visuellen Objekten, die in zufällig wechselnde Hintergründe eingebettet sind und dem Betrachter nur als ein rasches raumzeitliches Aufblitzen präsentiert werden. Die Stärke des Unterschieds in Merkmalen wie Helligkeit, Farbe, Orientierung, Schattierung, Form, Krümmung, oder Bewegung bestimmt das Ausmaß der Salienz von Objekten. Obschon eine Fülle von Arbeiten existiert zu der Frage, welche Merkmale und deren Kombinationen ohne Wissen des Ortes ihrer Präsentation automatisch starke Salienz ("Pop-Out") erzeugen, existieren bislang keine systematischen Versuche, die Salienz von Merkmalen für einen weiten Bereich von Merkmalsunterschieden zu erfassen und vergleichbar zu machen. Indirekte Skalierungen liegen vor für die Merkmale Kontrast (Legge und Foley, 1980) und Orientierung (Motoyoshi und Nishida, 2001). Ein Vergleich der Salienz über mehrere Merkmale und der Nachweis, dass die Salienz eine eigene, von der Merkmalsdimension unabhängige sensorische Qualität ist, steht aber bislang aus. In der vorliegenden Arbeit wird gezeigt, dass der Unterschied von Objekten zur einbettenden Umgebung hinsichtlich visueller Merkmale zu Salienz führt und diese Salienz unabhängig von dem sie erzeugenden Merkmal der Stärke nach skalierbar ist. Es wird ferner gezeigt, dass die Einheiten der für zwei Merkmale erhobenen indirekten Skalierungsfunktionen in einem absoluten Sinne gleich sind, solange sichergestellt ist, dass (i) keine alternativen Hinweisreize existieren und nur der reine Merkmalsunterschied von Objekt und Umgebung bewertet wird und (ii) das sensorische Rauschen in den aktivierten Merkmalskanälen für beide Merkmale gleich ist. Für diesen Aufweis wurden exemplarisch die Merkmale Orientierung und Ortsfrequenz ausgewählt und die Salienz ihrer Merkmalskontraste über Naka-Rushton-Funktionen, gewonnen aus den zugrundeliegenden Salienz-Inkrementschwellenmessungen, indirekt skaliert. Für das Merkmal Ortsfrequenz liegt hiermit erstmals eine indirekte Skalierung vor. Hierfür musste eine spezielle Messtechnik entwickelt werden, die die Bewertung reiner Ortsfrequenzunterschiede, frei von konfundierenden absoluten Ausprägungen der Ortsfrequenzen, sicherstellt. Die Methode ist in Kapitel 7 dargestellt. Experimente, die die konfundierende Wirkung absoluter Merkmalsausprägungen auf die Salienzmessung demonstrieren, sind in Kapitel 6 dargestellt. In Kapitel 8 findet sich ein empirischer Abgleich der Ergebnisse von Inkrement- und Dekrementschwellenmessungen, eine Messtechnik, die zur Erfassung von Unterschiedsschwellen im Extrembereich der Orientierungsunterschiede von 90° nötig ist. Kapitel 9 enthält den empirischen Aufweis der Transitivität der Gleichheitsrelation für Salienzmessungen von Orientierung und Ortsfrequenz durch Abgleich mit einem dritten Merkmal und erbringt damit den Beleg der merkmalsunabhängigen Erfassung von Auffälligkeit über die indirekte Skalierungsmethodik. Ferner wird dort die Wirksamkeit der Grundsalienz von Mustern, gegeben über externes Rauschen in den Merkmalen (sog. "Merkmalsjitter") für die Verschiebung des Nullpunktes der Skalierungsfunktion aufgezeigt. Im letzten Experiment (Kapitel 10) wird dann die Skalierung von Orientierung und Ortsfrequenz bei gleicher Grundsalienz der Muster verglichen und gezeigt, dass beide Skalen in einem absoluten Sinne gleiche Einheiten aufweisen (also gleiche Skalenzahlen gleiche sensorische Auffälligkeiten anzeigen, obwohl sie von verschiedenen Merkmalen stammen), wenn der Effekt des sensorischen Rauschens, der im Merkmal Orientierung nicht über die verschiedenen Schwellenschritte konstant ist, kompensiert wird. Die Inkonstanz des Effektes des sensorischen Rauschens im Merkmal Orientierung wird über die Veränderung der Steigung der psychometrischen Präferenzfunktion für die Vergleichsurteile der Orientierungssalienz für eine fest vorgegebene Ortsfrequenzsalienz greifbar, und der Effekt der Steigungsveränderung kompensiert exakt die Nichtlinearität in der für beide Merkmale erhobenen Salienz-Matchingfunktion. Im letzten Kapitel wird ein Ausblick auf eine mögliche Modellierung der Salienzfunktionen über klassische Multikanal-Feedforwardmodelle gegeben. In den ersten fünf Kapiteln sind einführend die Gebiete der indirekten Skalierung, der Merkmalssalienz und der Texturtrennung im menschlichen visuellen System dargestellt.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Recent developments in the theory of plasma-based collisionally excited x-ray lasers (XRL) have shown an optimization potential based on the dependence of the absorption region of the pumping laser on its angle of incidence on the plasma. For the experimental proof of this idea, a number of diagnostic schemes were developed, tested, qualified and applied. A high-resolution imaging system, yielding the keV emission profile perpendicular to the target surface, provided positions of the hottest plasma regions, interesting for the benchmarking of plasma simulation codes. The implementation of a highly efficient spectrometer for the plasma emission made it possible to gain information about the abundance of the ionization states necessary for the laser action in the plasma. The intensity distribution and deflection angle of the pump laser beam could be imaged for single XRL shots, giving access to its refraction process within the plasma. During a European collaboration campaign at the Lund Laser Center, Sweden, the optimization of the pumping laser incidence angle resulted in a reduction of the required pumping energy for a Ni-like Mo XRL, which enabled the operation at a repetition rate of 10 Hz. Using the experiences gained there, the XRL performance at the PHELIX facility, GSI Darmstadt with respect to achievable repetition rate and at wavelengths below 20 nm was significantly improved, and also important information for the development towards multi-100 eV plasma XRLs was acquired. Due to the setup improvements achieved during the work for this thesis, the PHELIX XRL system now has reached a degree of reproducibility and versatility which is sufficient for demanding applications like the XRL spectroscopy of heavy ions. In addition, a European research campaign, aiming towards plasma XRLs approaching the water-window (wavelengths below 5 nm) was initiated.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Verifikation numerischer Modelle ist für die Verbesserung der Quantitativen Niederschlagsvorhersage (QNV) unverzichtbar. Ziel der vorliegenden Arbeit ist die Entwicklung von neuen Methoden zur Verifikation der Niederschlagsvorhersagen aus dem regionalen Modell der MeteoSchweiz (COSMO-aLMo) und des Globalmodells des Europäischen Zentrums für Mittelfristvorhersage (engl.: ECMWF). Zu diesem Zweck wurde ein neuartiger Beobachtungsdatensatz für Deutschland mit stündlicher Auflösung erzeugt und angewandt. Für die Bewertung der Modellvorhersagen wurde das neue Qualitätsmaß „SAL“ entwickelt. Der neuartige, zeitlich und räumlich hoch-aufgelöste Beobachtungsdatensatz für Deutschland wird mit der während MAP (engl.: Mesoscale Alpine Program) entwickelten Disaggregierungsmethode erstellt. Die Idee dabei ist, die zeitlich hohe Auflösung der Radardaten (stündlich) mit der Genauigkeit der Niederschlagsmenge aus Stationsmessungen (im Rahmen der Messfehler) zu kombinieren. Dieser disaggregierte Datensatz bietet neue Möglichkeiten für die quantitative Verifikation der Niederschlagsvorhersage. Erstmalig wurde eine flächendeckende Analyse des Tagesgangs des Niederschlags durchgeführt. Dabei zeigte sich, dass im Winter kein Tagesgang existiert und dies vom COSMO-aLMo gut wiedergegeben wird. Im Sommer dagegen findet sich sowohl im disaggregierten Datensatz als auch im COSMO-aLMo ein deutlicher Tagesgang, wobei der maximale Niederschlag im COSMO-aLMo zu früh zwischen 11-14 UTC im Vergleich zu 15-20 UTC in den Beobachtungen einsetzt und deutlich um das 1.5-fache überschätzt wird. Ein neues Qualitätsmaß wurde entwickelt, da herkömmliche, gitterpunkt-basierte Fehlermaße nicht mehr der Modellentwicklung Rechnung tragen. SAL besteht aus drei unabhängigen Komponenten und basiert auf der Identifikation von Niederschlagsobjekten (schwellwertabhängig) innerhalb eines Gebietes (z.B. eines Flusseinzugsgebietes). Berechnet werden Unterschiede der Niederschlagsfelder zwischen Modell und Beobachtungen hinsichtlich Struktur (S), Amplitude (A) und Ort (L) im Gebiet. SAL wurde anhand idealisierter und realer Beispiele ausführlich getestet. SAL erkennt und bestätigt bekannte Modelldefizite wie das Tagesgang-Problem oder die Simulation zu vieler relativ schwacher Niederschlagsereignisse. Es bietet zusätzlichen Einblick in die Charakteristiken der Fehler, z.B. ob es sich mehr um Fehler in der Amplitude, der Verschiebung eines Niederschlagsfeldes oder der Struktur (z.B. stratiform oder kleinskalig konvektiv) handelt. Mit SAL wurden Tages- und Stundensummen des COSMO-aLMo und des ECMWF-Modells verifiziert. SAL zeigt im statistischen Sinne speziell für stärkere (und damit für die Gesellschaft relevante Niederschlagsereignisse) eine im Vergleich zu schwachen Niederschlägen gute Qualität der Vorhersagen des COSMO-aLMo. Im Vergleich der beiden Modelle konnte gezeigt werden, dass im Globalmodell flächigere Niederschläge und damit größere Objekte vorhergesagt werden. Das COSMO-aLMo zeigt deutlich realistischere Niederschlagsstrukturen. Diese Tatsache ist aufgrund der Auflösung der Modelle nicht überraschend, konnte allerdings nicht mit herkömmlichen Fehlermaßen gezeigt werden. Die im Rahmen dieser Arbeit entwickelten Methoden sind sehr nützlich für die Verifikation der QNV zeitlich und räumlich hoch-aufgelöster Modelle. Die Verwendung des disaggregierten Datensatzes aus Beobachtungen sowie SAL als Qualitätsmaß liefern neue Einblicke in die QNV und lassen angemessenere Aussagen über die Qualität von Niederschlagsvorhersagen zu. Zukünftige Anwendungsmöglichkeiten für SAL gibt es hinsichtlich der Verifikation der neuen Generation von numerischen Wettervorhersagemodellen, die den Lebenszyklus hochreichender konvektiver Zellen explizit simulieren.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In der hier vorliegenden Arbeit wurde am Beispiel der Kraut- und Knollenfäule an Kartoffeln Phytophthora infestans und des Kartoffelkäfers Leptinotarsa decemlineata untersucht, ob durch den Einsatz von Geographischen Informationssystemen (GIS) landwirtschaftliche Schader¬reger¬prognosen für jeden beliebigen Kartoffelschlag in Deutschland erstellt werden können. Um dieses Ziel zu erreichen, wurden die Eingangsparameter (Temperatur und relative Luftfeuchte) der Prognosemodelle für die beiden Schaderreger (SIMLEP1, SIMPHYT1, SIMPHYT3 and SIMBLIGHT1) so aufbereitet, dass Wetterdaten flächendeckend für Deutschland zur Verfügung standen. Bevor jedoch interpoliert werden konnte, wurde eine Regionalisierung von Deutschland in Interpolationszonen durchgeführt und somit Naturräume geschaffen, die einen Vergleich und eine Bewertung der in ihnen liegenden Wetterstationen zulassen. Hierzu wurden die Boden-Klima-Regionen von SCHULZKE und KAULE (2000) modifiziert, an das Wetterstationsnetz angepasst und mit 5 bis 10 km breiten Pufferzonen an der Grenze der Interpolationszonen versehen, um die Wetterstationen so häufig wie möglich verwenden zu können. Für die Interpolation der Wetterdaten wurde das Verfahren der multiplen Regression gewählt, weil dieses im Vergleich zu anderen Verfahren die geringsten Abweichungen zwischen interpolierten und gemessenen Daten aufwies und den technischen Anforderungen am besten entsprach. Für 99 % aller Werte konnten bei der Temperaturberechnung Abweichungen in einem Bereich zwischen -2,5 und 2,5 °C erzielt werden. Bei der Berechnung der relativen Luftfeuchte wurden Abweichungen zwischen -12 und 10 % relativer Luftfeuchte erreicht. Die Mittelwerte der Abweichungen lagen bei der Temperatur bei 0,1 °C und bei der relativen Luftfeuchte bei -1,8 %. Zur Überprüfung der Trefferquoten der Modelle beim Betrieb mit interpolierten Wetterdaten wurden Felderhebungsdaten aus den Jahren 2000 bis 2007 zum Erstauftreten der Kraut- und Knollenfäule sowie des Kartoffelkäfers verwendet. Dabei konnten mit interpolierten Wetterdaten die gleichen und auch höhere Trefferquoten erreicht werden, als mit der bisherigen Berechnungsmethode. Beispielsweise erzielte die Berechnung des Erstauftretens von P. infestans durch das Modell SIMBLIGHT1 mit interpolierten Wetterdaten im Schnitt drei Tage geringere Abweichungen im Vergleich zu den Berechnungen ohne GIS. Um die Auswirkungen interpretieren zu können, die durch Abweichungen der Temperatur und der relativen Luftfeuchte entstanden wurde zusätzlich eine Sensitivitätsanalyse zur Temperatur und relativen Luftfeuchte der verwendeten Prognosemodelle durchgeführt. Die Temperatur hatte bei allen Modellen nur einen geringen Einfluss auf das Prognoseergebnis. Veränderungen der relativen Luftfeuchte haben sich dagegen deutlich stärker ausgewirkt. So lag bei SIMBLIGHT1 die Abweichung durch eine stündliche Veränderung der relativen Luftfeuchte (± 6 %) bei maximal 27 Tagen, wogegen stündliche Veränderungen der Temperatur (± 2 °C) eine Abweichung von maximal 10 Tagen ausmachten. Die Ergebnisse dieser Arbeit zeigen, dass durch die Verwendung von GIS mindestens die gleichen und auch höhere Trefferquoten bei Schaderregerprognosen erzielt werden als mit der bisherigen Verwendung von Daten einer nahegelegenen Wetterstation. Die Ergebnisse stellen einen wesentlichen Fortschritt für die landwirtschaftlichen Schaderregerprognosen dar. Erstmals ist es möglich, bundesweite Prognosen für jeden beliebigen Kartoffelschlag zur Bekämpfung von Schädlingen in der Landwirtschaft bereit zu stellen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die vorliegende Arbeit beschäftigt sich mit rechtlichen Fragestellungen rund um Bewertungs-portale im Internet. Zentrale Themen der Arbeit sind dabei die Zulässigkeit der Veröffentlichung der von den Nutzern abgegebenen Bewertungen vor dem Hintergrund möglicherweise entgegenstehender datenschutzrechtlicher Bestimmungen und der Persönlichkeitsrechte der Betroffenen. Des weiteren wird der Rechtsschutz der Betroffenen erörtert und in diesem Zusammenhang die haftungsrechtlichen Risiken der Forenbetreiber untersucht. Gegenstand der Arbeit sind dabei sowohl Online-Marktplätze wie eBay, auf denen sowohl der Bewertende als auch der Bewertete registriert und mit dem Bewertungsverfahren grundsätz-lich einverstanden sind (geschlossene Portale), als auch Portale, auf denen – oftmals unter einem Pseudonym und ohne vorherige Anmeldung – eine freie Bewertungsabgabe, zu Pro-dukteigenschaften, Dienstleistungen bis hinzu Persönlichkeitsmerkmalen des Bewerteten möglich ist (offene Portale). Einleitung und Erster Teil Nach einer Einleitung und Einführung in die Problematik werden im ersten Teil die verschie-denen Arten der Bewertungsportale kurz vorgestellt. Die Arbeit unterscheidet dabei zwischen so genannten geschlossenen Portalen (transaktionsbegleitende Portale wie eBay oder Ama-zon) auf der einen Seite und offenen Portalen (Produktbewertungsportale, Hotelbewertungs-portale und Dienstleistungsbewertungsportale) auf der anderen Seite. Zweiter Teil Im zweiten Teil geht die Arbeit der Frage nach, ob die Veröffentlichung der durch die Nutzer abgegebenen Bewertungen auf den offenen Portalen überhaupt erlaubt ist oder ob hier mögli-cherweise das Persönlichkeitsrecht der Betroffenen und hier insbesondere das Recht auf in-formationelle Selbstbestimmung in Form der datenschutzrechtlichen Bestimmungen die freie Bewertungsabgabe unzulässig werden lässt. Untersucht werden in diesem Zusammenhang im einzelnen Löschungs- bzw. Beseitigungsan-sprüche der Betroffenen aus § 35 Abs. 2 Satz 2 Nr. 1 BDSG bzw. §§ 1004 i. V. m. 823 Abs. 1 BGB (allgemeines Persönlichkeitsrecht). Die Arbeit kommt in datenschutzrechtlicher Hinsicht zu dem Schluss, dass die Bewertungen personenbezogene Daten darstellen, die den datenschutzrechtlichen Bestimmungen unterlie-gen und eine Veröffentlichung der Bewertungen nach dem im deutschen Recht geltenden da-tenschutzrechtlichen Erlaubnisvorbehalt grundsätzlich nicht in Betracht kommt. Vor dem Hintergrund dieser den tatsächlichen Gegebenheiten und Interessenlagen im Internet nicht mehr gerecht werdenden Gesetzeslage diskutiert der Autor sodann die Frage, ob die datenschutzrechtlichen Bestimmungen in diesen Fällen eine Einschränkung durch die grund-gesetzlich garantierten Informationsfreiheiten erfahren müssen. Nach einer ausführlichen Diskussion der Rechtslage, in der auf die Besonderheiten der ein-zelnen Portale eingegangen wird, kommt die Arbeit zu dem Schluss, dass die Frage der Zuläs-sigkeit der Veröffentlichung der Bewertungen von einer Interessenabwägung im Einzelfall abhängt. Als Grundsatz kann jedoch gelten: Ist die bewertete Tätigkeit oder Person in Bezug auf die bewertete Eigenschaft ohnehin einer breiten Öffentlichkeit zugänglich, erscheint eine Veröffentlichung der Daten nicht bedenklich. Dagegen wird man einen Löschungs- bzw. Be-seitigungsanspruch bejahen müssen für die Bewertungen, die Tätigkeiten oder Eigenschaften des Bewerteten, die in keinem Zusammenhang mit ihm als öffentlicher Person stehen, betref-fen. Anschließend geht die Arbeit auf die Persönlichkeitsrechte der Betroffenen und der sich hier-aus ergebenden Beseitigungs- und Unterlassungsansprüchen gemäß der §§ 1004 Abs. 1, 823 Abs. 1 BGB ein, verneint jedoch wegen dem Vorrang der spezialgesetzlichen Bestimmungen aus dem Bundesdatenschutzgesetz letztlich eine Anwendbarkeit der Anspruchsgrundlagen. Schließlich wird in diesem Teil noch kurz auf die Zulässigkeit der Bewertung juristischer Per-sonen eingegangen, die im Grundsatz bejaht wird. Dritter Teil Sofern der zweite Teil der Arbeit zu dem Schluss kommt, dass die Veröffentlichung der Be-wertungen zulässig ist, stellt sich im dritten Teil die Frage, welche Möglichkeiten das Recht dem Bewerteten bietet, gegen negative Bewertungen vorzugehen. Untersucht werden, dabei datenschutzrechtliche, deliktsrechtliche, vertragliche und wettbe-werbsrechtliche Ansprüche. Ein Schwerpunkt dieses Teils liegt in der Darstellung der aktuellen Rechtsprechung zu der Frage wann eine Bewertung eine Tatsachenbehauptung bzw. ein Werturteil darstellt und den sich hieraus ergebenden unterschiedlichen Konsequenzen für den Unterlassungsanspruch des Betroffenen. Diejenigen Bewertungen, die eine Meinungsäußerung darstellen, unterstehen dem starken Schutz der Meinungsäußerungsfreiheit. Grenze der Zulässigkeit sind hier im wesentlichen nur die Schmähkritik und Beleidigung. An Tatsachenbehautpungen dagegen sind schärfere Maßstäbe anzulegen. In diesem Zusammenhang wird der Frage nachgegangen, ob vertragliche Beziehungen zwischen den Beteiligten (Bewertenden, Bewertete und Portalbetreiber) die Meinungsäußerungsfreiheit einschränkt, was jedenfalls für die geschlossenen Portale bejaht wird. Vierter Teil Der vierte Teil der Arbeit beschäftigt sich mit den „Zu-gut-Bewertungen“. Es geht dabei um wettbewerbsrechtliche Ansprüche im Falle verdeckter Eigenbewertungen. Solche Eigenbewertungen, die unter dem Deckmantel der Pseudonymität als Werbemittel zur Imageverbesserung in entsprechenden Bewertungsportale verbreitet werden ohne den wahren Autor erkennen zu lassen, sind in wettbewerbsrechtlicher Hinsicht grundsätzlich unzulässig. Fünfter Teil Im letzten Teil der Arbeit wird schließlich der Frage nach der Verantwortlichkeit der Portal-betreiber für rechtswidrige Bewertungen nachgegangen. Zunächst wird die Feststellung getroffen, dass es sich bei den von den Nutzern abgegebenen Bewertungen um fremde Inhalte handelt und somit die Haftungsprivilegierungen der § 11 Abs. 1 TDG, § 9 Abs. 1 MDStV eingreifen, wonach die Forenbetreiber für die rechtswidrigen Bewertungen jedenfalls so lange nicht verantwortlich sind, solange sie hiervon keine Kenntnis haben. Da von dieser Haftungsprivilegierung nach der Rechtsprechung des Bundesgerichtshofs die Störerhaftung nicht umfasst ist, wird die Reichweite die Forenbetreiber aus der Störerhaftung treffenden Überwachungspflichten diskutiert. Die Arbeit kommt hier zu dem Ergebnis, dass in den Fällen, in denen dem Adressaten der Bewertung die Identität des Verfassers bekannt ist, sich die Verpflichtungen der Forenbetrei-ber auf die Beseitigung bzw. Sperrung der rechtswidrigen Bewertung beschränken. Sofern die Identität des Bewertenden unbekannt ist, haften die Forenbetreiber als Mitstörer und dem Be-troffenen stehen Unterlassungsansprüche auch gegen die Forenbetreiber zu.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Coupled-cluster theory provides one of the most successful concepts in electronic-structure theory. This work covers the parallelization of coupled-cluster energies, gradients, and second derivatives and its application to selected large-scale chemical problems, beside the more practical aspects such as the publication and support of the quantum-chemistry package ACES II MAB and the design and development of a computational environment optimized for coupled-cluster calculations. The main objective of this thesis was to extend the range of applicability of coupled-cluster models to larger molecular systems and their properties and therefore to bring large-scale coupled-cluster calculations into day-to-day routine of computational chemistry. A straightforward strategy for the parallelization of CCSD and CCSD(T) energies, gradients, and second derivatives has been outlined and implemented for closed-shell and open-shell references. Starting from the highly efficient serial implementation of the ACES II MAB computer code an adaptation for affordable workstation clusters has been obtained by parallelizing the most time-consuming steps of the algorithms. Benchmark calculations for systems with up to 1300 basis functions and the presented applications show that the resulting algorithm for energies, gradients and second derivatives at the CCSD and CCSD(T) level of theory exhibits good scaling with the number of processors and substantially extends the range of applicability. Within the framework of the ’High accuracy Extrapolated Ab initio Thermochemistry’ (HEAT) protocols effects of increased basis-set size and higher excitations in the coupled- cluster expansion were investigated. The HEAT scheme was generalized for molecules containing second-row atoms in the case of vinyl chloride. This allowed the different experimental reported values to be discriminated. In the case of the benzene molecule it was shown that even for molecules of this size chemical accuracy can be achieved. Near-quantitative agreement with experiment (about 2 ppm deviation) for the prediction of fluorine-19 nuclear magnetic shielding constants can be achieved by employing the CCSD(T) model together with large basis sets at accurate equilibrium geometries if vibrational averaging and temperature corrections via second-order vibrational perturbation theory are considered. Applying a very similar level of theory for the calculation of the carbon-13 NMR chemical shifts of benzene resulted in quantitative agreement with experimental gas-phase data. The NMR chemical shift study for the bridgehead 1-adamantyl cation at the CCSD(T) level resolved earlier discrepancies of lower-level theoretical treatment. The equilibrium structure of diacetylene has been determined based on the combination of experimental rotational constants of thirteen isotopic species and zero-point vibrational corrections calculated at various quantum-chemical levels. These empirical equilibrium structures agree to within 0.1 pm irrespective of the theoretical level employed. High-level quantum-chemical calculations on the hyperfine structure parameters of the cyanopolyynes were found to be in excellent agreement with experiment. Finally, the theoretically most accurate determination of the molecular equilibrium structure of ferrocene to date is presented.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Im Rahmen dieser Promotionsarbeit wurden Fragestellungen der troposphärischen Ozonproduktion, des photostationären Gleichgewicht des NO2-NO-O3-ROx-Systems, des Einflusses von heterogenen Reaktionen an Mineralstauboberflächen und der Bedeutung lokaler anthropogener Emissionen für Spurengasmessungen an einem Gebirgsobservatorium untersucht. Dazu wurde insbesondere ein atmosphärenchemisch-meteorologischer Datensatz ausgewertet, welcher während der Feldmesskampagne MINATROC II im Juli/August 2002 am Global Atmosphere Watch (GAW) Observatorium Izana (2360m über NN) auf Teneriffa gewonnen wurde. Der Datensatz enthält Messdaten von Aerosolen, Spurengasen, Strahlungsgrößen und meteorologischen Parametern. Eine dichte Sahara-Staubwolke passierte die Messstation zwischen dem 28. und 31.07.2002. Die Mischungsverhältnisse von O3, H2O2, NOx und ROx zeigten während dieses Ereignisses Abnahmen zwischen 10% und 50%. Insbesondere infolge der Reduktion von NO und HO2 wurde eine deutliche Verringerung der Netto-Ozon-Produktion in der Staubwolke berechnet. Die Bewertung der verschiedenen Terme der Ozonproduktion bzw. –vernichtung zeigte relativ geringe Beiträge der einzelnen photochemischen Verlustreaktionen am Ozonbudget. Im Rahmen einer Boxmodellstudie, welche die Eingangsdaten von MINATROC II verwendete, wurde ein Vergleich zwischen Simulation und Messung kurzlebiger Spurengase angestellt. Die Modellrechnungen weisen darauf hin, dass die reduzierten H2O2-Mischungsverhältnisse in der Sahara-Staubwolke unter Berücksichtigung heterogener Reaktionen von HO2 bzw. H2O2 an Stauboberflächen erklärt werden können. Die Betrachtungen zum photostationären Gleichgewicht des NO2-NO-O3-ROx-Systems ergeben hauptsächlich stark überhöhte Leighton-Verhältnisse. Die Abweichungen der Messdaten vom photostationären Gleichgewichtszustand sind dabei zum Verschmutzungsgrad der Atmosphäre antikorreliert. Eine Reihe potentieller Einflüsse auf das NO2-NO-O3-ROx-System wurde diskutiert, wobei gezeigt werden konnte, dass das bisherige Betrachtungsmodell nicht ausreicht, um die beobachteten Abweichungen vom photostationären Gleichgewicht zu erklären. Während für die Nachtmessungen von MINATROC II Bedingungen der freien Troposphäre vorlagen, waren die Messungen am Tage von der Kopplung zwischen photochemischer Aktivität und thermisch getriebener Hangströmung betroffen. Die zum Messort gelangte anthropogen beeinflusste Grenzschichtluft konnte dabei auf maximalen Mischungsanteilen zwischen 15% und 85% quantifiziert werden. Abschließend wurden verschiedene Aspekte der Quellen und der Verteilung anthropogener Verschmutzungen auf Teneriffa im Zusammenhang der zuvor behandelten Fragen diskutiert.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Except the article forming the main content most HTML documents on the WWW contain additional contents such as navigation menus, design elements or commercial banners. In the context of several applications it is necessary to draw the distinction between main and additional content automatically. Content extraction and template detection are the two approaches to solve this task. This thesis gives an extensive overview of existing algorithms from both areas. It contributes an objective way to measure and evaluate the performance of content extraction algorithms under different aspects. These evaluation measures allow to draw the first objective comparison of existing extraction solutions. The newly introduced content code blurring algorithm overcomes several drawbacks of previous approaches and proves to be the best content extraction algorithm at the moment. An analysis of methods to cluster web documents according to their underlying templates is the third major contribution of this thesis. In combination with a localised crawling process this clustering analysis can be used to automatically create sets of training documents for template detection algorithms. As the whole process can be automated it allows to perform template detection on a single document, thereby combining the advantages of single and multi document algorithms.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ein wichtiger Baustein für den langfristigen Erfolg einer Lebertransplantation ist die Compliance mit der lebenslang einzunehmenden immunsuppressiven Therapie. Im Rahmen der vorliegenden Arbeit wurde erstmals mittels MEMS® die Compliance bei lebertransplantierten Patienten untersucht, deren Transplantation einige Jahre zurücklag. Rekrutiert wurden Patienten, die vor 2, 5, 7 oder 10 Jahren (Gruppe 2 y.p.t., 5 y.p.t., 7 y.p.t., 10 y.p.t.) in der Universitätsmedizin Mainz lebertransplantiert wurden. 39 Patienten nahmen an der prospektiven Anwendungsbeobachtung teil. Die Compliance wurde mittels MEMS® über eine Beobachtungszeit von 6 Monaten erfasst. Bei der MEMS®-Auswertung war zu vermuten, dass 10 Patienten diese nicht wie vorgesehen verwendet hatten. Folglich konnten die mittels MEMS® gemessenen Compliance-Parameter nur für 29 Patienten valide ermittelt werden. Die mittlere Dosing Compliance betrug 81 ± 21 %, wobei die Gruppe 2 y.p.t. mit 86 ± 14 % bessere Werte zu verzeichnen hatte als die Gruppe 5 y.p.t. (75 ± 27 %) und 7 y.p.t. (74 ± 28 %). Die Ergebnisse waren jedoch nicht signifikant unterschiedlich (p=0,335, Kruskal-Wallis-Test). Unter Einbeziehung aller mittels MEMS® gemessenen Compliance-Parameter wurden 19 von 29 Patienten (66 %) als compliant eingestuft. Bei der Analyse der Gesamtcompliance basierend auf den subjektiven Compliance-Messmethoden (Morisky-Fragebogen, MESI-Fragebogen, Selbsteinschätzung), der Arzneimittel-Blutspiegel und der Anzahl an Abstoßungsreaktionen, in der alle 39 Patienten einbezogen werden konnten, wurden 35 Patienten (90 %) als compliant eingestuft. rnIm zweiten Teil der Arbeit wurde die Etablierung und Bewertung eines intersektoralen Pharmazeutischen Betreuungskonzepts für lebertransplantierte Patienten untersucht. Erstmals wurden anhand eines entwickelten schnittstellenübergreifenden, integrierten Betreuungskonzepts niedergelassene Apotheker in die Pharmazeutische Betreuung lebertransplantierter Patienten eingebunden. 20 Patienten wurden rekrutiert und während ihres stationären Aufenthaltes nach Transplantation pharmazeutisch betreut. Die Betreuung umfasste eine intensive Patientenschulung mit drei bis vier Gesprächen durch einen Krankenhausapotheker. Während des stationären Aufenthaltes wurden arzneimittelbezogene Probleme erkannt, gelöst und dokumentiert. Bei Entlassung stellte der Krankenhausapotheker einen Medikationsplan für den Hausarzt sowie für den niedergelassenen Apotheker aus und führte mit den Patienten ein ausführliches Entlassungsgespräch. Darüber hinaus wurden den Patienten Arzneimitteleinnahmepläne und eine Patienteninformation über ihr immunsuppressives Arzneimittel übergeben. 15 Patienten konnten daraufhin ambulant von niedergelassenen Apothekern pharmazeutisch weiterbetreut werden. Das kooperierende pharmazeutische Personal wurde durch ein eigens für die Studie erstelltes Manual zur Pharmazeutischen Betreuung lebertransplantierter Patienten geschult und unterstützt. Die niedergelassenen Apotheker sollten die Patienten in ihrer Arzneimitteltherapie begleiten, indem Beratungsgespräche geführt und arzneimittelbezogene Probleme erkannt und gelöst wurden. Die Nutzeffekte der intensiven Pharmazeutischen Betreuung konnte anhand verschiedener Erhebungsinstrumente dargelegt werden. Im Ergebnis resultierte eine hohe Zufriedenheit der Patienten und Apotheker mit dem Betreuungskonzept, die mittels Selbstbeurteilungsfragebögen ermittelt wurde. Die Compliance der Patienten wurde anhand des Morisky- und MESI-Fragebogens, der Selbsteinschätzung der Patienten, Blutspiegelbestimmungen sowie der Einschätzung durch den niedergelassenen Apotheker bestimmt. 86 % der Patienten wurden als compliant eingeordnet. Die Kenntnisse der Patienten über ihre immunsuppressive Therapie, welche anhand von Interviews erfragt wurden, lagen auf einem sehr hohen Niveau. Abschließend kann festgestellt werden, dass die Pharmazeutische Betreuung lebertransplantierter Patienten in den niedergelassenen Apotheken durchführbar ist. Anhand der Dokumentationsprotokolle lässt sich allerdings nur sehr schwer beurteilen, in welchem Maße die Betreuung tatsächlich erfolgte. Das tatsächliche vorliegen einer mangelnden Betreuung oder aber eine lückenhafte Dokumentation der Betreuungsleistung war nicht zu differenzieren. Ein limitierender Faktor für die intensivierte Betreuung ist sicherlich der erhebliche Aufwand für nur einen Patienten mit einem seltenen Krankheitsbild. Das Erkennen und Lösen von 48 ABP durch den Krankenhausapotheker und 32 ABP durch die niedergelassenen Apotheker, d. h. insgesamt 4,5 ABP pro Patient zeigt, dass die Pharmazeutische Betreuung einen wichtigen Beitrag für eine qualitätsgesicherte Arzneimitteltherapie leistet. Die intersektorale Pharmazeutische Betreuung stellt eine wesentliche Hilfe und Unterstützung der Patienten im sicheren Umgang mit ihrer Arzneimitteltherapie dar.rn

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die vorliegende Handreichung versteht sich als Hilfestellung bei der Vermittlung von Kompetenzen und deren Bewertung in der Hochschullehre – sowohl auf der Ebene von Veranstaltungstypen als auch von Prüfungen – mit dem Ziel, Lehrende bei der Planung von Studiengängen und einzelnen Veranstaltungen zu unterstützen. Sie gliedert sich in drei Teile: Im ersten Teil werden die verschiedenen universitären Veranstaltungsformen dargestellt. Einer Beschreibung der jeweiligen Veranstaltungsform folgt eine grafische Aufschlüsselung der primär vermittelten Kompetenzarten. Zusätzlich werden veranstaltungsspezifische Beispiele für hochschuldidaktische Methoden zur Optimierung des Lehr-/Lernprozesses und des Learning Outcome aufgeführt, die zur Planung und Durchführung herangezogen werden können. Abschließend werden mögliche geeignete Prüfungsformen vorgeschlagen. Der zweite Teil widmet sich dem Zusammenspiel von Prüfungen und Kompetenzen. Ziel ist es darzustellen, welche Prüfungsformen sich besonders für die Bewertung von Kenntnissen im Hinblick auf einzelne Kompetenzen eignen. Die vorgestellten hochschuldidaktischen Methoden werden im dritten Teil der Handreichung näher beschrieben, wobei besonders auf deren Potenzial für die Vermittlung der einzelnen Kompetenzen eingegangen wird.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In der vorliegenden Arbeit werden 52 Verbindungen beschrieben, welche auf COX/LOX-Inhibition mit zusätzlichen Hydroxylradikalfängereigenschaften getestet worden sind. rnEs war möglich eine neue Synthesestrategie für noch nicht beschriebene 4,5-Diarylisoselenazole zu entwickeln und eine vorhandene Synthese für Isothiazoliumchloride von zwei Stufen, mit mäßigen Ausbeuten, auf eine Stufe, mit hoher Ausbeute, zu verkürzen.rnEs wurden mehrere COX-Inhibitoren identifiziert. MSD4a, MSD4h, MSD5a und MSD5h konnten als COX-1-, COX-2- und 5-LOX-Hemmer identifiziert werden. Besonders hervorzuheben ist die Verbindung MSD5h, die zusätzlich zur COX-1-, COX-2- und 5-LOX-Inhibition eine leichte Hemmung im Hydroxylradikalfänger-Assay zeigt, für die ein clog P-Wert von 2,65 berechnet wurde und die im XTT-Zytotoxizitätstestsystem, selbst bei einer Konzentration von 100 µM, kaum toxische Eigenschaften besitzt.rnWeiterhin war es möglich zu zeigen, dass Carbonsäuren gute Hydroxylradikalfängereigenschaften in unserem, auf der Fenton-Reaktion basierenden, Testsystem haben. Die Potenz der Carbonsäuren MSD8b und MSD11j im Vergleich zu den unwirksamen korrespondierenden Ester MSD8a und MSD11i führte zu Untersuchungen mit weiteren Carbonsäuren und deren Ester. Um den Wirkungsmechanismus zu erforschen wurde das Testsystem modifiziert, um eine Komplexierung der Eisenionen durch die Carbonsäuren auszuschließen. An Hand der Substanzen MSD8b und MSD11j wurde nachgewiesen, dass diese mit dem Hydroxylradikal reagieren, ohne zu decarboxylieren oder andere Zerfallsreaktionen einzugehen.rnZusätzlich zu den Untersuchungen der Enzym-Inhibition sowie des Hydroxylradikal-Scavenings wurden Molecular Modelling Studien durchgeführt. Die Ergebnisse der Dockingstudien in COX-1- (1eqg), COX-2- (1cx2) und in COX-1 mutierte COX-2-Kristallstrukturen (1cx2) führen zu einer kritischen Bewertung des folgenden Ansatzes: Es ist nicht unbedingt sinnvoll zuerst Strukturen mit dem Computer zu entwerfen und zu modeln und sie erst dann zu synthetisieren und in Enzym- oder Zellassays zu testen. Die Begründung dafür liegt in der Schwierigkeit einschätzen zu können, wie nah das gewählte Modell der Wirklichkeit ist. In den durchgeführten Dockingstudien konnte der sehr große Einfluss des kokristallisierten Liganden in der als Grundlage dienenden Kristallstruktur auf die Dockingergebnisse gezeigt werden. Durch einen zu kleinen kokristallisierten Liganden in der COX-1-Bindungstasche wurden als Ergebnis der Dockingstudie alle Verbindungen als nicht potent eingestuft, obwohl diese zum Teil im Enzymtestsystem wirksam waren. Dies konnte mit den Mutationsversuchen ausgeglichen werden. rnDeshalb kann man aus diesen Ergebnissen als Fazit ziehen, dass eine Strategie, Strukturen zu synthetisieren, in vitro zu testen und dabei die Strukturentwicklung mit Molecular Modelling Studien zu unterstützen, die Methode der Wahl darstellt.rn

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Verifikation bewertet die Güte von quantitativen Niederschlagsvorhersagen(QNV) gegenüber Beobachtungen und liefert Hinweise auf systematische Modellfehler. Mit Hilfe der merkmals-bezogenen Technik SAL werden simulierte Niederschlagsverteilungen hinsichtlich (S)truktur, (A)mplitude und (L)ocation analysiert. Seit einigen Jahren werden numerische Wettervorhersagemodelle benutzt, mit Gitterpunktabständen, die es erlauben, hochreichende Konvektion ohne Parametrisierung zu simulieren. Es stellt sich jetzt die Frage, ob diese Modelle bessere Vorhersagen liefern. Der hoch aufgelöste stündliche Beobachtungsdatensatz, der in dieser Arbeit verwendet wird, ist eine Kombination von Radar- und Stationsmessungen. Zum einem wird damit am Beispiel der deutschen COSMO-Modelle gezeigt, dass die Modelle der neuesten Generation eine bessere Simulation des mittleren Tagesgangs aufweisen, wenn auch mit zu geringen Maximum und etwas zu spätem Auftreten. Im Gegensatz dazu liefern die Modelle der alten Generation ein zu starkes Maximum, welches erheblich zu früh auftritt. Zum anderen wird mit dem neuartigen Modell eine bessere Simulation der räumlichen Verteilung des Niederschlags, durch eine deutliche Minimierung der Luv-/Lee Proble-matik, erreicht. Um diese subjektiven Bewertungen zu quantifizieren, wurden tägliche QNVs von vier Modellen für Deutschland in einem Achtjahreszeitraum durch SAL sowie klassischen Maßen untersucht. Die höher aufgelösten Modelle simulieren realistischere Niederschlagsverteilungen(besser in S), aber bei den anderen Komponenten tritt kaum ein Unterschied auf. Ein weiterer Aspekt ist, dass das Modell mit der gröbsten Auf-lösung(ECMWF) durch den RMSE deutlich am besten bewertet wird. Darin zeigt sich das Problem des ‚Double Penalty’. Die Zusammenfassung der drei Komponenten von SAL liefert das Resultat, dass vor allem im Sommer das am feinsten aufgelöste Modell (COSMO-DE) am besten abschneidet. Hauptsächlich kommt das durch eine realistischere Struktur zustande, so dass SAL hilfreiche Informationen liefert und die subjektive Bewertung bestätigt. rnIm Jahr 2007 fanden die Projekte COPS und MAP D-PHASE statt und boten die Möglich-keit, 19 Modelle aus drei Modellkategorien hinsichtlich ihrer Vorhersageleistung in Südwestdeutschland für Akkumulationszeiträume von 6 und 12 Stunden miteinander zu vergleichen. Als Ergebnisse besonders hervorzuheben sind, dass (i) je kleiner der Gitter-punktabstand der Modelle ist, desto realistischer sind die simulierten Niederschlags-verteilungen; (ii) bei der Niederschlagsmenge wird in den hoch aufgelösten Modellen weniger Niederschlag, d.h. meist zu wenig, simuliert und (iii) die Ortskomponente wird von allen Modellen am schlechtesten simuliert. Die Analyse der Vorhersageleistung dieser Modelltypen für konvektive Situationen zeigt deutliche Unterschiede. Bei Hochdrucklagen sind die Modelle ohne Konvektionsparametrisierung nicht in der Lage diese zu simulieren, wohingegen die Modelle mit Konvektionsparametrisierung die richtige Menge, aber zu flächige Strukturen realisieren. Für konvektive Ereignisse im Zusammenhang mit Fronten sind beide Modelltypen in der Lage die Niederschlagsverteilung zu simulieren, wobei die hoch aufgelösten Modelle realistischere Felder liefern. Diese wetterlagenbezogene Unter-suchung wird noch systematischer unter Verwendung der konvektiven Zeitskala durchge-führt. Eine erstmalig für Deutschland erstellte Klimatologie zeigt einen einer Potenzfunktion folgenden Abfall der Häufigkeit dieser Zeitskala zu größeren Werten hin auf. Die SAL Ergebnisse sind für beide Bereiche dramatisch unterschiedlich. Für kleine Werte der konvektiven Zeitskala sind sie gut, dagegen werden bei großen Werten die Struktur sowie die Amplitude deutlich überschätzt. rnFür zeitlich sehr hoch aufgelöste Niederschlagsvorhersagen gewinnt der Einfluss der zeitlichen Fehler immer mehr an Bedeutung. Durch die Optimierung/Minimierung der L Komponente von SAL innerhalb eines Zeitfensters(+/-3h) mit dem Beobachtungszeit-punkt im Zentrum ist es möglich diese zu bestimmen. Es wird gezeigt, dass bei optimalem Zeitversatz die Struktur und Amplitude der QNVs für das COSMO-DE besser werden und damit die grundsätzliche Fähigkeit des Modells die Niederschlagsverteilung realistischer zu simulieren, besser gezeigt werden kann.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The development and the growth of plants is strongly affected by the interactions between roots, rootrnassociated organisms and rhizosphere communities. Methods to assess such interactions are hardly torndevelop particularly in perennial and woody plants, due to their complex root system structure and theirrntemporal change in physiology patterns. In this respect, grape root systems are not investigated veryrnwell. The aim of the present work was the development of a method to assess and predict interactionsrnat the root system of rootstocks (Vitis berlandieri x Vitis riparia) in field. To achieve this aim, grapernphylloxera (Daktulosphaira vitifoliae Fitch, Hemiptera, Aphidoidea) was used as a graperoot parasitizingrnmodel.rnTo develop the methodical approach, a longt-term trial (2006-2009) was arranged on a commercial usedrnvineyard in Geisenheim/Rheingau. All 2 to 8 weeks the top most 20 cm of soil under the foliage wallrnwere investigated and root material was extracted (n=8-10). To include temporal, spatial and cultivarrnspecific root system dynamics, the extracted root material was analyzed digitally on the morphologicalrnproperties. The grape phylloxera population was quantified and characterized visually on base of theirrnlarvalstages (oviparous, non oviparous and winged preliminary stages). Infection patches (nodosities)rnwere characterized visually as well, partly supported by digital root color analyses. Due to the knownrneffects of fungal endophytes on the vitality of grape phylloxera infested grapevines, fungal endophytesrnwere isolated from nodosity and root tissue and characterized (morphotypes) afterwards. Further abioticrnand biotic soil conditions of the vineyards were assessed. The temporal, spatial and cultivar specificrnsensitivity of single parameters were analyzed by omnibus tests (ANOVAs) and adjacent post-hoc tests.rnThe relations between different parameters were analyzed by multiple regression models.rnQuantitative parameters to assess the degeneration of nodosity, the development nodosity attachedrnroots and to differentiate between nodosities and other root swellings in field were developed. Significantrndifferences were shown between root dynamic including parameters and root dynamic ignoringrnparameters. Regarding the description of grape phylloxera population and root system dynamic, thernmethod showed a high temporal, spatial and cultivar specific sensitivity. Further, specific differencesrncould be shown in the frequency of endophyte morphotypes between root and nodosity tissue as wellrnas between cultivars. Degeneration of nodosities as well as nodosity occupation rates could be relatedrnto the calculated abundances of grape phylloxera population. Further ecological questions consideringrngrape root development (e.g. relation between moisture and root development) and grape phylloxerarnpopulation development (e.g. relation between temperature and population structure) could be answeredrnfor field conditions.rnGenerally, the presented work provides an approach to evaluate vitality of grape root systems. Thisrnapproach can be useful, considering the development of control strategies against soilborne pests inrnviticulture (e.g. grape phylloxera, Sorospheara viticola, Roesleria subterranea (Weinm.) Redhaed) as well as considering the evaluation of integrated management systems in viticulture.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Im Wintersemester 2009/2010 und im Sommersemester 2010 wurde am Institut für Soziologie der Johannes Gutenberg-Universität Mainz unter unserer Leitung eine mündliche standardisierte Befragung durchgeführt, das sich mit der Nutzung und Bewertung des bibliothekarischen Angebotes dieser Universität durch die Studierenden beschäftigte. Aus der Grundgesamtheit der Studierenden im Wintersemester 2009/2010 wurde anhand einer Quotenauswahl eine Stichprobe im Umfang von n = 453 bestimmt.rnFolgende Untersuchungsergebnisse sind hervorzuheben:rnZu Studienzwecken arbeiten die Studierenden bevorzugt zu Hause und nicht in einer Bibliothek oder in einem anderen Arbeitsraum der Universität.rnDie unterschiedlichen elektronischen Angebote der Bibliothek, die allen Studierenden zur Verfügung stehen, werden von fast 90% der Studierenden zumindest teilweise wahrgenommen. Die Arbeit am Rechner zu Hause wird technisch durch die elektronischen Angebote der Bibliothek ermöglicht und unterstützt, ebenso die ortsunabhängige Benutzung eines Laptops.rnLob für die Bibliothek gibt es besonders für den Sachverstand der Bibliotheksmitarbeiter, die langen Öffnungszeiten und das reibungslose Funktionieren des Ausleihprozesses. Gleichfalls hervorgehoben wird die Qualität elektronischer Dienstleistungen (Reader-Plus, E-Mail-Erinnerungsservice, Verlängerungs- und Vormerkungsservice). rnKritik äußern viele Studierende an der mangelnden Aktualität der Buchbestände und an der zu geringen Anzahl an Buchexemplaren bei Werken, die zur Standardliteratur ihres Faches gehören. Häufig wird gefordert, dass der Anteil der ausleihbaren Bücher zu Lasten des Präsenzbestandes vergrößert werden sollte. Gewünscht werden ebenfalls eine ‚Modernisierung‘ von Arbeitsräumen und eine Erweiterung der Arbeitsplätze insbesondere für Arbeitsgruppen. Zusätzlich sollten nach Auffassung vieler Studierender innerhalb der Bibliothek Aufenthaltsräume für die Erholung und Kommunikation in Pausen geschaffen werden. Allgemein zeigt sich, dass beim Aufenthalt in den Bibliotheken nicht nur auf Funktionalität Wert gelegt wird.rn