16 resultados para Digitalen Fotografie

em ArchiMeD - Elektronische Publikationen der Universität Mainz - Alemanha


Relevância:

20.00% 20.00%

Publicador:

Resumo:

In der vorliegenden Arbeit werden Entwicklung und Test einesneuartigen bildgebenden Verfahrens mit Röntgenstrahlung,Polychromographie genannt, beschrieben. Mit ihm können kontrastmittelgefüllte Strukturen unter effizienterAusnutzung des zur Verfügung stehenden Photonenflussessichtbar gemacht werden. Als Röntgenstrahlungsquelle wird Übergangsstrahlung verwendet, die vom 855 MeVElektronenstrahl des Mainzer Mikrotrons MAMI beimDurchqueren eines Polyimidfolienstapels emittiert wird. Ausdieser wird mit einem hochorientierten pyrolytischenGraphit-Kristall ein quasimonochromatischer Röntgenstrahlerzeugt mit dem das Untersuchungsobjekt ausgeleuchtet wird.Mit Hilfe einer Richtungsänderung des Elektronenstrahls beisynchronem Verfahren und Drehen des Kristalls, wird an jedemPunkt in der Detektorebene die Energie der Strahlung überein mehrere keV breites Intervall um die K-Absorptionskantedes Kontrastmittels variiert. Die Kontrastmittelverteilungwird durch numerische Analyse der mit jedem Bildpunkt eineszweidimensional orts- und energieauflösenden Detektorsaufgenommenen Intensitätsspektren ermittelt. DiePolychromographie wurde bei einer mittleren Energie desRöntgenstrahls von 20 keV erfolgreich an einem Phantombestehend aus Kupfer- und Molybdänfolien (Kontrastmittel)verschiedener Dicken (Cu: 136, 272 Mikrometer und Mo: 10, 5,2.5 Mikrometer) getestet. Es wurde gezeigt, daß sich dasSignal-zu-Rausch-Verhältnis (SNR) in den rekonstruiertenBildern verbessert, solange sich beim Vergrößern desDurchstimmintervalls die im Intervall enthaltenePhotonenzahl proportional vergrößert. Im Vergleich zurDichromographie liefert die Polychromographie ein um einenFaktor zwei geringeres SNR. Das gleiche SNR wird erreicht,wenn das Absorptionsverhalten des Untersuchungsobjektes,z.B. durch eine Leeraufnahme ermittelt, bei der Analysevorgegeben wird.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die vorliegende Arbeit beschäftigt sich vorwiegend mit Detektionsproblemen, die bei Experimenten zur Chemie der Transactiniden mit dem schnellen Flüssig-Flüssig-Extraktionssystem SISAK auftraten. Bei diesen Experimenten wird als Detektionsmethode die Flüssigszintillationsspektroskopie (LSC) eingesetzt. Es werden Szintillationspulse registriert, die für das verursachende Teilchen charakteristische Formen zeigen, die unterschieden werden müssen. Am Beispiel der Auswertung des SISAK-Experimentes zur Chemie des Rutherfordiums vom November 1998 wurde gezeigt, dass es mit den herkömmlichen Verfahren zur Pulsformdiskriminierung nicht möglich ist, die aus dem Zerfall der Transactiniden stammenden alpha-Ereignisse herauszufiltern. Ursache dafür ist ein hoher Untergrund, der in erster Linie von beta/gamma-Teilchen, Spaltfragmenten und pile ups verursacht wird. Durch die Verfügbarkeit von Transientenrecordern ergeben sich neue Möglichkeiten für eine digitale Pulsformdiskriminierung. In dieser Arbeit wird erstmals die Methode der digitalen Pulsformdiskriminierung mit künstlichen neuronalen Netzen (PSD-NN) vorgestellt. Es wurde im Zuge der Auswertung des SISAK-Experimentes vom Februar 2000 gezeigt, dass neuronale Netze in der Lage sind, Pulsformen automatisch richtig zu klassifizieren. Es ergeben sich nahezu untergrundfreie alpha-Flüssigszintillationsspektren. Es werden Vor- und Nachteile der neuen Methode diskutiert. Es ist dadurch möglich geworden, in SISAK-Experimenten Transactinidenatome anhand ihres Zerfalls eindeutig zu charakterisieren. Das SISAK-System kann somit bei Experimenten zum Studium des chemischen Verhaltens von Transactiniden in flüssiger Phase eingesetzt werden.____

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Das Ziel der Arbeit war die Entwicklung computergestützter Methoden zur Erstellung einer Gefahrenhinweiskarte für die Region Rheinhessen, zur Minimierung der Hangrutschungsgefährdung. Dazu wurde mit Hilfe zweier statistischer Verfahren (Diskriminanzanalyse, Lo­gistische Regression) und einer Methode aus dem Bereich der Künstlichen Intelligenz (Fuzzy Logik) versucht, die potentielle Gefährdung auch solcher Hänge zu klassifizieren, die bis heute noch nicht durch Massenbewegungen aufgefallen sind. Da ingenieurgeologische und geotechnische Hanguntersuchungen aus Zeit und Kostengründen im regionalen Maßstab nicht möglich sind, wurde auf punktuell vorhandene Datenbestände zu einzelnen Rut­schungen des Winters 1981/82, die in einer Rutschungsdatenbank zu­sammengefaßt sind, zurückgegriffen, wobei die daraus gewonnenen Erkenntnisse über Prozeßmechanismen und auslösende Faktoren genutzt und in das jeweilige Modell integriert wurden. Flächenhafte Daten (Lithologie, Hangneigung, Landnutzung, etc.), die für die Berechnung der Hangstabilität notwendig sind, wurden durch Fernerkundungsmethoden, dem Digitalisieren von Karten und der Auswertung von Digitalen Geländemodellen (Reliefanalyse) gewonnen. Für eine weiterführende Untersuchung von einzelnen, als rutschgefährdet klassifi­zierten Bereichen der Gefahrenhinweiskarte, wurde am Beispiel eines Testgebietes, eine auf dem infinite-slope-stability Modell aufbauende Me­thode untersucht, die im Maßstabsbereich von Grundkarten (1:5000) auch geotechnische und hydrogeologische Parameter berücksichtigt und damit eine genauere, der jeweiligen klimatischen Situation angepaßte, Gefahrenabschätzung ermöglicht.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Es wurde ein für bodengebundene Feldmessungen geeignetes System zur digital-holographischen Abbildung luftgetragener Objekte entwickelt und konstruiert. Es ist, abhängig von der Tiefenposition, geeignet zur direkten Bestimmung der Größe luftgetragener Objekte oberhalb von ca. 20 µm, sowie ihrer Form bei Größen oberhalb von ca. 100µm bis in den Millimeterbereich. Die Entwicklung umfaßte zusätzlich einen Algorithmus zur automatisierten Verbesserung der Hologrammqualität und zur semiautomatischen Entfernungsbestimmung großer Objekte entwickelt. Eine Möglichkeit zur intrinsischen Effizienzsteigerung der Bestimmung der Tiefenposition durch die Berechnung winkelgemittelter Profile wurde vorgestellt. Es wurde weiterhin ein Verfahren entwickelt, das mithilfe eines iterativen Ansatzes für isolierte Objekte die Rückgewinnung der Phaseninformation und damit die Beseitigung des Zwillingsbildes erlaubt. Weiterhin wurden mithilfe von Simulationen die Auswirkungen verschiedener Beschränkungen der digitalen Holographie wie der endlichen Pixelgröße untersucht und diskutiert. Die geeignete Darstellung der dreidimensionalen Ortsinformation stellt in der digitalen Holographie ein besonderes Problem dar, da das dreidimensionale Lichtfeld nicht physikalisch rekonstruiert wird. Es wurde ein Verfahren entwickelt und implementiert, das durch Konstruktion einer stereoskopischen Repräsentation des numerisch rekonstruierten Meßvolumens eine quasi-dreidimensionale, vergrößerte Betrachtung erlaubt. Es wurden ausgewählte, während Feldversuchen auf dem Jungfraujoch aufgenommene digitale Hologramme rekonstruiert. Dabei ergab sich teilweise ein sehr hoher Anteil an irregulären Kristallformen, insbesondere infolge massiver Bereifung. Es wurden auch in Zeiträumen mit formal eisuntersättigten Bedingungen Objekte bis hinunter in den Bereich ≤20µm beobachtet. Weiterhin konnte in Anwendung der hier entwickelten Theorie des ”Phasenrandeffektes“ ein Objekt von nur ca. 40µm Größe als Eisplättchen identifiziert werden. Größter Nachteil digitaler Holographie gegenüber herkömmlichen photographisch abbildenden Verfahren ist die Notwendigkeit der aufwendigen numerischen Rekonstruktion. Es ergibt sich ein hoher rechnerischer Aufwand zum Erreichen eines einer Photographie vergleichbaren Ergebnisses. Andererseits weist die digitale Holographie Alleinstellungsmerkmale auf. Der Zugang zur dreidimensionalen Ortsinformation kann der lokalen Untersuchung der relativen Objektabstände dienen. Allerdings zeigte sich, dass die Gegebenheiten der digitalen Holographie die Beobachtung hinreichend großer Mengen von Objekten auf der Grundlage einzelner Hologramm gegenwärtig erschweren. Es wurde demonstriert, dass vollständige Objektgrenzen auch dann rekonstruiert werden konnten, wenn ein Objekt sich teilweise oder ganz außerhalb des geometrischen Meßvolumens befand. Weiterhin wurde die zunächst in Simulationen demonstrierte Sub-Bildelementrekonstruktion auf reale Hologramme angewandt. Dabei konnte gezeigt werden, dass z.T. quasi-punktförmige Objekte mit Sub-Pixelgenauigkeit lokalisiert, aber auch bei ausgedehnten Objekten zusätzliche Informationen gewonnen werden konnten. Schließlich wurden auf rekonstruierten Eiskristallen Interferenzmuster beobachtet und teilweise zeitlich verfolgt. Gegenwärtig erscheinen sowohl kristallinterne Reflexion als auch die Existenz einer (quasi-)flüssigen Schicht als Erklärung möglich, wobei teilweise in Richtung der letztgenannten Möglichkeit argumentiert werden konnte. Als Ergebnis der Arbeit steht jetzt ein System zur Verfügung, das ein neues Meßinstrument und umfangreiche Algorithmen umfaßt. S. M. F. Raupach, H.-J. Vössing, J. Curtius und S. Borrmann: Digital crossed-beam holography for in-situ imaging of atmospheric particles, J. Opt. A: Pure Appl. Opt. 8, 796-806 (2006) S. M. F. Raupach: A cascaded adaptive mask algorithm for twin image removal and its application to digital holograms of ice crystals, Appl. Opt. 48, 287-301 (2009) S. M. F. Raupach: Stereoscopic 3D visualization of particle fields reconstructed from digital inline holograms, (zur Veröffentlichung angenommen, Optik - Int. J. Light El. Optics, 2009)

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Der Ökotourismus hat sich in den letzten Jahren zu einer Tourismussparte entwickelt, die nicht nur immer mehr Interessenten unter den Nutzern findet, sondern auch vielfältige Forschungsmöglichkeiten eröffnet.rnAus interdisziplinärer Betrachtungsweise kann man sowohl in den Gebieten der Biologie, der Wirtschaft, der Geographie, aber auch der Politik forschend tätig werden. rnDa der Tourismus in den letzten Jahren eine immer größere Bedeutung gerade für Länder mit weitestgehend intakten Naturressourcen erlangt hat, stellt sich die Frage inwieweit die Wirtschaft eines Landes auf diese Einnahmequelle angewiesen ist und ob nicht die ökologischen Belange immer weiter in den Hintergrund treten.rnAus diesem Ansatz heraus erfolgte zunächst eine qualitative und quantitative Bestandsaufnahme, die ein klares Bild vom derzeitigen Zustand in der Region ermöglicht. Darüber hinaus werden im Rahmen der Untersuchungen Zukunftsperspektiven aufgezeigt. Diese sollen verdeutlichen, inwieweit man steuernd in solche dynamischen Entwicklungsprozesse eingreifen kann oder soll.rnDie Schwerpunkte dieser Arbeit liegen in dem Bereich der Befragung von Touristen und in der Ausarbeitung eines digitalen Geländemodells zur späteren Nutzung in einem aufzubauenden Nationalpark-Infozentrum. Auf der Grundlage dieser Untersuchungen wurde ein touristisches Nutzungskonzept entwickelt und auf seine ökologischen Umsetzungschancen hin untersucht. Der Aspekt des Ökotourismus wird einleitend erörtert und definiert. Anschließend werden die Potenziale der norwegischen Tourismuswirtschaft untersucht. Die Befragungsergebnisse sowohl der norwegischen Besucher als auch der ausländischen Touristen werden in verschiedenen Korrelationen näher untersucht.rnEin gesonderter Bereich der Untersuchungen gilt dem Problemfeld des Wildcampings in Norwegen. Die dramatischen Entwicklungen der letzten Jahre rufen immer mehr Aktivisten auf den Plan. Da die Deutschen die größte Besuchergruppe darstellen, wurden innerhalb der Jahre 2003 bis 2006 Einzelinterviews geführt, um einen Überblick über das Übernachtungsverhalten der Deutschen in Norwegen gewinnen zu können. In den vergangenen 10 Jahren sind die deutschen Besucherzahlen in Norwegen leicht rückläufig, während die der Niederländer kontinuierlich steigen.rnAuf diesen Ergebnissen basierend wurden problemzentrierte Interviews mit Wohnmobilreisenden, der größten Gruppe der Individualreisenden, durchgeführt. rnMehr als 600.000 Nächte pro Jahr verbrachten die deutschen Wohnmobilreisenden außerhalb der Campingplätze, was ökologische und ökonomische Auswirkungen hat und nicht mehr mit dem in Norwegen geltenden „Allemansrett“, dem Jedermannsrecht, vereinbar ist. rnGerade die Touristen, die mit dem Wohnmobil reisen, können nur schwer mit anderen Reisenden verglichen werden, da sie mit einer völlig anderen Reiseauffassung mehr oder weniger autark unterwegs sind. Dabei legen sie besonders große Distanzen zurück und haben sich zum Ziel gesetzt, möglichst viel in kurzer Zeit zu sehen und zu erleben. Für alle Touristengruppen wurde untersucht, auf welchem Weg die Informationen für die geplante Reise beschafft wurden. Der Reiseführer ist der hauptsächliche Informationslieferant und ist teilweise für das Verhalten der Urlauber mitverantwortlich. Es konnte festgestellt werden, dass das Image des Landes und die Reisemotive das Reiseverhalten und die Wahrnehmung determinieren. Eine Untersuchung der so genannten Pull- und Push-Faktoren ergab, dass die nahezu noch unberührte Natur, die raue Landschaft sowie Ruhe und Erholung die entscheidenden Pull-Faktoren für Norwegenreisende sind. Dabei überprägt das Image Norwegens als „wildes Naturland“ die Wahrnehmung für verschiedene Problembereiche, die in Norwegen, wie auch in vielen anderen Ländern Europas, durchaus vorhanden sind. rnProblemfelder, wie Landschaftsausbeutung, Wildcamping, reduziertes Konsumverhalten und damit einhergehende rückläufige Besucherzahlen, können aber durch innovative Tourismuskonzepte und neue Reiseformen abgebaut werden. Hierbei sind Medien, wie Reiseführer, Internet und Reisemagazine, in die Pflicht zu nehmen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Innerhalb der vorliegenden Untersuchung geht es um die Verknüpfung von Medienbildung, homosexueller Sozialität und der Methodik der Biografieanalyse. Ausgangsbasis ist eine sozialkonstruktivistische Sichtweise auf Geschlecht und (Homo-) Sexualität, wobei eine sozio-historische Kontextualisierung von Homosexualität unter Berücksichtigung von Diskriminierung erfolgt. Im Fokus steht der Coming-out-Prozess, der zwischen Zeigen und Verstecken changiert und mittels des Mediums Internet einen Raum findet, indem neue Bestimmungen homosexueller Identitäten und Formen homosexueller Sozialität möglich werden. Kommunikative Aspekte des Internets werden ausführlich expliziert und durch die strukturelle Medienbildungstheorie nach Marotzki (2009) ergänzt, um mögliche verbundene Bildungsprozesse zu beschreiben. Innerhalb dieser Theorie werden vier kritische Reflexionshorizonte (Wissensbezug, Handlungsbezug, Grenzbezug, Biografiebezug) entfaltet und auf die Artikulations- und Präsentationsmöglichkeiten des Internets bezogen. Deutlich wird, dass das Internet Spielräume für Identitäten bietet, denen Potenziale für reale Identitätskonstruktionen inneliegen. Fassbar werden diese Potenziale durch das medienpädagogische Konstrukt der Medienbiografie, sowie Konzepte der erziehungswissenschaftlichen Biografieforschung (Konstrukt Bildung nach Marotzki, 1990a; Konstrukt Sexualbiografie nach Scheuermann, 1999; 1995). Empirisch orientiert sich die Studie an Methodologie und Methodik der Biografieforschung, Grounded Theory (Glaser/Strauss, 1967) und dem narrationsstrukturellen Verfahren nach Schütze (1984, 1983). Konkret wird auf folgende Forschungsfragen referiert: Wie gestalten sich Lern- und Bildungsprozesse für männliche Homosexuelle in digitalen Medienwelten? Welche Möglichkeiten und Gestaltungschancen gibt es für die Repräsentation des (sexuellen) Selbst im Medium Internet? Welche Auswirkungen haben diese virtuellen Prozesse auf die real gelebte Biografie und das Selbst- und Weltverhältnis der einzelnen Homosexuellen? Durch Rekonstruktion von vier Fallbeispielen werden Möglichkeiten des Internets für die Repräsentation und Identitätsgestaltung von männlichen Homosexuellen präsentiert, bei denen die Gestaltbarkeit von Konstruktionen sexueller Identität und die Problematik der Subjekt-Umwelt-Relation deutlich werden. Im weiteren erfolgt ein kontrastierender Vergleich der Einzelfälle (Dimensionen: Familie, Peer Group, sexualbiografische Entwicklung, Medienbildungsprozesse, biografische Fallstruktur), die einer anschließenden Konstruktion von vier idealtypischen Prozessvarianten der sexualbiografischen Identitätsentwicklung zugeführt werden. Vier verschiedene Möglichkeiten des Internets als Präsentationstraum der eigenen Sexualität und Konstruktionen homosexueller Identität lassen sich somit skizzieren (Virtualitätslagerung, Zweckorientierung, reflexive Balancierung, periodische Selbstaktualisierung). Tentative Bildungs- und Identitätsprozesse sind also in der Virtualität des Internets möglich und können rekursiv-zirkulär auf reale Identitätsentwicklungen und reale Zugänge zu spezifischen sozialen Gruppen einwirken.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ziel dieser Dissertation ist die experimentelle Charakterisierung und quantitative Beschreibung der Hybridisierung von komplementären Nukleinsäuresträngen mit oberflächengebundenen Fängermolekülen für die Entwicklung von integrierten Biosensoren. Im Gegensatz zu lösungsbasierten Verfahren ist mit Microarray Substraten die Untersuchung vieler Nukleinsäurekombinationen parallel möglich. Als biologisch relevantes Evaluierungssystem wurde das in Eukaryoten universell exprimierte Actin Gen aus unterschiedlichen Pflanzenspezies verwendet. Dieses Testsystem ermöglicht es, nahe verwandte Pflanzenarten auf Grund von geringen Unterschieden in der Gen-Sequenz (SNPs) zu charakterisieren. Aufbauend auf dieses gut studierte Modell eines House-Keeping Genes wurde ein umfassendes Microarray System, bestehend aus kurzen und langen Oligonukleotiden (mit eingebauten LNA-Molekülen), cDNAs sowie DNA und RNA Targets realisiert. Damit konnte ein für online Messung optimiertes Testsystem mit hohen Signalstärken entwickelt werden. Basierend auf den Ergebnissen wurde der gesamte Signalpfad von Nukleinsärekonzentration bis zum digitalen Wert modelliert. Die aus der Entwicklung und den Experimenten gewonnen Erkenntnisse über die Kinetik und Thermodynamik von Hybridisierung sind in drei Publikationen zusammengefasst die das Rückgrat dieser Dissertation bilden. Die erste Publikation beschreibt die Verbesserung der Reproduzierbarkeit und Spezifizität von Microarray Ergebnissen durch online Messung von Kinetik und Thermodynamik gegenüber endpunktbasierten Messungen mit Standard Microarrays. Für die Auswertung der riesigen Datenmengen wurden zwei Algorithmen entwickelt, eine reaktionskinetische Modellierung der Isothermen und ein auf der Fermi-Dirac Statistik beruhende Beschreibung des Schmelzüberganges. Diese Algorithmen werden in der zweiten Publikation beschrieben. Durch die Realisierung von gleichen Sequenzen in den chemisch unterschiedlichen Nukleinsäuren (DNA, RNA und LNA) ist es möglich, definierte Unterschiede in der Konformation des Riboserings und der C5-Methylgruppe der Pyrimidine zu untersuchen. Die kompetitive Wechselwirkung dieser unterschiedlichen Nukleinsäuren gleicher Sequenz und die Auswirkungen auf Kinetik und Thermodynamik ist das Thema der dritten Publikation. Neben der molekularbiologischen und technologischen Entwicklung im Bereich der Sensorik von Hybridisierungsreaktionen oberflächengebundener Nukleinsäuremolekülen, der automatisierten Auswertung und Modellierung der anfallenden Datenmengen und der damit verbundenen besseren quantitativen Beschreibung von Kinetik und Thermodynamik dieser Reaktionen tragen die Ergebnisse zum besseren Verständnis der physikalisch-chemischen Struktur des elementarsten biologischen Moleküls und seiner nach wie vor nicht vollständig verstandenen Spezifizität bei.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The atmosphere is a global influence on the movement of heat and humidity between the continents, and thus significantly affects climate variability. Information about atmospheric circulation are of major importance for the understanding of different climatic conditions. Dust deposits from maar lakes and dry maars from the Eifel Volcanic Field (Germany) are therefore used as proxy data for the reconstruction of past aeolian dynamics.rnrnIn this thesis past two sediment cores from the Eifel region are examined: the core SM3 from Lake Schalkenmehren and the core DE3 from the Dehner dry maar. Both cores contain the tephra of the Laacher See eruption, which is dated to 12,900 before present. Taken together the cores cover the last 60,000 years: SM3 the Holocene and DE3 the marine isotope stages MIS-3 and MIS-2, respectively. The frequencies of glacial dust storm events and their paleo wind direction are detected by high resolution grain size and provenance analysis of the lake sediments. Therefore two different methods are applied: geochemical measurements of the sediment using µXRF-scanning and the particle analysis method RADIUS (rapid particle analysis of digital images by ultra-high-resolution scanning of thin sections).rnIt is shown that single dust layers in the lake sediment are characterized by an increased content of aeolian transported carbonate particles. The limestone-bearing Eifel-North-South zone is the most likely source for the carbonate rich aeolian dust in the lake sediments of the Dehner dry maar. The dry maar is located on the western side of the Eifel-North-South zone. Thus, carbonate rich aeolian sediment is most likely to be transported towards the Dehner dry maar within easterly winds. A methodology is developed which limits the detection to the aeolian transported carbonate particles in the sediment, the RADIUS-carbonate module.rnrnIn summary, during the marine isotope stage MIS-3 the storm frequency and the east wind frequency are both increased in comparison to MIS-2. These results leads to the suggestion that atmospheric circulation was affected by more turbulent conditions during MIS-3 in comparison to the more stable atmospheric circulation during the full glacial conditions of MIS-2.rnThe results of the investigations of the dust records are finally evaluated in relation a study of atmospheric general circulation models for a comprehensive interpretation. Here, AGCM experiments (ECHAM3 and ECHAM4) with different prescribed SST patterns are used to develop a synoptic interpretation of long-persisting east wind conditions and of east wind storm events, which are suggested to lead to an enhanced accumulation of sediment being transported by easterly winds to the proxy site of the Dehner dry maar.rnrnThe basic observations made on the proxy record are also illustrated in the 10 m-wind vectors in the different model experiments under glacial conditions with different prescribed sea surface temperature patterns. Furthermore, the analysis of long-persisting east wind conditions in the AGCM data shows a stronger seasonality under glacial conditions: all the different experiments are characterized by an increase of the relative importance of the LEWIC during spring and summer. The different glacial experiments consistently show a shift from a long-lasting high over the Baltic Sea towards the NW, directly above the Scandinavian Ice Sheet, together with contemporary enhanced westerly circulation over the North Atlantic.rnrnThis thesis is a comprehensive analysis of atmospheric circulation patterns during the last glacial period. It has been possible to reconstruct important elements of the glacial paleo climate in Central Europe. While the proxy data from sediment cores lead to a binary signal of the wind direction changes (east versus west wind), a synoptic interpretation using atmospheric circulation models is successful. This shows a possible distribution of high and low pressure areas and thus the direction and strength of wind fields which have the capacity to transport dust. In conclusion, the combination of numerical models, to enhance understanding of processes in the climate system, with proxy data from the environmental record is the key to a comprehensive approach to paleo climatic reconstruction.rn

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Forschungsarbeit siedelt sich im Dreieck der Erziehungswissenschaften, der Informatik und der Schulpraxis an und besitzt somit einen starken interdisziplinären Charakter. Aus Sicht der Erziehungswissenschaften handelt es sich um ein Forschungsprojekt aus den Bereichen E-Learning und Multimedia Learning und der Fragestellung nach geeigneten Informatiksystemen für die Herstellung und den Austausch von digitalen, multimedialen und interaktiven Lernbausteinen. Dazu wurden zunächst methodisch-didaktische Vorteile digitaler Lerninhalte gegenüber klassischen Medien wie Buch und Papier zusammengetragen und mögliche Potentiale im Zusammenhang mit neuen Web2.0-Technologien aufgezeigt. Darauf aufbauend wurde für existierende Autorenwerkzeuge zur Herstellung digitaler Lernbausteine und bestehende Austauschplattformen analysiert, inwieweit diese bereits Web 2.0-Technologien unterstützen und nutzen. Aus Sicht der Informatik ergab sich aus der Analyse bestehender Systeme ein Anforderungsprofil für ein neues Autorenwerkzeug und eine neue Austauschplattform für digitale Lernbausteine. Das neue System wurde nach dem Ansatz des Design Science Research in einem iterativen Entwicklungsprozess in Form der Webapplikation LearningApps.org realisiert und stetig mit Lehrpersonen aus der Schulpraxis evaluiert. Bei der Entwicklung kamen aktuelle Web-Technologien zur Anwendung. Das Ergebnis der Forschungsarbeit ist ein produktives Informatiksystem, welches bereits von tausenden Nutzern in verschiedenen Ländern sowohl in Schulen als auch in der Wirtschaft eingesetzt wird. In einer empirischen Studie konnte das mit der Systementwicklung angestrebte Ziel, die Herstellung und den Austausch von digitalen Lernbausteinen zu vereinfachen, bestätigt werden. Aus Sicht der Schulpraxis liefert LearningApps.org einen Beitrag zur Methodenvielfalt und zur Nutzung von ICT im Unterricht. Die Ausrichtung des Werkzeugs auf mobile Endgeräte und 1:1-Computing entspricht dem allgemeinen Trend im Bildungswesen. Durch die Verknüpfung des Werkzeugs mit aktuellen Software Entwicklungen zur Herstellung von digitalen Schulbüchern werden auch Lehrmittelverlage als Zielgruppe angesprochen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In vielen Bereichen der industriellen Fertigung, wie zum Beispiel in der Automobilindustrie, wer- den digitale Versuchsmodelle (sog. digital mock-ups) eingesetzt, um die Entwicklung komplexer Maschinen m ̈oglichst gut durch Computersysteme unterstu ̈tzen zu k ̈onnen. Hierbei spielen Be- wegungsplanungsalgorithmen eine wichtige Rolle, um zu gew ̈ahrleisten, dass diese digitalen Pro- totypen auch kollisionsfrei zusammengesetzt werden k ̈onnen. In den letzten Jahrzehnten haben sich hier sampling-basierte Verfahren besonders bew ̈ahrt. Diese erzeugen eine große Anzahl von zuf ̈alligen Lagen fu ̈r das ein-/auszubauende Objekt und verwenden einen Kollisionserken- nungsmechanismus, um die einzelnen Lagen auf Gu ̈ltigkeit zu u ̈berpru ̈fen. Daher spielt die Kollisionserkennung eine wesentliche Rolle beim Design effizienter Bewegungsplanungsalgorith- men. Eine Schwierigkeit fu ̈r diese Klasse von Planern stellen sogenannte “narrow passages” dar, schmale Passagen also, die immer dort auftreten, wo die Bewegungsfreiheit der zu planenden Objekte stark eingeschr ̈ankt ist. An solchen Stellen kann es schwierig sein, eine ausreichende Anzahl von kollisionsfreien Samples zu finden. Es ist dann m ̈oglicherweise n ̈otig, ausgeklu ̈geltere Techniken einzusetzen, um eine gute Performance der Algorithmen zu erreichen.rnDie vorliegende Arbeit gliedert sich in zwei Teile: Im ersten Teil untersuchen wir parallele Kollisionserkennungsalgorithmen. Da wir auf eine Anwendung bei sampling-basierten Bewe- gungsplanern abzielen, w ̈ahlen wir hier eine Problemstellung, bei der wir stets die selben zwei Objekte, aber in einer großen Anzahl von unterschiedlichen Lagen auf Kollision testen. Wir im- plementieren und vergleichen verschiedene Verfahren, die auf Hu ̈llk ̈operhierarchien (BVHs) und hierarchische Grids als Beschleunigungsstrukturen zuru ̈ckgreifen. Alle beschriebenen Verfahren wurden auf mehreren CPU-Kernen parallelisiert. Daru ̈ber hinaus vergleichen wir verschiedene CUDA Kernels zur Durchfu ̈hrung BVH-basierter Kollisionstests auf der GPU. Neben einer un- terschiedlichen Verteilung der Arbeit auf die parallelen GPU Threads untersuchen wir hier die Auswirkung verschiedener Speicherzugriffsmuster auf die Performance der resultierenden Algo- rithmen. Weiter stellen wir eine Reihe von approximativen Kollisionstests vor, die auf den beschriebenen Verfahren basieren. Wenn eine geringere Genauigkeit der Tests tolerierbar ist, kann so eine weitere Verbesserung der Performance erzielt werden.rnIm zweiten Teil der Arbeit beschreiben wir einen von uns entworfenen parallelen, sampling- basierten Bewegungsplaner zur Behandlung hochkomplexer Probleme mit mehreren “narrow passages”. Das Verfahren arbeitet in zwei Phasen. Die grundlegende Idee ist hierbei, in der er- sten Planungsphase konzeptionell kleinere Fehler zuzulassen, um die Planungseffizienz zu erh ̈ohen und den resultierenden Pfad dann in einer zweiten Phase zu reparieren. Der hierzu in Phase I eingesetzte Planer basiert auf sogenannten Expansive Space Trees. Zus ̈atzlich haben wir den Planer mit einer Freidru ̈ckoperation ausgestattet, die es erlaubt, kleinere Kollisionen aufzul ̈osen und so die Effizienz in Bereichen mit eingeschr ̈ankter Bewegungsfreiheit zu erh ̈ohen. Optional erlaubt unsere Implementierung den Einsatz von approximativen Kollisionstests. Dies setzt die Genauigkeit der ersten Planungsphase weiter herab, fu ̈hrt aber auch zu einer weiteren Perfor- mancesteigerung. Die aus Phase I resultierenden Bewegungspfade sind dann unter Umst ̈anden nicht komplett kollisionsfrei. Um diese Pfade zu reparieren, haben wir einen neuartigen Pla- nungsalgorithmus entworfen, der lokal beschr ̈ankt auf eine kleine Umgebung um den bestehenden Pfad einen neuen, kollisionsfreien Bewegungspfad plant.rnWir haben den beschriebenen Algorithmus mit einer Klasse von neuen, schwierigen Metall- Puzzlen getestet, die zum Teil mehrere “narrow passages” aufweisen. Unseres Wissens nach ist eine Sammlung vergleichbar komplexer Benchmarks nicht ̈offentlich zug ̈anglich und wir fan- den auch keine Beschreibung von vergleichbar komplexen Benchmarks in der Motion-Planning Literatur.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Der technische Fortschritt konfrontiert die medizinische Bildgebung wie keine andere Sparte der Medizin mit einem rasanten Anstieg zu speichernder Daten. Anschaffung, Wartung und Ausbau der nötigen Infrastruktur entwickeln sich zunehmend zu einem ökonomischen Faktor. Ein Verfahren, welches diesem Trend etwas entgegensetzten könnte ist die irreversible Bilddatenkompression. Sie ist seit über 10 Jahren Gegenstand vieler Studien, deren Ergebnisse sich wiederum in Empfehlungen zum Einsatz irreversibler Kompression mehrerer nationaler und internationaler Organisation, wie CAR, DRG, RCR und ESR wiederspiegeln. Tenor dieser Empfehlungen ist, dass der Einsatz von moderater irreversibler Bilddatenkompression sicher und sinnvoll ist. Teil dieser Empfehlungen sind auch Angaben über das Maß an Kompression, ausgedrückt in Kompressionsraten, welche je nach Untersuchung und anatomischer Region als sicher anwendbar gelten und keinen diagnostisch relevanten Verlust der komprimierten Bilder erzeugen.rnVerschiedene Kompressionsalgorithmen wurden vorgeschlagen. Letztendlich haben sich vor allem die beiden weit verbreiteten Algorithmen JPEG und JPEG2000 bewährt. Letzterer erfährt in letzter Zeit zunehmen Anwendung, aufgrund seiner einfacheren Handhabung und seiner umfangreichen Zusatzfunktionen.rnAufgrund rechtlich-ethischer Bedenken hat die irreversible Kompression keine breite praktische Anwendung finden können. Dafür verantwortlich ist unter anderem auch die Unklarheit, wie sich irreversible Kompression auf Nach- und Weiterverarbeitung (sog. Postprocessing) medizinischer Bilder, wie Segmentierung, Volumetrie oder 3D-Darstellung, auswirkt. Bisherige Studien zu diesem Thema umfassen vier verschiedene Postprocessing-Algorithmen. Die untersuchten Algorithmen zeigten sich bei verlustbehafteter Kompression im Bereich der erwähnten, publizierten Kompressionsraten weitgehend unbeeinflusst. Lediglich die computergestützte Messung von Stenosegraden in der digitalen Koronarangiographie kollidiert mit den in Großbritannien geltenden Empfehlungen. Die Verwendung unterschiedlicher Kompressionsalgorithmen schränkt die allgemeinernAussagekraft dieser Studienergebnisse außerdem ein.rnZur Erweiterung der Studienlage wurden vier weitere Nach- und Weiterverarbeitungsalgorithmen auf ihre Kompressionstoleranz untersucht. Dabei wurden die Kompressionsraten von 8:1, 10:1 und 15:1 verwendet, welche um die empfohlenen Kompressionsraten von CAR, DRG, RCR und ESR liegen und so ein praxisnahes Setting bieten. Als Kompressionsalgorithmus wurde JPEG2000 verwendet, aufgrund seiner zunehmenden Nutzung in Studien sowie seiner bereits erwähnten Vorzüge in Sachen Handhabung und Zusatzfunktionen. Die vier Algorithmen umfassten das 3D-Volume rendering von CT-Angiographien der Becken-Bein-Gefäße, die Computer-assistierte Detektion von Lungenrundherden, die automatisierte Volumetrie von Leberrundherden und die funktionelle Bestimmung der Ejektionsfraktion in computertomographischen Aufnahmen des Herzens.rnAlle vier Algorithmen zeigten keinen Einfluss durch irreversibler Bilddatenkompression in denrngewählten Kompressionsraten (8:1, 10:1 und 15:1). Zusammen mit der bestehenden Literatur deuten die Ergebnisse an, dass moderate irreversible Kompression im Rahmen aktueller Empfehlungen keinen Einfluss auf Nach- und Weiterverarbeitung medizinischer Bilder hat. Eine explizitere Vorhersage zu einem bestimmten, noch nicht untersuchten Algorithmus ist jedoch aufgrund der unterschiedlichen Funktionsweisen und Programmierungen nicht sicher möglich.rnSofern ein Postprocessing Algorithmus auf komprimiertes Bildmaterial angewendet werden soll, muss dieser zunächst auf seine Kompressionstoleranz getestet werden. Dabei muss der Test eine rechtlich-ethische Grundlage für den Einsatz des Algorithmus bei komprimiertem Bildmaterial schaffen. Es sind vor allem zwei Optionen denkbar, die Testung institutsintern, eventuell unter Zuhilfenahme von vorgefertigten Bibliotheken, oder die Testung durch den Hersteller des Algorithmus.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Transmissionselektronenmikroskopie gepaart mit bioinformatischen Methoden zur digitalen Bildverarbeitung ist ein schneller Weg zur Erstellung dreidimensionaler Rekonstruktionen großer Proteinkomplexe. Durch die Kombination der 3D-Elektronenmikroskopie mit der Röntgenstruktur von Untereinheiten erhält man ein pseudoatomares Modell der Quartärstruktur.rnIn dieser Arbeit wurden auf diese Weise die Quartärstrukturen von drei unterschiedlichen respiratorischen Proteinen analysiert (einem Hämoglobin und zwei Hämocyaninen). Zudem wurden spezielle Software-Tools entwickelt, um vorhandene Softwarepakete besser miteinander kombinieren zu können.rnDie ca. 15Å 3D-Rekonstruktion des Hämoglobins vom Wasserfloh Daphnia pulex klärt die umstrittene Frage, wie viele Untereinheiten die Quartärstruktur aufbauen: Es sind 16 (mit je zwei Häm-Domänen), angeordnet in zwei Schichten als D4-symmetrisches Sandwich. Die ca. 15 Å 3D-Rekonstruktion des 2x6meren Hämocyanins des Flusskrebses Astacus leptodactylus gibt neue Einblicke in die Kontaktstelle zwischen den beiden Hexameren; sie liegt im Bereich der Domäne 3. Bei dem aus 48 Untereinheiten bestehenden Hämocyanin des Pfeilschwanzes Limulus polyphemus wurde eine Auflösung von ca. 7 Å erreicht. Die Homologiemodelle der Untereinheiten wurden flexibel gefittet. An einer der Kontaktstellen zwischen den beiden Halbmolekülen wurden Molekulardynamik (MD)-Simulationen durchgeführt, um mehr über die Art der chemischen Bindung an dieser Kontaktstelle zu erfahren.rnSpeziell für die Kombination von 3D-Elektronenmikroskopie und MD-Simulation wurden verschiedene bioinformatische Werkzeuge und eine leicht zu erweiternde universelle grafische Benutzeroberfläche (GUI) entwickelt.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Molekularbiologie von Menschen ist ein hochkomplexes und vielfältiges Themengebiet, in dem in vielen Bereichen geforscht wird. Der Fokus liegt hier insbesondere auf den Bereichen der Genomik, Proteomik, Transkriptomik und Metabolomik, und Jahre der Forschung haben große Mengen an wertvollen Daten zusammengetragen. Diese Ansammlung wächst stetig und auch für die Zukunft ist keine Stagnation absehbar. Mittlerweile aber hat diese permanente Informationsflut wertvolles Wissen in unüberschaubaren, digitalen Datenbergen begraben und das Sammeln von forschungsspezifischen und zuverlässigen Informationen zu einer großen Herausforderung werden lassen. Die in dieser Dissertation präsentierte Arbeit hat ein umfassendes Kompendium von humanen Geweben für biomedizinische Analysen generiert. Es trägt den Namen medicalgenomics.org und hat diverse biomedizinische Probleme auf der Suche nach spezifischem Wissen in zahlreichen Datenbanken gelöst. Das Kompendium ist das erste seiner Art und sein gewonnenes Wissen wird Wissenschaftlern helfen, einen besseren systematischen Überblick über spezifische Gene oder funktionaler Profile, mit Sicht auf Regulation sowie pathologische und physiologische Bedingungen, zu bekommen. Darüber hinaus ermöglichen verschiedene Abfragemethoden eine effiziente Analyse von signalgebenden Ereignissen, metabolischen Stoffwechselwegen sowie das Studieren der Gene auf der Expressionsebene. Die gesamte Vielfalt dieser Abfrageoptionen ermöglicht den Wissenschaftlern hoch spezialisierte, genetische Straßenkarten zu erstellen, mit deren Hilfe zukünftige Experimente genauer geplant werden können. Infolgedessen können wertvolle Ressourcen und Zeit eingespart werden, bei steigenden Erfolgsaussichten. Des Weiteren kann das umfassende Wissen des Kompendiums genutzt werden, um biomedizinische Hypothesen zu generieren und zu überprüfen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Bandlaufwerke waren bisher die vorherrschende Technologie, um die anfallenden Datenmengen in Archivsystemen zu speichern. Mit Zugriffsmustern, die immer aktiver werden, und Speichermedien wie Festplatten die kostenmäßig aufholen, muss die Architektur vor Speichersystemen zur Archivierung neu überdacht werden. Zuverlässigkeit, Integrität und Haltbarkeit sind die Haupteigenschaften der digitalen Archivierung. Allerdings nimmt auch die Zugriffsgeschwindigkeit einen erhöhten Stellenwert ein, wenn aktive Archive ihre gesamten Inhalte für den direkten Zugriff bereitstellen. Ein band-basiertes System kann die hierfür benötigte Parallelität, Latenz und Durchsatz nicht liefern, was in der Regel durch festplattenbasierte Systeme als Zwischenspeicher kompensiert wird.rnIn dieser Arbeit untersuchen wir die Herausforderungen und Möglichkeiten ein festplattenbasiertes Speichersystem zu entwickeln, das auf eine hohe Zuverlässigkeit und Energieeffizienz zielt und das sich sowohl für aktive als auch für kalte Archivumgebungen eignet. Zuerst analysieren wir die Speichersysteme und Zugriffsmuster eines großen digitalen Archivs und präsentieren damit ein mögliches Einsatzgebiet für unsere Architektur. Daraufhin stellen wir Mechanismen vor um die Zuverlässigkeit einer einzelnen Festplatte zu verbessern und präsentieren sowie evaluieren einen neuen, energieeffizienten, zwei- dimensionalen RAID Ansatz der für „Schreibe ein Mal, lese mehrfach“ Zugriffe optimiert ist. Letztlich stellen wir Protokollierungs- und Zwischenspeichermechanismen vor, die die zugrundeliegenden Ziele unterstützen und evaluieren das RAID System in einer Dateisystemumgebung.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Future experiments in nuclear and particle physics are moving towards the high luminosity regime in order to access rare processes. In this framework, particle detectors require high rate capability together with excellent timing resolution for precise event reconstruction. In order to achieve this, the development of dedicated FrontEnd Electronics (FEE) for detectors has become increasingly challenging and expensive. Thus, a current trend in R&D is towards flexible FEE that can be easily adapted to a great variety of detectors, without impairing the required high performance. This thesis reports on a novel FEE for two different detector types: imaging Cherenkov counters and plastic scintillator arrays. The former requires high sensitivity and precision for detection of single photon signals, while the latter is characterized by slower and larger signals typical of scintillation processes. The FEE design was developed using high-bandwidth preamplifiers and fast discriminators which provide Time-over-Threshold (ToT). The use of discriminators allowed for low power consumption, minimal dead-times and self-triggering capabilities, all fundamental aspects for high rate applications. The output signals of the FEE are readout by a high precision TDC system based on FPGA. The performed full characterization of the analogue signals under realistic conditions proved that the ToT information can be used in a novel way for charge measurements or walk corrections, thus improving the obtainable timing resolution. Detailed laboratory investigations proved the feasibility of the ToT method. The full readout chain was investigated in test experiments at the Mainz Microtron: high counting rates per channel of several MHz were achieved, and a timing resolution of better than 100 ps after walk correction based on ToT was obtained. Ongoing applications to fast Time-of-Flight counters and future developments of FEE have been also recently investigated.