14 resultados para Bitcoin crittografia ECDSA moneta digitale cripto valutafirma digitale transazioni peer-to-peer proof of work

em ArchiMeD - Elektronische Publikationen der Universität Mainz - Alemanha


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Es wurde ein für bodengebundene Feldmessungen geeignetes System zur digital-holographischen Abbildung luftgetragener Objekte entwickelt und konstruiert. Es ist, abhängig von der Tiefenposition, geeignet zur direkten Bestimmung der Größe luftgetragener Objekte oberhalb von ca. 20 µm, sowie ihrer Form bei Größen oberhalb von ca. 100µm bis in den Millimeterbereich. Die Entwicklung umfaßte zusätzlich einen Algorithmus zur automatisierten Verbesserung der Hologrammqualität und zur semiautomatischen Entfernungsbestimmung großer Objekte entwickelt. Eine Möglichkeit zur intrinsischen Effizienzsteigerung der Bestimmung der Tiefenposition durch die Berechnung winkelgemittelter Profile wurde vorgestellt. Es wurde weiterhin ein Verfahren entwickelt, das mithilfe eines iterativen Ansatzes für isolierte Objekte die Rückgewinnung der Phaseninformation und damit die Beseitigung des Zwillingsbildes erlaubt. Weiterhin wurden mithilfe von Simulationen die Auswirkungen verschiedener Beschränkungen der digitalen Holographie wie der endlichen Pixelgröße untersucht und diskutiert. Die geeignete Darstellung der dreidimensionalen Ortsinformation stellt in der digitalen Holographie ein besonderes Problem dar, da das dreidimensionale Lichtfeld nicht physikalisch rekonstruiert wird. Es wurde ein Verfahren entwickelt und implementiert, das durch Konstruktion einer stereoskopischen Repräsentation des numerisch rekonstruierten Meßvolumens eine quasi-dreidimensionale, vergrößerte Betrachtung erlaubt. Es wurden ausgewählte, während Feldversuchen auf dem Jungfraujoch aufgenommene digitale Hologramme rekonstruiert. Dabei ergab sich teilweise ein sehr hoher Anteil an irregulären Kristallformen, insbesondere infolge massiver Bereifung. Es wurden auch in Zeiträumen mit formal eisuntersättigten Bedingungen Objekte bis hinunter in den Bereich ≤20µm beobachtet. Weiterhin konnte in Anwendung der hier entwickelten Theorie des ”Phasenrandeffektes“ ein Objekt von nur ca. 40µm Größe als Eisplättchen identifiziert werden. Größter Nachteil digitaler Holographie gegenüber herkömmlichen photographisch abbildenden Verfahren ist die Notwendigkeit der aufwendigen numerischen Rekonstruktion. Es ergibt sich ein hoher rechnerischer Aufwand zum Erreichen eines einer Photographie vergleichbaren Ergebnisses. Andererseits weist die digitale Holographie Alleinstellungsmerkmale auf. Der Zugang zur dreidimensionalen Ortsinformation kann der lokalen Untersuchung der relativen Objektabstände dienen. Allerdings zeigte sich, dass die Gegebenheiten der digitalen Holographie die Beobachtung hinreichend großer Mengen von Objekten auf der Grundlage einzelner Hologramm gegenwärtig erschweren. Es wurde demonstriert, dass vollständige Objektgrenzen auch dann rekonstruiert werden konnten, wenn ein Objekt sich teilweise oder ganz außerhalb des geometrischen Meßvolumens befand. Weiterhin wurde die zunächst in Simulationen demonstrierte Sub-Bildelementrekonstruktion auf reale Hologramme angewandt. Dabei konnte gezeigt werden, dass z.T. quasi-punktförmige Objekte mit Sub-Pixelgenauigkeit lokalisiert, aber auch bei ausgedehnten Objekten zusätzliche Informationen gewonnen werden konnten. Schließlich wurden auf rekonstruierten Eiskristallen Interferenzmuster beobachtet und teilweise zeitlich verfolgt. Gegenwärtig erscheinen sowohl kristallinterne Reflexion als auch die Existenz einer (quasi-)flüssigen Schicht als Erklärung möglich, wobei teilweise in Richtung der letztgenannten Möglichkeit argumentiert werden konnte. Als Ergebnis der Arbeit steht jetzt ein System zur Verfügung, das ein neues Meßinstrument und umfangreiche Algorithmen umfaßt. S. M. F. Raupach, H.-J. Vössing, J. Curtius und S. Borrmann: Digital crossed-beam holography for in-situ imaging of atmospheric particles, J. Opt. A: Pure Appl. Opt. 8, 796-806 (2006) S. M. F. Raupach: A cascaded adaptive mask algorithm for twin image removal and its application to digital holograms of ice crystals, Appl. Opt. 48, 287-301 (2009) S. M. F. Raupach: Stereoscopic 3D visualization of particle fields reconstructed from digital inline holograms, (zur Veröffentlichung angenommen, Optik - Int. J. Light El. Optics, 2009)

Relevância:

100.00% 100.00%

Publicador:

Resumo:

On the basis of illustrations of Shakespeare's Hamlet, the new digital 'Oppel-Hammerschmidt Shakespeare Illustration Archive' at the Mainz University Library - together with a lavishly-constructed and multiply-linked Web interface version - was presented to the public on 17 November 2008. This e-book, edited by Andreas Anderhub and Hildegard Hammerschmidt-Hummel, contains the speeches and presentations given on the occasion of the opening ceremony of the electronic archive. The collection of the new archive, published here for the first time, holds about 3,500 images and is part of the only Shakespeare illustration archive in the world. The Shakespeare Illustration Archive was founded in 1946 by the internationally acclaimed Shakespeare and Goethe scholar, Prof. Horst Oppel. This part of the archive was donated to the Mainz University Library on condition that its holdings be digitalised and made available to the public. The collection has been named 'The Oppel-Hammerschmidt Shakespeare Illustration Archive' in accordance with the terms of the Agreement of Donation of 9, 15, and 16 September 2005, and honouring the 16 March 1988 Delegation of Authority and Declaration of Intent by Frau Ingeborg Oppel, Prof. Oppel's widow and legal assignee. Vice-President Prof. Jürgen Oldenstein opened the proceedings by noting that 2008 had been a good year for international Shakespeare scholarship. For, in London, the site of the 'Theatre' in Shoreditch, where Shakespeare's company performed, had been unearthed, and in Mainz the Shakespeare Archive had gone online with thousands of illustrations. The Dean of the Faculty of Philosophy and Philology, Prof. Mechthild Dreyer, who mentioned that she herself had long been successfully employing interdisciplinary research methods, took particular pleasure in the transdisciplinary approach to research resolutely pursued by Prof. Hammerschmidt-Hummel. Prof. Clemens Zintzen (Cologne), former President of the Mainz Academy of Literature and Sciences, recalled highlights from the more than sixty-year-long history of the Shakespeare Illustration Archive. Prof. Kurt Otten (Heidelberg and Cambridge) drew an impressive portrait of Horst Oppel's personality as an academic and praised his influential books on Goethe and Shakespeare. He pointed out that Oppel's Shakespeare Illustration Archive, the basis for many a dissertation, had enjoyed great popularity around the world. Prof. Otten also delineated the academic career of Prof. Hammerschmidt-Hummel and her new findings regarding Shakespeare's time, life and work. Prof. Rüdiger Ahrens OBE (Würzburg) drew attention to Prof. Hammerschmidt-Hummel's research results, directly or indirectly arising out of her work on the Shakespeare Illustration Archive. This research had centred on proving the authenticity of four visual representations of Shakespeare (the Chandos and Flower portraits, the Davenant bust and the Darmstadt Shakespeare death mask); solving the mystery around Shakespeare's 'Dark Lady'; and establishing the dramatist's Catholic religion. Prof. Hammerschmidt-Hummel reported on her 'Shakespeare Illustration' project, describing the nature, dimensions and significance of the Archive's pictorial material, which relates to all of Shakespeare's plays and stretches over five centuries. She explained that the digital 'Oppel-Hammerschmidt Illustration Archive' was an addition to the three-volume edition she had compiled, authored and edited for publication in 2003. Unlike the print version, however, the digital collection had only been partly editorially prepared. It represented source material and a basis for further work. Hammerschmidt-Hummel expressed her thanks to the Head of the Central University Library, Dr Andreas Anderhub, for his untiring commitment. After the initial donation had been made, he had entered enthusiastically into setting up the necessary contacts, getting all the work underway, and clearing the legal hurdles. Hammerschmidt-Hummel was especially grateful to University of Mainz librarian Heike Geisel, who had worked for nearly five years to carry out the large-scale digitalization of a total of 8,800 items. Frau Geisel was also extremely resourceful in devising ways of making the collection yield even more, e.g. by classifying and cross-linking the data, assembling clusters of individual topics that lend themselves to research, and (in collaboration with the art historian Dr Klaus Weber) making the archive's index of artists compatible with the data-bank of artists held by the University of Mainz Institute of Art History. In addition, she compiled an extremely helpful 'users' guide' to the new digital collection. Frau Geisel had enjoyed invaluable support from Dr Annette Holzapfel-Pschorn, the leading academic in the Central IT Department at the University, who set up an intelligent, most impressive Web interface using the latest application technologies. Frau Geisel and Dr Holzapfel-Pschorn were highly praised for their convincing demonstration, using illustrations to Hamlet, of how to access this well-devised and exceptionally user-friendly Web version. For legal reasons, Prof. Hammerschmidt-Hummel pointed out, the collection could not be released for open access on the internet. The media - as Dr Anderhub stressed in his foreword - had shown great interest in the new digital collection of thousands of Shakespearean illustrations (cf. Benjamin Cor's TV feature in "Tagesthemen", 17 November 2008, presented by Tom Buhrow). The ‘Oppel-Hammerschmidt Shakespeare Illustration Archive’ should also meet with particular interest not only among academic specialists, but also among the performers of the arts and persons active in the cultural realm in general, as well as theatre and film directors, literary managers, teachers, and countless Shakespeare enthusiasts.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In technical design processes in the automotive industry, digital prototypes rapidly gain importance, because they allow for a detection of design errors in early development stages. The technical design process includes the computation of swept volumes for maintainability analysis and clearance checks. The swept volume is very useful, for example, to identify problem areas where a safety distance might not be kept. With the explicit construction of the swept volume an engineer gets evidence on how the shape of components that come too close have to be modified.rnIn this thesis a concept for the approximation of the outer boundary of a swept volume is developed. For safety reasons, it is essential that the approximation is conservative, i.e., that the swept volume is completely enclosed by the approximation. On the other hand, one wishes to approximate the swept volume as precisely as possible. In this work, we will show, that the one-sided Hausdorff distance is the adequate measure for the error of the approximation, when the intended usage is clearance checks, continuous collision detection and maintainability analysis in CAD. We present two implementations that apply the concept and generate a manifold triangle mesh that approximates the outer boundary of a swept volume. Both algorithms are two-phased: a sweeping phase which generates a conservative voxelization of the swept volume, and the actual mesh generation which is based on restricted Delaunay refinement. This approach ensures a high precision of the approximation while respecting conservativeness.rnThe benchmarks for our test are amongst others real world scenarios that come from the automotive industry.rnFurther, we introduce a method to relate parts of an already computed swept volume boundary to those triangles of the generator, that come closest during the sweep. We use this to verify as well as to colorize meshes resulting from our implementations.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In vielen Bereichen der industriellen Fertigung, wie zum Beispiel in der Automobilindustrie, wer- den digitale Versuchsmodelle (sog. digital mock-ups) eingesetzt, um die Entwicklung komplexer Maschinen m ̈oglichst gut durch Computersysteme unterstu ̈tzen zu k ̈onnen. Hierbei spielen Be- wegungsplanungsalgorithmen eine wichtige Rolle, um zu gew ̈ahrleisten, dass diese digitalen Pro- totypen auch kollisionsfrei zusammengesetzt werden k ̈onnen. In den letzten Jahrzehnten haben sich hier sampling-basierte Verfahren besonders bew ̈ahrt. Diese erzeugen eine große Anzahl von zuf ̈alligen Lagen fu ̈r das ein-/auszubauende Objekt und verwenden einen Kollisionserken- nungsmechanismus, um die einzelnen Lagen auf Gu ̈ltigkeit zu u ̈berpru ̈fen. Daher spielt die Kollisionserkennung eine wesentliche Rolle beim Design effizienter Bewegungsplanungsalgorith- men. Eine Schwierigkeit fu ̈r diese Klasse von Planern stellen sogenannte “narrow passages” dar, schmale Passagen also, die immer dort auftreten, wo die Bewegungsfreiheit der zu planenden Objekte stark eingeschr ̈ankt ist. An solchen Stellen kann es schwierig sein, eine ausreichende Anzahl von kollisionsfreien Samples zu finden. Es ist dann m ̈oglicherweise n ̈otig, ausgeklu ̈geltere Techniken einzusetzen, um eine gute Performance der Algorithmen zu erreichen.rnDie vorliegende Arbeit gliedert sich in zwei Teile: Im ersten Teil untersuchen wir parallele Kollisionserkennungsalgorithmen. Da wir auf eine Anwendung bei sampling-basierten Bewe- gungsplanern abzielen, w ̈ahlen wir hier eine Problemstellung, bei der wir stets die selben zwei Objekte, aber in einer großen Anzahl von unterschiedlichen Lagen auf Kollision testen. Wir im- plementieren und vergleichen verschiedene Verfahren, die auf Hu ̈llk ̈operhierarchien (BVHs) und hierarchische Grids als Beschleunigungsstrukturen zuru ̈ckgreifen. Alle beschriebenen Verfahren wurden auf mehreren CPU-Kernen parallelisiert. Daru ̈ber hinaus vergleichen wir verschiedene CUDA Kernels zur Durchfu ̈hrung BVH-basierter Kollisionstests auf der GPU. Neben einer un- terschiedlichen Verteilung der Arbeit auf die parallelen GPU Threads untersuchen wir hier die Auswirkung verschiedener Speicherzugriffsmuster auf die Performance der resultierenden Algo- rithmen. Weiter stellen wir eine Reihe von approximativen Kollisionstests vor, die auf den beschriebenen Verfahren basieren. Wenn eine geringere Genauigkeit der Tests tolerierbar ist, kann so eine weitere Verbesserung der Performance erzielt werden.rnIm zweiten Teil der Arbeit beschreiben wir einen von uns entworfenen parallelen, sampling- basierten Bewegungsplaner zur Behandlung hochkomplexer Probleme mit mehreren “narrow passages”. Das Verfahren arbeitet in zwei Phasen. Die grundlegende Idee ist hierbei, in der er- sten Planungsphase konzeptionell kleinere Fehler zuzulassen, um die Planungseffizienz zu erh ̈ohen und den resultierenden Pfad dann in einer zweiten Phase zu reparieren. Der hierzu in Phase I eingesetzte Planer basiert auf sogenannten Expansive Space Trees. Zus ̈atzlich haben wir den Planer mit einer Freidru ̈ckoperation ausgestattet, die es erlaubt, kleinere Kollisionen aufzul ̈osen und so die Effizienz in Bereichen mit eingeschr ̈ankter Bewegungsfreiheit zu erh ̈ohen. Optional erlaubt unsere Implementierung den Einsatz von approximativen Kollisionstests. Dies setzt die Genauigkeit der ersten Planungsphase weiter herab, fu ̈hrt aber auch zu einer weiteren Perfor- mancesteigerung. Die aus Phase I resultierenden Bewegungspfade sind dann unter Umst ̈anden nicht komplett kollisionsfrei. Um diese Pfade zu reparieren, haben wir einen neuartigen Pla- nungsalgorithmus entworfen, der lokal beschr ̈ankt auf eine kleine Umgebung um den bestehenden Pfad einen neuen, kollisionsfreien Bewegungspfad plant.rnWir haben den beschriebenen Algorithmus mit einer Klasse von neuen, schwierigen Metall- Puzzlen getestet, die zum Teil mehrere “narrow passages” aufweisen. Unseres Wissens nach ist eine Sammlung vergleichbar komplexer Benchmarks nicht ̈offentlich zug ̈anglich und wir fan- den auch keine Beschreibung von vergleichbar komplexen Benchmarks in der Motion-Planning Literatur.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Die Forschungsarbeit siedelt sich im Dreieck der Erziehungswissenschaften, der Informatik und der Schulpraxis an und besitzt somit einen starken interdisziplinären Charakter. Aus Sicht der Erziehungswissenschaften handelt es sich um ein Forschungsprojekt aus den Bereichen E-Learning und Multimedia Learning und der Fragestellung nach geeigneten Informatiksystemen für die Herstellung und den Austausch von digitalen, multimedialen und interaktiven Lernbausteinen. Dazu wurden zunächst methodisch-didaktische Vorteile digitaler Lerninhalte gegenüber klassischen Medien wie Buch und Papier zusammengetragen und mögliche Potentiale im Zusammenhang mit neuen Web2.0-Technologien aufgezeigt. Darauf aufbauend wurde für existierende Autorenwerkzeuge zur Herstellung digitaler Lernbausteine und bestehende Austauschplattformen analysiert, inwieweit diese bereits Web 2.0-Technologien unterstützen und nutzen. Aus Sicht der Informatik ergab sich aus der Analyse bestehender Systeme ein Anforderungsprofil für ein neues Autorenwerkzeug und eine neue Austauschplattform für digitale Lernbausteine. Das neue System wurde nach dem Ansatz des Design Science Research in einem iterativen Entwicklungsprozess in Form der Webapplikation LearningApps.org realisiert und stetig mit Lehrpersonen aus der Schulpraxis evaluiert. Bei der Entwicklung kamen aktuelle Web-Technologien zur Anwendung. Das Ergebnis der Forschungsarbeit ist ein produktives Informatiksystem, welches bereits von tausenden Nutzern in verschiedenen Ländern sowohl in Schulen als auch in der Wirtschaft eingesetzt wird. In einer empirischen Studie konnte das mit der Systementwicklung angestrebte Ziel, die Herstellung und den Austausch von digitalen Lernbausteinen zu vereinfachen, bestätigt werden. Aus Sicht der Schulpraxis liefert LearningApps.org einen Beitrag zur Methodenvielfalt und zur Nutzung von ICT im Unterricht. Die Ausrichtung des Werkzeugs auf mobile Endgeräte und 1:1-Computing entspricht dem allgemeinen Trend im Bildungswesen. Durch die Verknüpfung des Werkzeugs mit aktuellen Software Entwicklungen zur Herstellung von digitalen Schulbüchern werden auch Lehrmittelverlage als Zielgruppe angesprochen.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Die vorliegende Arbeit beschäftigt sich vorwiegend mit Detektionsproblemen, die bei Experimenten zur Chemie der Transactiniden mit dem schnellen Flüssig-Flüssig-Extraktionssystem SISAK auftraten. Bei diesen Experimenten wird als Detektionsmethode die Flüssigszintillationsspektroskopie (LSC) eingesetzt. Es werden Szintillationspulse registriert, die für das verursachende Teilchen charakteristische Formen zeigen, die unterschieden werden müssen. Am Beispiel der Auswertung des SISAK-Experimentes zur Chemie des Rutherfordiums vom November 1998 wurde gezeigt, dass es mit den herkömmlichen Verfahren zur Pulsformdiskriminierung nicht möglich ist, die aus dem Zerfall der Transactiniden stammenden alpha-Ereignisse herauszufiltern. Ursache dafür ist ein hoher Untergrund, der in erster Linie von beta/gamma-Teilchen, Spaltfragmenten und pile ups verursacht wird. Durch die Verfügbarkeit von Transientenrecordern ergeben sich neue Möglichkeiten für eine digitale Pulsformdiskriminierung. In dieser Arbeit wird erstmals die Methode der digitalen Pulsformdiskriminierung mit künstlichen neuronalen Netzen (PSD-NN) vorgestellt. Es wurde im Zuge der Auswertung des SISAK-Experimentes vom Februar 2000 gezeigt, dass neuronale Netze in der Lage sind, Pulsformen automatisch richtig zu klassifizieren. Es ergeben sich nahezu untergrundfreie alpha-Flüssigszintillationsspektren. Es werden Vor- und Nachteile der neuen Methode diskutiert. Es ist dadurch möglich geworden, in SISAK-Experimenten Transactinidenatome anhand ihres Zerfalls eindeutig zu charakterisieren. Das SISAK-System kann somit bei Experimenten zum Studium des chemischen Verhaltens von Transactiniden in flüssiger Phase eingesetzt werden.____

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Die Analyse funktioneller Zusammenhänge zwischen Ernährung und Zahnmorphologie ist ein wichtiger Aspekt primatologischer und paläontologischer Forschung. Als überdauernder Teil des Verdauungssystems geben Zähne die bestmöglichen Hinweise auf die Ernährungsstrategien (ausgestorbener) Arten und eine Fülle weiterer Informationen. Aufgrund dessen ist es für die wissenschaftliche Arbeit von größter Bedeutung, die Zähne so detailliert und exakt wie möglich in ihrer gesamten Struktur zu erfassen. Bisher wurden zumeist zweidimensionale Parameter verwendet, um die komplexe Kronenmorphologie von Primatenmolaren vergleichend zu untersuchen. Die vorliegende Arbeit hatte das Ziel, Zähne verschiedener Arten von Altweltaffen mittels computerbasierter Methoden dreidimensional zu erfassen und neue Parameter zu definieren, mit denen die Form dieser Zähne objektiv erfasst und funktionell interpretiert werden kann. Mit einem Oberflächen-Scanner wurden die Gebisse einer Stichprobe von insgesamt 48 Primaten von fünf verschiedenen Arten eingescannt und mit Bildverarbeitungsmethoden so bearbeitet, dass dreidimensionale digitale Modelle einzelner Backenzähne zur Analyse vorlagen. Es wurden dabei sowohl Arten ausgewählt, die eine für ihre Gattung typische Ernährungsweise besitzen - also Frugivorie bei den Cercopithecinen und Folivorie bei den Colobinen - als auch solche, die eine davon abweichende Alimentation bevorzugen. Alle Altweltaffen haben sehr ähnliche Molaren. Colobinen haben jedoch höhere und spitzere Zahnhöcker, dünneren Zahnschmelz und scheinen ihre Zähne weniger stark abzukauen als die Meerkatzen. Diese Beobachtungen konnten mit Hilfe der neuen Parameter quantifiziert werden. Aus der 3D-Oberfläche und der Grundfläche der Zähne wurde ein Index gebildet, der die Stärke des Oberflächenreliefs angibt. Dieser Index hat bei Colobinen deutlich höhere Werte als bei Cercopithecinen, auch bei Zähnen, die schon stark abgekaut sind. Die Steilheit der Höcker und ihre Ausrichtung wurden außerdem gemessen. Auch diese Winkelmessungen bestätigten das Bild. Je höher der Blätteranteil an der Ernährung ist, desto höher sind die Indexwerte und umso steiler sind die Höcker. Besonders wichtig war es, dies auch für abgekaute Zähne zu bestätigen, die bisher nicht in funktionelle Analysen miteinbezogen wurden. Die Ausrichtung der Höckerseiten gibt Hinweise auf die Kaubewegung, die zum effizienten Zerkleinern der Nahrung notwendig ist. Die Ausrichtung der Höcker der Colobinen deutet darauf hin, dass diese Primaten flache, gleitende Kaubewegungen machen, bei denen die hohen Höcker aneinander vorbei scheren. Dies ist sinnvoll zum Zerschneiden von faserreicher Nahrung wie Blättern. Cercopithecinen scheinen ihre Backenzähne eher wie Mörser und Stößel zu verwenden, um Früchte und Samen zu zerquetschen und zu zermahlen. Je nachdem, was neben der hauptsächlichen Nahrung noch gekaut wird, unterscheiden sich die Arten graduell. Anders als bisher vermutet wurde, konnte gezeigt werden, dass Colobinen trotz des dünnen Zahnschmelzes ihre Zähne weniger stark abkauen und weniger Dentin freigelegt wird. Dies gibt eindeutige Hinweise auf die Unterschiede in der mechanischen Belastung, die während des Kauvorgangs auf die Zähne wirkt, und lässt sich gut mit der Ernährung der Arten in Zusammenhang bringen. Anhand dieser modellhaften Beobachtungen können in Zukunft ausgestorbene Arten hinsichtlich ihrer Ernährungsweise mit 3D-Techniken untersucht werden.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Innerhalb des Untersuchungsgebiets Schleswig-Holstein wurden 39.712 topographische Hohlformen detektiert. Genutzt wurden dazu ESRI ArcMap 9.3 und 10.0. Der Datenaufbereitung folgten weitere Kalkulationen in MATLAB R2010b. Jedes Objekt wurde räumlich mit seinen individuellen Eigenschaften verschnitten. Dazu gehörten Fläche, Umfang, Koordinaten (Zentroide), Tiefe und maximale Tiefe der Hohlform und Formfaktoren wie Rundheit, Konvexität und Elongation. Ziel der vorgestellten Methoden war die Beantwortung von drei Fragestellungen: Sind negative Landformen dazu geeignet Landschaftseinheiten und Eisvorstöße zu unterscheiden und zu bestimmen? Existiert eine Kopplung von Depressionen an der rezenten Topographie zu geologischen Tiefenstrukturen? Können Senken unterschiedlicher Entstehung anhand ihrer Formcharakteristik unterteilt werden? Die vorgenommene Klassifikation der großen Landschaftseinheiten basiert auf der Annahme, dass sowohl Jungmoränengebiete, ihre Vorflächen als auch Altmoränengebiete durch charakteristische, abflusslose Hohlformen, wie Toteislöcher, Seen, etc. abgegrenzt werden können. Normalerweise sind solche Depressionen in der Natur eher selten, werden jedoch für ehemalige Glaziallandschaften als typisch erachtet. Ziel war es, die geologischen Haupteinheiten, Eisvorstöße und Moränengebiete der letzten Vereisungen zu differenzieren. Zur Bearbeitung wurde ein Detektionsnetz verwendet, das auf quadratischen Zellen beruht. Die Ergebnisse zeigen, dass durch die alleinige Nutzung von Depressionen zur Klassifizierung von Landschaftseinheiten Gesamtgenauigkeiten von bis zu 71,4% erreicht werden können. Das bedeutet, dass drei von vier Detektionszellen korrekt zugeordnet werden können. Jungmoränen, Altmoränen, periglazialeVorflächen und holozäne Bereiche können mit Hilfe der Hohlformen mit großer Sicherheit voneinander unterschieden und korrekt zugeordnet werden. Dies zeigt, dass für die jeweiligen Einheiten tatsächlich bestimmte Senkenformen typisch sind. Die im ersten Schritt detektierten Senken wurden räumlich mit weiterreichenden geologischen Informationen verschnitten, um zu untersuchen, inwieweit natürliche Depressionen nur glazial entstanden sind oder ob ihre Ausprägung auch mit tiefengeologischen Strukturen in Zusammenhang steht. 25.349 (63,88%) aller Senken sind kleiner als 10.000 m² und liegen in Jungmoränengebieten und können vermutlich auf glaziale und periglaziale Einflüsse zurückgeführt werden. 2.424 Depressionen liegen innerhalb der Gebiete subglazialer Rinnen. 1.529 detektierte Hohlformen liegen innerhalb von Subsidenzgebieten, von denen 1.033 innerhalb der Marschländer im Westen verortet sind. 919 große Strukturen über 1 km Größe entlang der Nordsee sind unter anderem besonders gut mit Kompaktionsbereichen elsterzeitlicher Rinnen zu homologisieren.344 dieser Hohlformen sind zudem mit Tunneltälern im Untergrund assoziiert. Diese Parallelität von Depressionen und den teils über 100 m tiefen Tunneltälern kann auf Sedimentkompaktion zurückgeführt werden. Ein Zusammenhang mit der Zersetzung postglazialen, organischen Materials ist ebenfalls denkbar. Darüber hinaus wurden in einer Distanz von 10 km um die miozän aktiven Flanken des Glückstadt-Grabens negative Landformen detektiert, die Verbindungen zu oberflächennahen Störungsstrukturen zeigen. Dies ist ein Anzeichen für Grabenaktivität während und gegen Ende der Vereisung und während des Holozäns. Viele dieser störungsbezogenen Senken sind auch mit Tunneltälern assoziiert. Entsprechend werden drei zusammenspielende Prozesse identifiziert, die mit der Entstehung der Hohlformen in Verbindung gebracht werden können. Eine mögliche Interpretation ist, dass die östliche Flanke des Glückstadt-Grabens auf die Auflast des elsterzeitlichen Eisschilds reagierte, während sich subglazial zeitgleich Entwässerungsrinnen entlang der Schwächezonen ausbildeten. Diese wurden in den Warmzeiten größtenteils durch Torf und unverfestigte Sedimente verfüllt. Die Gletschervorstöße der späten Weichselzeit aktivierten erneut die Flanken und zusätzlich wurde das Lockermaterial exariert, wodurch große Seen, wie z. B. der Große Plöner See entstanden sind. Insgesamt konnten 29 große Depressionen größer oder gleich 5 km in Schleswig-Holstein identifiziert werden, die zumindest teilweise mit Beckensubsidenz und Aktivität der Grabenflanken verbunden sind, bzw. sogar auf diese zurückgehen.Die letzte Teilstudie befasste sich mit der Differenzierung von Senken nach deren potentieller Genese sowie der Unterscheidung natürlicher von künstlichen Hohlformen. Dazu wurde ein DEM für einen Bereich im Norden Niedersachsens verwendet, das eine Gesamtgröße von 252 km² abdeckt. Die Ergebnisse zeigen, dass glazial entstandene Depressionen gute Rundheitswerte aufweisen und auch Elongation und Exzentrizität eher kompakte Formen anzeigen. Lineare negative Strukturen sind oft Flüsse oder Altarme. Sie können als holozäne Strukturen identifiziert werden. Im Gegensatz zu den potentiell natürlichen Senkenformen sind künstlich geschaffene Depressionen eher eckig oder ungleichmäßig und tendieren meist nicht zu kompakten Formen. Drei Hauptklassen topographischer Depressionen konnten identifiziert und voneinander abgegrenzt werden: Potentiell glaziale Senken (Toteisformen), Flüsse, Seiten- und Altarme sowie künstliche Senken. Die Methode der Senkenklassifikation nach Formparametern ist ein sinnvolles Instrument, um verschiedene Typen unterscheiden zu können und um bei geologischen Fragestellungen künstliche Senken bereits vor der Verarbeitung auszuschließen. Jedoch zeigte sich, dass die Ergebnisse im Wesentlichen von der Auflösung des entsprechenden Höhenmodells abhängen.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Im Rahmen dieser Arbeit wurden unterschiedliche Palladium-katalysierte Kreuzkupplungsreaktionen untersucht. Ein besonderes Augenmerk wurde dabei auf die Suzuki-Miyaura-Reaktion gelegt. Unter anderem aufgrund der langen Reaktionszeiten und der zweiphasigen Bedingungen ist diese Reaktionsklasse nur sehr schwer als kontinuierlicher Prozess zu etablieren. Vielen dieser Ansätze ist jedoch zu eigen, dass der große Vorteil der Mikroprozesstechnik, eine überlegene Kontrolle von Temperatur und Stofftransport, kaum ausgeschöpft wird. An diesem Punkt setzt diese Arbeit von technischer aus Seite an. Der zweite Schwerpunkt der Arbeit sind die prinzipiellen Untersuchungen an kontinuierlichen Flüssig-Flüssig-Zwei-Phasen-Reaktionen. Im Zuge des DBU-finanzierten Transkat-Projektes wurden hierbei anhand einfacher Veresterungsreaktionen grundlegende Kenntnisse zu Stofftransport, Grenzflächen und Phasentrennung innerhalb mikrostrukturierter Systeme gesammelt. Dank speziell angefertigter Glasmikroreaktoren von der Firma mikroglas chemtech GmbH war eine genaue optische und digitale Charakterisierung der Phasengrenzflächen möglich. Ein wichtiges Ergebnis war darüber hinaus, dass ionische Flüssigkeiten, als eigenständige Phasen verwendet, enorm zum Massentransfer und somit zur Reaktionsgeschwindigkeit beitragen können.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Seit der Geburt von Louise J. Brown (1978) als erstem künstlich erzeugtem Kind hat sich die Nachfrage nach assistierten Reproduktionstechniken (ART) stark erhöht. Der Anteil der nach In-vitro-Fertilisation (IVF) oder Intrazytoplasmatischer Spermieninjektion (ICSI) geborenen Kinder macht mittlerweile abhängig vom betrachteten Industrieland zwischen 1-4% an der Gesamtgeburtenzahl aus. In zahlreichen Studien korreliert eine erhöhte Prävalenz für seltene Imprinting-Erkrankungen, wie z.B. Beckwith-Wiedemann oder Angelman-Syndrom, mit der Geburt nach assistierten Reproduktionstechniken. Es ist bekannt, dass die medizinischen Interventionen zur Behandlung von Sub- und Infertilität in sehr sensitive Phasen der epigenetischen Reprogrammierung des Embryos und der Keimzellen eingreifen. In der vorliegenden Arbeit wurde untersucht, ob die ovarielle Stimulation einen Einfluss auf die epigenetische Integrität von geprägten Genen in murinen Präimplantationsembryonen hat. Die in diesem Zusammenhang entwickelte digitale Bisulfitpyrosequenzierung gewährleistet die Analyse der DNA-Methylierung auf Einzelallelebene durch eine adäquate Verdünnung der Probe im Vorfeld der PCR. Die ovarielle Induktion führte zu einem erhöhten Rate an Epimutationen des paternalen H19-Allels, sowie des maternalen Snrpn-Allels. Zudem konnte festgestellt werden, dass die Expression von drei potentiellen Reprogrammierungsgenen (Apex1, Polb, Mbd3) in Embryonen aus hormonell stimulierten Muttertieren dereguliert ist. Whole-Mount Immunfluoreszenzfärbungen für APEX1 korrelierten dessen differentielle Genexpression mit dem Proteinlevel. Anzeichen früher apoptotischer Vorgänge äußerten sich in Embryonen aus hormonell induzierten Muttertieren in der hohen Rate an Embryonen, die keines der drei Transkripte exprimierten oder weniger APEX1-positive Blastomeren aufwiesen.In einer weiteren Fragestellung wurde untersucht, ob die Kryokonservierung muriner Spermatozoen den epigenetischen Status geprägter Gene in den Keimzellen beeinflusst. Die Analyse von F1-Zweizellembryonen, die durch IVF mit den jeweiligen Spermatozoen eines Männchens generiert wurden, diente der Aufklärung möglicher paternaler Transmissionen. Insgesamt konnten keine signifikanten Auswirkungen der Kryokonservierung auf den epigenetischen Status in Spermatozoen und F1-Embryonen ermittelt werden.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In der vorliegenden Arbeit wurde Neuroglobin (Ngb), ein evolutiv altes und in Metazoen konserviertes respiratorisches Protein, funktionell untersucht. Mittels des induzierbaren Tet on / Tet off Systems wurde Ngb ektopisch in der murinen Leber und im Gehirn überexprimiert. Die Transkriptome von Leber und Gehirnregionen Ngb-transgener Mäuse wurden mittels Microarrays und RNA-Seq im Vergleich zum Wildtyp analysiert, um Auswirkungen der Ngb-Überexpression zu ermitteln. Die Transkriptom-Analyse in Leber und Gehirn zeigte eine nur geringe Anzahl differenziell regulierter Gene und Stoffwechselwege nach Ngb-Überexpression. Ngb transgene Mäuse wurden CCl4-induziertem ROS-Stress ausgesetzt und die Leberfunktion untersucht. Zudem wurden primäre Hepatozyten-Kulturen etabliert und in diesen in vitro die extrinsische Apoptose induziert. Die Stressversuche zeigten: (i) Die Ngb-Überexpression hat keine protektive Wirkung in der Leber in vivo. (ii) In Leberzellen in vitro hingegen verminderte eine Ngb-Überexpression effizient die Aktivierung der apoptotischen Kaskade. Eine protektive Wirkung von Ngb ist vermutlich von betrachtetem Gewebe und dem verwendeten Stressor abhängig und keine generelle, selektierte Funktion des Proteins.rnWeiterhin wurde eine Ngb-KnockOut-Mauslinie mit einem LacZ-KnockIn-Genotyp etabliert. Hierbei zeigten die KO-Mäuse keinen offensichtlichen Phänotyp in ihrer Entwicklung, Fortpflanzung und Retina-Funktion. Unter Verwendung des LacZ-Knockin-Konstrukts konnten kontrovers diskutierte Ngb-Expressionsorte im adulten Mausgehirn (Hippocampus, Cortex und Cerebellum) sowie in Testes experimentell bestätigt werden. Parallel wurden öffentlich verfügbare RNA-Seq Datensätze ausgewertet, um die regionale Ngb-Expression systematisch ohne Antikörper-assoziierte Spezifitätsprobleme zu charakterisieren. Eine basale Ngb-Expression (RPKM: ~1-5) wurde im Hippocampus, Cortex und Cerebellum, sowie in Retina und Testes ermittelt. Eine 20-40fach höhere, starke Expression (RPKM: ~160) wurde im Hypothalamus bzw. im Hirnstamm nachgewiesen. Die „digitale“ Expressionsuntersuchung wurde mittels qRT-PCR und Western Blot bestätigt. Dieses Expressionsprofil von Ngb in der Maus weist auf eine besondere funktionelle Bedeutung von Ngb im Hypothalamus hin. Eine Funktion von Ngb in der Sauerstoffversorgung der Retina und eine generelle Funktion von Ngb in der Protektion von Neuronen sind mit dem beobachteten Expressionsspektrum weniger gut vereinbar.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Die BBC-Serie SHERLOCK war 2011 eine der meistexportierten Fernsehproduktionen Großbritanniens und wurde weltweit in viele Sprachen übersetzt. Eine der Herausforderungen bei der Übersetzung stellen die Schrifteinblendungen der Serie (kurz: Inserts) dar. Die Inserts versprachlichen die Gedanken des Protagonisten, bilden schriftliche und digitale Kommunikation ab und zeichnen sich dabei durch ihre visuelle Auffälligkeit und teilweise als einzige Träger sprachlicher Kommunikation aus, womit sie zum wichtigen ästhetischen und narrativen Mittel in der Serie werden. Interessanterweise sind in der Übersetztung alle stilistischen Eigenschaften der Original-Inserts erhalten. In dieser Arbeit wird einerseits untersucht, wie Schrifteinblendungen im Film theoretisch beschrieben werden können, und andererseits, was sie in der Praxis so übersetzt werden können, wie es in der deutschen Version von Sherlock geschah. Zur theoretischen Beschreibung werden zunächst die Schrifteinblendungen in Sherlock Untertitelungsnormen anhand relevanter grundlegender semiotischer Dimensionen gegenübergestellt. Weiterhin wird das Verhältnis zwischen Schrifteinblendungen und Filmbild erkundet. Dazu wird geprüft, wie gut verschiedene Beschreibungsansätze zu Text-Bild-Verhältnissen aus der Sprachwissenschaft, Comicforschung, Übersetzungswissenschaft und Typografie die Einblendungen in Sherlock erklären können. Im praktischen Teil wird die Übersetzung der Einblendungen beleuchtet. Der Übersetzungsprozess bei der deutschen Version wird auf Grundlage eines Experteninterviews mit dem Synchronautor der Serie rekonstruiert, der auch für die Formulierung der Inserts zuständig war. Abschließend werden spezifische Übersetzungsprobleme der Inserts aus der zweiten Staffel von SHERLOCK diskutiert. Es zeigt sich, dass Untertitelungsnormen zur Beschreibung von Inserts nicht geeignet sind, da sie in Dimensionen wie Position, grafische Gestaltung, Animation, Soundeffekte, aber auch Timing stark eingeschränkt sind. Dies lässt sich durch das historisch geprägte Verständnis von Untertiteln erklären, die als möglichst wenig störendes Beiwerk zum fertigen Filmbild und -ablauf (notgedrungen) hinzugefügt werden, wohingegen für die Inserts in SHERLOCK teilweise sogar ein zentraler Platz in der Bild- und Szenenkomposition bereits bei den Dreharbeiten vorgesehen wurde. In Bezug auf Text-Bild-Verhältnisse zeigen sich die größten Parallelen zu Ansätzen aus der Comicforschung, da auch dort schriftliche Texte im Bild eingebettet sind anstatt andersherum. Allerdings sind auch diese Ansätze zur Beschreibung von Bewegung und Ton unzureichend. Die Erkundung der Erklärungsreichweite weiterer vielversprechender Konzepte, wie Interface und Usability, bleibt ein Ziel für künftige Studien. Aus dem Experteninterview lässt sich schließen, dass die Übersetzung von Inserts ein neues, noch unstandardisiertes Verfahren ist, in dem idiosynkratische praktische Lösungen zur sprachübergreifenden Kommunikation zwischen verschiedenen Prozessbeteiligten zum Einsatz kommen. Bei hochqualitative Produktionen zeigt ist auch für die ersetzende Insertübersetzung der Einsatz von Grafikern unerlässlich, zumindest für die Erstellung neuer Inserts als Übersetzungen von gefilmtem Text (Display). Hierbei sind die theoretisch möglichen Synergien zwischen Sprach- und Bildexperten noch nicht voll ausgeschöpft. Zudem zeigt sich Optimierungspotential mit Blick auf die Bereitstellung von sorgfältiger Dokumentation zur ausgangssprachlichen Version. Diese wäre als Referenzmaterial für die Übersetzung insbesondere auch für Zwecke der internationalen Qualitätssicherung relevant. Die übersetzten Inserts in der deutschen Version weisen insgesamt eine sehr hohe Qualität auf. Übersetzungsprobleme ergeben sich für das genretypische Element der Codes, die wegen ihrer Kompaktheit und multiplen Bezügen zum Film eine Herausforderung darstellen. Neben weiteren bekannten Übersetzungsproblemen wie intertextuellen Bezügen und Realia stellt sich immer wieder die Frage, wieviel der im Original dargestellten Insert- und Displaytexte übersetzt werden müssen. Aus Gründen der visuellen Konsistenz wurden neue Inserts zur Übersetzung von Displays notwendig. Außerdem stellt sich die Frage insbesondere bei Fülltexten. Sie dienen der Repräsentation von Text und der Erweiterung der Grenzen der fiktiv dargestellten Welt, sind allerdings mit hohem Übersetzungsaufwand bei minimaler Bedeutung für die Handlung verbunden.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In vielen Industriezweigen, zum Beispiel in der Automobilindustrie, werden Digitale Versuchsmodelle (Digital MockUps) eingesetzt, um die Konstruktion und die Funktion eines Produkts am virtuellen Prototypen zu überprüfen. Ein Anwendungsfall ist dabei die Überprüfung von Sicherheitsabständen einzelner Bauteile, die sogenannte Abstandsanalyse. Ingenieure ermitteln dabei für bestimmte Bauteile, ob diese in ihrer Ruhelage sowie während einer Bewegung einen vorgegeben Sicherheitsabstand zu den umgebenden Bauteilen einhalten. Unterschreiten Bauteile den Sicherheitsabstand, so muss deren Form oder Lage verändert werden. Dazu ist es wichtig, die Bereiche der Bauteile, welche den Sicherhabstand verletzen, genau zu kennen. rnrnIn dieser Arbeit präsentieren wir eine Lösung zur Echtzeitberechnung aller den Sicherheitsabstand unterschreitenden Bereiche zwischen zwei geometrischen Objekten. Die Objekte sind dabei jeweils als Menge von Primitiven (z.B. Dreiecken) gegeben. Für jeden Zeitpunkt, in dem eine Transformation auf eines der Objekte angewendet wird, berechnen wir die Menge aller den Sicherheitsabstand unterschreitenden Primitive und bezeichnen diese als die Menge aller toleranzverletzenden Primitive. Wir präsentieren in dieser Arbeit eine ganzheitliche Lösung, welche sich in die folgenden drei großen Themengebiete unterteilen lässt.rnrnIm ersten Teil dieser Arbeit untersuchen wir Algorithmen, die für zwei Dreiecke überprüfen, ob diese toleranzverletzend sind. Hierfür präsentieren wir verschiedene Ansätze für Dreiecks-Dreiecks Toleranztests und zeigen, dass spezielle Toleranztests deutlich performanter sind als bisher verwendete Abstandsberechnungen. Im Fokus unserer Arbeit steht dabei die Entwicklung eines neuartigen Toleranztests, welcher im Dualraum arbeitet. In all unseren Benchmarks zur Berechnung aller toleranzverletzenden Primitive beweist sich unser Ansatz im dualen Raum immer als der Performanteste.rnrnDer zweite Teil dieser Arbeit befasst sich mit Datenstrukturen und Algorithmen zur Echtzeitberechnung aller toleranzverletzenden Primitive zwischen zwei geometrischen Objekten. Wir entwickeln eine kombinierte Datenstruktur, die sich aus einer flachen hierarchischen Datenstruktur und mehreren Uniform Grids zusammensetzt. Um effiziente Laufzeiten zu gewährleisten ist es vor allem wichtig, den geforderten Sicherheitsabstand sinnvoll im Design der Datenstrukturen und der Anfragealgorithmen zu beachten. Wir präsentieren hierzu Lösungen, die die Menge der zu testenden Paare von Primitiven schnell bestimmen. Darüber hinaus entwickeln wir Strategien, wie Primitive als toleranzverletzend erkannt werden können, ohne einen aufwändigen Primitiv-Primitiv Toleranztest zu berechnen. In unseren Benchmarks zeigen wir, dass wir mit unseren Lösungen in der Lage sind, in Echtzeit alle toleranzverletzenden Primitive zwischen zwei komplexen geometrischen Objekten, bestehend aus jeweils vielen hunderttausend Primitiven, zu berechnen. rnrnIm dritten Teil präsentieren wir eine neuartige, speicheroptimierte Datenstruktur zur Verwaltung der Zellinhalte der zuvor verwendeten Uniform Grids. Wir bezeichnen diese Datenstruktur als Shrubs. Bisherige Ansätze zur Speicheroptimierung von Uniform Grids beziehen sich vor allem auf Hashing Methoden. Diese reduzieren aber nicht den Speicherverbrauch der Zellinhalte. In unserem Anwendungsfall haben benachbarte Zellen oft ähnliche Inhalte. Unser Ansatz ist in der Lage, den Speicherbedarf der Zellinhalte eines Uniform Grids, basierend auf den redundanten Zellinhalten, verlustlos auf ein fünftel der bisherigen Größe zu komprimieren und zur Laufzeit zu dekomprimieren.rnrnAbschießend zeigen wir, wie unsere Lösung zur Berechnung aller toleranzverletzenden Primitive Anwendung in der Praxis finden kann. Neben der reinen Abstandsanalyse zeigen wir Anwendungen für verschiedene Problemstellungen der Pfadplanung.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Magnetic memories are a backbone of today's digital data storage technology, where the digital information is stored as the magnetic configuration of nanostructured ferromagnetic bits. Currently, the writing of the digital information on the magnetic memory is carried out with the help of magnetic fields. This approach, while viable, is not optimal due to its intrinsically high energy consumption and relatively poor scalability. For this reason, the research for different mechanisms that can be used to manipulate the magnetic configuration of a material is of interest. In this thesis, the control of the magnetization of different nanostructured materials with field-free mechanisms is investigated. The magnetic configuration of these nanostructured materials was imaged directly with high resolution x-ray magnetic microscopy. rnFirst of all, the control of the magnetic configuration of nanostructured ferromagnetic Heusler compounds by fabricating nanostructures with different geometries was analyzed. Here, it was observed that the magnetic configuration of the nanostructured elements is given by the competition of magneto-crystalline and shape anisotropy. By fabricating elements with different geometries, we could alter the point where these two effects equilibrate, allowing for the possibility to tailor the magnetic configuration of these nanostructured elements to the required necessities.rnThen, the control of the magnetic configuration of Ni nanostructures fabricated on top of a piezoelectric material with the magneto-elastic effect (i.e. by applying a piezoelectric strain to the Ni nanostructures) was investigated. Here, the magneto-elastic coupling effect gives rise to an additional anisotropy contribution, proportional to the strain applied to the magnetic material. For this system, a reproducible and reversible control of the magnetic configuration of the nanostructured Ni elements with the application of an electric field across the piezoelectric material was achieved.rnFinally, the control of the magnetic configuration of La0.7Sr0.3MnO3 (LSMO) nanostructures with spin-polarized currents was studied. Here, the spin-transfer torque effect was employed to achieve the displacement of magnetic domain walls in the LSMO nanostructures. A high spin-transfer torque efficiency was observed for LSMO at low temperatures, and a Joule-heating induced hopping of the magnetic domain walls was observed at room temperatures, allowing for the analysis of the energetics of the domain walls in LSMO.rnThe results presented in this thesis give thus an overview on the different field-free approaches that can be used to manipulate and tailor the magnetization configuration of a nanostructured material to the various technological requirements, opening up novel interesting possibilities for these materials.