15 resultados para Bitcoin crittografia ECDSA moneta digitale cripto valutafirma digitale transazioni peer-to-peer proof of work
em Universitätsbibliothek Kassel, Universität Kassel, Germany
Resumo:
Digitales stochastisches Magnetfeld-Sensorarray Stefan Rohrer Im Rahmen eines mehrjährigen Forschungsprojektes, gefördert von der Deutschen Forschungsgesellschaft (DFG), wurden am Institut für Mikroelektronik (IPM) der Universität Kassel digitale Magnetfeldsensoren mit einer Breite bis zu 1 µm entwickelt. Die vorliegende Dissertation stellt ein aus diesem Forschungsprojekt entstandenes Magnetfeld-Sensorarray vor, das speziell dazu entworfen wurde, um digitale Magnetfelder schnell und auf minimaler Fläche mit einer guten räumlichen und zeitlichen Auflösung zu detektieren. Der noch in einem 1,0µm-CMOS-Prozess gefertigte Test-Chip arbeitet bis zu einer Taktfrequenz von 27 MHz bei einem Sensorabstand von 6,75 µm. Damit ist er das derzeit kleinste und schnellste digitale Magnetfeld-Sensorarray in einem Standard-CMOS-Prozess. Konvertiert auf eine 0,09µm-Technologie können Frequenzen bis 1 GHz erreicht werden bei einem Sensorabstand von unter 1 µm. In der Dissertation werden die wichtigsten Ergebnisse des Projekts detailliert beschrieben. Basis des Sensors ist eine rückgekoppelte Inverter-Anordnung. Als magnetfeldsensitives Element dient ein auf dem Hall-Effekt basierender Doppel-Drain-MAGFET, der das Verhalten der Kippschaltung beeinflusst. Aus den digitalen Ausgangsdaten kann die Stärke und die Polarität des Magnetfelds bestimmt werden. Die Gesamtanordnung bildet einen stochastischen Magnetfeld-Sensor. In der Arbeit wird ein Modell für das Kippverhalten der rückgekoppelten Inverter präsentiert. Die Rauscheinflüsse des Sensors werden analysiert und in einem stochastischen Differentialgleichungssystem modelliert. Die Lösung der stochastischen Differentialgleichung zeigt die Entwicklung der Wahrscheinlichkeitsverteilung des Ausgangssignals über die Zeit und welche Einflussfaktoren die Fehlerwahrscheinlichkeit des Sensors beeinflussen. Sie gibt Hinweise darauf, welche Parameter für das Design und Layout eines stochastischen Sensors zu einem optimalen Ergebnis führen. Die auf den theoretischen Berechnungen basierenden Schaltungen und Layout-Komponenten eines digitalen stochastischen Sensors werden in der Arbeit vorgestellt. Aufgrund der technologisch bedingten Prozesstoleranzen ist für jeden Detektor eine eigene kompensierende Kalibrierung erforderlich. Unterschiedliche Realisierungen dafür werden präsentiert und bewertet. Zur genaueren Modellierung wird ein SPICE-Modell aufgestellt und damit für das Kippverhalten des Sensors eine stochastische Differentialgleichung mit SPICE-bestimmten Koeffizienten hergeleitet. Gegenüber den Standard-Magnetfeldsensoren bietet die stochastische digitale Auswertung den Vorteil einer flexiblen Messung. Man kann wählen zwischen schnellen Messungen bei reduzierter Genauigkeit und einer hohen lokalen Auflösung oder einer hohen Genauigkeit bei der Auswertung langsam veränderlicher Magnetfelder im Bereich von unter 1 mT. Die Arbeit präsentiert die Messergebnisse des Testchips. Die gemessene Empfindlichkeit und die Fehlerwahrscheinlichkeit sowie die optimalen Arbeitspunkte und die Kennliniencharakteristik werden dargestellt. Die relative Empfindlichkeit der MAGFETs beträgt 0,0075/T. Die damit erzielbaren Fehlerwahrscheinlichkeiten werden in der Arbeit aufgelistet. Verglichen mit dem theoretischen Modell zeigt das gemessene Kippverhalten der stochastischen Sensoren eine gute Übereinstimmung. Verschiedene Messungen von analogen und digitalen Magnetfeldern bestätigen die Anwendbarkeit des Sensors für schnelle Magnetfeldmessungen bis 27 MHz auch bei kleinen Magnetfeldern unter 1 mT. Die Messungen der Sensorcharakteristik in Abhängigkeit von der Temperatur zeigen, dass die Empfindlichkeit bei sehr tiefen Temperaturen deutlich steigt aufgrund der Abnahme des Rauschens. Eine Zusammenfassung und ein ausführliches Literaturverzeichnis geben einen Überblick über den Stand der Technik.
Resumo:
Summary: Productivity and forage quality of legume-grass swards are important factors for successful arable farming in both organic and conventional farming systems. For these objectives the botanical composition of the swards is of particular importance, especially, the content of legumes due to their ability to fix airborne nitrogen. As it can vary considerably within a field, a non-destructive detection method while doing other tasks would facilitate a more targeted sward management and could predict the nitrogen supply of the soil for the subsequent crop. This study was undertaken to explore the potential of digital image analysis (DIA) for a non destructive prediction of legume dry matter (DM) contribution of legume-grass mixtures. For this purpose an experiment was conducted in a greenhouse, comprising a sample size of 64 experimental swards such as pure swards of red clover (Trifolium pratense L.), white clover (Trifolium repens L.) and lucerne (Medicago sativa L.) as well as binary mixtures of each legume with perennial ryegrass (Lolium perenne L.). Growth stages ranged from tillering to heading and the proportion of legumes from 0 to 80 %. Based on digital sward images three steps were considered in order to estimate the legume contribution (% of DM): i) The development of a digital image analysis (DIA) procedure in order to estimate legume coverage (% of area). ii) The description of the relationship between legume coverage (% area) and legume contribution (% of DM) derived from digital analysis of legume coverage related to the green area in a digital image. iii) The estimation of the legume DM contribution with the findings of i) and ii). i) In order to evaluate the most suitable approach for the estimation of legume coverage by means of DIA different tools were tested. Morphological operators such as erode and dilate support the differentiation of objects of different shape by shrinking and dilating objects (Soille, 1999). When applied to digital images of legume-grass mixtures thin grass leaves were removed whereas rounder clover leaves were left. After this process legume leaves were identified by threshold segmentation. The segmentation of greyscale images turned out to be not applicable since the segmentation between legumes and bare soil failed. The advanced procedure comprising morphological operators and HSL colour information could determine bare soil areas in young and open swards very accurately. Also legume specific HSL thresholds allowed for precise estimations of legume coverage across a wide range from 11.8 - 72.4 %. Based on this legume specific DIA procedure estimated legume coverage showed good correlations with the measured values across the whole range of sward ages (R2 0.96, SE 4.7 %). A wide range of form parameters (i.e. size, breadth, rectangularity, and circularity of areas) was tested across all sward types, but none did improve prediction accuracy of legume coverage significantly. ii) Using measured reference data of legume coverage and contribution, in a first approach a common relationship based on all three legumes and sward ages of 35, 49 and 63 days was found with R2 0.90. This relationship was improved by a legume-specific approach of only 49- and 63-d old swards (R2 0.94, 0.96 and 0.97 for red clover, white clover, and lucerne, respectively) since differing structural attributes of the legume species influence the relationship between these two parameters. In a second approach biomass was included in the model in order to allow for different structures of swards of different ages. Hence, a model was developed, providing a close look on the relationship between legume coverage in binary legume-ryegrass communities and the legume contribution: At the same level of legume coverage, legume contribution decreased with increased total biomass. This phenomenon may be caused by more non-leguminous biomass covered by legume leaves at high levels of total biomass. Additionally, values of legume contribution and coverage were transformed to the logit-scale in order to avoid problems with heteroscedasticity and negative predictions. The resulting relationships between the measured legume contribution and the calculated legume contribution indicated a high model accuracy for all legume species (R2 0.93, 0.97, 0.98 with SE 4.81, 3.22, 3.07 % of DM for red clover, white clover, and lucerne swards, respectively). The validation of the model by using digital images collected over field grown swards with biomass ranges considering the scope of the model shows, that the model is able to predict legume contribution for most common legume-grass swards (Frame, 1992; Ledgard and Steele, 1992; Loges, 1998). iii) An advanced procedure for the determination of legume DM contribution by DIA is suggested, which comprises the inclusion of morphological operators and HSL colour information in the analysis of images and which applies an advanced function to predict legume DM contribution from legume coverage by considering total sward biomass. Low residuals between measured and calculated values of legume dry matter contribution were found for the separate legume species (R2 0.90, 0.94, 0.93 with SE 5.89, 4.31, 5.52 % of DM for red clover, white clover, and lucerne swards, respectively). The introduced DIA procedure provides a rapid and precise estimation of legume DM contribution for different legume species across a wide range of sward ages. Further research is needed in order to adapt the procedure to field scale, dealing with differing light effects and potentially higher swards. The integration of total biomass into the model for determining legume contribution does not necessarily reduce its applicability in practice as a combined estimation of total biomass and legume coverage by field spectroscopy (Biewer et al. 2009) and DIA, respectively, may allow for an accurate prediction of the legume contribution in legume-grass mixtures.
Resumo:
Digitale Ausweise (Ausweise mit einem Chip) werden in vielen Staaten vor allem aus zwei Gründen eingeführt. Zum einen wird in ihnen ein Mittel gesehen, um die drei wesentlichen Basistechnologien des elektronischen Rechts-, Geschäfts- und Verwaltungsverkehrs, Signieren, Verschlüsseln und Authentifizieren, bei den Nutzern zu verbreiten. Zum anderen werden sie als Mittel gesehen, um die Sicherheit staatlicher Ausweise als Identifizierungsinstrument durch zusätzliche automatisiert prüfbare biometrische Merkmale zu verbessern. Digitale Ausweise könnten schließlich - bisher weitgehend unbeachtet - Träger elektronischer Ausweise für die selbstbestimmte Benutzung im "Cyberspace" sein. Der Beitrag untersucht die Chancen und Risiken digitaler Ausweise hinsichtlicher dieser Zielsetzungen.
Resumo:
Die gegenwärtige Entwicklung der internationalen Klimapolitik verlangt von Deutschland eine Reduktion seiner Treibhausgasemissionen. Wichtigstes Treibhausgas ist Kohlendioxid, das durch die Verbrennung fossiler Energieträger in die Atmosphäre freigesetzt wird. Die Reduktionsziele können prinzipiell durch eine Verminderung der Emissionen sowie durch die Schaffung von Kohlenstoffsenken erreicht werden. Senken beschreiben dabei die biologische Speicherung von Kohlenstoff in Böden und Wäldern. Eine wichtige Einflussgröße auf diese Prozesse stellt die räumliche Dynamik der Landnutzung einer Region dar. In dieser Arbeit wird das Modellsystem HILLS entwickelt und zur Simulation dieser komplexen Wirkbeziehungen im Bundesland Hessen genutzt. Ziel ist es, mit HILLS über eine Analyse des aktuellen Zustands hinaus auch Szenarien über Wege der zukünftigen regionalen Entwicklung von Landnutzung und ihrer Wirkung auf den Kohlenstoffhaushalt bis 2020 zu untersuchen. Für die Abbildung der räumlichen und zeitlichen Dynamik von Landnutzung in Hessen wird das Modell LUCHesse entwickelt. Seine Aufgabe ist die Simulation der relevanten Prozesse auf einem 1 km2 Raster, wobei die Raten der Änderung exogen als Flächentrends auf Ebene der hessischen Landkreise vorgegeben werden. LUCHesse besteht aus Teilmodellen für die Prozesse: (A) Ausbreitung von Siedlungs- und Gewerbefläche, (B) Strukturwandel im Agrarsektor sowie (C) Neuanlage von Waldflächen (Aufforstung). Jedes Teilmodell umfasst Methoden zur Bewertung der Standorteignung der Rasterzellen für unterschiedliche Landnutzungsklassen und zur Zuordnung der Trendvorgaben zu solchen Rasterzellen, die jeweils am besten für eine Landnutzungsklasse geeignet sind. Eine Validierung der Teilmodelle erfolgt anhand von statistischen Daten für den Zeitraum von 1990 bis 2000. Als Ergebnis eines Simulationslaufs werden für diskrete Zeitschritte digitale Karten der Landnutzugsverteilung in Hessen erzeugt. Zur Simulation der Kohlenstoffspeicherung wird eine modifizierte Version des Ökosystemmodells Century entwickelt (GIS-Century). Sie erlaubt einen gesteuerten Simulationslauf in Jahresschritten und unterstützt die Integration des Modells als Komponente in das HILLS Modellsystem. Es werden verschiedene Anwendungsschemata für GIS-Century entwickelt, mit denen die Wirkung der Stilllegung von Ackerflächen, der Aufforstung sowie der Bewirtschaftung bereits bestehender Wälder auf die Kohlenstoffspeicherung untersucht werden kann. Eine Validierung des Modells und der Anwendungsschemata erfolgt anhand von Feld- und Literaturdaten. HILLS implementiert eine sequentielle Kopplung von LUCHesse mit GIS-Century. Die räumliche Kopplung geschieht dabei auf dem 1 km2 Raster, die zeitliche Kopplung über die Einführung eines Landnutzungsvektors, der die Beschreibung der Landnutzungsänderung einer Rasterzelle während des Simulationszeitraums enthält. Außerdem integriert HILLS beide Modelle über ein dienste- und datenbankorientiertes Konzept in ein Geografisches Informationssystem (GIS). Auf diesem Wege können die GIS-Funktionen zur räumlichen Datenhaltung und Datenverarbeitung genutzt werden. Als Anwendung des Modellsystems wird ein Referenzszenario für Hessen mit dem Zeithorizont 2020 berechnet. Das Szenario setzt im Agrarsektor eine Umsetzung der AGENDA 2000 Politik voraus, die in großem Maße zu Stilllegung von Ackerflächen führt, während für den Bereich Siedlung und Gewerbe sowie Aufforstung die aktuellen Trends der Flächenausdehnung fortgeschrieben werden. Mit HILLS ist es nun möglich, die Wirkung dieser Landnutzungsänderungen auf die biologische Kohlenstoffspeicherung zu quantifizieren. Während die Ausdehnung von Siedlungsflächen als Kohlenstoffquelle identifiziert werden kann (37 kt C/a), findet sich die wichtigste Senke in der Bewirtschaftung bestehender Waldflächen (794 kt C/a). Weiterhin führen die Stilllegung von Ackerfläche (26 kt C/a) sowie Aufforstung (29 kt C/a) zu einer zusätzlichen Speicherung von Kohlenstoff. Für die Kohlenstoffspeicherung in Böden zeigen die Simulationsexperimente sehr klar, dass diese Senke nur von beschränkter Dauer ist.
Resumo:
Im Informationszeitalter erhalten die Neuen Medien eine immer größer werdende Bedeutung. Lange Zeit galten gedruckte Informationen – häufig in Form von Büchern und Zeitschriften – als eigentliche Informationsquelle in den Bibliotheken. Mehr und mehr nehmen jedoch mittlerweile auch multimediale Anwendungen breiteren Raum ein, gilt es doch, sich den veränderten Lese- und insbesondere Informationsgewohnheiten anzupassen. Insbesondere sollen elektronische Informationsquellen und digitale Literatur erschlossen und bereitgestellt werden. Im Zuge dieser Entwicklung wurde durch die hessische Ministerin für Wissenschaft und Kunst am 11.11.1998 in der Gesamthochschulbibliothek Kassel eine neugeschaffene Multi-Media-Thek (MMT) eröffnet. In dieser Multimediathek sollen die Bibliotheksbenutzer die Möglichkeit erhalten, die Neuen Medien zu erkunden und gewinnbringend für ihre Fragestellungen einzusetzen. Neben den mittlerweile weiter verbreiteten Internetarbeitsplätzen haben die Benutzer Gelegenheit, an speziell ausgestatteten Arbeitsplätzen Audio- und Videoanwendungen zu testen. Die zur Verfügung stehenden Arbeitsplätze sind plattformübergreifend gestaltet, neben Windows NT-Rechnern können Macintosh-, Java- und Linux-Rechner benutzt werden. Alle PC-Systeme verfügen über hochauflösende Grafik- und Soundkarten, allerdings müssen zum Abhören von Audio-Medien, DVD’s oder Multimedia-CD’s entsprechende Kopfhörer aufgesetzt werden. Über WinCenter können auch auf Linux- und Macintosh-Rechnern CD-Applikationen aus dem GHB-internen CD-Server angewählt werden. Zur Auswahl stehen derzeit 140 Datenbanken, die zudem ergänzt werden durch entsprechende Datenbankzugriffe auf den Silverplatter-Server der GHB. In separaten Klein-Arbeitsräumen können Audio-Cassetten und Video-Bänder benutzt werden. Natürlich lassen sich auch herkömmliche Dias und Microfiches in den Räumen der MMT betrachten und Ausdrucke über den Reader-Printer bzw. über das Bibliotheksnetz auf einen zentralen Benutzer-Drucker (OCE-Drucksystem mit Entgeldregelung) machen. Als Auslegestelle für DIN-Normen kann im DIN-Katalog über Internet recherchiert und das Ergebnis der Recherche direkt im DIN-Bestand angesehen werden. In einem speziell eingerichteten Macintosh-Pool sind mittels Scanner, Grafikbearbeitungssoftware und OCR-Möglichkeit weitere Bedingungen für multimediales Arbeiten geschaffen. Sie sollen bei entsprechendem Bedarf um digitale Bildbearbeitung (Photo, Video) gegebenenfalls ergänzt werden. Die Bibliothek bietet in den Räumen der Multimediathek entsprechende Schulungen zur effektiven Nutzung der Rechnerausstattung an.
Resumo:
Ausgehend von langfristigen Veränderungen im wissenschaftlichen Publikationswesen und in der Informationsvermittlung werden die Bedingungen und möglichen Folgen dieser Entwicklung beleuchtet. Je nach Standpunkt haben Bibliothekare, Verleger oder Wissenschaftsautoren unterschiedliche Wahrnehmungen von dem, was eine (digitale) Bibliothek ausmacht. Bespielhaft wird die Funtionalität des hessischen Digibib-Projektes beschrieben, in dem Standard Such- und Retrieval-Protokolle (Z39.50, HTTP) für den Anschluß von OPAC und Client-Server-Datenbanken mit Volltextsammlungen sorgen.
Resumo:
Simulation hat sich in der Vergangenheit als unterstützendes Planungsinstrument und Prognosemethode zur Untersuchung von Materialflusssystemen in verschiedenen Branchen etabliert. Dafür werden neben Simulationswerkzeugen auch zunehmend Virtual Reality (VR), insbesondere mit dem Ansatz Digitale Fabrik, eingesetzt. Ein Materialflusssimulator, der für den VR–Einsatz geeignet ist,existiert noch nicht, so dass Anwender gegenwärtig mit verschiedenen Systemen arbeiten müssen, um Untersuchungen eines Simulationsmodells in einem VR–Umfeld wie beispielsweise in einem CAVE zu ermöglichen. Zeitlicher Aufwand ist dadurch vorprogrammiert und das Auftreten von Fehlern bei der Konvertierung des Simulationsmodells möglich. Da auch der hauseigene Materialflusssimulator SIMFLEX/3D nicht für beide Anwendungsgebiete genutzt werden kann und für einen solchen Einsatz mit sehr hohem Aufwand angepasst werden müsste, wurde stattdessen ein neues Simulationssystem entworfen. Das Simulationssystem wird in der vorliegenden Arbeit als ein interoperables und offenes System beschrieben, das über eine flexible Softwarearchitektur verfügt und in einem vernetzten Umfeld mit anderen Werkzeugen Daten austauschen kann. Die grundlegende Idee besteht darin, eine flexible Softwarearchitektur zu entwerfen, die zunächst interaktive und ereignisorientierte 3D–Simulation erlaubt, aber zusätzlich für andere Anwendungszwecke offen gehalten wird. Durch den offenen Ansatz können Erweiterungen, die in Form von Plugins entwickelt werden, mit geringem Aufwand in das System integriert werden, wodurch eine hohe Flexibilität des Systems erreicht wird. Für interoperable Zwecke werden Softwaremodule vorgestellt, die optional eingesetzt werden können und standardisierte Formate wie bspw. XML benutzen. Mit dem neuen Simulationssystem wird die Lücke zwischen Desktop– und VR–Einsatz geschlossen und aus diesem Grund der Zeitaufwand und Fehlerquellen reduziert. Darüber hinaus ermöglicht der offene Ansatz, das Simulationssystem rollen- und aufgabenspezifisch anzupassen, indem die erforderlichen Plugins bereitgestellt werden. Aus diesem Grund kann das Simulationssystem mit sehr geringem Aufwand um weitere Untersuchungsschwerpunkte wie beispielsweise Avatare ergänzt werden. Erste Untersuchungen in einem CAVE wurden erfolgreich durchgeführt. Für die Digitale Fabrik kann der Prototyp eingesetzt werden, um die Produktionsplanung mit Hilfe der Simulation und die Entwicklung mit Hilfe der entwickelten Viewer zu unterstützen. Letzteres ist möglich, da die Viewer zahlreiche CAD–Formate lesen und um weitere Formate ergänzt werden können. Das entwickelte System ist für den Einsatz in verschiedenen Prozessen einer Wertschöpfungskette geeignet,um es als Untersuchungs-, Kommunikations- und Steuerungswerkzeug einzusetzen.
Resumo:
Vorgestellt wird eine weltweit neue Methode, Schnittstellen zwischen Menschen und Maschinen für individuelle Bediener anzupassen. Durch Anwenden von Abstraktionen evolutionärer Mechanismen wie Selektion, Rekombination und Mutation in der EOGUI-Methodik (Evolutionary Optimization of Graphical User Interfaces) kann eine rechnergestützte Umsetzung der Methode für Graphische Bedienoberflächen, insbesondere für industrielle Prozesse, bereitgestellt werden. In die Evolutionäre Optimierung fließen sowohl die objektiven, d.h. messbaren Größen wie Auswahlhäufigkeiten und -zeiten, mit ein, als auch das anhand von Online-Fragebögen erfasste subjektive Empfinden der Bediener. Auf diese Weise wird die Visualisierung von Systemen den Bedürfnissen und Präferenzen einzelner Bedienern angepasst. Im Rahmen dieser Arbeit kann der Bediener aus vier Bedienoberflächen unterschiedlicher Abstraktionsgrade für den Beispielprozess MIPS ( MIschungsProzess-Simulation) die Objekte auswählen, die ihn bei der Prozessführung am besten unterstützen. Über den EOGUI-Algorithmus werden diese Objekte ausgewählt, ggf. verändert und in einer neuen, dem Bediener angepassten graphischen Bedienoberfläche zusammengefasst. Unter Verwendung des MIPS-Prozesses wurden Experimente mit der EOGUI-Methodik durchgeführt, um die Anwendbarkeit, Akzeptanz und Wirksamkeit der Methode für die Führung industrieller Prozesse zu überprüfen. Anhand der Untersuchungen kann zu großen Teilen gezeigt werden, dass die entwickelte Methodik zur Evolutionären Optimierung von Mensch-Maschine-Schnittstellen industrielle Prozessvisualisierungen tatsächlich an den einzelnen Bediener anpaßt und die Prozessführung verbessert.
Resumo:
Der Startabschnitt im Schwimmen stellt insbesondere in den Sprintwettbewerben über 50m und 100m eine leistungsdeterminierende Größe dar. Gerade in den letzten Jahren ist das Aufkommen von neuen Starttechniken, die zu einer Optimierung der Startleistung führen sollen, zu beobachten. Ziel der Dissertation ist es, anhand einer kinematischen und dynamischen Analyse des Starts, Aussagen über die wesentlichen Einflussfaktoren auf die Leistung zu treffen. Hierzu wird eine biomechanische Analyse von Grab- und Trackstarts unter Einbeziehung der Eintauch- und Übergangsphase durchgeführt. Für die Entwicklung von Trainingsempfehlungen sind solche Zusammenhangsanalysen unerlässlich. Im theoretischen Teil der Dissertation wird die morphologische Phasenstruktur der Startbewegung im Schwimmen thematisiert. Hierbei werden unterschiedliche Modelle vorgestellt und miteinander verglichen. Durch den Vergleich der publizierten Studien zum Schwimmstart können sowohl Aussagen zu den leistungsrelevanten kinematischen und den dynamischen Kennwerten der Startbewegung zusammengefasst werden als auch Gemeinsamkeiten und Unterschiede in der Untersuchungs-methodik aufdeckt und in Relation zu der eigenen Studie gestellt werden. Im methodischen Teil wird sich zunächst mit Problemfeldern in der Datenerhebung (Berechnung der Linsenfehler und der Genauigkeit bei der Bestimmung unterschiedlicher Erhebungsmethoden der Abfluggeschwindigkeit) auseinander gesetzt. Weiterhin wird eine Methodenbeschreibung des eingesetzten ABKuS-Verfahrens beschrieben. Hierbei handelt es sich um ein selbstentwickeltes Berechnungsverfahren zur Bestimmung von Körpersegmentkoordinaten unter unscharfen Sichtbedingungen. Widrige Aufnahmebedingungen stellen insbesondere für markerlose kinematische Analysen ein Problem dar. Dies gilt insbesondere für den Eintauchvorgang beim Schwimmstart, da hier durch das Mitreißen von Luftteilchen erhebliche Sichtbehinderungen auftreten. Aus diesem Grund gibt es bisher für solche markerlosen Analysen noch keine etablierten Verfahren gibt. Für die eigentliche Hauptuntersuchung konnte eine leistungsstarke Probandenstichprobe gewonnen werden. Gegenstand der zentralen Messung war der Startsprung, den die Probanden innerhalb eines Sprinttests über 25m bzw. 50m durchführten. Die Bodenreaktionskräfte werden dabei durch den mobilen Messstartblock erhoben. Gleichzeitig werden die Blockaktionen und die Flugphase durch eine digitale Kamera und die Eintauschbewegung durch eine zweite Kamera in einem Unterwassergehäuse aufgezeichnet. Die so ermittelten umfangreichen Daten gehen in die weiteren statistischen Analysen ein. Wesentlich für die statistischen Analysen ist die Einteilung der Schwimmer und Schwimmerinnen hinsichtlich ihrer Starttechnik. Bei der Startbewegung wurde zunächst zwischen einem Track- und einem Grabstart unterschieden. Weiter wurde dann eine Einteilung des Trackstarts hinsichtlich der Ausgangsposition vorgenommen. Ausgehend von dieser Einteilung wurde der Einfluss der Starttechnik auf die Kennwerte des Startverhaltens analysiert. Die Verlaufskurven der Bodenreaktionskräfte wurden mit einer Hauptkomponentenanalyse (PCA) hinsichtlich der funktionellen und zufälligen Variation in den zeitabhängigen, koordinativen Mustern analysiert. Durch eine Clusteranalyse konnten unterschiedliche Kraftverläufe in der Anschwung- und Absprungphase identifiziert werden. Zur Bestimmung der relevanten Einflussfaktoren in der Eintauchphase wurde eine Hauptkomponentenanalyse mit einer rotierten Komponentenmatrix durchgeführt. Darüberhinaus wurden mittels einer Clusteranalyse unterschiedliche Eintauchstrategien aufgedeckt. Die komplexen Zusammenhänge des Startverhaltens wurden auf Basis theoretisch abgeleiteter Erklärungsmodelle überprüft. Hierbei kamen Strukturgleichungsmodelle zum Einsatz. Die Diskussion beinhaltet das Aufzeigen von Unterschieden bzw. die Erweiterung des Wissensstandes auf Basis der Forschungsergebnisse im Vergleich zu international anerkannten Forschungsarbeiten. Dabei wird auf die besondere Bedeutung der Eintauchphase, der in der bisherigen Forschung wenig Beachtung geschenkt wurde, hingewiesen.
Resumo:
Der Startabschnitt im Schwimmen stellt insbesondere in den Sprintwettbewerben über 50m und 100m eine leistungsdeterminierende Größe dar. Gerade in den letzten Jahren ist das Aufkommen von neuen Starttechniken, die zu einer Optimierung der Startleistung führen sollen, zu beobachten. Ziel der Dissertation ist es, anhand einer kinematischen und dynamischen Analyse des Starts, Aussagen über die wesentlichen Einflussfaktoren auf die Leistung zu treffen. Hierzu wird eine biomechanische Analyse von Grab- und Trackstarts unter Einbeziehung der Eintauch- und Übergangsphase durchgeführt. Für die Entwicklung von Trainingsempfehlungen sind solche Zusammenhangsanalysen unerlässlich. Im theoretischen Teil der Dissertation wird die morphologische Phasenstruktur der Startbewegung im Schwimmen thematisiert. Hierbei werden unterschiedliche Modelle vorgestellt und miteinander verglichen. Durch den Vergleich der publizierten Studien zum Schwimmstart können sowohl Aussagen zu den leistungsrelevanten kinematischen und den dynamischen Kennwerten der Startbewegung zusammengefasst werden als auch Gemeinsamkeiten und Unterschiede in der Untersuchungs-methodik aufdeckt und in Relation zu der eigenen Studie gestellt werden. Im methodischen Teil wird sich zunächst mit Problemfeldern in der Datenerhebung (Berechnung der Linsenfehler und der Genauigkeit bei der Bestimmung unterschiedlicher Erhebungsmethoden der Abfluggeschwindigkeit) auseinander gesetzt. Weiterhin wird eine Methodenbeschreibung des eingesetzten ABKuS-Verfahrens beschrieben. Hierbei handelt es sich um ein selbstentwickeltes Berechnungsverfahren zur Bestimmung von Körpersegmentkoordinaten unter unscharfen Sichtbedingungen. Widrige Aufnahmebedingungen stellen insbesondere für markerlose kinematische Analysen ein Problem dar. Dies gilt insbesondere für den Eintauchvorgang beim Schwimmstart, da hier durch das Mitreißen von Luftteilchen erhebliche Sichtbehinderungen auftreten. Aus diesem Grund gibt es bisher für solche markerlosen Analysen noch keine etablierten Verfahren gibt. Für die eigentliche Hauptuntersuchung konnte eine leistungsstarke Probandenstichprobe gewonnen werden. Gegenstand der zentralen Messung war der Startsprung, den die Probanden innerhalb eines Sprinttests über 25m bzw. 50m durchführten. Die Bodenreaktionskräfte werden dabei durch den mobilen Messstartblock erhoben. Gleichzeitig werden die Blockaktionen und die Flugphase durch eine digitale Kamera und die Eintauschbewegung durch eine zweite Kamera in einem Unterwassergehäuse aufgezeichnet. Die so ermittelten umfangreichen Daten gehen in die weiteren statistischen Analysen ein. Wesentlich für die statistischen Analysen ist die Einteilung der Schwimmer und Schwimmerinnen hinsichtlich ihrer Starttechnik. Bei der Startbewegung wurde zunächst zwischen einem Track- und einem Grabstart unterschieden. Weiter wurde dann eine Einteilung des Trackstarts hinsichtlich der Ausgangsposition vorgenommen. Ausgehend von dieser Einteilung wurde der Einfluss der Starttechnik auf die Kennwerte des Startverhaltens analysiert. Die Verlaufskurven der Bodenreaktionskräfte wurden mit einer Hauptkomponentenanalyse (PCA) hinsichtlich der funktionellen und zufälligen Variation in den zeitabhängigen, koordinativen Mustern analysiert. Durch eine Clusteranalyse konnten unterschiedliche Kraftverläufe in der Anschwung- und Absprungphase identifiziert werden. Zur Bestimmung der relevanten Einflussfaktoren in der Eintauchphase wurde eine Hauptkomponentenanalyse mit einer rotierten Komponentenmatrix durchgeführt. Darüberhinaus wurden mittels einer Clusteranalyse unterschiedliche Eintauchstrategien aufgedeckt. Die komplexen Zusammenhänge des Startverhaltens wurden auf Basis theoretisch abgeleiteter Erklärungsmodelle überprüft. Hierbei kamen Strukturgleichungsmodelle zum Einsatz. Die Diskussion beinhaltet das Aufzeigen von Unterschieden bzw. die Erweiterung des Wissensstandes auf Basis der Forschungsergebnisse im Vergleich zu international anerkannten Forschungsarbeiten. Dabei wird auf die besondere Bedeutung der Eintauchphase, der in der bisherigen Forschung wenig Beachtung geschenkt wurde, hingewiesen.
Resumo:
Im Zuge der Verbesserung der Lehre an deutschen Hochschulen und Universitäten sind in den letzten Jahren bereits vielfältige Innovationen hinsichtlich der Gestaltung von Vorlesungen und Seminaren in den unterschiedlichen Fachdisziplinen deutlich geworden. Bei größeren Vorlesungen besteht das Problem eine kognitive Mitarbeit von allen Studierenden zu fördern, vor allem in Mathematikvorlesungen. In den letzten Jahren konnten bereits vielversprechende Gestaltungsmöglichkeiten im Bereich der Fachmathematikvorlesungen eingesetzt werden, die ganz im Trend der digitalen Medien liegen. Diese sind aus dem Alltag vieler Berufsgruppen, wie auch der Lehre und in der Freizeit nicht mehr wegzudenken. Im Folgenden wird eine Pilotstudie mit ersten Ergebnissen beschrieben. Das Projekt M@thWithApps startete im WS 2012/2013 in der Fachvorlesung „Mathematische Anwendungen“ mit 120 Studierenden des Grundschullehramts an der Universität Kassel. Die Studierenden wurden mit Tablet-PCs ausgestattet, die über den gesamten Vorlesungs- und Übungszeitraum eingesetzt wurden. Somit stellt sich die Frage nach den Chancen und Risiken dieser besonderen Form des Lernens, verbunden mit einem Tablet-PC.
Resumo:
In this work investigation of the QDs formation and the fabrication of QD based semiconductor lasers for telecom applications are presented. InAs QDs grown on AlGaInAs lattice matched to InP substrates are used to fabricate lasers operating at 1.55 µm, which is the central wavelength for far distance data transmission. This wavelength is used due to its minimum attenuation in standard glass fibers. The incorporation of QDs in this material system is more complicated in comparison to InAs QDs in the GaAs system. Due to smaller lattice mismatch the formation of circular QDs, elongated QDs and quantum wires is possible. The influence of the different growth conditions, such as the growth temperature, beam equivalent pressure, amount of deposited material on the formation of the QDs is investigated. It was already demonstrated that the formation process of QDs can be changed by the arsenic species. The formation of more round shaped QDs was observed during the growth of QDs with As2, while for As4 dash-like QDs. In this work only As2 was used for the QD growth. Different growth parameters were investigated to optimize the optical properties, like photoluminescence linewidth, and to implement those QD ensembles into laser structures as active medium. By the implementation of those QDs into laser structures a full width at half maximum (FWHM) of 30 meV was achieved. Another part of the research includes the investigation of the influence of the layer design of lasers on its lasing properties. QD lasers were demonstrated with a modal gain of more than 10 cm-1 per QD layer. Another achievement is the large signal modulation with a maximum data rate of 15 Gbit/s. The implementation of optimized QDs in the laser structure allows to increase the modal gain up to 12 cm-1 per QD layer. A reduction of the waveguide layer thickness leads to a shorter transport time of the carriers into the active region and as a result a data rate up to 22 Gbit/s was achieved, which is so far the highest digital modulation rate obtained with any 1.55 µm QD laser. The implementation of etch stop layers into the laser structure provide the possibility to fabricate feedback gratings with well defined geometries for the realization of DFB lasers. These DFB lasers were fabricated by using a combination of dry and wet etching. Single mode operation at 1.55 µm with a high side mode suppression ratio of 50 dB was achieved.
Resumo:
Digitale Beweismittel haben in der Rechtspraxis alltägliche Bedeutung erlangt. Allerdings sind die Methoden der forensischen Informatik bislang nur zu Teilen mit den Anforderungen des Rechts abgeglichen. Wann haben Daten eine hohe Beweiskraft? Wie darf bei der Sammlung und Auswertung vorgegangen werden? Wann besteht ein Verbot, rechtswidrig aus IT-Systemen gewonnene Beweismittel in einen Gerichtsprozess einzubringen? Dennis Heinson geht diesen Fragen nach. Er untersucht die rechtlichen Bedingungen, unter denen Beweismittel aus IT-Systemen erhoben und verwertet werden können. In verständlicher Sprache erklärt er die technischen und rechtlichen Hintergründe. Daraus entwickelt er Anforderungen für die IT-Forensik allgemein, und insbesondere im Strafprozess sowie bei betriebsinternen Ermittlungen. Sie bieten eine dogmatisch fundierte Richtschnur für die rechtssichere Erhebung und Verwertung von Daten für den Beweis vor Gericht. Die Arbeit wurde mit dem Promotionspreis der juristischen Gesellschaft zu Kassel ausgezeichnet.