27 resultados para dynamische Benetzung

em Universitätsbibliothek Kassel, Universität Kassel, Germany


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Der Startabschnitt im Schwimmen stellt insbesondere in den Sprintwettbewerben über 50m und 100m eine leistungsdeterminierende Größe dar. Gerade in den letzten Jahren ist das Aufkommen von neuen Starttechniken, die zu einer Optimierung der Startleistung führen sollen, zu beobachten. Ziel der Dissertation ist es, anhand einer kinematischen und dynamischen Analyse des Starts, Aussagen über die wesentlichen Einflussfaktoren auf die Leistung zu treffen. Hierzu wird eine biomechanische Analyse von Grab- und Trackstarts unter Einbeziehung der Eintauch- und Übergangsphase durchgeführt. Für die Entwicklung von Trainingsempfehlungen sind solche Zusammenhangsanalysen unerlässlich. Im theoretischen Teil der Dissertation wird die morphologische Phasenstruktur der Startbewegung im Schwimmen thematisiert. Hierbei werden unterschiedliche Modelle vorgestellt und miteinander verglichen. Durch den Vergleich der publizierten Studien zum Schwimmstart können sowohl Aussagen zu den leistungsrelevanten kinematischen und den dynamischen Kennwerten der Startbewegung zusammengefasst werden als auch Gemeinsamkeiten und Unterschiede in der Untersuchungs-methodik aufdeckt und in Relation zu der eigenen Studie gestellt werden. Im methodischen Teil wird sich zunächst mit Problemfeldern in der Datenerhebung (Berechnung der Linsenfehler und der Genauigkeit bei der Bestimmung unterschiedlicher Erhebungsmethoden der Abfluggeschwindigkeit) auseinander gesetzt. Weiterhin wird eine Methodenbeschreibung des eingesetzten ABKuS-Verfahrens beschrieben. Hierbei handelt es sich um ein selbstentwickeltes Berechnungsverfahren zur Bestimmung von Körpersegmentkoordinaten unter unscharfen Sichtbedingungen. Widrige Aufnahmebedingungen stellen insbesondere für markerlose kinematische Analysen ein Problem dar. Dies gilt insbesondere für den Eintauchvorgang beim Schwimmstart, da hier durch das Mitreißen von Luftteilchen erhebliche Sichtbehinderungen auftreten. Aus diesem Grund gibt es bisher für solche markerlosen Analysen noch keine etablierten Verfahren gibt. Für die eigentliche Hauptuntersuchung konnte eine leistungsstarke Probandenstichprobe gewonnen werden. Gegenstand der zentralen Messung war der Startsprung, den die Probanden innerhalb eines Sprinttests über 25m bzw. 50m durchführten. Die Bodenreaktionskräfte werden dabei durch den mobilen Messstartblock erhoben. Gleichzeitig werden die Blockaktionen und die Flugphase durch eine digitale Kamera und die Eintauschbewegung durch eine zweite Kamera in einem Unterwassergehäuse aufgezeichnet. Die so ermittelten umfangreichen Daten gehen in die weiteren statistischen Analysen ein. Wesentlich für die statistischen Analysen ist die Einteilung der Schwimmer und Schwimmerinnen hinsichtlich ihrer Starttechnik. Bei der Startbewegung wurde zunächst zwischen einem Track- und einem Grabstart unterschieden. Weiter wurde dann eine Einteilung des Trackstarts hinsichtlich der Ausgangsposition vorgenommen. Ausgehend von dieser Einteilung wurde der Einfluss der Starttechnik auf die Kennwerte des Startverhaltens analysiert. Die Verlaufskurven der Bodenreaktionskräfte wurden mit einer Hauptkomponentenanalyse (PCA) hinsichtlich der funktionellen und zufälligen Variation in den zeitabhängigen, koordinativen Mustern analysiert. Durch eine Clusteranalyse konnten unterschiedliche Kraftverläufe in der Anschwung- und Absprungphase identifiziert werden. Zur Bestimmung der relevanten Einflussfaktoren in der Eintauchphase wurde eine Hauptkomponentenanalyse mit einer rotierten Komponentenmatrix durchgeführt. Darüberhinaus wurden mittels einer Clusteranalyse unterschiedliche Eintauchstrategien aufgedeckt. Die komplexen Zusammenhänge des Startverhaltens wurden auf Basis theoretisch abgeleiteter Erklärungsmodelle überprüft. Hierbei kamen Strukturgleichungsmodelle zum Einsatz. Die Diskussion beinhaltet das Aufzeigen von Unterschieden bzw. die Erweiterung des Wissensstandes auf Basis der Forschungsergebnisse im Vergleich zu international anerkannten Forschungsarbeiten. Dabei wird auf die besondere Bedeutung der Eintauchphase, der in der bisherigen Forschung wenig Beachtung geschenkt wurde, hingewiesen.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Der Startabschnitt im Schwimmen stellt insbesondere in den Sprintwettbewerben über 50m und 100m eine leistungsdeterminierende Größe dar. Gerade in den letzten Jahren ist das Aufkommen von neuen Starttechniken, die zu einer Optimierung der Startleistung führen sollen, zu beobachten. Ziel der Dissertation ist es, anhand einer kinematischen und dynamischen Analyse des Starts, Aussagen über die wesentlichen Einflussfaktoren auf die Leistung zu treffen. Hierzu wird eine biomechanische Analyse von Grab- und Trackstarts unter Einbeziehung der Eintauch- und Übergangsphase durchgeführt. Für die Entwicklung von Trainingsempfehlungen sind solche Zusammenhangsanalysen unerlässlich. Im theoretischen Teil der Dissertation wird die morphologische Phasenstruktur der Startbewegung im Schwimmen thematisiert. Hierbei werden unterschiedliche Modelle vorgestellt und miteinander verglichen. Durch den Vergleich der publizierten Studien zum Schwimmstart können sowohl Aussagen zu den leistungsrelevanten kinematischen und den dynamischen Kennwerten der Startbewegung zusammengefasst werden als auch Gemeinsamkeiten und Unterschiede in der Untersuchungs-methodik aufdeckt und in Relation zu der eigenen Studie gestellt werden. Im methodischen Teil wird sich zunächst mit Problemfeldern in der Datenerhebung (Berechnung der Linsenfehler und der Genauigkeit bei der Bestimmung unterschiedlicher Erhebungsmethoden der Abfluggeschwindigkeit) auseinander gesetzt. Weiterhin wird eine Methodenbeschreibung des eingesetzten ABKuS-Verfahrens beschrieben. Hierbei handelt es sich um ein selbstentwickeltes Berechnungsverfahren zur Bestimmung von Körpersegmentkoordinaten unter unscharfen Sichtbedingungen. Widrige Aufnahmebedingungen stellen insbesondere für markerlose kinematische Analysen ein Problem dar. Dies gilt insbesondere für den Eintauchvorgang beim Schwimmstart, da hier durch das Mitreißen von Luftteilchen erhebliche Sichtbehinderungen auftreten. Aus diesem Grund gibt es bisher für solche markerlosen Analysen noch keine etablierten Verfahren gibt. Für die eigentliche Hauptuntersuchung konnte eine leistungsstarke Probandenstichprobe gewonnen werden. Gegenstand der zentralen Messung war der Startsprung, den die Probanden innerhalb eines Sprinttests über 25m bzw. 50m durchführten. Die Bodenreaktionskräfte werden dabei durch den mobilen Messstartblock erhoben. Gleichzeitig werden die Blockaktionen und die Flugphase durch eine digitale Kamera und die Eintauschbewegung durch eine zweite Kamera in einem Unterwassergehäuse aufgezeichnet. Die so ermittelten umfangreichen Daten gehen in die weiteren statistischen Analysen ein. Wesentlich für die statistischen Analysen ist die Einteilung der Schwimmer und Schwimmerinnen hinsichtlich ihrer Starttechnik. Bei der Startbewegung wurde zunächst zwischen einem Track- und einem Grabstart unterschieden. Weiter wurde dann eine Einteilung des Trackstarts hinsichtlich der Ausgangsposition vorgenommen. Ausgehend von dieser Einteilung wurde der Einfluss der Starttechnik auf die Kennwerte des Startverhaltens analysiert. Die Verlaufskurven der Bodenreaktionskräfte wurden mit einer Hauptkomponentenanalyse (PCA) hinsichtlich der funktionellen und zufälligen Variation in den zeitabhängigen, koordinativen Mustern analysiert. Durch eine Clusteranalyse konnten unterschiedliche Kraftverläufe in der Anschwung- und Absprungphase identifiziert werden. Zur Bestimmung der relevanten Einflussfaktoren in der Eintauchphase wurde eine Hauptkomponentenanalyse mit einer rotierten Komponentenmatrix durchgeführt. Darüberhinaus wurden mittels einer Clusteranalyse unterschiedliche Eintauchstrategien aufgedeckt. Die komplexen Zusammenhänge des Startverhaltens wurden auf Basis theoretisch abgeleiteter Erklärungsmodelle überprüft. Hierbei kamen Strukturgleichungsmodelle zum Einsatz. Die Diskussion beinhaltet das Aufzeigen von Unterschieden bzw. die Erweiterung des Wissensstandes auf Basis der Forschungsergebnisse im Vergleich zu international anerkannten Forschungsarbeiten. Dabei wird auf die besondere Bedeutung der Eintauchphase, der in der bisherigen Forschung wenig Beachtung geschenkt wurde, hingewiesen.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Die zunehmende Vernetzung der Energie-, Stoff- und Informationsströme, z. B. innerhalb von Produktionsanlagen, begründet das Interesse an Methoden, welche eine Analyse der Systemeigenschaften von großen und verkoppelten dynamischen Systemen bereits in einem frühen Entwicklungsstadium ermöglichen. Dabei ist das Gesamtsystemverhalten von Interesse, welches sowohl auf der Dynamik der Teilsysteme als auch der Verkopplungen beruht. In der vorliegenden Arbeit wird eine neue Methode zur qualitativen Analyse von Systemen auf Inverse-Response-Verhalten vorgestellt. Der Ansatz nutzt Komplexe Netzwerke zur Modellbeschreibung, wobei diese um Kantengewichte ergänzt werden, welche das dynamische Verhalten des modellierten Systems beschreiben. Der vorgestellte Detektionsalgorithmus vergleicht die Pfade des Graphen zwischen den betrachteten Ein- und Ausgängen. Hierfür werden die aggregierten Kantengewichte der Pfade bestimmt und zur Ermittlung der qualitativen Aussage zum Inverse-Response-Verhalten herangezogen. Der Analyseansatz bietet somit eine einfach anwendbare Alternative zur Auswertung der positiven Nullstellen des Systems, welche auf die notwendige sowie hinreichende Bedingung für das Inverse-Response-Verhalten eines linearen Systems zurückgreift: eine ungerade Anzahl positiver Nullstellen. Das entwickelte Verfahren wurde erfolgreich an einer flexibel konfigurierbaren Prozessinsel der Modellfabrik μPlant des Fachgebiets Mess- und Regelungstechnik der Universität Kassel getestet.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Unterrichtsmaterialien beschreiben einen Unterrichtsvorschlag für einen kontinuierlich computergestützten Stochastikunterricht in der gymnasialen Oberstufe. Verwendet wird die Software Fathom. Die Unterrichtsmaterialien wurden bislang in fünf verschiedenen Kasseler Oberstufenkursen (Jahrgangsstufe 12 bzw. 13) erprobt und dabei jeweils weiter entwickelt. Ausgearbeitet sind drei Unterrichtseinheiten: 1. „Einstieg in die Stochastik mit Simulationen“ 2. Unterrichtseinheit „Binomialverteilung“ 3. Unterrichtseinheit „Testen von Hypothesen“ Zu jeder der drei Unterrichtseinheiten existieren eine didaktische Beschreibung, die Arbeitsmaterialien (Arbeitsblätter, Merkblätter zur Ergebnissicherung, dynamische Lernumgebungen) sowie Musterlösungen zu den Aufgaben. Für alle Aufgaben mit Verwendung der Software Fathom stehen die zugehörigen Fathom-Dateien zur Verfügung. Alle Fathom-Dateien (Lernumgebungen und Musterlösungen der Aufgaben) erhalten Sie als *.zip-Datei zum Download.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Am Beginn des 21. Jahrhundert gilt die ökologische Krise nach wie vor als ein existenzgefährdendes Problem der Menschheit. Schelling war vor nahezu 200 Jahren der erste und in dieser Entschiedenheit der einzige Denker, der auf die Bedrohung aufmerksam gemacht hat, die von einer Absolutsetzung der menschlichen Subjektivität ausgeht. Es ist das Ziel der genannten Schrift, Grundidee und -struktur der Naturphilosophie Schellings zu analysieren und die Überwindungsmöglichkeit der ökologischen Krise im Ausgang seiner Naturphilosophie zu finden. Mit Schellings Konzept der Natur als Subjekt könnte die Frage nach der Überwindungsmöglichkeit der ökologischen Krise und dem von der Philosophie hier zu leistenden Beitrag präzisiert werden. Deshalb ist das Hauptanliegen dieser Untersuchung, ob Schellings Konzept eine Alternative zu unserem heutigen Naturverständnis sein kann. Angesichts dieser neuen Fragestellung und der mit ihr verbundenen Aufgabe, einen prinzipiell anderen Begriff von Natur zu gewinnen, sind seine frühen naturphilosophischen Schriften für die in der Arbeit anvisierte Fragestellung besonders aufschlussreich und dienen daher auch als Quelle und Grundlage für die folgende Untersuchung. Die genannte Schrift gliedert sich in vier Kapitel. Im ersten Kapitel wird das Absolute als Zentralprinzip der Schellingschen Philosophie erörtert. Die Kontinuität seiner ganzen Philosophie beruht auf dem Prinzip des Absoluten. Im zweiten Kapitel werden die Anfänge der Schellingschen Naturphilosophie untersucht. Zuerst wird Kants Kritik der Urteilskraft als Vorstudien zu Schellings Begriff einer sich selbst organisierenden und hervorbringenden Natur herausgearbeitet. Und dann wird dargelegt, wie Schelling seine Naturkonzeption in der Auseinandersetzung mit Fichte aus grundsätzlichen philosophischen Überlegungen ableitet. Im dritten Kapitel stehen Grundidee und -struktur der früheren Naturphilosophie Schellings im Zentrum der Analyse. Vor allem setze ich mich unter Berücksichtigung seiner organisch-ganzheitlichen Naturauffassung mit dem Verständnis von Natur als Subjekt und Produktivität ausführlich auseinander, um die Überwindungsmöglichkeit der ökologischen Krise zu bedenken. Schellings Einwand gegen die mechanistische Naturauffassung erklärt sich aus seinem Begriff der Natur als Subjekt. Dieser Begriff hängt unmittelbar mit der Idee der Natur als Organismus zusammen. Die Natur ist ein sich selbst organisierendes Ganzes und ihre dynamische Enzwicklung vollzieht sich durch ihre eigenen Potenzen. Das vierte Kapitel setzt sich mit der Kernfrage auseinander, welche Bedeutung Schellings Naturphilosophie für die Überwindung der ökologischen Krise hat und wie die vermeintliche Aktualität seiner Naturphilosophie zu erklären ist. Hier wird Schellings Naturphilosophie im Sinne eines Rezeptes gegen die ökologische Krise als der Versuch der Begründung eines anderen Naturbegriffs und einer neuen Natur-Ethik interpretiert.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Der Anteil dezentraler eingebetteter Systeme steigt in zahlreichen Andwendungsfeldern, wie der Kfz-Elektronik oder der Anlagenautomatisierung [ScZu03]. Zudem steigen die Anforderungen and die Flexibilität und den Funktionsumfang moderner automatisierungs-technischer Systeme. Der Einsatz agentenorientierter Methoden ist diesbezüglich ein geeigneter Ansatz diesen Anforderungen gerecht zu werden [WGU03]. Mit Agenten können flexible, anpassungsfähige Softwaresysteme entwickelt werden, welche die Verteilung von Informationen, Aufgaben, Ressourcen oder Entscheidungsprozessen der realen Problemstellung im Softwaresystem widerspiegeln. Es ist somit möglich, die gewünschte Flexibilität des Systems, bezüglich der Struktur oder des Verhaltens gezielt zu entwerfen. Nachteilig ist jedoch der Indeterminismus des Verhaltens des Gesamtsystems, der sich aufgrund von schwer vorhersagbaren Interaktionen ergibt [Jen00]. Dem gegenüber stehen statische Softwaresysteme, welche zwar einen hohen Determinismus aufweisen aber wenig flexibel in Bezug auf Änderungen der Struktur des Systems oder des Ablaufs des realen Prozesses sind. Mit der steigenden Komplexität der Systeme ist allerdings selbst mit einem statischen Entwurf die Vorhersagbarkeit immer weniger zu gewährleisten. Die Zahl der möglichen Zustände einer Anlage wird mit der Berücksichtigung von allen möglichen Fehlern, Ausfällen und externen Einflüssen (dynamische Umgebung) so groß, daß diese mit vertretbarem Aufwand kaum noch erfassbar sind und somit auch nicht behandelt werden können. Das von der DFG geförderten Projekt AVE [AVE05], welches in Kooperation mit dem Institut für Automatisierungs- und Softwaretechnik der Universität Stuttgart bearbeitet wird, beschäftigt sich in diesem Kontext mit dem Konflikt, die Vorteile der Flexibilität und Anpassungsfähigkeit von agentenorientierter Software mit den spezifischen Anforderungen der Domäne der Echtzeitsysteme, wie Zeit- und Verlässlichkeitsanforderungen, zu verknüpfen. In einer detaillierten Analyse dieser Anforderungen wurde untersucht, wie die Eigenschaften der Anpassungsfähigkeit und Flexibilität prinzipiell die Anforderungen an Echtzeit- und Verlässlichkeitseigenschaften beeinflussen und wie umgekehrt Anforderungen an Echtzeit- und Verlässlichkeitseigenschaften die Anpassungsfähigkeit und Flexibilität beschränken können. Aufbauend auf diesen Erkenntnissen werden Methoden und Konzepte für den Entwurf und die Implementierung von Agentensystemen auf gängiger Automatisierungshardware, insbesondere Speicher Programmierbare Steuerungen (SPS), entwickelt. In diesem Rahmen wird ein Konzept für die Modellierung von Sicherheit in Agentensystemen vorgestellt, welches insbesondere den modularen Charakter von Agenten berücksichtigt. Kernaspekt ist es, dem Entwickler einen Rahmen vorzugeben, der ihn dabei unterstützt ein möglichst lückenloses Sicherheitskonzept zu erstellen und ihm dabei genug Freiheiten lässt den Aufwand für die Strategien zur Fehlererkennung, Fehlerdiagnose und Fehlerbehandlung je nach Anforderung für jedes Modul individuell festzulegen. Desweiteren ist besonderer Wert darauf gelegt worden, dass die verwendeten Darstellungen und Diagramme aus der Domäne stammen und eine gute Vorlage für die spätere Implementierung auf automatisierungstechnischer Hardware bieten.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Wirkungsmechanismen institutioneller Rahmenbedingungen auf Ausmaß, Richtung, Reichweite und Geschwindigkeit von Innovationsprozessen werden aktuell kontrovers diskutiert. Als prominentes Beispiel dienen die politischen Umsetzungsbemühungen eines Leitbildes der Nachhaltigkeit, insbesondere die erforderliche Integration ökonomischer, sozialer und ökologischer Aspekte in individuelle Innovationsaktivitäten. Fragen der wirtschaftspolitischen Steuerungsmöglichkeiten und -grenzen und damit der hoheitlichen Lenkungspotenziale der Innovationsprozesse in Richtung Nachhaltigkeit gewinnen in diesem Zusammenhang erheblich an Relevanz. Vor dem Hintergrund einer Vielzahl staatlicher Eingriffe in die innovationsrelevanten Rahmenbedingungen analysiert die Arbeit vor allem die Funktionsprinzipien und institutionellen Vorbedingungen entwicklungsoffener dynamischer Marktprozesse. Auf dieser Basis werden die steuerungstheoretischen Implikationen einer sowohl nachhaltigkeitsorientierten als auch ordnungsökonomisch einwandfreien Wirtschaftspolitik fokussiert. Aus ordnungsökonomischer Perspektive wird die Anpassungsfähigkeit der Wettbewerbsordnung an systemendogenen und -exogenen Aktualisierungsbedarf und damit die institutionelle Absicherung ihrer Evolutionsfähigkeit zum Gütekriterium eines evolutorisch reinterpretierten Ordnungskonformitätskriteriums. Damit lassen sich auch die Risiken und Nebenwirkungen forschungs- und entwicklungspolitischer Interventionen in dynamische Marktsysteme analysieren und einer Bewertung unterziehen. Die Überprüfung der evolutorischen Ordnungskonformität (Zulässigkeit) europäischer Forschungs- und Entwicklungspolitik wird schließlich als Anwendungsbeispiel herangezogen. Als Arbeitshypothese dient die Vermutung, dass die derzeitigen forschungs- und entwicklungspolitischen Aktivitäten der Europäischen Union einer Überprüfung anhand des ordnungsökonomischen Referenzkriteriums der evolutorischen Ordnungskonformität nicht standhalten, da sie das (zweifellos vorhandene) hoheitliche Steuerungspotenzial überschätzen und in der Folge entwicklungslimitierende Effekte ausstrahlen. Gleichwohl werden – insbesondere unter Nachhaltigkeitsgesichtspunkten – innovationspolitische Steuerungsnotwendigkeiten in freiheitlich-wettbewerblich organisierte Ordnungen anerkannt. Mit dem Konzept variabler forschungs- und entwicklungspolitischer Leitplanken wird ein Vorschlag entwickelt, der den ordnungsökonomischen Anforderungen weitgehend Rechnung trägt und im Ergebnis nachhaltigkeitsmotivierte Steuerungsimpulse mit der Aufrechterhaltung eines weitgehend offenen Innovationswettbewerbs verbinden kann. Durch den Ausschluss der Förderung nicht-nachhaltiger Technologien und die damit prinzipiell erhaltene Handlungsfreiheit – bei gleichzeitiger Variabilität der Leitplanken angesichts wachsender ökologischer und technologischer Wissensbestände – kann dieses Konzept als potenziell ordnungskonformes Leitbild zukünftige FuE-Politik orientieren. Dessen Umsetzung führt über ein Konzept variabler forschungs- und entwicklungspolitischer Leitplanken, welche der wirtschaftlichen Ordnung Entwicklungsbeschränkungen der „Nicht-Nachhaltigkeit“ auferlegen, aber nicht nachhaltigkeitspolitisch vorbestimmte Allokationszustände zu realisieren versucht.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Speckle Pattern Shearing Interferometrie (Shearografie) ist eine speckle-interferometrische Messmethode und zeichnet sich durch die ganzflächige, berührungslose Arbeitsweise, hohe räumliche Auflösung und hohe Messempfindlichkeit aus. Diese Dissertation beinhaltet die neue bzw. weitere Entwicklung der Shearografie zur qualitativen Schwingungsbeobachtung und zur quantitativen Schwingungsmessung. Für die qualitative Schwingungsbeobachtung in Echtzeit werden die Optimierung des Zeitmittelungsverfahrens und die neue entwickelte Online-Charakterisierung von Streifenmustern mit statistischen Verfahren vorgestellt. Auf dieser Basis können sowohl eine genaue Fehlstellen-Detektion bei der zerstörungsfreien Materialprüfung als auch eine präzise Resonanzuntersuchung zeitsparend und vollautomatisch durchgeführt werden. Für die quantitative Schwingungsmessung wird eine sog. dynamische Phasenschiebe-Technik neu entwickelt, welche durch die Einführung eines synchron zum Objekt schwingenden Referenzspiegels realisiert wird. Mit dieser Technik ermöglicht das Zeitmittelungsverfahren die Amplituden und Phasen einer Objektschwingung quantitativ zu ermitteln. Auch eine Weiterentwicklung des stroboskopischen Verfahrens in Kombination mit zeitlicher Phasenverschiebung wird in der Arbeit präsentiert, womit der gesamte Prozess der Schwingungsmessung und -rekonstruktion beschleunigt und automatisch durchgeführt wird. Zur Bestimmung des Verschiebungsfeldes aus den gemessenen Amplituden und Phasen des Verformungsgradienten stellt diese Arbeit auch eine Weiterentwicklung des Summationsverfahrens vor. Das Verfahren zeichnet sich dadurch aus, dass die Genauigkeit des ermittelten Verschiebungsfelds unabhängig von der Sheargröße ist und gleichzeitig das praktische Problem - Unstetigkeit - gelöst wird. Eine quantitative Messung erfordert eine genaue Kalibrierung der gesamten Messkette. Ein auf dem Least-Square-Verfahren basierendes Kalibrierverfahren wird in der Arbeit zur Kalibrierung der statischen und dynamischen Phasenverschiebung vorgestellt. Auch die Ermittelung der Sheargröße mit Hilfe der 1D- bzw. 2D-Kreuz-Korrelation wird präsentiert. Zum Schluss wurde die gesamte Entwicklung durch eine Vergleichsmessung mit einem handelsüblichen Scanning-Laser-Doppler-Vibrometer experimentell verifiziert.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Arbeit befasst sich mit der Entwicklung analytischer Modelle im Bereich der elektrischen Maschinenauslegung und deren Umsetzung in ein Softwaresystem, dass zur Auslegung elektrischer Maschinen verwendet werden kann. Es wurden zahlreiche Modelle für die elektromagnetische sowie thermische Berechnung der permanentmagneterregten Synchronmaschine sowie Asynchronmaschine mit Kurzschlussläufer entwickelt. Bei den Berechnungen wurde mit einer geringen Anzahl von Eingabewerten eine gute Genauigkeit bei der Berechnung der Maschinenparameter erreicht. Dieses zeigte sich durch den Vergleich von analytisch berechneten Maschinenparametern und den Werten, die mittels der Finite-Elemente-Methode berechnet wurden. Darüber hinaus wurden auch Modelle entwickelt, die für spezielle Fragestellungen herangezogen werden können, wie zum Beispiel die Auswirkung der Stromverdrängung auf das dynamische Verhalten der Asynchronmaschine mit Käfigläufern. Die einzelnen Modelle wurden zu einer Softwareeinheit zusammengefasst, die Dienste zur Auslegung elektrischer Maschinen bereitstellt. Die Dienste dieser Softwareeinheit, die auf einem Server installiert ist, können über graphische Benutzerschnittstellen ortsunabhängig und somit weltweit verwendet werden. Durch die zentrale Lage der Modelle können sehr einfach Erweiterungen an der Berechnungssoftware vorgenommen und dem Nutzer zur Verfügung gestellt werden. Mit der Entwicklung einer graphischen Benutzerschnittstelle ist eine geführte und übersichtliche Eingabe der zur Berechnung notwendigen Eingaben entstanden. Mit der Wahl von http als Transportprotokoll wird ein etabliertes Protokoll verwendet, das eine Kommunikation zwischen zwei durch Firewalls abgesicherten Teilnetzen ermöglicht, ohne dass dadurch bedenkliche Lücken in einem Sicherheitskonzept entstehen. Durch die Verwendung von SOAP als Übertragungsprotokoll zwischen den Kommunikationspartnern wird ein firmen- und produktunabhängiges Protokoll verwendet, das sich in der Praxis immer stärker etabliert.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Entwicklung in der Windkrafttechnik ist aufgrund der Wirtschaftlichkeitserwartungen besonders auf große Anlagen im MW-Bereich ausgerichtet. Im unteren Leistungsbereich (5 bis 100kW) bilden Entwicklungen und Anlageninstallationen weitgehend Ausnahmen und erfüllen meist nicht die für Hybridanlagen notwendige Systemfähigkeit, was eine Einbindung in dezentrale Energiesysteme erschwert. Im Rahmen dieser Arbeit werden die elektrischen Komponenten für eine kostengünstige und systemfähige Windkraftanlage entwickelt, mit der die Nutzung erneuerbarer Energiequellen durch Einbindung der Windenergie in die modulare Energie-Systemtechnik erweitert und wesentlich verbessert wird. Dabei stellt der Generator als mechanisch-elektrischer Energiewandler die Schlüsselkomponente dar. Um den Teil- und Volllastbetrieb effektiv zu gestalten, wird bei der Auslegung und Optimierung des Generators nach dem Kennlinienverfahren möglichst großen Werten von Wirkungsgrad und Leistungsfaktor in einem weiten Spektrum der abgegebenen Leistung eine hohe Wichtigkeit beigemessen. Um hohe Energieerträge sowohl im Teil- als auch im Volllastbetrieb zu erzielen, wird der Generator polumschaltbar ausgeführt und im Betrieb entsprechend der aktuell eingespeisten Leistung zwischen zwei Drehzahlen geschaltet. Die durchgeführten Untersuchungen an mehrfach optimierten und speziell angefertigten Generatortypen sollen als Grundlage für die Gesamtkonzeption der Windenergieanlage dienen. Um die energetischen Auswirkungen und betriebstechnische Möglichkeiten der Auslegung zu ermitteln, werden im gesamten auftretenden Leistungsspektrum – Leerlauf bis 130% der Nennleistung – die mechanischen und elektrischen Verhaltensweisen in Abhängigkeit von der elektrisch abgegebenen Leistung bei unterschiedlichen Sättigungsgraden des Generators untersucht. Im Hinblick auf die Auslegung der mechanischen und elektrischen Komponenten wie z.B. des Getriebes und des Schleifringkörpers werden dynamische Zustandsänderungen wie verschiedene Kurzschlussvarianten und die Zuschaltung auf das Netz untersucht und dargestellt. Um den Anlagenbetrieb für nahezu alle Netze weltweit zu gewährleisten, wird eine polumschaltbare Einphasenmaschine für 240V / 60Hz ausgelegt. Der Generator kann mit Betriebskondensatorstufen im gesamten Leistungsbereich von Leerlauf bis Nennleistung ohne Laufgeräusche und Rüttelkräfte betrieben werden. Dabei soll der Einphasenasynchrongenerator nach dem gleichem Optimierungsverfahren wie beim Dreiphasigen Asynchrongenerator sowohl für die 4-polige als auch für die 6-polige Drehzahlstufe hohe Teillastwirkungsgrade erreichen. Um möglichst symmetrische Betriebsverhältnisse hinsichtlich Drehmomentschwankungen erreichen zu können, wird die Auslegung der Betriebskapazität an den Drehmomentschwankungen ausgerichtet und eine Optimierung der Betriebskapazität anhand minimaler Amplituden der Pendelmomente erreicht. Damit wird gezeigt, dass auch kleine Windkraftanlagen einen wertvollen Beitrag zur netzverträglichen und nachhaltigen Elektrizitätsversorgung leisten können.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Im Rahmen der Arbeit wird ein Unterrichtskonzept für den Leistungskurs Stochastik in der gymnasialen Oberstufe vorgestellt, bei welchem Computersimulationen und Lernumgebungen mit der Software FATHOM über das gesamte Kurshalbjahr unterstützend eingesetzt werden. Der experimentelle Zugang zur Wahrscheinlichkeit ergänzt den theoretischen Zugang und soll im Sinn eines handlungsorientierten Lernens die Motivation der Schülerinnen und Schüler fördern. Das Unterrichtskonzept enthält drei Schwerpunktsetzungen: • Einstieg in den Stochastikkurs mit Simulationen • Binomialverteilung • Das Testen von Hypothesen Die Arbeit konzentriert sich in der Darstellung und der Analyse auf den Einstieg in den Stochastikkurs mit Simulationen und computergestützten Lernumgebungen. Der Erwerb der Simulations- und Fathomkompetenzen in der Einstiegsphase wird auf inhaltlicher Seite verknüpft mit dem Wahrscheinlichkeitsbegriff, mit dem Gesetz der großen Zahl, sowie mit weiteren stochastischen Grundlagen. Das Unterrichtskonzept zum Einstieg in das Kurshalbjahr Stochastik wird ausführlich vorgestellt, zu den beiden anderen genannten Schwerpunkten werden die entwickelten Unterrichtskonzepte knapp erläutert. Die ausführlich kommentierten Unterrichtsmaterialien zu allen drei Schwerpunkten sind als Band 2 der KaDiSto-Schriftenreihe publiziert. Im Rahmen unterrichtlicher Erprobungen wurden verschiedene empirische Untersuchungen durchgeführt. Bei diesen Untersuchungen liegt ein Schwerpunkt auf der Transkriptanalyse von Videos des Bildschirmgeschehens und der simultan hierzu aufgenommenen verbalen Kommunikation während der Schülerarbeitsphasen am Computer. Diese Videos ermöglichen tiefer gehende Einblicke in die Kompetenzentwicklung der Schülerinnen und Schüler, in auftretende Probleme bei der Erstellung der Computersimulationen und in den Umgang der Schülerinnen und Schüler mit den Aufgabenstellungen. Die Analyse ausgewählter Transkriptausschnitte wird eingebettet in die Schilderung des Unterrichtsverlaufs auf der Basis von Unterrichtsprotokollen. Weiter wird die Bearbeitung einer komplexen Simulationsaufgabe in einer notenrelevanten Klausur nach Abschluss der Einstiegsphase analysiert. Es werden die Ergebnisse eines Eingangstests vor Beginn der Einstiegsphase und eines Ausgangstests im Anschluss an die Einstiegsphase geschildert. Ergänzend werden die Ergebnisse einer Schülerbefragung vorgestellt. Zum Abschluss der Arbeit wird eine Gesamtbetrachtung des Unterrichtskonzepts vorgenommen, bei der die Stärken aber auch zentrale Probleme des Konzepts beschrieben und teilweise verallgemeinert werden. Aus diesen Betrachtungen werden weitere Entwicklungsmöglichkeiten des geschilderten Projekts abgeleitet. Die Arbeit verfolgt einen stark unterrichtspraktischen Ansatz. Das methodische Vorgehen ist im Bereich einer Design-Research-Studie angesiedelt. Der Autor selber ist Lehrer an dem Kasseler Oberstufengymnasium Jacob-Grimm-Schule und hat über einen längeren Zeitraum im Rahmen einer Abordnung in der Arbeitsgruppe Mathematik-Didaktik der Universität Kassel mitgearbeitet. Die Arbeit stellt die Dissertation des Verfassers dar, die an der Universität Kassel von Prof. Dr. Rolf Biehler betreut wurde. Sie ist identisch mit der Erstveröffentlichung 2008 im Franzbecker Verlag, Hildesheim, der der elektronischen Veröffentlichung im Rahmen von KaDiSto zugestimmt hat

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Excimerlaser sind gepulste Gaslaser, die Laseremission in Form von Linienstrahlung – abhängig von der Gasmischung – im UV erzeugen. Der erste entladungsgepumpte Excimerlaser wurde 1977 von Ischenko demonstriert. Alle kommerziell verfügbaren Excimerlaser sind entladungsgepumpte Systeme. Um eine Inversion der Besetzungsdichte zu erhalten, die notwendig ist, um den Laser zum Anschwingen zu bekommen, muss aufgrund der kurzen Wellenlänge sehr stark gepumpt werden. Diese Pumpleistung muss von einem Impulsleistungsmodul erzeugt werden. Als Schaltelement gebräuchlich sind Thyratrons, Niederdruckschaltröhren, deren Lebensdauer jedoch sehr limitiert ist. Deshalb haben sich seit Mitte der 1990iger Jahre Halbleiterschalter mit Pulskompressionsstufen auch in dieser Anwendung mehr und mehr durchgesetzt. In dieser Arbeit wird versucht, die Pulskompression durch einen direkt schaltenden Halbleiterstapel zu ersetzen und dadurch die Verluste zu reduzieren sowie den Aufwand für diese Pulskompression einzusparen. Zudem kann auch die maximal mögliche Repetitionsrate erhöht werden. Um die Belastung der Bauelemente zu berechnen, wurden für alle Komponenten möglichst einfache, aber leistungsfähige Modelle entwickelt. Da die normalerweise verfügbaren Daten der Bauelemente sich aber auf andere Applikationen beziehen, mussten für alle Bauteile grundlegende Messungen im Zeitbereich der späteren Applikation gemacht werden. Für die nichtlinearen Induktivitäten wurde ein einfaches Testverfahren entwickelt um die Verluste bei sehr hohen Magnetisierungsgeschwindigkeiten zu bestimmen. Diese Messungen sind die Grundlagen für das Modell, das im Wesentlichen eine stromabhängige Induktivität beschreibt. Dieses Modell wurde für den „magnetic assist“ benützt, der die Einschaltverluste in den Halbleitern reduziert. Die Impulskondensatoren wurden ebenfalls mit einem in der Arbeit entwickelten Verfahren nahe den späteren Einsatzparametern vermessen. Dabei zeigte sich, dass die sehr gebräuchlichen Class II Keramikkondensatoren für diese Anwendung nicht geeignet sind. In der Arbeit wurden deshalb Class I Hochspannungs- Vielschicht- Kondensatoren als Speicherbank verwendet, die ein deutlich besseres Verhalten zeigen. Die eingesetzten Halbleiterelemente wurden ebenfalls in einem Testverfahren nahe den späteren Einsatzparametern vermessen. Dabei zeigte sich, dass nur moderne Leistungs-MOSFET´s für diesen Einsatz geeignet sind. Bei den Dioden ergab sich, dass nur Siliziumkarbid (SiC) Schottky Dioden für die Applikation einsetzbar sind. Für die Anwendung sind prinzipiell verschiedene Topologien möglich. Bei näherer Betrachtung zeigt sich jedoch, dass nur die C-C Transfer Anordnung die gewünschten Ergebnisse liefern kann. Diese Topologie wurde realisiert. Sie besteht im Wesentlichen aus einer Speicherbank, die vom Netzteil aufgeladen wird. Aus dieser wird dann die Energie in den Laserkopf über den Schalter transferiert. Aufgrund der hohen Spannungen und Ströme müssen 24 Schaltelemente in Serie und je 4 parallel geschaltet werden. Die Ansteuerung der Schalter wird über hochisolierende „Gate“-Transformatoren erreicht. Es zeigte sich, dass eine sorgfältig ausgelegte dynamische und statische Spannungsteilung für einen sicheren Betrieb notwendig ist. In der Arbeit konnte ein Betrieb mit realer Laserkammer als Last bis 6 kHz realisiert werden, der nur durch die maximal mögliche Repetitionsrate der Laserkammer begrenzt war.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The 21st century has brought new challenges for forest management at a time when globalization in world trade is increasing and global climate change is becoming increasingly apparent. In addition to various goods and services like food, feed, timber or biofuels being provided to humans, forest ecosystems are a large store of terrestrial carbon and account for a major part of the carbon exchange between the atmosphere and the land surface. Depending on the stage of the ecosystems and/or management regimes, forests can be either sinks, or sources of carbon. At the global scale, rapid economic development and a growing world population have raised much concern over the use of natural resources, especially forest resources. The challenging question is how can the global demands for forest commodities be satisfied in an increasingly globalised economy, and where could they potentially be produced? For this purpose, wood demand estimates need to be integrated in a framework, which is able to adequately handle the competition for land between major land-use options such as residential land or agricultural land. This thesis is organised in accordance with the requirements to integrate the simulation of forest changes based on wood extraction in an existing framework for global land-use modelling called LandSHIFT. Accordingly, the following neuralgic points for research have been identified: (1) a review of existing global-scale economic forest sector models (2) simulation of global wood production under selected scenarios (3) simulation of global vegetation carbon yields and (4) the implementation of a land-use allocation procedure to simulate the impact of wood extraction on forest land-cover. Modelling the spatial dynamics of forests on the global scale requires two important inputs: (1) simulated long-term wood demand data to determine future roundwood harvests in each country and (2) the changes in the spatial distribution of woody biomass stocks to determine how much of the resource is available to satisfy the simulated wood demands. First, three global timber market models are reviewed and compared in order to select a suitable economic model to generate wood demand scenario data for the forest sector in LandSHIFT. The comparison indicates that the ‘Global Forest Products Model’ (GFPM) is most suitable for obtaining projections on future roundwood harvests for further study with the LandSHIFT forest sector. Accordingly, the GFPM is adapted and applied to simulate wood demands for the global forestry sector conditional on selected scenarios from the Millennium Ecosystem Assessment and the Global Environmental Outlook until 2050. Secondly, the Lund-Potsdam-Jena (LPJ) dynamic global vegetation model is utilized to simulate the change in potential vegetation carbon stocks for the forested locations in LandSHIFT. The LPJ data is used in collaboration with spatially explicit forest inventory data on aboveground biomass to allocate the demands for raw forest products and identify locations of deforestation. Using the previous results as an input, a methodology to simulate the spatial dynamics of forests based on wood extraction is developed within the LandSHIFT framework. The land-use allocation procedure specified in the module translates the country level demands for forest products into woody biomass requirements for forest areas, and allocates these on a five arc minute grid. In a first version, the model assumes only actual conditions through the entire study period and does not explicitly address forest age structure. Although the module is in a very preliminary stage of development, it already captures the effects of important drivers of land-use change like cropland and urban expansion. As a first plausibility test, the module performance is tested under three forest management scenarios. The module succeeds in responding to changing inputs in an expected and consistent manner. The entire methodology is applied in an exemplary scenario analysis for India. A couple of future research priorities need to be addressed, particularly the incorporation of plantation establishments; issue of age structure dynamics; as well as the implementation of a new technology change factor in the GFPM which can allow the specification of substituting raw wood products (especially fuelwood) by other non-wood products.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Land use has become a force of global importance, considering that 34% of the Earth’s ice-free surface was covered by croplands or pastures in 2000. The expected increase in global human population together with eminent climate change and associated search for energy sources other than fossil fuels can, through land-use and land-cover changes (LUCC), increase the pressure on nature’s resources, further degrade ecosystem services, and disrupt other planetary systems of key importance to humanity. This thesis presents four modeling studies on the interplay between LUCC, increased production of biofuels and climate change in four selected world regions. In the first study case two new crop types (sugarcane and jatropha) are parameterized in the LPJ for managed Lands dynamic global vegetation model for calculation of their potential productivity. Country-wide spatial variation in the yields of sugarcane and jatropha incurs into substantially different land requirements to meet the biofuel production targets for 2015 in Brazil and India, depending on the location of plantations. Particularly the average land requirements for jatropha in India are considerably higher than previously estimated. These findings indicate that crop zoning is important to avoid excessive LUCC. In the second study case the LandSHIFT model of land-use and land-cover changes is combined with life cycle assessments to investigate the occurrence and extent of biofuel-driven indirect land-use changes (ILUC) in Brazil by 2020. The results show that Brazilian biofuels can indeed cause considerable ILUC, especially by pushing the rangeland frontier into the Amazonian forests. The carbon debt caused by such ILUC would result in no carbon savings (from using plant-based ethanol and biodiesel instead of fossil fuels) before 44 years for sugarcane ethanol and 246 years for soybean biodiesel. The intensification of livestock grazing could avoid such ILUC. We argue that such an intensification of livestock should be supported by the Brazilian biofuel sector, based on the sector’s own interest in minimizing carbon emissions. In the third study there is the development of a new method for crop allocation in LandSHIFT, as influenced by the occurrence and capacity of specific infrastructure units. The method is exemplarily applied in a first assessment of the potential availability of land for biogas production in Germany. The results indicate that Germany has enough land to fulfill virtually all (90 to 98%) its current biogas plant capacity with only cultivated feedstocks. Biogas plants located in South and Southwestern (North and Northeastern) Germany might face more (less) difficulties to fulfill their capacities with cultivated feedstocks, considering that feedstock transport distance to plants is a crucial issue for biogas production. In the fourth study an adapted version of LandSHIFT is used to assess the impacts of contrasting scenarios of climate change and conservation targets on land use in the Brazilian Amazon. Model results show that severe climate change in some regions by 2050 can shift the deforestation frontier to areas that would experience low levels of human intervention under mild climate change (such as the western Amazon forests or parts of the Cerrado savannas). Halting deforestation of the Amazon and of the Brazilian Cerrado would require either a reduction in the production of meat or an intensification of livestock grazing in the region. Such findings point out the need for an integrated/multicisciplinary plan for adaptation to climate change in the Amazon. The overall conclusions of this thesis are that (i) biofuels must be analyzed and planned carefully in order to effectively reduce carbon emissions; (ii) climate change can have considerable impacts on the location and extent of LUCC; and (iii) intensification of grazing livestock represents a promising venue for minimizing the impacts of future land-use and land-cover changes in Brazil.