995 resultados para Empirische Methode
Resumo:
Die zunehmende Vernetzung der Energie-, Stoff- und Informationsströme, z. B. innerhalb von Produktionsanlagen, begründet das Interesse an Methoden, welche eine Analyse der Systemeigenschaften von großen und verkoppelten dynamischen Systemen bereits in einem frühen Entwicklungsstadium ermöglichen. Dabei ist das Gesamtsystemverhalten von Interesse, welches sowohl auf der Dynamik der Teilsysteme als auch der Verkopplungen beruht. In der vorliegenden Arbeit wird eine neue Methode zur qualitativen Analyse von Systemen auf Inverse-Response-Verhalten vorgestellt. Der Ansatz nutzt Komplexe Netzwerke zur Modellbeschreibung, wobei diese um Kantengewichte ergänzt werden, welche das dynamische Verhalten des modellierten Systems beschreiben. Der vorgestellte Detektionsalgorithmus vergleicht die Pfade des Graphen zwischen den betrachteten Ein- und Ausgängen. Hierfür werden die aggregierten Kantengewichte der Pfade bestimmt und zur Ermittlung der qualitativen Aussage zum Inverse-Response-Verhalten herangezogen. Der Analyseansatz bietet somit eine einfach anwendbare Alternative zur Auswertung der positiven Nullstellen des Systems, welche auf die notwendige sowie hinreichende Bedingung für das Inverse-Response-Verhalten eines linearen Systems zurückgreift: eine ungerade Anzahl positiver Nullstellen. Das entwickelte Verfahren wurde erfolgreich an einer flexibel konfigurierbaren Prozessinsel der Modellfabrik μPlant des Fachgebiets Mess- und Regelungstechnik der Universität Kassel getestet.
Resumo:
Veränderungen des Raum-Zeit-Verhaltens im Zuge von Lebensumbrüchen und ihre Anforderungen an die Stadt- und Verkehrsplanung am Beispiel des Eintritts in den Ruhestand. In der vorliegenden Dissertation wurde untersucht, ob und in welchem Maße sich das Raum-Zeit-Verhalten im Alltag mit dem Eintritt in den Ruhestand verändert. Bei der Untersuchung handelt es sich um eine mehrjährige Panel-Studie, die in den Regionen Hamburg und Kassel durchgeführt wurde. Mit insgesamt 50 Studienteilnehmern wurden vor und nach ihrem Ausscheiden aus dem Erwerbsleben umfassende Interviews geführt. Hierbei kam die an der Oxford University entwickelte „HATS“-Methode („Household Activity Travel Simulator“) zum Einsatz, die einen tiefen Einblick in die Alltagsstrukturen und das aus ihnen resultierende raum-zeitliche Verhalten ermöglicht. Ein Untersuchungsschwerpunkt lag auf der Verkehrsmittelwahl. Auf Grundlage der Untersuchungsergebnisse wurden Handlungsempfehlungen für die Stadt- und Verkehrsplanung abgeleitet. Es zeigte sich, dass die Studienteilnehmer mit ihrem Eintritt in den Ruhestand grundsätzlich deutlich später im Tagesverlauf als Verkehrsteilnehmer in Erscheinung treten. Darüber hinaus zeichnete sich ein Bedeutungszuwachs des Stadtquartiers bzw. der nahräumlichen Mobilität ab; der Fuß- und Fahrradverkehr gewinnt für die Alltagsmobilität an Bedeutung. Versorgungs- und Dienstleistungsangebote im eigenen Wohnquartier – und somit nutzungsgemischte Stadtquartiere – erweisen sich demnach insbesondere für die Gruppe der Ruheständler als besonders relevant. Trotz der steigenden Bedeutung des Fuß-und Fahrradverkehrs zeigt die Studie, dass dem Pkw in der Alltagsmobilität eine (nach wie vor) dominante Rolle zukommt – eine Entwicklung, die sich aufgrund des Kohorteneffekts eher noch verstärken wird. Im Rahmen der Diskussion geeigneter Handlungsansätze für die Stadt- und Verkehrsplanung zur Stärkung des Umweltverbundes werden – neben Interventionen zur Attraktivitätsminderung des Pkw – insbesondere verschiedene Maßnahmen zu Angebotsverbesserungen im ÖPNV behandelt. Dabei wird u. a. auch die Verhaltensrelevanz von Kostenwahrnehmungen betrachtet. Zusätzlich wird deutlich, dass bei der Etablierung verkehrsplanerischer Maßnahmen auch die zu-nehmende Bedeutung von Wegen, die in Begleitung anderer Haushaltsmitglieder zurückgelegt werden (Stichwort: Haushaltsmobilität), berücksichtigt werden muss. Der Eintritt in den Ruhestand erweist sich grundsätzlich als eine Umbruchsituation im Lebensverlauf, die ein Aufbrechen von (Verkehrs-)Gewohnheiten im Alltag begünstigt und die Betroffenen besonders empfänglich für Informationen zu verschiedenen Verkehrsangeboten bzw. Verhaltens-alternativen werden lässt. Hinsichtlich möglicher Handlungsansätze wird in dieser Studie u. a. thematisiert, wie im Rahmen einer zielgruppenspezifischen Kommunikation im ÖPNV dieses Zeit-fenster genutzt werden kann, um Menschen an der Schwelle zum Eintritt in den Ruhestand als regelmäßige Nutzer von Bus und Bahn (neu) zu gewinnen bzw. zu halten.
Resumo:
Wenn sich in einem wichtigen Bereich der Elektrotechnik ein neues Halbleitermaterial zu etablieren beginnt, weckt dies einerseits Erwartungen der Wirtschaft und Industrie, andererseits kann es eine erhebliche Herausforderung für die Hersteller bedeuten. Nachdem Gallium-Nitrid erstmalig vor 20 Jahren als Transistor verwendet wurde und seit über einer Dekade serienmäßig in der Hochfrequenztechnik eingesetzt wird, erobert es nun die Leistungselektronik. Die ausschlaggebenden Kriterien sind hier die Verwendbarkeit bei höheren Betriebstemperaturen, die Energieeffizienz und die Reduzierung von Größe und Gewicht durch den Betrieb bei höheren Schaltfrequenzen. Die vorliegende Arbeit basiert auf der Motivation zunächst einen möglichst breit angelegten Überblick des ständig wachsenden Angebotsspektrums zu geben, das mittlerweile durch die vielfältigen Varianten der verfügbaren Transistoren an Übersichtlichkeit etwas verloren hat. Nach einer ausführlichen Erläuterung der physikalischen und elektrischen Eigenschaften, werden die jeweiligen Typen in überschaubaren Abschnitten beschrieben und im Anschluss tabellarisch zusammengefasst. Die elektrischen Eigenschaften der hier ausgewählten EPC 2010 eGaN-HFETs (200 V Spannungsklasse) werden eingehend diskutiert. Das Schaltverhalten der eGaN-HFETs in einem Synchron-Tiefsetzsteller wird untersucht und modelliert. Eine Analyse aller in den GaN-FETs entstehenden Verlustleistungen wird durchgeführt. Zur Abschätzung der dynamischen Verlustleistungen wird eine analytische Methode umgesetzt und weiter entwickelt. Um die Vorteile der erhöhten Schaltfrequenzen nutzen zu können, erfolgt eine sehr ausführliche Betrachtung der notwendigen magnetischen Komponenten, deren Auswahl- und Verwendungskriterien im Detail untersucht, evaluiert und aufgegliedert werden. Diese werden im praktischen Teil ausgiebig in Verbindung mit den GaN-Transistoren ausgesucht und messtechnisch bewertet. Theoretische Betrachtungen hinsichtlich der Grenzen, die magnetische Bauelemente schnell schaltenden Halbleitern auferlegen, werden durchgeführt. Da die untersuchten Niedervolt-GaN-HFETs quasi kein Gehäuse haben, ist eine korrekte Strommessung nicht realisierbar. Am praktischen Beispiel eines Synchron-Tiefsetzstellers werden zwei experimentelle Methoden entwickelt, mit deren Hilfe die Verlustleistungen in den EPC 2010 eGaN-HFETs ermittelt werden. Anschließend wird das Verbesserungspotential der GaN-Leistungstransistoren erläutert sowie deren Anwendungsbereiche diskutiert.
Resumo:
Die Berechnung des 1912 von Birkhoff eingeführten chromatischen Polynoms eines Graphen stellt bekanntlich ein NP-vollständiges Problem dar. Dieses gilt somit erst recht für die Verallgemeinerung des chromatischen Polynoms zum bivariaten chromatischen Polynom nach Dohmen, Pönitz und Tittmann aus dem Jahre 2003. Eine von Averbouch, Godlin und Makowsky 2008 vorgestellte Rekursionsformel verursacht durch wiederholte Anwendung im Allgemeinen einen exponentiellen Rechenaufwand. Daher war das Ziel der vorliegenden Dissertation, Vereinfachungen zur Berechnung des bivariaten chromatischen Polynoms spezieller Graphentypen zu finden. Hierbei wurden folgende Resultate erzielt: Für Vereinigungen von Sternen, für vollständige Graphen, aus welchen die Kanten von Sternen mit paarweise voneinander verschiedenen Ecken gelöscht wurden, für spezielle Splitgraphen und für vollständig partite Graphen konnten rekursionsfreie Gleichungen zur Berechnung des bivariaten chromatischen Polynoms mit jeweils linear beschränkter Rechenzeit gefunden werden. Weiterhin werden Möglichkeiten der Reduktion allgemeiner Splitgraphen, bestimmter bipartiter Graphen sowie vollständig partiter Graphen vorgestellt. Bei letzteren erweist sich eine hierbei gefundene Rekursionsformel durch eine polynomiell beschränkte Laufzeit als effektive Methode. Ferner konnte in einem Abschnitt zu Trennern in Graphen gezeigt werden, dass der Spezialfall der trennenden Cliquen, welcher im univariaten Fall sehr einfach ist, im bivariaten Fall sehr komplexe Methoden erfordert. Ein Zusammenhang zwischen dem bivariaten chromatischen Polynom und dem Matchingpolynom wurde für vollständige Graphen, welchen die Kanten von Sternen mit paarweise voneinander verschiedenen Ecken entnommen wurden, sowie für Bicliquen hergestellt. Die vorliegende Dissertation liefert darüber hinaus auch einige Untersuchungen zum trivariaten chromatischen Polynom, welches auf White (2011) zurückgeht und eine weitere Verallgemeinerung des bivariaten chromatischen Polynoms darstellt. Hierbei konnte gezeigt werden, dass dessen Berechnung selbst für einfache Graphentypen schon recht kompliziert ist. Dieses trifft sogar dann noch zu, wenn man die einzelnen Koeffizienten als bivariate Polynome abspaltet und einzeln berechnet. Abschließend stellt die Arbeit zu vielen Resultaten Implementierungen mit dem Computeralgebrasystem Mathematica bereit, welche zahlreiche Möglichkeiten zu eigenständigen Versuchen bieten.
Resumo:
Im Rahmen dieser Arbeit wird eine gemeinsame Optimierung der Hybrid-Betriebsstrategie und des Verhaltens des Verbrennungsmotors vorgestellt. Die Übernahme von den im Steuergerät verwendeten Funktionsmodulen in die Simulationsumgebung für Fahrzeuglängsdynamik stellt eine effiziente Applikationsmöglichkeit der Originalparametrierung dar. Gleichzeitig ist es notwendig, das Verhalten des Verbrennungsmotors derart nachzubilden, dass das stationäre und das dynamische Verhalten, inklusive aller relevanten Einflussmöglichkeiten, wiedergegeben werden kann. Das entwickelte Werkzeug zur Übertragung der in Ascet definierten Steurgerätefunktionen in die Simulink-Simulationsumgebung ermöglicht nicht nur die Simulation der relevanten Funktionsmodule, sondern es erfüllt auch weitere wichtige Eigenschaften. Eine erhöhte Flexibilität bezüglich der Daten- und Funktionsstandänderungen, sowie die Parametrierbarkeit der Funktionsmodule sind Verbesserungen die an dieser Stelle zu nennen sind. Bei der Modellierung des stationären Systemverhaltens des Verbrennungsmotors erfolgt der Einsatz von künstlichen neuronalen Netzen. Die Auswahl der optimalen Neuronenanzahl erfolgt durch die Betrachtung des SSE für die Trainings- und die Verifikationsdaten. Falls notwendig, wird zur Sicherstellung der angestrebten Modellqualität, das Interpolationsverhalten durch Hinzunahme von Gauß-Prozess-Modellen verbessert. Mit den Gauß-Prozess-Modellen werden hierbei zusätzliche Stützpunkte erzeugt und mit einer verminderten Priorität in die Modellierung eingebunden. Für die Modellierung des dynamischen Systemverhaltens werden lineare Übertragungsfunktionen verwendet. Bei der Minimierung der Abweichung zwischen dem Modellausgang und den Messergebnissen wird zusätzlich zum SSE das 2σ-Intervall der relativen Fehlerverteilung betrachtet. Die Implementierung der Steuergerätefunktionsmodule und der erstellten Steller-Sensor-Streckenmodelle in der Simulationsumgebung für Fahrzeuglängsdynamik führt zum Anstieg der Simulationszeit und einer Vergrößerung des Parameterraums. Das aus Regelungstechnik bekannte Verfahren der Gütevektoroptimierung trägt entscheidend zu einer systematischen Betrachtung und Optimierung der Zielgrößen bei. Das Ergebnis des Verfahrens ist durch das Optimum der Paretofront der einzelnen Entwurfsspezifikationen gekennzeichnet. Die steigenden Simulationszeiten benachteiligen Minimumsuchverfahren, die eine Vielzahl an Iterationen benötigen. Um die Verwendung einer Zufallsvariablen, die maßgeblich zur Steigerung der Iterationanzahl beiträgt, zu vermeiden und gleichzeitig eine Globalisierung der Suche im Parameterraum zu ermöglichen wird die entwickelte Methode DelaunaySearch eingesetzt. Im Gegensatz zu den bekannten Algorithmen, wie die Partikelschwarmoptimierung oder die evolutionären Algorithmen, setzt die neu entwickelte Methode bei der Suche nach dem Minimum einer Kostenfunktion auf eine systematische Analyse der durchgeführten Simulationsergebnisse. Mit Hilfe der bei der Analyse gewonnenen Informationen werden Bereiche mit den bestmöglichen Voraussetzungen für ein Minimum identifiziert. Somit verzichtet das iterative Verfahren bei der Bestimmung des nächsten Iterationsschrittes auf die Verwendung einer Zufallsvariable. Als Ergebnis der Berechnungen steht ein gut gewählter Startwert für eine lokale Optimierung zur Verfügung. Aufbauend auf der Simulation der Fahrzeuglängsdynamik, der Steuergerätefunktionen und der Steller-Sensor-Streckenmodelle in einer Simulationsumgebung wird die Hybrid-Betriebsstrategie gemeinsam mit der Steuerung des Verbrennungsmotors optimiert. Mit der Entwicklung und Implementierung einer neuen Funktion wird weiterhin die Verbindung zwischen der Betriebsstrategie und der Motorsteuerung erweitert. Die vorgestellten Werkzeuge ermöglichten hierbei nicht nur einen Test der neuen Funktionalitäten, sondern auch eine Abschätzung der Verbesserungspotentiale beim Verbrauch und Abgasemissionen. Insgesamt konnte eine effiziente Testumgebung für eine gemeinsame Optimierung der Betriebsstrategie und des Verbrennungsmotorverhaltens eines Hybridfahrzeugs realisiert werden.
Resumo:
Intensive, ultrakurze Laserpulse regen Festkörper in einen Zustand an, in dem die Elektronen hohe Temperaturen erlangen, während das Gitter kalt bleibt. Die heißen Elektronen beeinflussen das sog. Laser-angeregte interatomare Potential bzw. die Potentialenergiefläche, auf der die Ionen sich bewegen. Dieses kann neben anderen ultrakurzen Prozessen zu Änderungen der Phononfrequenzen (phonon softening oder phonon hardening) führen. Viele ultrakurze strukturelle Phänomene in Festkörpern hängen bei hohen Laseranregungen von Änderungen der Phononfrequenzen bei niedrigeren Anregungen ab. Um die Laser-bedingten Änderungen des Phononenspektrums von Festkörpern beschreiben zu können, haben wir ein auf Temperatur-abhängiger Dichtefunktionaltheorie basierendes Verfahren entwickelt. Die dramatischen Änderungen nach einer Laseranregung in der Potentialenergiefläche werden durch die starke Veränderung der Zustandsdichte und der Besetzungen der Elektronen hervorgerufen. Diese Änderungen in der Zustandsdichte und den Besetzungszahlen können wir mit unserer Methode berechnen, um dann damit das Verhalten der Phononen nach einer Laseranregung zu analysieren. Auf diese Art und Weise studierten wir den Einfluss einer Anregung mit einem intensiven, ultrakurzen Laserpuls auf repräsentative Phonon Eigenmoden in Magnesium, Kupfer und Aluminium. Wir stellten dabei in manchen Gitterschwingungen entweder eine Abnahme (softening) und in anderen eine Zunahme (hardening) der Eigenfrequenz fest. Manche Moden zeigten bei Variation der Laseranregungsstärke sogar beide Verhaltensweisen. Das eine Phonon-Eigenmode ein hardening und softening zeigen kann, wird durch das Vorhandensein von van Hove Singularitäten in der elektronischen Zustandsdichte des betrachteten Materials erklärt. Für diesen Fall stellt unser Verfahren zusammen mit der Sommerfeld-Entwicklung die Eigenschaften der Festkörper Vibrationen in Verbindung mit den Laser induzierten Veränderungen in den elektronischen Besetzungen für verschiedene Phonon-eingefrorene Atomkonfigurationen. Auch die absolute Größe des softening und hardening wurde berechnet. Wir nehmen an, dass unsere Theorie Licht in die Effekte der Laseranregung von verschiedenen Materialien bringt. Außerdem studierten wir mit Hilfe von Dichtefunktionaltheorie die strukturellen Material-Eigenschaften, die durch kurze XUV Pulse induziert werden. Warme dichte Materie in Ultrakurzpuls angeregten Magnesium wurde analysiert und verglichen mit den Ergebnissen bei durch Laser Anregung bedingten Änderungen. Unter Verwendung von elektronischer-Temperatur-abhängiger Dichtefunktionaltheorie wurden die Änderungen in den Bindungseigenschaften von warmen dichten Magnesium studiert. Wir stellten dabei beide Effekte, Verstärkung und Abschwächung von Bindungen, bei jeweils verschiedenen Phonon Eigenmoden von Magnesium auf Grund von der Erzeugung von Rumpflöchern und dem Vorhandensein von heißen Elektronen fest. Die zusätzliche Erzeugung von heißen Elektronen führt zu einer Änderung der Bindungscharakteristik, die der Änderung, die durch die bereits vorhandenen Rumpflöcher hervorgerufen wurde, entgegen wirkt. Die thermischen Eigenschaften von Nanostrukturen sind teilweise sehr wichtig für elektronische Bauteile. Wir studierten hier ebenfalls den Effekt einer einzelnen Graphen Lage auf Kupfer. Dazu untersuchten wir mit Dichtefunktionaltheorie die strukturellen- und Schwingungseigenschaften von Graphen auf einem Kupfer Substrat. Wir zeigen, dass die schwache Wechselwirkung zwischen Graphen und Kupfer die Frequenz der aus der Ebene gerichteten akustischen Phonon Eigenmode anhebt und die Entartung zwischen den aus der Ebene gerichteten akustischen und optischen Phononen im K-Punkt des Graphen Spektrums aufhebt. Zusätzlich führten wir ab initio Berechnungen zur inelastischen Streuung eines Helium Atoms mit Graphen auf einem Kuper(111) Substrat durch. Wir berechneten dazu das Leistungsspektrum, das uns eine Idee über die verschiedenen Gitterschwingungen des Graphene-Kuper(111) Systems gibt, die durch die Kollision des Helium Atom angeregt werden. Wir brachten die Positionen der Peaks im Leistungsspektrum mit den Phonon Eigenfrequenzen, die wir aus den statischen Rechnungen erhalten haben, in Beziehung. Unsere Ergebnisse werden auch verglichen mit den Ergebnissen experimenteller Daten zur Helium Streuung an Graphen-Kupfer(111) Oberflächen.
Resumo:
Das Ziel dieser Arbeit war, ein ökonomisch ausgerichtetes Zuchtprogramm für die bedrohte Schweinerasse „Bunte Bentheimer“ (BB) zu entwickeln. Ein wesentlicher Bestandteil von Zuchtprogrammen für bedrohte Rassen ist der Erhalt der genetischen Diversität durch Vermeidung von weiterer Inzucht und Reduzierung des Inzuchtzuwachses. In Kapitel 2 wurde die Population der BB unter Berücksichtigung der vorhandenen Abstammungsinformationen in Bezug auf genetische Diversität, Inzucht und Verwandtschaft analysiert. Durchschnittlicher Inzuchtkoeffizient und Inzuchtzunahme lagen mit 12% und 1,66% pro Generation auf einem relativ hohen Niveau. Effektive Maßnahmen zur Inzuchtkontrolle sollten daher im Zuchtprogramm integriert werden. Durch die Bestimmung optimaler Einsatzfrequenzen selektierter Tiere ist es möglich, Inzucht zu kontrollieren und gleichzeitig Zuchtfortschritt zu generieren. Das konnte am Beispiel von Zuchtwerten für Fruchtbarkeitsmerkmale gezeigt werden. Basierend auf den optimalen Einsatzfrequenzen der selektierten Elterntiere wurden zur weiteren Reduzierung der Inzucht in der Folgegeneration konkrete Anpaarungspläne erstellt. Die Anpaarungen wurden unter Berücksichtigung der Natursprungproblematik durch Festlegung von Zuchtgebieten konzipiert. Die Umsetzung dieser wurde allerdings erschwert durch die eingeschränkte Verfügbarkeit der Eber. Schließt man die künstliche Besamung als mögliche Alternative aus, müssten die Zuchtgebiete so optimiert werden, dass die vorgeschlagenen Anpaarungen auch in die Praxis umgesetzt werden können. Die Gestaltung eines Zuchtprogramms erfordert zudem die Verfügbarkeit populationsgenetischer Parameter. Für die Fruchtbarkeitsmerkmale „Anzahl lebend geborener Ferkel“ (NBA) und „abgesetzter Ferkel“ (NW) lagen die Heritabilitäten bei jeweils 12%. Auch die genetischen Varianzen lagen in einem guten Bereich, so dass für beide Merkmale Zuchtfortschritt durch Selektion möglich ist. In Kapitel 3 wurden genetische Parameter für Fleischleistungs- und Fleischqualitätsmerkmale geschätzt. Als Grundlage dafür dienten sowohl in vivo Ultraschallmessungen am lebenden Tier, als auch Messungen, die am Schlachtkörper bzw. an einer Fleischprobe erfolgten. Zucht-, Mast- und Schlachttiere wurden am RYR1 Genort typisiert, um Allel-Substitutionseffekte zu schätzen. Die quantitativen- und molekulargenetischen Ansätze wurden genutzt, um darauf aufbauend zur Verbesserung der Fleischqualität Zuchtstrategien zu entwickeln. Für das Fleischqualitätsmerkmal intramuskulärer Fettgehalt (IMF) wurde die höchste Heritabilität von 0,78 bei einer ebenfalls hohen additiv-genetischen Varianz geschätzt. Dennoch ist die Erfassung dieses Merkmals mit einem hohen Kostenaufwand verbunden. Ein mögliches Hilfsmerkmal ist die Rückenspeckdicke (BFiv), die direkt am Selektionskandidaten erfasst werden kann. Die genetische Korrelation zwischen beiden Merkmale lag bei rg = 0,39. Die Assoziationsstudie am RYR1 Genort zeigte, dass die Anwesenheit des ungewünschten Allels einen negativen Effekt auf IMF hatte, d.h. der IMF Gehalt wurde reduziert. Darauf aufbauend wurde eine Zuchtstrategie entwickelt, die Phänotyp (BFiv) und Marker-Informationen am RYR1 Genort des Selektionskandidaten kombiniert. Durch die zusätzliche Berücksichtigung der Marker-Informationen konnten eine höhere Genauigkeit und ein höherer Zuchtfortschritt erzielt werden im Vergleich zu einer Strategie, die nur auf den phänotypischen Leistungen basiert. In Kapitel 4 wurde basierend auf einer Konsumentenbefragung mit integrierter Verkostung von Fleischproben indirekt die Zahlungsbereitschaft für unterschiedliche Fleischqualitäten erfasst. Alle Fleischproben wurden zusätzlich hinsichtlich der instrumental erfassbaren Fleischqualität untersucht und durch ein geschultes Panel im Sensorik Labor in Bezug auf die sensorische Qualität beurteilt. Außerdem wurde die direkte Zahlungsbereitschaft für unterschiedliche Qualitätsausprägungen der optischen Merkmale „Fleischfarbe“, „Fleischmarmorierung“ und „Fleischsaftverlust“ anhand von Fotografien erfasst. Die Ergebnisse dieser Befragung wurden genutzt, um ökonomischen Gewichte abzuleiten. Für IMF ergab sich ein hohes ökonomisches Gewicht von 57,52 € pro Merkmalseinheit bei dem aktuellen Populationsdurchschnitt von 1,57%. Mit steigendem Populationsmittel sinkt das ökonomische Gewicht und nähert sich ab einem Mittelwert von 2% einem Wert von 0,00 €. Aus züchterischer Sicht wäre daher ein durchschnittlicher IMF Gehalt von mindestens 2% anzustreben. Für Fleischqualitätsmerkmale, die beim Verzehr nicht direkt erfassbar sind, wie die Farbhelligkeit oder der Tropfsaftverlust, ist die direkte Methode zur Erfassung der Zahlungsbereitschaft (basierend auf den Fotografien) der indirekten (basierend auf der Verkostung) vorzuziehen, um ökonomische Gewichte abzuleiten. Genetische Parameter ökonomischen Gewichte wurden anschließend für Zuchtplanungsrechnungen verwendet. Im Zuchtziel wurde in erster Linie die Fruchtbarkeit (NBA) und Fleischqualität (IMF) berücksichtigt. Zur Vermeidung hoher Kosten und der besseren Anpassung an kleine Betriebsstrukturen wurde u.a. ein Zuchtprogramm modelliert, das auf in vivo Ultraschallmessungen für BFiv basiert, direkt erfasst am Selektionskandidaten. Der Züchtungsgewinn für diese Zuchtstrategie lag bei 35,92 € pro Tier. Der Zuchtfortschritt für IMF war allerdings erwartungsgemäß geringer als bei direkter Selektion auf das Merkmal. Basierend auf den Ergebnissen wurde in Kapitel 5 ein Entwurf für ein Zuchtprogramm erstellt, das die notwendigen Maßnahmen zur Inzuchtkontrolle beinhaltet und Zuchtfortschritt für rassespezifische Merkmale zulässt. Zudem ist dieser Entwurf angepasst an die kleinen Betriebsstrukturen und die unterschiedlichen Vermarktungsstrategien, die sich bereits etabliert haben.
Resumo:
Das Erkenntnisinteresse der vorliegenden Arbeit besteht darin, im Rahmen einer explorativ-interpretativen Querschnittstudie vertiefte Einblicke in den Sprachgebrauch von mehrsprachigen Deutschlernenden am Beispiel von Verb-Nomen Kollokationen zu gewinnen. Unter Berücksichtigung der in diesem Zusammenhang bisher nicht untersuchten Sprachenkonstellation L1 Persisch, L2 Englisch, L3 Arabisch und L4 Deutsch sollen die von den Lernenden angewendeten lexikalischen Transferstrategien erforscht werden. Der Untersuchungsgegenstand sind die soziokognitiven Löseprozesse der ProbandInnen bei der dyadischen Bearbeitung von Kollokationsaufgaben. Zur Identifizierung der Transferphänomene und der TL-Strategien (Target Language-Strategien) werden Gesprächs-protokolle ausgewählter Dyaden analysiert. Überdies werden zwecks Rekonstruktion und Interpretation der Löseprozesse stimulated recall-Interviews mit den ProbandInnen herangezogen, wodurch die Datensets miteinander trianguliert werden. Zudem wird ermittelt, inwieweit ausgewählte Faktoren (Psychotypologie, Kompetenz in der Zielsprache und Kompetenz in den zuvor gelernten Sprachen) den Transferprozess beeinflussen. Hierzu dienen die Erkenntnisse aus begleitend durchgeführten Leitfadeninterviews und Sprachstandstests (TOEFL- und Arabischtest). Ferner wird der Arbeitsstil der ProbandInnen bei der dyadischen Aufgabenbearbeitung anhand des Fragebogens Style Analysis Survey von Oxford (1995) bestimmt. An der Studie, die im Deutschen Sprachinstitut Teheran durchgeführt wurde, nahmen 14 iranische Deutschlernende auf dem Niveau B2.1 und C2.2 teil. Sie wurden aufgrund ihrer mittels eines Fragebogens erhobenen Sprachlernbiografien ausgewählt. Die Gesprächsprotokolle der Dyadenarbeit und die Interviews wurden vollständig transkribiert bzw. transliteriert und anschließend qualitativ-interpretativ ausgewertet. Um ihre Wissenslücken bei der Bearbeitung der Kollokationsaufgaben zu kompensieren, setzten die ProbandInnen verschiedene inter- und intralinguale Strategien ein. Dabei ist der L1 Persisch und der L4 Deutsch insgesamt der größte Einfluss beizumessen. Diesbezüglich wird deutlich, dass zwischen Sprachniveau und Transferverhalten der Lernenden ein Zusammenhang besteht, insofern als fortgeschrittene Lernende stärker zu intralingualem Transfer neigen. Zudem lässt sich festhalten, dass ein Zusammenhang zwischen der empfundenen psychotypologischen Distanz und der Rolle der Muttersprache besteht, d.h. bei als größer empfundener psychotypologischer Distanz zwischen Persisch und Deutsch wird seltener aus dem Persischen transferiert. Überdies ist festzustellen, dass die L2 Englisch zwar gelegentlich mitaktiviert wird, jedoch nur eine untergeordnete Rolle spielt. Ein Einfluss der L3 Arabisch kann aus verschiedenen Gründen (u.a. geringes Niveau und mangelnder Gebrauch dieser Sprache) nicht festgestellt werden. Die vorliegende Arbeit versteht sich als ein Plädoyer für die Relevanz der Schulung von Kollokationen im Fremdsprachenunterricht, da die produktive Kollokationskompetenz der ProbandInnen auch auf einem hohen Niveau gravierende Defizite aufweist.
Resumo:
In den letzten Jahrzehnten haben sich makroskalige hydrologische Modelle als wichtige Werkzeuge etabliert um den Zustand der globalen erneuerbaren Süßwasserressourcen flächendeckend bewerten können. Sie werden heutzutage eingesetzt um eine große Bandbreite wissenschaftlicher Fragestellungen zu beantworten, insbesondere hinsichtlich der Auswirkungen anthropogener Einflüsse auf das natürliche Abflussregime oder der Auswirkungen des globalen Wandels und Klimawandels auf die Ressource Wasser. Diese Auswirkungen lassen sich durch verschiedenste wasserbezogene Kenngrößen abschätzen, wie z.B. erneuerbare (Grund-)Wasserressourcen, Hochwasserrisiko, Dürren, Wasserstress und Wasserknappheit. Die Weiterentwicklung makroskaliger hydrologischer Modelle wurde insbesondere durch stetig steigende Rechenkapazitäten begünstigt, aber auch durch die zunehmende Verfügbarkeit von Fernerkundungsdaten und abgeleiteten Datenprodukten, die genutzt werden können, um die Modelle anzutreiben und zu verbessern. Wie alle makro- bis globalskaligen Modellierungsansätze unterliegen makroskalige hydrologische Simulationen erheblichen Unsicherheiten, die (i) auf räumliche Eingabedatensätze, wie z.B. meteorologische Größen oder Landoberflächenparameter, und (ii) im Besonderen auf die (oftmals) vereinfachte Abbildung physikalischer Prozesse im Modell zurückzuführen sind. Angesichts dieser Unsicherheiten ist es unabdingbar, die tatsächliche Anwendbarkeit und Prognosefähigkeit der Modelle unter diversen klimatischen und physiographischen Bedingungen zu überprüfen. Bisher wurden die meisten Evaluierungsstudien jedoch lediglich in wenigen, großen Flusseinzugsgebieten durchgeführt oder fokussierten auf kontinentalen Wasserflüssen. Dies steht im Kontrast zu vielen Anwendungsstudien, deren Analysen und Aussagen auf simulierten Zustandsgrößen und Flüssen in deutlich feinerer räumlicher Auflösung (Gridzelle) basieren. Den Kern der Dissertation bildet eine umfangreiche Evaluierung der generellen Anwendbarkeit des globalen hydrologischen Modells WaterGAP3 für die Simulation von monatlichen Abflussregimen und Niedrig- und Hochwasserabflüssen auf Basis von mehr als 2400 Durchflussmessreihen für den Zeitraum 1958-2010. Die betrachteten Flusseinzugsgebiete repräsentieren ein breites Spektrum klimatischer und physiographischer Bedingungen, die Einzugsgebietsgröße reicht von 3000 bis zu mehreren Millionen Quadratkilometern. Die Modellevaluierung hat dabei zwei Zielsetzungen: Erstens soll die erzielte Modellgüte als Bezugswert dienen gegen den jegliche weiteren Modellverbesserungen verglichen werden können. Zweitens soll eine Methode zur diagnostischen Modellevaluierung entwickelt und getestet werden, die eindeutige Ansatzpunkte zur Modellverbesserung aufzeigen soll, falls die Modellgüte unzureichend ist. Hierzu werden komplementäre Modellgütemaße mit neun Gebietsparametern verknüpft, welche die klimatischen und physiographischen Bedingungen sowie den Grad anthropogener Beeinflussung in den einzelnen Einzugsgebieten quantifizieren. WaterGAP3 erzielt eine mittlere bis hohe Modellgüte für die Simulation von sowohl monatlichen Abflussregimen als auch Niedrig- und Hochwasserabflüssen, jedoch sind für alle betrachteten Modellgütemaße deutliche räumliche Muster erkennbar. Von den neun betrachteten Gebietseigenschaften weisen insbesondere der Ariditätsgrad und die mittlere Gebietsneigung einen starken Einfluss auf die Modellgüte auf. Das Modell tendiert zur Überschätzung des jährlichen Abflussvolumens mit steigender Aridität. Dieses Verhalten ist charakteristisch für makroskalige hydrologische Modelle und ist auf die unzureichende Abbildung von Prozessen der Abflussbildung und –konzentration in wasserlimitierten Gebieten zurückzuführen. In steilen Einzugsgebieten wird eine geringe Modellgüte hinsichtlich der Abbildung von monatlicher Abflussvariabilität und zeitlicher Dynamik festgestellt, die sich auch in der Güte der Niedrig- und Hochwassersimulation widerspiegelt. Diese Beobachtung weist auf notwendige Modellverbesserungen in Bezug auf (i) die Aufteilung des Gesamtabflusses in schnelle und verzögerte Abflusskomponente und (ii) die Berechnung der Fließgeschwindigkeit im Gerinne hin. Die im Rahmen der Dissertation entwickelte Methode zur diagnostischen Modellevaluierung durch Verknüpfung von komplementären Modellgütemaßen und Einzugsgebietseigenschaften wurde exemplarisch am Beispiel des WaterGAP3 Modells erprobt. Die Methode hat sich als effizientes Werkzeug erwiesen, um räumliche Muster in der Modellgüte zu erklären und Defizite in der Modellstruktur zu identifizieren. Die entwickelte Methode ist generell für jedes hydrologische Modell anwendbar. Sie ist jedoch insbesondere für makroskalige Modelle und multi-basin Studien relevant, da sie das Fehlen von feldspezifischen Kenntnissen und gezielten Messkampagnen, auf die üblicherweise in der Einzugsgebietsmodellierung zurückgegriffen wird, teilweise ausgleichen kann.
Resumo:
Die vorgelegte Arbeit beschäftigt sich mit der Synthese alkinsubstituierter Silane. Die dafür erforderliche Gratwanderung zwischen organischer und anorganischer Chemie bringt Herausforderungen in der gezielten Synthese mehrfachalkinierter Silane mit sich. Hauptgebiet der vorgestellten neuen Synthesewege stellt die Darstellung relativ kleiner Polyethinylsilane dar. Angefangen bei der Etablierung allgemein gültiger Synthesevorschriften für die bisher noch sehr gering erforschten Oligochlorethinylsilane wird in weiterer Folge Wert darauf gelegt, aus diesen neuen Verbindungen über Derivatisierung weitere wertvolle Synthone der Synthesechemie zu gewinnen. Über die vorgestellten Verfahren wird so der Zugang zu Polyethinylsilanen auf neuem Wege mit deutlich verbesserter Anwendbarkeit und Ausbeute ebenso etabliert, wie die ersten Vertreter der Oligobromethinylsilane und Polyphosphanoethinylsilane. Diese Verbindungen wurden sowohl bezüglich ihrer NMR-spektroskopischen, vibronischen und strukturellen Eigenschaften charakterisiert und der weiteren Verwendung zugänglich gemacht. Ein direkter Vergleich der neu dargestellten Verbindungen untereinander als auch mit anderen Alkinylsilanen wird ebenfalls beschrieben. Neben der Synthese von Polyalkinylsilanen wurden zusätzlich anderweitige Alkinylsilane vorgestellt. So wurde eine Methode zur zielgerichteten Kupplung sterisch gehinderter Chlorsilane etabliert, aber auch ein möglicher Zugang zu verschiedenen, alkinverbrückten Chlorsilanen unter gezielter Phenolatsubstitution dargelegt.
Resumo:
Die fünf Arten des Heterobasidion annosum s. l.-Komplexes sind in Nordamerika und Eurasien dafür bekannt große Schäden in Nadelforsten zu verursachen. In Deutschland sind mit H. annsosum s. s., H. parviporum und H. abietinum alle drei eurasischen Weißfäuleerreger sympatrisch vertreten. Besonders in der Norddeutschen Tiefebene fallen H. annsoums s. s.-Stämme durch ansteigende Befallsherde und hohe Pathogenität auf. Seit Jahren untersucht die Nordwestdeutsche forstliche Versuchsanstalt (NW-FVA) Göttingen die Zusammenhänge der sogenannte „Ackersterbe“ in einzelnen Regionen. In diesem Zusammenhang sollte die vorliegende Arbeit den molekular-genetischen Aspekt behandeln und die inner- und zwischenartlichen Strukturen sowie das Beziehungsgefüge von H. annosum s. s. und H. parviporum-Individuen aus 18 europäischen Ländern darstellen. Für die molekularen Untersuchungen wurde die AFLP-Analyse (amplified fragment length polymorphism) ausgewählt. Die Vorteile der AFLP liegen in der großen Anzahl polymorpher und selektionsneutraler Marker, der guten Reproduzierbarkeit und der damit verbundenen Robustheit dieser Methode. Basierend auf acht AFLP-Primerpaarkombinationen mit 209 Individuen wurde eine binäre Matrix erstellt. Diese bildete die Grundlage für die molekulargenetischen Analysen und folgende Fragestellungen: Können die Heterobasidion-Individuen in Netzwerk- und Dendrogramm-Analysen den herkunftsspezifischen Populationen zugeordnet werden und lässt sich ein geografisches Muster erkennen? Wie groß ist das Ausmaß der genetischen Diversität innerhalb und zwischen den untersuchten europäischen Heterobasidion annosum s. l.-Populationen? Ist das gesteigerte Schadbild in der norddeutschen Tiefebene auf eine mögliche invasive Heterobasidion-Art zurückzuführen? Wie sieht die Populationsstruktur von Heterobasidion annosum s. l. in Europa bzw. Deutschland aus und gibt es Hinweise auf Subpopulationen oder Hybridisierungsereignisse? Die von der AFLP-Analyse erzeugten 888 informativen Marker wurden in Neighbor-Joining- und UPGMA-Phänogrammen, Median-joining Netzwerk und einem Principal coordinates analysis (PCoA)-Koordinatensystem dargestellt. Übereinstimmend zeigten sich die Arten H. annosum und H. parviporum eindeutig distinkt. Die Boostrapunterstützung der meisten H. annosum s. s.-Individuen erwies sich jedoch innerartlich als überwiegend schwach. Häufig kam es zu Gruppierungen der Individuen gemäß ihrer regionalen Herkunft. Seltener bildeten die Populationen gemeinsame Cluster entsprechend ihrer Länderzugehörigkeit. Eine zonale Gruppierungsstruktur der Individuen nach Süd-, Mittel-, und Nordeuropa konnte in keiner Analyse beobachtet werden. Mit der Analysis of Molecular Variance (AMOVA) wurde mit der AFLP-Methode eine genetische Varianz zwischen den beiden untersuchten Arten von 72 % nachgewiesen. Intraspezifisch ließ H. annosum s. s eine sehr hohe genetische Varianz innerhalb der Populationen (73%) und eine geringe Differenzierung zwischen diesen erkennen. Lediglich die deutschen Populationen zeigten eine gewisse Abgrenzung zueinander (33%). Als Ursache für die hohe individuelle genetische Vielfalt wird zum Einen das dichte Vorkommen der H. annosum s. s.- Wirte in Europa angesehen. Darüber hinaus sind gebietsfremde Sporeneinträge durch überregionale Forstarbeiten, globale Holzimporte und die für H. annosum s. s. nachgewiesenen weiten Sporenflüge zu erklären. Das Populationsannahmemodell von STRUCTURE generierte für den Datensatz beider Arten eine optimale Populationsanzahl von ΔK=4. Drei der Subpopulationen wurden H. annosum s. s. zugeordnet. Eine Korrelation dieser genetischen Cluster mit ihrem geografischen Ursprung oder der Wirtsbaumart war nicht feststellbar. Ein möglicher Zusammenhang der Subpopulationen mit weiteren ökologischen Parametern wie z. B. Substratgrundlage, Pathogenität, Sporulationsverhalten und sich änderte klimatische Umweltbedingungen konnten in dieser Studie nicht untersucht werden. Des Weiteren zeigte die STRUCTURE-Analyse, dass einige H. parviorum-Individuen Anteile eines H. annosum s. s.-Clusters führten. Um zu klären, ob es sich hierbei um einen erebten und konservierten Polymorphisums, oder um Introgression handelt, wären weiterführende Analysen notwendig.
Resumo:
Resumen El objetivo de este estudio fue el de diseñar un modelo de intervención para la prevención del suicidio en la población escolar de niños y adolescentes, con 72 participantes de un colegio público y un colegio privado de la ciudad de Bogotá. Se caracterizó el suicidio en la ciudad de Bogotá en los últimos nueve años, los aspectos legales, se analizaron algunos modelos de prevención, se identificaron los principales factores de riesgo y factores protectores y se propusieron estrategias para su prevención. Este modelo está basado en la administración social del riesgo y los factores protectores y de riesgo, susceptibles de modificación. Se realizó una prueba de tamizaje y fueron utilizados: el Inventario de depresión infantil (CDI de Kovacs), la escala de desesperanza de Beck y la escala de ansiedad para niños y adolescentes de Spence, validadas a nivel internacional. Se observó una correlación positiva (0.490) mediante el coeficiente de rangos de Spearman, con una significación de 0,01 (bilateral) para los tres factores de riesgo. Se hace entrega de un manual de instrucción para la intervención temprana del suicidio en esta población y un folleto informativo dirigido a padres de familia sobre los factores de riesgo y factores protectores. A partir de esto se plantean implicaciones futuras.
Resumo:
Estudiar las funciones que a la imagen se le han asignado en los diversos métodos que han surgido para el aprendizaje del euskera. Comprobar si los autores de los métodos de euskera han tenido en cuenta el elemento imagen. La enseñanza de idiomas. Es un trabajo teórico que se divide en los siguientes apartados: evolución de la didáctica de idiomas: primeros usos de la imagen. Método tradicional de Gramática-Traducción. El método directo. Audiolingual y audiovisual. La comunicación y los sistemas funcionales como 'The communicative approach', el eclecticismo, la ingeniería transaccional y la sugestiopedía. La imagen en la didáctica de idiomas: necesidad de la imagen. Relación entre imagen y lengua. Funciones de la imagen en la enseñanza de idiomas: el material audiovisual. Aplicaciones prácticas de la fotografía. Utilización en base al grado de dominio del idioma. La imagen en algunos métodos de euskera: 'Methode Basque', 'Nuevo método de euskera básico', 'Euskera, hire laguna', 'Euskalduntzen', 'Hitz egin'. Fuentes bibliográficas. Libros de texto de euskera. Análisis teórico. 'Methode Basque': usa el método tradicional de Gramática-Traducción; aparecen algunas imágenes que están contextualizadas por el texto escrito; la imagen no tiene función didáctica. 'Nuevo método de Euskera Básico': se basa en el uso de la imagen como recurso didáctico y se piensa que el mejor medio para aprender un idioma es acostumbrarse a pensar en él. 'Euskera, hire laguna': está basado en el texto escrito y la labor explicativa del profesor, siendo las imágenes decorativas. 'Euskalduntzen': antes de que el alumno hable o escriba es necesario aprender a escuchar o a pensar en Euskera. 'Hitz egin': la secuencia de aprendizaje es: oír, entender, hablar, leer y escribir. Usa dibujos para evitar la traducción. Sería necesario crear un archivo de imágenes en el que queden reflejados los distintos niveles por los que pasa el alumno en el proceso de aprendizaje, debido a que sin la observación de los elementos visuales que forman parte del contexto en el que se da el acto lingüístico, éste no será comprendido, ya que la imagen es capaz de crear ella misma un texto verbal. El material visual didáctico debe tener un grado de calidad que viene dado por: el grado de conocimiento que del idioma tiene el alumno; de la composición y la calidad misma de la imagen.
Resumo:
It is ironic that Otto Neurath, one of those responsible for the ‘linguistic turn’ in philosophy of the twentieth century, should have been concerned during the last twenty years of his life with developing a ‘pictorial language’. By using simplified pictograms as components, the Wiener Methode der Bildstatistik (later called Isotype) bypassed verbal language to a great extent, creating the potential for universal understanding of biological, social and economic correlations. However, despite its consistency and rigour, Isotype was not a complete language, and Neurath knew that it never could be. This paper will examine the linguistic characteristics of Isotype and describe the deliberate resistance on the part of its creators to develop a full theory behind it.