574 resultados para Ehrenamtliche Arbeit


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Evolutionäre Algorithmen werden gerne für Optimierungsaufgaben mit sehr vielen Freiheitsgraden eingesetzt. Eine spezielle Konvergenzeigenschaft, daß nämlich der Rechenaufwand nur mit der Wurzel der Anzahl der Unbekannten steigt, prädestiniert sie dafür. Die evolutionären Algorithmen haben aber auch noch eine weitere interessante Eigenschaft: Von der Zielfunktion wird nur verlangt, daß sie monoton ist - nichts weiter. Speziell wird, im Gegensatz zu gradientenbasierten Verfahren, keinerlei Ableitung von der Zielfunktion benötigt. Dadurch können evolutionäre Algorithmen auch in solchen Fällen eingesetzt werden, in denen Ableitungen der Zielfunktion nicht oder nur schwierig zu beschaffen sind. Die evolutionären Algorithmen kommen deshalb mit so geringen Anforderungen an die Zielfunktion aus, weil nur absolute Bewertungen einzelner Punkte (hier Vektoren) im Lösungsraum durch die Zielfunktion vorgenommen werden. Dafür werden eine gewisse Anzahl Punkte gleichzeitig betrachtet. Im direkten Vergleich untereinander relativ günstig liegende Punkte werden für die weitere Rechnung übernommen, die anderen verworfen. Aus den Komponenten der übernommenen Punkte werden nun zufällig neue Punkte zusammengesetzt und ein wenig verschoben. Dann schließt sich der Kreis, indem diese neuen Punkte ebenfalls bewertet werden. Im Verlauf einer solchen Iteration konvergiert die Punktmenge in der Regel gegen ein Optimum. Oft kommt es gerade zu Beginn der Iteration zu schnellen Fortschritten. In dieser Arbeit wird ein Verfahren vorgestellt, bei dem mit Hilfe von evolutionären Algorithmen verbessernde Eingriffe in laufenden Echtzeitsystemen vorgenommen werden. Was gut oder schlecht ist, wird zu diesem Zweck über die Zielfunktion für die Optimierung definiert. Da von der Zielfunktion letztlich das Verhalten des Gesamtsystems abhängt, sollte sie sorgfältig ausgewählt werden. Die Eingriffe in das System sind zeitlich begrenzte Steuertrajektorien. Sie werden zusätzlich zur permanent wirkenden Regelung auf das System aufgebracht. Um die Anzahl der zu optimierenden Variablen in Grenzen zu halten, werden die Steuertrajektorien durch wenige Parameter repräsentiert. Da die Steuertrajektorien im voraus berechnet werden müssen, wird das Systemverhalten mittels eines Modells für eine gewisse, in der Zukunft liegende, Zeitspanne vorhergesagt. Wird die geforderte Qualität während dieser Zeitspanne unterschritten, kann so schon im Vorfeld ein Optimierungslauf des evolutionären Algorithmus durchgeführt werden. Allerdings ist die zur Verfügung stehende Rechenzeit von vornherein begrenzt. Daher ist es wesentlich, daß die mit evolutionären Algorithmen häufig assoziierte lange Rechenzeit nicht benötigt wird. Tatsächlich läßt sich unter Umständen mit wenig Rechenzeit auskommen. Erstens wird nur mit wenigen Variablen gerechnet, zweitens kommt es bei dem beschriebenen Verfahren - halbwegs gutmütige Systeme vorausgesetzt - gar nicht auf die letzte Nachkommastelle, sondern (ähnlich wie bei Sliding-Mode-Regelungen) mehr auf eine Tendenz an. Da evolutionäre Algorithmen aber gerade zu Beginn einer Iteration die größten Fortschritte in Richtung des Optimums machen, kann schon nach vergleichsweise wenigen Schritten eine deutliche Verbesserung der Gesamtsituation erreicht werden. Gerade um eine schnelle Konvergenz zu erreichen, sind die spezielle Ausprägung und die Parameter des evolutionären Algorithmus mit Bedacht zu wählen. Dafür werden im Rahmen der Arbeit einige Experimente durchgeführt. Anhand der Ergebnisse der Experimente können konkrete Empfehlungen für eine günstige Konfiguration des evolutionären Algorithmus gegeben werden. Um es vorwegzunehmen: Zuviel Aufwand beim evolutionären Algorithmus zu treiben, lohnt sich nicht. Schon mit einfachen Konfigurationen können gute Ergebnisse erzielt werden. Die einzige Maßnahme, die sich bei den Experimenten tatsächlich als vorteilhaft herausstellte, war die Aufteilung der Gesamtpopulation (betrachtete Punktmenge im Lösungsraum) in mehrere Subpopulationen. Schließlich wird noch ein Computerprogramm beschrieben, das die Arbeitsweise des vorgestellten Verfahrens am Bildschirm erlebbar macht. Die einzelnen Komponenten werden vom Programm während der Ausführung mit einigen wesentlichen Rechengrößen visualisiert. Der Betrachter erhält so einen besseren Eindruck vom Zusammenwirken der einzelnen Verfahrens-Teile.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In dieser Arbeit wird eine Evaluationsmethodik vorgestellt, die sich insbesondere für einen formativen Entwicklungskontext eignet. Die Methodik wird unter Berücksichtigung der Evaluationsergebnisse zu mehreren Lernsystem-Prototypen bewertet.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Vorgestellt wird eine weltweit neue Methode, Schnittstellen zwischen Menschen und Maschinen für individuelle Bediener anzupassen. Durch Anwenden von Abstraktionen evolutionärer Mechanismen wie Selektion, Rekombination und Mutation in der EOGUI-Methodik (Evolutionary Optimization of Graphical User Interfaces) kann eine rechnergestützte Umsetzung der Methode für Graphische Bedienoberflächen, insbesondere für industrielle Prozesse, bereitgestellt werden. In die Evolutionäre Optimierung fließen sowohl die objektiven, d.h. messbaren Größen wie Auswahlhäufigkeiten und -zeiten, mit ein, als auch das anhand von Online-Fragebögen erfasste subjektive Empfinden der Bediener. Auf diese Weise wird die Visualisierung von Systemen den Bedürfnissen und Präferenzen einzelner Bedienern angepasst. Im Rahmen dieser Arbeit kann der Bediener aus vier Bedienoberflächen unterschiedlicher Abstraktionsgrade für den Beispielprozess MIPS ( MIschungsProzess-Simulation) die Objekte auswählen, die ihn bei der Prozessführung am besten unterstützen. Über den EOGUI-Algorithmus werden diese Objekte ausgewählt, ggf. verändert und in einer neuen, dem Bediener angepassten graphischen Bedienoberfläche zusammengefasst. Unter Verwendung des MIPS-Prozesses wurden Experimente mit der EOGUI-Methodik durchgeführt, um die Anwendbarkeit, Akzeptanz und Wirksamkeit der Methode für die Führung industrieller Prozesse zu überprüfen. Anhand der Untersuchungen kann zu großen Teilen gezeigt werden, dass die entwickelte Methodik zur Evolutionären Optimierung von Mensch-Maschine-Schnittstellen industrielle Prozessvisualisierungen tatsächlich an den einzelnen Bediener anpaßt und die Prozessführung verbessert.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Abstract. Auf Grund der steigenden Nachfrage nach Transportleistungen im Luftverkehr ist es dringend notwendig, die Kapazität der Flughäfen zu erhöhen. Neben der Anzahl der pro Zeiteinheit möglichen Starts und Landungen spielt dabei der Durchsatz auf dem Vorfeld eine entscheidende Rolle. Bewegungen von Boden- und Luftfahrzeugen, die Flüsse von Passagieren, Gepäck und Transportgütern und das Zusammenspiel der Dienstleister auf dem Vorfeld werden von der Verkehrszentrale überwacht und koordiniert. Aufgabenanalysen haben gezeigt, dass die Verkehrszentrale einen wichtigen Knotenpunkt der Informationsflüsse auf dem Flughafen darstellt. Zur Unterstützung der Arbeit der Verkehrszentrale wurde deshalb ein Kommunikationswerkzeug entwickelt, das die unterschiedlichen Medien und Verfahren der Kommunikation vereinheitlicht.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

DIADEM, created by THOMSON-CSF, is a methodology for specifying and developing user interfaces. It improves productivity of the interface development process as well as quality of the interface. The method provides support to user interface development in three aspects. (1) DIADEM defines roles of people involved and their tasks and organises the sequence of activities. (2) It provides graphical formalisms supporting information exchange between people. (3) It offers a basic set of rules for optimum human-machine interfaces. The use of DIADEM in three areas (process control, sales support, and multimedia presentation) was observed and evaluated by our laboratory in the European project DIAMANTA (ESPRIT P20507). The method provides an open procedure that leaves room for adaptation to a specific application and environment. This paper gives an overview of DIADEM and shows how to extend formalisms for developing multimedia interfaces.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Automobilindustrie reagiert mit Modularisierungsstrategien auf die zunehmende Produktkomplexität, getrieben durch die wachsenden Individualisierungsanforde-rungen auf der Kundenseite und der Modellpolitik mit neuen Fahrzeuganläufen. Die Hersteller verlagern die Materialbereitstellungskomplexität durch Outsourcing an die nächste Zulieferebene, den First Tier Suppliern, die seit Beginn der 90er Jahre zunehmend in Zulieferparks in unmittelbarer Werknähe integriert werden. Typische Merkmale eines klassischen Zulieferparks sind: Bereitstellung einer Halleninfrastruktur mit Infrastrukturdienstleistungen, Anlieferung der Teileumfänge im JIS-Verfahren (Just-in-Sequence = reihenfolgegenaue Synchronisation), lokale Wertschöpfung (Vormontagen, Sequenzierung) des Zulieferers, Vertragsbindung der First Tier Zulieferer für die Dauer eines Produktlebenszyklus und Einbindung eines Logistikdienstleisters. Teilweise werden zur Finanzierung Förderprojekte des öffent-lichen Sektors initiiert. Bisher fehlte eine wissenschaftliche Bearbeitung dieses Themas "Zulieferpark". In der Arbeit werden die in Europa entstandenen Zulieferparks näher untersucht, um Vor- und Nachteile dieses Logistikkonzeptes zu dokumentieren und Entwicklungs-trends aufzuzeigen. Abgeleitet aus diesen Erkenntnissen werden Optimierungs-ansätze aufgezeigt und konkrete Entwicklungspfade zur Verbesserung der Chancen-Risikoposition der Hauptakteure Automobilhersteller, Zulieferer und Logistikdienst-leister beschrieben. Die Arbeit gliedert sich in vier Haupteile, einer differenzierten Beschreibung der Ausgangssituation und den Entwicklungstrends in der Automobilindustrie, dem Vorgehensmodell, der Dokumentation der Analyseergebnisse und der Bewertung von Zulieferparkmodellen. Im Rahmen der Ergebnisdokumentation des Analyseteils werden vier Zulieferparkmodelle in detaillierten Fallstudien anschaulich dargestellt. Zur Erarbeitung der Analyseergebnisse wurde eine Befragung der Hauptakteure mittels strukturierten Fragebögen durchgeführt. Zur Erhebung von Branchentrends und zur relativen Bewertung der Parkmodelle wurden zusätzlich Experten befragt. Zur Segmentierung der Zulieferparklandschaft wurde die Methode der Netzwerk-analyse eingesetzt. Die relative Bewertung der Nutzenposition basiert auf der Nutzwertanalyse. Als Ergebnisse der Arbeit liegen vor: · Umfassende Analyse der Zulieferparklandschaft in Europa, · Segmentierung der Parks in Zulieferparkmodelle, Optimierungsansätze zur Verbesserung einer Win-Win-Situation der beteiligten Hauptakteure, · Relative Nutzenbewertung der Zulieferparkmodelle, · Entwicklungspfade für klassische Zulieferparks.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Im Rahmen dieser Arbeit werden Modellbildungsverfahren zur echtzeitfähigen Simulation wichtiger Schadstoffkomponenten im Abgasstrom von Verbrennungsmotoren vorgestellt. Es wird ein ganzheitlicher Entwicklungsablauf dargestellt, dessen einzelne Schritte, beginnend bei der Ver-suchsplanung über die Erstellung einer geeigneten Modellstruktur bis hin zur Modellvalidierung, detailliert beschrieben werden. Diese Methoden werden zur Nachbildung der dynamischen Emissi-onsverläufe relevanter Schadstoffe des Ottomotors angewendet. Die abgeleiteten Emissionsmodelle dienen zusammen mit einer Gesamtmotorsimulation zur Optimierung von Betriebstrategien in Hybridfahrzeugen. Im ersten Abschnitt der Arbeit wird eine systematische Vorgehensweise zur Planung und Erstellung von komplexen, dynamischen und echtzeitfähigen Modellstrukturen aufgezeigt. Es beginnt mit einer physikalisch motivierten Strukturierung, die eine geeignete Unterteilung eines Prozessmodells in einzelne überschaubare Elemente vorsieht. Diese Teilmodelle werden dann, jeweils ausgehend von einem möglichst einfachen nominalen Modellkern, schrittweise erweitert und ermöglichen zum Abschluss eine robuste Nachbildung auch komplexen, dynamischen Verhaltens bei hinreichender Genauigkeit. Da einige Teilmodelle als neuronale Netze realisiert werden, wurde eigens ein Verfah-ren zur sogenannten diskreten evidenten Interpolation (DEI) entwickelt, das beim Training einge-setzt, und bei minimaler Messdatenanzahl ein plausibles, also evidentes Verhalten experimenteller Modelle sicherstellen kann. Zum Abgleich der einzelnen Teilmodelle wurden statistische Versuchs-pläne erstellt, die sowohl mit klassischen DoE-Methoden als auch mittels einer iterativen Versuchs-planung (iDoE ) generiert wurden. Im zweiten Teil der Arbeit werden, nach Ermittlung der wichtigsten Einflussparameter, die Model-strukturen zur Nachbildung dynamischer Emissionsverläufe ausgewählter Abgaskomponenten vor-gestellt, wie unverbrannte Kohlenwasserstoffe (HC), Stickstoffmonoxid (NO) sowie Kohlenmono-xid (CO). Die vorgestellten Simulationsmodelle bilden die Schadstoffkonzentrationen eines Ver-brennungsmotors im Kaltstart sowie in der anschließenden Warmlaufphase in Echtzeit nach. Im Vergleich zur obligatorischen Nachbildung des stationären Verhaltens wird hier auch das dynami-sche Verhalten des Verbrennungsmotors in transienten Betriebsphasen ausreichend korrekt darge-stellt. Eine konsequente Anwendung der im ersten Teil der Arbeit vorgestellten Methodik erlaubt, trotz einer Vielzahl von Prozesseinflussgrößen, auch hier eine hohe Simulationsqualität und Ro-bustheit. Die Modelle der Schadstoffemissionen, eingebettet in das dynamische Gesamtmodell eines Ver-brennungsmotors, werden zur Ableitung einer optimalen Betriebsstrategie im Hybridfahrzeug ein-gesetzt. Zur Lösung solcher Optimierungsaufgaben bieten sich modellbasierte Verfahren in beson-derer Weise an, wobei insbesondere unter Verwendung dynamischer als auch kaltstartfähiger Mo-delle und der damit verbundenen Realitätsnähe eine hohe Ausgabequalität erreicht werden kann.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In der vorliegenden Arbeit wurde untersucht, wie Führung zur Bewältigung von Unternehmenskrisen und Umsetzung von Veränderungen im Kontext des Interim Management beitragen kann. Dazu wurde die Theorie transformationaler Führung um aufgabenbezogene und indirekte Führung und den Einsatz von Positionsmacht ergänzt. Damit wurden diese erfolgskritischen Führungsdimensionen erstmals in einem gemeinsamen theoretischen Rahmen verbunden und die Auswirkungen einer kombinierten Anwendung untersucht. Dieser neue Ansatz wurde als „Total Range of Leadership“ bezeichnet. In der vorliegenden Untersuchung konnten neue Erkenntnisse zum Kontext und den Erfolgsfaktoren des Interim Management sowie zu den Auswirkungen und Wirkungsmechanismen transformationaler Führung und des Total Range of Leadership gewonnen werden. Die Untersuchungsergebnisse deuten darauf hin, dass Interim Management ein hoch effektives Veränderungsinstrument ist. Als erfolgsrelevante Rahmenbedingungen wurden die Ausstattung der Interim Manager mit umfassenden Vollmachten sowie die Unterstützung durch die Auftraggeber, als wichtigster Erfolgsfaktor des Interim Management aber eindeutig die Anwendung transformationaler Führung und des Total Range of Leadership identifiziert. Die Anwendung transformationaler Führung im Rahmen des Total Range of Leadership wirkt sich positiv auf Persönlichkeit, Einstellungen, Kompetenz und Verhalten der Mitarbeiter sowie Organisationsstruktur, Unternehmenskultur, organisationale Lernfähigkeit und finanziellen und marktbezogenen Erfolg von Unternehmens aus. Dabei erzielt transformationale Führung die bei Weitem größte Wirkung aller Führungsdimensionen. Es konnte aufgezeigt werden, dass transformationale Führung diese Wirkung nur in Verbindung mit der kompetenten Anwendung von transaktionaler, aufgabenbezogener und indirekter Führung entfalten kann. Die Untersuchungsergebnisse deuten außerdem darauf hin, dass eine transformationale Führungsbeziehung nur dann entstehen kann, wenn die Mitarbeiter Vertrauen in die professionelle Kompetenz und die Integrität ihrer Führungskraft fassen. Als normative Grundlagen transformationaler Führung wurden die Gewährleistung der Wohlfahrt und des Nutzens der Geführten sowie der Bezug auf und die Berücksichtigung von geteilten und allgemein akzeptierte Werten, insbesondere der distributiven und prozeduralen Gerechtigkeit, identifiziert. Insgesamt deuten die Erkenntnisse der Untersuchung darauf hin, dass mit dem Total Range of Leadership ein ganzheitlicher Führungsansatz entwickelt wurde, der alle aktiven und positiven Führungsverhaltensweisen umfasst, die zur Bewältigung von Krisen und Durchführung von Veränderungen in Unternehmen sowie für effektive Führung überhaupt erforderlich sind.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dictyostelium discoideum ernährt sich in seinem natürlichen Habitat, dem Waldboden, vorwiegend von Bakterien. Diese werden aus der Umgebung über Phagozytose aufgenommen und unter anderem mit Hilfe von Lysozymen verdaut. Eines dieser Lysozyme, AlyA, wurde bereits in vorhergehenden Arbeiten detailliert untersucht. Sein Fehlen resultierte in einer zeitabhängigen Vergrößerung der Fresshöfe in Bakterienrasen. Zusätzlich waren in diesen Knockout-Mutanten auch die Phagozytoserate und die Expression eines zweiten lysosomalen Enzyms (Gp70) erhöht. Die Überexpression dieser Esterase in wildtypischen Zellen bewirkte ebenfalls, dass Partikel aus der Umgebung effektiver aufgenommen werden konnten. Da die AlyA-Mutanten und die Gp70-Überexprimierer ähnliche Phänotypen zeigten, die Proteine aber in unterschiedlichen lysosomalen Vesikeln lokalisieren, müssen weitere Proteine an der Ausbildung der Phänotypen beteiligt sein. Aus diesem Grund wurden die Genexpressionen beider Mutanten verglichen. Über Microarray-Analysen sollten auf diese Weise weitere Proteine identifiziert werden, die eine Weiterleitung des Signals von AlyA über Gp70 bis hin zur Plasmamembran vermitteln. Einigen der potentiellen Kandidaten konnte anhand der Untersuchung von Mutanten bereits eine Weiterleitung des Signals zwischen Gp70 und der erhöhten Phagozytose an der Plasmamembran zugeordnet werden. Um jedoch mehr über die Signalkette oberhalb von Gp70 zu erfahren, wurden im Rahmen dieser Arbeit drei Proteine untersucht. Die Expression von DD3-3, SSD673 und SSD485 war in den AlyA-Mutanten erhöht, in den Gp70-Überexprimierern jedoch unverändert. Durch Herstellung und Untersuchung von überexprimierenden Mutanten wurde die Wirkung jedes Proteins auf die Gp70-Expression, das Phagozytoseverhalten und den Durchmesser der Fresshöfe analysiert. Die Markierung der Kandidaten mit dem Myc-Epitop sollte deren subzelluläre Lokalisation klären. Für DD3-3-überexpimierende Klone konnte in dieser Arbeit allerdings keine Veränderung gegenüber wildtypischen Zellen festgestellt werden. Sie zeigt allerdings, dass Medium von SSD673-überexprimierenden Zellen die Phagozytoserate wildtypischer Zellen leicht erhöht. Eine starke SSD673myc-Expression führte auch zu einer verstärkten Aufnahme von Hefezellen. Die Gp70-Expression in Gesamtzelllysaten der SSD673-Mutanten blieb jedoch unverändert. Wurde in Wildtypzellen hingegen SSD485 im Übermaß exprimiert, so führte dies zu einer verstärkten Partikelaufnahme. Diese entwickelte sich ähnlich den AlyA-Knockout-Mutanten in Abhängigkeit der Zeit und ging mit einer erhöhten Gp70-Expression einher. In dieser Arbeit konnte folglich zwei von drei Proteinen eine positive Wirkung auf die Phagozytose nachgewiesen werden. SSD485-Mutanten erfüllten darüber hinaus die Bedingungen für eine Weiterleitung des AlyA-Signals von SSD485 auf Gp70 bis hin zu einer erhöhten Phagozytose.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ziel dieser Arbeit war, ausgehend von alpha-Aminoaldehyden eine kurze und effiziente Synthese zur Darstellung von Aminosäuren mit alpha-quartären Zentren in enantiomerenreiner Form und davon ableitbare wichtige Synthone in der organischen Synthese zu entwickeln. Der enantiomerenreine 2-tert-Butyl-4-methyl-1,3-oxazolidin-4-carbaldehyd ist via kupfer-katalysierter Aziridinierung des enantiomerenangereicherten 2-tert-Butyl-5-methyl-4H-1,3-dioxins mit der Nitrenquelle (N-Tosylimino)phenyliodinan zugänglich. Eine anschließende Oxidation mit Natriumhyperchlorid und Wasserstoffperoxid führt zur korrespondierenden Carbonsäure, die via sauer katalysierter Acetalspaltung und nachfolgender Abspaltung der Tosyl-Schutzgruppe in enantiomerenreines alpha-Methylserin in sehr guten Ausbeuten umgewandelt werden kann. Mit dem Einsatz von in C5-Position Ethyl-substituiertem 2-tert-Butyl-4H-1,3-dioxin ist analog das N-Tosyl geschützte alpha-Ethylserin darstellbar. Um die bestehende Lösungsmittelabhängigkeit in weniger polaren Losungsmitteln wie Dichlormethan oder Diethylether der Aziridinierung in Bezug auf ihre Diastereoselektivität und Reaktivität zu minimieren, wurden unterschiedliche Nitrenquellen untersucht. [N-(p-Methoxybenzolsulfonyl)imino]methoxyphenyliodinan stellte sich als die potenteste Nitrenquelle heraus und die Ausbeute konnte auf bis zu 70% gesteigert werden. Die Anwendbarkeit des N-Tosyl geschützten alpha-Methylserins konnte mit der Synthese des β-Lactons und 2-Carboxylethylether-2-aziridin unter Mitsunobu-Bedingungen gezeigt werden. Dabei ist die Reaktion durch einfache Variation des Lösungsmittels und der Reaktionstemperatur zu beiden Produkten in sehr guten Ausbeuten hin steuerbar. Das β-Lacton konnte anschließend erfolgreich in das N-Tosyl- und S-Acetyl- geschützte alpha-Methylcystein überführt werden.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ausgangspunkt dieser Dissertation ist die Überlegung, warum Mädchen und Frauen in mathematisch-naturwissenschaftlichen Fächern und Berufen unterrepräsentiert sind. Irrtümlicherweise werden als Erklärung hierfür häufig Geschlechterdifferenzen in der Mathematikleistung herangezogen. Diese bieten jedoch aufgrund nicht einheitlicher Forschungsbefunde keinen zufriedenstellenden Erklärungsansatz. Naheliegender ist es, das mangelnde Selbstvertrauen von Mädchen in Mathematik (als mathematisches Selbstkonzept bezeichnet) als Ursache heranzuziehen, denn verschiedene Studien kamen zu dem Ergebnis, dass Mädchen, auch bei vergleichbarer Leistung, ein geringeres mathematisches Selbstkonzept aufweisen als Jungen (Dickhäuser & Stiensmeier-Pelster, 2003; Frome & Eccles, 1998; Rustemeyer & Jubel, 1996; Skaalvik & Skaalvik, 2004). Die Rolle der Eltern als primäre Sozialisationsinstanz wird als bedeutsamer Einflussfaktor auf das mathematische Selbstkonzept von Kindern beschrieben. Besonders für den Bereich Mathematik besteht die Gefahr, dass Eltern durch geschlechtsstereotype Einstellungen und Erwartungen ihre Tochter ungünstig beeinflussen (Jacobs, 1991; Tiedemann, 2000). In dieser Arbeit wird untersucht, inwiefern Eltern Geschlechtsstereotype zuungunsten der Mädchen in Mathematik äußern und inwiefern sich diese – schon zur Grundschulzeit – in den elterlichen Einschätzungen (elterliche Leistungs- und Fähigkeitseinschätzungen sowie elterliche Ursachenerklärungen) des eigenen Kindes widerspiegeln. Es wird angenommen, dass Mädchen entsprechend dem klassischen Geschlechtsstereotyp weniger talentiert und weniger leistungsstark in Mathematik eingeschätzt werden als Jungen. Für die Einschätzungen des eigenen Kindes wird erwartet, dass diese geschlechtsspezifische Verzerrungen zuungunsten der Mädchen aufweisen. Anhand von Pfadmodellen wird in dieser Arbeit der Einfluss elterlicher Geschlechtsstereotype und Einschätzungen, unter Kontrolle der vorangegangenen Mathematikleistung und des vorangegangenen mathematischen Selbstkonzeptes des Kindes, auf das aktuelle mathematische Selbstkonzept des Kindes am Ende des dritten Schuljahres analysiert. Als Grundlage dienen Daten von circa 900 Schülern und 400 Eltern aus dem Projekt Persönlichkeits- und Lernentwicklung von Grundschulkindern (PERLE). Die Befunde der vorliegenden Arbeit können bisherige Forschungsbefunde aus dem Sekundarbereich für den Grundschulbereich replizieren und weitere erstmalige Befunde ergänzen. Zusammenfassend kann festgehalten werden, dass knapp zwei Drittel der Eltern Geschlechtsstereotype zuungunsten der Mädchen in Mathematik äußern. Die Pfadanalysen ergeben, dass nicht das Geschlecht des Kindes, sondern Wechselwirkungen zwischen Geschlecht und elterlichen Geschlechtsstereotypen die elterlichen Einschätzungen des eigenen Kindes beeinflussen. Wenn Eltern Geschlechtsstereotype vertreten, schätzen sie eine Tochter ungünstiger ein als einen Sohn (unabhängig von der tatsächlichen Mathematikleistung des Kindes). Die elterlichen Einschätzungen haben wiederum einen signifikanten Einfluss auf das mathematische Selbstkonzept des Kindes. Die Ergebnisse dieser Arbeit werden abschließend diskutiert und Ansätze für Interventionen aufgezeigt.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Diese Arbeit beschäftigt sich mit der Frage, wie sich in einer Familie von abelschen t-Moduln die Teilfamilie der uniformisierbaren t-Moduln beschreiben lässt. Abelsche t-Moduln sind höherdimensionale Verallgemeinerungen von Drinfeld-Moduln über algebraischen Funktionenkörpern. Bekanntermaßen lassen sich Drinfeld-Moduln in allgemeiner Charakteristik durch analytische Tori parametrisieren. Diese Tatsache überträgt sich allerdings nur auf manche t-Moduln, die man als uniformisierbar bezeichnet. Die Situation hat eine gewisse Analogie zur Theorie von elliptischen Kurven, Tori und abelschen Varietäten über den komplexen Zahlen. Um zu entscheiden, ob ein t-Modul in diesem Sinne uniformisierbar ist, wendet man ein Kriterium von Anderson an, das die rigide analytische Trivialität der zugehörigen t-Motive zum Inhalt hat. Wir wenden dieses Kriterium auf eine Familie von zweidimensionalen t-Moduln vom Rang vier an, die von Koeffizienten a,b,c,d abhängen, und gelangen dabei zur äquivalenten Fragestellung nach der Konvergenz von gewissen rekursiv definierten Folgen. Das Konvergenzverhalten dieser Folgen lässt sich mit Hilfe von Newtonpolygonen gut untersuchen. Schließlich erhält man durch dieses Vorgehen einfach formulierte Bedingungen an die Koeffizienten a,b,c,d, die einerseits die Uniformisierbarkeit garantieren oder andererseits diese ausschließen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

ZUSAMMENFASSUNG: Das Phosphorylierungsmuster eines Proteins ist kein statischer Zustand, sondern vielmehr ein dynamischer Status, den es in der modernen funktionellen (Phospho-) Proteomik und Analytik abzubilden gilt. Klassischerweise erfolgt der Nachweis der Proteinphosphorylierung auf Peptid-Ebene mittels MS/MS Sequenzierung. Diese Standardmethode der shotgun Phosphoproteomanalytik vernachlässigt jedoch wegen den in LC MS/MS Analysen oftmals schwer detektierbaren Phosphopeptiden gerade den variablen und oftmals nur geringen Phosphorylierungsgrad vieler Phosphorylierungsstellen (P-Stellen). Mittels phosphospezifischer Anreicherungsstrategien und MS/MS Sequenzierung konnten an der Modellkinase PKA-Cα nach rekombinanter Expression in E. coli insgesamt acht P-Stellen identifiziert werden. Der Phosphorylierungsgrad wurde in Kooperation mit Dr. J. Seidler über quantitative Signalintensitätsmessungen bestimmt und zeigte eine nahezu vollständige Phosphorylierung von pS10, pS139, pT197 und pS338, während der Phosphorylierungsgrad für pS34, pS53, pS65 und pS259 zwischen <5 und 45 % variierte. Neben der Quantifizierung der P-Stellen wurde auch das Auftreten und die Verteilung definierter Phosphoformen der PKA-Cα untersucht und deren Abhängigkeit von der primären Aminosäureabfolge, dem Auftreten von zusätzlichen Modifikationen sowie den gewählten Expressions- und Reinigungsbedingungen aufgezeigt. Endogene, aus Säugergewebe isolierte PKA-Cα wies nur eine einzige Phosphoform mit den P-Stellen pT197 und pS338 auf. Auch in vitro autophosphorylierte rekombinante PKA-Cα, die zuvor dephosphoryliert worden war, wies eine zweifach modifizierte Phosphoform auf. Im Vergleich zum endogenen Protein ließ sich dieses Protein an S10 und S338 exzessiv phosphorylieren, wohingegen an T197 keine Autophosphorylierung nachzuweisen war. Das Ausbleiben weiterer Phosphorylierungen stellt in Frage, ob die Hyperphosphorylierung in E. coli ausschließlich auf Autophosphorylierungsprozessen beruht, was anhand einer nicht phosphorylierten, katalytisch inaktiven Variante von PKA-Cα (PKA-Cα K72H) vermutet wurde. Im Hinblick auf die funktionellen P-Stellen pT197 und pS338 erfordert diese Entdeckung sowie der unabhängige Nachweis, dass zellfrei exprimierte PKA-Cα nur an S338 phosphoryliert ist, eine Modifizierung des sequenziellen Vorhersagemodells, wonach die Phosphorylierung an T197 eine zwingende Voraussetzung für die nachfolgende Phosphorylierung an S338 ist. Ferner konnte über phosphomimetische Mutagenese die Funktionalität der Phosphorylierung an S53 innerhalb der glycinreichen Schleife der PKA-Cα und somit ein potenzieller Weg zur Regulation der enzymatischen Aktivität gezeigt werden. Ein weiterer möglicher upstream Regulator von PKA-Cα ist die Proteinphosphatase 5, die in der Lage war, die bislang als phosphatasestabil beschriebene P Stelle pT197 in vitro zu dephosphorylieren. Die vorliegende Arbeit zeigt, dass der Phosphorylierungszustand eines Proteins von zahlreichen internen und externen Faktoren abhängt – eine Tatsache, die gerade für rekombinante Proteine, insbesondere enzymatisch aktive Kinasen, oft vernachlässigt wurde. Daher müssen auch in der shotgun Phosphoproteomanalytik P-Stellen nicht mehr nur identifiziert und quantifiziert werden, sondern die resultierenden Proteinphosphoformen differenziert auch in ihrem physiologischen Kontext beschrieben werden.

Relevância:

10.00% 10.00%

Publicador:

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Der Einsatz der Particle Image Velocimetry (PIV) zur Analyse selbsterregter Strömungsphänomene und das dafür notwendige Auswerteverfahren werden in dieser Arbeit beschrieben. Zur Untersuchung von solchen Mechanismen, die in Turbo-Verdichtern als Rotierende Instabilitäten in Erscheinung treten, wird auf Datensätze zurückgegriffen, die anhand experimenteller Untersuchungen an einem ringförmigen Verdichter-Leitrad gewonnen wurden. Die Rotierenden Instabilitäten sind zeitabhängige Strömungsphänomene, die bei hohen aerodynamischen Belastungen in Verdichtergittern auftreten können. Aufgrund der fehlenden Phaseninformation kann diese instationäre Strömung mit konventionellen PIV-Systemen nicht erfasst werden. Die Kármánsche Wirbelstraße und Rotierende Instabilitäten stellen beide selbsterregte Strömungsvorgänge dar. Die Ähnlichkeit wird genutzt um die Funktionalität des Verfahrens anhand der Kármánschen Wirbelstraße nachzuweisen. Der mittels PIV zu visualisierende Wirbeltransport erfordert ein besonderes Verfahren, da ein externes Signal zur Festlegung des Phasenwinkels dieser selbsterregten Strömung nicht zur Verfügung steht. Die Methodik basiert auf der Kopplung der PIV-Technik mit der Hitzdrahtanemometrie. Die gleichzeitige Messung mittels einer zeitlich hochaufgelösten Hitzdraht-Messung ermöglicht den Zeitpunkten der PIV-Bilder einen Phasenwinkel zuzuordnen. Hierzu wird das Hitzdrahtsignal mit einem FFT-Verfahren analysiert, um die PIV-Bilder entsprechend ihrer Phasenwinkel zu gruppieren. Dafür werden die aufgenommenen Bilder auf der Zeitachse der Hitzdrahtmessungen markiert. Eine systematische Analyse des Hitzdrahtsignals in der Umgebung der PIV-Messung liefert Daten zur Festlegung der Grundfrequenz und erlaubt es, der markierten PIV-Position einen Phasenwinkel zuzuordnen. Die sich aus den PIV-Bildern einer Klasse ergebenden Geschwindigkeitskomponenten werden anschließend gemittelt. Aus den resultierenden Bildern jeder Klasse ergibt sich das zweidimensionale zeitabhängige Geschwindigkeitsfeld, in dem die Wirbelwanderung der Kármánschen Wirbelstraße ersichtlich wird. In hierauf aufbauenden Untersuchungen werden Zeitsignale aus Messungen in einem Verdichterringgitter analysiert. Dabei zeigt sich, dass zusätzlich Filterfunktionen erforderlich sind. Im Ergebnis wird schließlich deutlich, dass die Übertragung der anhand der Kármánschen Wirbelstraße entwickelten Methode nur teilweise gelingt und weitere Forschungsarbeiten erforderlich sind.