1000 resultados para Programm


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Grenzwertberechnung ist ein unbeliebtes Gebiet der Mathematik. Jeder Schüler hasst es. Das liegt daran, dass es kein universelles Kochrezept gibt, das einen automatisch zur Lösung führt. Statt dessen muss man verschiedenste Ansätze daraufhin überprüfen, ob sie einen einer Lösung näher bringen. Computeralgebra leidet unter dem gleichen Problem, denn Computer lieben Kochrezepte ebenfalls. Entsprechend haben manche Computeralgebrasysteme auch heute noch starke Probleme mit Grenzwerten. 1996 stellte Dominik Gruntz in seiner Dissertation "On Computing Limits in a Symbolic Manipulation System" einen Algorithmus vor, der eine Vielzahl komplexer Grenzwertaufgaben souverän und schnell lösen kann und der dennoch durch seine Einfachheit und Überschaubarkeit besticht. Ziel dieser Diplomarbeit ist es, den Algorithmus von Dominik Gruntz vorzustellen und im Computeralgebrasystem Mathematica zu implementieren.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Im ersten Kapitel dieser Arbeit, dem theoretischen Rahmen, erhalten die Ergebnisse der Fernsehprogrammanalyse ihre theoretische Grundlage. Anhand von Beispielen aus der alltäglichen Mediennutzung von Kindern werden die in der Einleitung entfalteten Annahmen über Orientierungsbedürfnisse von Kindern nochmals aufgegriffen. Diese Orientierungsbedürfnisse werden als Selbstschutzbedürfnisse definiert und es werden Strategien aufgezeigt, die Kinder entwickeln, um diesen Selbstschutz aufrecht zu erhalten. Die Kompetenzen, die Kinder im Umgang mit Medien in ihrem privaten Alltag entwickelt haben, spielen dabei eine Rolle, aber auch die Fähigkeit, vorgegebene Strukturen der Medien und im Umgang mit ihnen zu durchschauen, zu reflektieren und gezielt für ihre eigenen Bedürfnisse einzusetzen. Als Vertreter eines pädagogischen Verständnisses von Medienkompetenz, das Mediennutzer als vor allem im gesellschaftlichen Kontext handlungsfähig denkt, wird Dieter Baacke im zweiten Theorieteil angeführt. Seine vier Dimensionen von Medienkompetenz bildeten die Ausgangsposition für die qualitative Fernsehprogrammanalyse. Unter dem Vorzeichen kultureller Handlungsfähigkeit wird im dritten Teil der Theorie der Versuch unternommen, den theoretischen Rahmen für die Analyse von Programmangeboten abzustecken, die „anders“ sind als andere. Wesentlich dabei ist der Gedanke, sich mit Mitteln der Dekonstruktion und Eigeninterpretation durchschaubar zu machen. Solche Angebote können als Chance für Mediennutzer begriffen werden, Differenzerfahrungen fruchtbar für sich und andere zu gestalten und zu nutzen. Die methodische Vorgehensweise bei der qualitativen Fernsehprogrammanalyse und Operationalisierung der Fragestellung sind in Kapitel zwei beschrieben. Ausgehend von dem Versuch, Dieter Baackes vier Dimensionen von Medienkompetenz zur Operationalisierung der Fragestellung heranzuziehen, wurde während des Zeitraums von zwei Jahren versucht, „Medienkompetenz“ als kodierbare Variable zu definieren und Sendungen qualitativ darauf zu untersuchen, ob sie Elemente enthalten, die Kinder dabei unterstützen, das Fernsehprogrammangebot und andere Medien zu ordnen und zu (er)klären und es den Zuschauern ermöglichen, darin zu manövrieren. Das Datenmaterial zu dieser Untersuchung stammt aus dem Forschungsprojekt „Jährliche Bestandsaufnahme zum Kinderfernsehen – qualitative und quantitative Fernsehprogrammanalyse in der Sicht der Kinder“ der Medienpädagogik der Universität Kassel. In mehreren Schritten wird verdeutlicht, wie die Kategorienbildung zur Einordnung der analysierten Programme und Programmelemente erfolgte. Die qualitative Fernsehprogrammanalyse teilt sich in zwei Kapitel: In Kapitel drei wird das exemplarische Programmangebot innerhalb der in Kapitel eins und zwei beschriebenen Kategorien „Regeln geben“, „Regeln anwenden“ und „Regeln brechen“ diskutiert. Die Analyse bezieht sich dabei auf das Fernsehprogrammangebot aus den Jahren 2000 bis 2003. Kapitel vier ist eine Auskopplung aus der ersten Kategorie des dritten Kapitels „Regeln geben“ und widmet sich den „orientierenden Elementen“, also Programmangeboten, die hinweisenden und werbenden Charakter haben. Solche Elemente, auch wenn sie aus Sicht der Programmanbieter für das Programm werben sollen, strukturieren das Fernsehprogramm zum einen intramedial, zum anderen bieten sie über diese inhaltlich und zeitlich strukturierenden Elemente den Zuschauer Bezugspunkte, die Zuschauer als Freiraum zum Navigieren nutzen können. Dieser Teil, das Programmangebot an orientierenden Elementen, wird in erster Linie aufgrund des Umfangs der Ausarbeitung in einem eigenen Kapitel behandelt. Zum anderen würde sich diese Trennung aber auch aufgrund der Tatsache rechtfertigen lassen, dass die Elemente, die als orientierenden Elemente bezeichnet werden, als intramediale Verweisstrukturen auf das Fernsehprogramm selbst verweisen, die in Kapitel drei behandelten Sendungen hingegen eher einen expliziten Alltagsbezug der Mediennutzer aufweisen. In Kapitel fünf, dem Fazit, werden die zentralen Ergebnisse der Fernsehprogrammanalyse zusammengefasst. In Bezug auf die Fragestellung „Fördert Fernsehen Medienkompetenz?“ und den theoretischen Rahmen, der dieser Arbeit zugrunde liegt, werden die Angebote des Fernsehen für Orientierungsbedürfnisse der Zuschauer betrachtet und mögliche Konsequenzen formuliert.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Überblick über die Arbeit: "Die Notwendigkeit deutscher Kinderfernseh- und -filmproduktion ist unbestritten. Sie sind die Voraussetzung dafür, dass Kinder im Fernsehen ihre eigene Lebenswirklichkeit wiederfinden und zur Reflexion dieser Wirklichkeit angeregt werden."(Rosenbaum 2000) Kinderfernsehexperten wie Uwe Rosenbaum (Landessenderdirektor des Südwestrundfunks Rheinland-Pfalz) oder Armin Maiwald (Geschäftsführer der Flash Filmstudio GmbH, Produzent und Regisseur vieler Sachgeschichten der Sendung mit der Maus) vertreten die Meinung, dass in Deutschland mehr Kinderprogramm mit Kindern produziert werden müsse, die in Deutschland wohnen. Sie sind dabei auch der Meinung, Realprogramm sei qualitativ hochwertiger und damit für Kinder besser, als einseitiges, triviales Zeichentrickprogramm. Der Teil 1 greift diesen Diskurs auf und beschreibt ihn. Einen Beitrag zu diesem Diskurs möchte die Frageleisten, welche Darstellungsformen von Welt vom expliziten Kinderfernsehen angeboten werden und welche davon Kinder bevorzugen. Das Material einer systematischen Fernsehprogrammanalyse, die von den Nutzungspräferenzen der Kinder ausgeht, kann dabei helfen. Dabei konzentriere ich mich auf die zwei Aspekte "Animation" und "real", da der Diskurs Realfilm als qualitativ hochwertig ansieht und Animation in dieser Hinsicht das genaue Gegenteil darstellt. Dabei ist ein zentrales Ergebnis der Analyse, dass sich die Nutzungspräferenzen der Jungen und Mädchen in bezug auf realitätsnahes Programm sehr unterscheiden: Jungen sehen eher Zeichentrickprogramm und Mädchen sehen eher Realformate wie z.B. Soap-Operas. Das legt nahe, die Diskussion um Realitätsnähe im Kinderfernsehen aus geschlechterspezifischer Sicht zu betrachten und die Fragestellung der Arbeit dahingehend neu zu formulieren. Der zweite Teil der Arbeit sortiert zunächst die Begriffe "Realitätsnähe", "Realfilm" und "Zeichentrick", die im ersten Teil eingeführt wurden und trennt sie von einander. Die "Jährliche Bestandsaufnahme zum Kinderfernsehen - qualitative und quantitative Fernsehprogrammanalyse in der Sicht der Kinder" dient dazu, im Kinderfernsehen die Spuren des Diskurses wieder zu finden. Die systematische Suche nach solchen Programmen macht es nötig, mit Hilfe operationalisierter Begriffe, Fernsehprogramm zu kodieren. Dabei bieten sich bereits vorhandene Kodes zur Realitätsnähe an. Für die Auswertung sind zudem auch Zugänge über weitere Kodes wie z.B. Information/ Unterhaltung oder Fiction/ Non-Fiction möglich. Die Ansätze in Teil 1 und 2 waren bis dahin umgangssprachliche Formulierungen, deshalb folgt im dritten Teil der Arbeit ein Exkurs in die Theorie, um den Begriff der Realitätsnähe im Fernsehen theoretisch zu begründen und um Realfilm und Animation theoretisch zu beschreiben. Zwei Themenfelder sind hierbei wesentlich: Das erste Themenfeld behandelt die Wirklichkeitskonstruktion im Fernsehen mit den Autoren Alfred Schütz, Thomas Luckmann und Jürgen Fritz. Das Wesentliche in diesem Abschnitt ist der Versuch Realfilm und Zeichentrick als geschlossene Sinngebiete wie "reale Welt" und "Spielwelt" zu verstehen, da geschlossenen Sinngebieten spezifische, eigene Erlebnis- und Erkenntnisstile zugrunde liegen. Fazit dieser Überlegung ist, dass Realfilm und Zeichentrick einander nicht über- oder untergeordnet sind, sondern formal nebeneinander mit unterschiedlichen Erkenntnis- und Erlebnisstilen in Erscheinung treten, bzw. in ihnen unterschiedliche Erlebnis- und Erkenntnisstile angelegt sind. Das zweite Themenfeld widmet sich der von David Buckingham so genannten "Perceived Reality", die nach der Wahrnehmung der Kinder von Wirklichkeit im Fernsehen fragt. Dabei geht es um die Frage, wie Kinder die Realität des Fernsehens beurteilen. Ein Fazit ist hierbei, dass Kinder an Fernsehsendungen keine allgemeingültige Messlatte anlegen, um die Realitätsnähe zu bestimmen, sondern Kinder handeln die Realitätsnähe von Sendungen und deren Bewertung in sozialen Kontexten mit Peers und Erwachsenen je nach Situation aus. Der vierte Teil der Arbeit wertet die Kodierung aus dem zweiten Teil aus und präsentiert Ergebnisse. In diesem Teil werden verschiedene Auswertungsverfahren ausprobiert, um Muster in der Rezeption und im Ein- und Ausschaltverhalten der Kinder in bezug auf Realitätsnähe zu finden. Nachdem Überblick über das Angebot an realitätsnahem Kinderfernsehprogramm, folgt die Auswertung der Nutzung des Kinderprogramms. Hierbei steht die Frage im Vordergrund, in welchem Ausmaß Kinder realitätsnahe Programme nutzen und welche geschlechterspezifischen Unterschiede es in der Nutzung Formate "Animation" und "real" gibt. Im Groben werden in diesem Kapitel zahlreiche Listen präsentiert, Sendungen beschrieben und vor allem unterschiedliche Altersgruppen sowie Geschlechter berücksichtigt. Eines der auffälligsten Merkmale wird sein, dass Jungen in Bezug auf die eingangs eröffneten Begriffe andere Präferenzen und Fernsehnutzungsmuster zeigen als Mädchen. Im Gegensatz zu Mädchen sehen die Jungen eher weniger Realprogramm und eher mehr Animationsprogramm. Kinder im Fernsehen stehen stellvertretend für Muster und Typen von Kindern der realen Welt. Das legitimiert anhand der Typologie der Kinder nach Freizeitmustern , nach diesen Kindertypen im Fernsehen und bei den Zuschauern zu suchen. Ein Ergebnis bestätigte die Beobchtung, dass Mädchen neben Realprogramm auch Zeichentrick sehen, und Jungen nur Zeichentrick. Anhand der bis dort gewonnenen Ergebnisse und zweier Beispiele aus dem Schulalltag folgt abschließend in Teil 5 ein pädagogisches Fazit. Der Umgang von Jungen mit Medien wird häufig problematisiert und so wie es sich in den Ergebnissen dieser und anderer Arbeiten wie der PISA2000-Studie oder in der Typologie der Freizeitmuster darstellt, könnte man durchaus den Eindruck gewinnen, dass Jungen eine schwierige Beziehung zu Medien haben. Deshalb muss man sich vermutlich zunächst eingestehen, dass Jungen eher Zeichentrick und Mädchen eher Soaps gucken, um danach Jungen emphatisch in Bezug auf ihre Mediennutzungsmuster zu begegnen und ihre Vorlieben nicht zu trivialisieren oder zu verurteilen. Das hat pädagogische Bedeutung für die Schule, wie die beiden Beispiele zeigen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Verbindung von Wohnarchitektur und Lebensstil der Bewohner wurde in der Architektur bisher kaum analysiert und systematisiert. Selbst in den klassischen Lehrbüchern der Gebäudelehre fehlt in der Regel eine definierte Auffassung des Lebensstils der Bewohner als Einflussparameter für Architektur. Es sind vorwiegend implizite, verkürzte oder nur sehr persönliche Vorstellungen vom Lebensstil zukünftiger Nutzer, die in die Architektur eingehen. Mit der vorliegenden Arbeit wird die Beziehung zwischen Lebensstil, Atmosphäre und architektonischem Programm im Kontext von Wohnarchitektur theoretisch, konzeptionell und an Hand eigener empirischer Analysen expliziert. Lebensstil wird dabei als Resultat eines Kräftefelds zwischen Individuum und Gesellschaft begriffen, also dem Zusammenwirken von individuellen und gesellschaftlichen Bedingungen, die sich in konkreten räumlichen Gegebenheiten vollziehen. Die theoretischen und empirischen Analysen erbrachten, dass eine Verknüpfung von Lebensstil und Architektur auf einer Ebene stattfinden sollte, die ihre inhaltliche Verschneidung erlaubt. Das heißt, dass weder „fertige“ Lebensstiltypen, wie in der soziologischen Lebensstilforschung üblich, noch Wohn(haus)typologien herangezogen werden sollten. Vielmehr sollten die Lebensstilparameter in ihre strukturellen Einzelteile zerlegt und dechiffriert werden, da fertige Typenbeschreibungen oft nur assoziative Verbindungen erzeugen und schwer in räumliche Dimensionen transferierbar sind. Die Entwicklung und Erforschung der Lebensstilparameter stellt im vorliegenden Ansatz die Voraussetzung zur Generierung von Wohnarchitektur unter dem Fokus des Lebensstils dar. Hierzu wurden sog. Integrative Lebensstil-Architektur-Parameter erarbeitet. Diese Parameter sind als Einzeldimensionen konzipiert und ermöglichen so eine freie Kombination und Schwerpunktsetzung durch den Architekten. Dadurch lässt sich Architektur im Sinne des Lebensstils beschreiben und analysieren. Neben der Analyse von Architektur an Hand der Parameter kann ihnen aber auch eine generative Gestaltungskraft in der Architektur zugesprochen werden, woraus eine zielgerichtetere Harmonisierung von Lebensstil und Architektur zu erwarten ist.

Relevância:

10.00% 10.00%

Publicador:

Relevância:

10.00% 10.00%

Publicador:

Relevância:

10.00% 10.00%

Publicador:

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Hairpin Ribozyme kommen natürlich in den Minussträngen der Satelliten RNAs dreier Pflanzenviren (sTRsV, sArMV and sCYMoV) vor. In dieser Arbeit wurden mit dem Programm Mfold darin mehrere distinkte Sekundärstrukturelemente gefunden, die außerhalb des katalytischen Zentrums der Ribozyme lokalisieren. Verschiedene Varianten der drei Ribozyme wurden hergestellt und die Funktion der beobachteten peripheren Strukturelemente biochemisch untersucht. Die sTRsV Hairpin Ribozyme mit unterschiedlichen Längen in Arm C wiesen ähnliche cis-Spaltungsreaktionen auf, unabhängig von der Anzahl interner bulges in Arm C. Das gleiche Verhalten, jedoch bei schnelleren Spaltungsraten, wurde nach Entfernen der three-way junction, die 3’ von der Spaltstelle in Arm A liegt, beobachtet. Hier hat Arm C demnach keinen Einfluss auf die Katalyse, wogegen ein verlängerter Arm A die Reaktion verlangsamt. Unter den experimentellen Bedingungen war die Rückreaktion in Anwesenheit des natürlichen Arms A nicht messbar. Im Gegensatz dazu zeigten alle Varianten ohne die Arm A Erweiterung Ligationsaktivität, die am höchsten in dem Molekül mit dem längsten Arm C war, und gleichermaßen erniedrigt für zwei Varianten mit kürzerem Arm C. Keine der Reaktionen diverser sArMV Hairpin Ribozyme konnte reproduzierbar analysiert werden. Für das sCYMoV Hairpin Ribozym wurde schließlich in cis-Spaltungsreaktionen eine Zunahme der Geschwindigkeit mit Abnahme der Länge von Arm D beobachtet. Dies war der Fall in Anwesenheit der three-way junction in Arm A, nicht jedoch in ihrer Abwesenheit, wo Varianten mit unterschiedlichen Längen des Arms D ähnliche Spaltungsreaktionen aufwiesen. In Anwesenheit der three-way junction in Arm A war eine Reduzierung der Ligationsgeschwindigkeit zu beobachten, und bei ihrer Abwesenheit stieg diese mit der Länge von Arm D. Dies zeigt, dass sowohl die three-way junction in Arm A, als auch die Länge und Anzahl der bulges in Arm D die Reaktion des Hairpin Ribozyms aus sCYMoV beeinflussen, wobei sich Unterschiede in Vorwärts- und Rückreaktion auf die experimentellen Bedingungen zurückführen lassen. In zwei Serien wurde die zentrale five-way junction dieses Ribozyms durch verschiedene four-way junctions ersetzt. Die kinetischen Parameter der Selbstspaltung waren ähnlich für Varianten ohne Arm E auf, jedoch verlangsamt bei Varianten ohne Arm C. Dies zeigt, dass das sCYMoV Hairpin Ribozym auch um eine four-way junction gebildet werden kann, deren konstituierenden Helices jedoch nicht beliebig sind. In einem zweiten Projekt wurde die Konservierung von Hammerhead Ribozym-motiven, die bereits früher im Genom der Brassicacee A. thaliana gefunden worden waren, exemplarisch an zehn Mitgliedern dieser Familie untersucht. Da deren Genome nicht sequenziert sind, wurde PCR mit Primern angewandt, die für die A. thaliana Motive spezifisch waren. Damit konnten Ribozymmotive in allen untersuchten Brassicaceen außer B. nigra and B. oleracea gefunden werden. Diese gehören zu den sechs Brassica Pflanzen, für die der koreanische Botaniker U 1935 im “triangle of U” die genetische Verwandtschaft beschrieb. Darin ist B. carinata, für die Ribozymmotive gezeigt wurden, die Tochterspezies der Brassica Pflanzen ohne diese Motive. Dieser Widerspruch könnte darauf zurückzuführen sein, dass in der PCR unspezifische Primer genutzt wurden, oder aber die Motive aus B. carinata könnten ein Artefakt aus einer Luft-übertragenen Kontamination sein. Technische Schwierigkeiten in der Durchführung von Southern Blots, mit denen zwischen diesen Möglichkeiten unterschieden werden sollte, haben eine abschließende Antwort verhindert. Nach einer Optimierung der Methode sollte diese aber geeignet sein, diese Frage zu klären.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Fachgruppe AFS (früher Fachgruppe 0.1.5) der Gesellschaft für Informatik veranstaltet seit 1991 einmal im Jahr ein Treffen der Fachgruppe im Rahmen eines Theorietags, der traditionell eineinhalb Tage dauert. Seit dem Jahr 1996 wird dem eigentlichen Theorietag noch ein eintägiger Workshop zu speziellen Themen der theoretischen Informatik vorangestellt. In diesem Jahr wurde der Theorietag vom Fachgebiet "Theoretische Informatik" des Fachbereichs Elektrotechnik/Informatik der Universität Kassel organisiert. Er fand vom 29.9. bis 1.10.2010 in Baunatal bei Kassel statt. Dabei stand der begleitende Workshop unter dem allgemeinen Thema "Ausgewählte Themen der Theoretischen Informatik". Als Vortragende für diesen Workshop konnten Carsten Damm (Göttingen), Markus Holzer (Giessen), Peter Leupold (Kassel), Martin Plátek (Prag) und Heribert Vollmer (Hannover) gewonnen werden. Das Programm des eigentlichen Theorietags bestand aus 20 Vorträgen sowie der Sitzung der Fachgruppe AFS. In diesem Band finden sich die Zusammenfassungen aller Vorträge sowohl des Workshops als auch des Theorietags. Desweiteren enthält er das Programm und die Liste aller Teilnehmer.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Kern der vorliegenden Arbeit ist die Erforschung von Methoden, Techniken und Werkzeugen zur Fehlersuche in modellbasierten Softwareentwicklungsprozessen. Hierzu wird zuerst ein von mir mitentwickelter, neuartiger und modellbasierter Softwareentwicklungsprozess, der sogenannte Fujaba Process, vorgestellt. Dieser Prozess wird von Usecase Szenarien getrieben, die durch spezielle Kollaborationsdiagramme formalisiert werden. Auch die weiteren Artefakte des Prozess bishin zur fertigen Applikation werden durch UML Diagrammarten modelliert. Es ist keine Programmierung im Quelltext nötig. Werkzeugunterstützung für den vorgestellte Prozess wird von dem Fujaba CASE Tool bereitgestellt. Große Teile der Werkzeugunterstützung für den Fujaba Process, darunter die Toolunterstützung für das Testen und Debuggen, wurden im Rahmen dieser Arbeit entwickelt. Im ersten Teil der Arbeit wird der Fujaba Process im Detail erklärt und unsere Erfahrungen mit dem Einsatz des Prozesses in Industrieprojekten sowie in der Lehre dargestellt. Der zweite Teil beschreibt die im Rahmen dieser Arbeit entwickelte Testgenerierung, die zu einem wichtigen Teil des Fujaba Process geworden ist. Hierbei werden aus den formalisierten Usecase Szenarien ausführbare Testfälle generiert. Es wird das zugrunde liegende Konzept, die konkrete technische Umsetzung und die Erfahrungen aus der Praxis mit der entwickelten Testgenerierung dargestellt. Der letzte Teil beschäftigt sich mit dem Debuggen im Fujaba Process. Es werden verschiedene im Rahmen dieser Arbeit entwickelte Konzepte und Techniken vorgestellt, die die Fehlersuche während der Applikationsentwicklung vereinfachen. Hierbei wurde darauf geachtet, dass das Debuggen, wie alle anderen Schritte im Fujaba Process, ausschließlich auf Modellebene passiert. Unter anderem werden Techniken zur schrittweisen Ausführung von Modellen, ein Objekt Browser und ein Debugger, der die rückwärtige Ausführung von Programmen erlaubt (back-in-time debugging), vorgestellt. Alle beschriebenen Konzepte wurden in dieser Arbeit als Plugins für die Eclipse Version von Fujaba, Fujaba4Eclipse, implementiert und erprobt. Bei der Implementierung der Plugins wurde auf eine enge Integration mit Fujaba zum einen und mit Eclipse auf der anderen Seite geachtet. Zusammenfassend wird also ein Entwicklungsprozess vorgestellt, die Möglichkeit in diesem mit automatischen Tests Fehler zu identifizieren und diese Fehler dann mittels spezieller Debuggingtechniken im Programm zu lokalisieren und schließlich zu beheben. Dabei läuft der komplette Prozess auf Modellebene ab. Für die Test- und Debuggingtechniken wurden in dieser Arbeit Plugins für Fujaba4Eclipse entwickelt, die den Entwickler bestmöglich bei der zugehörigen Tätigkeit unterstützen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Evolutionäre Algorithmen werden gerne für Optimierungsaufgaben mit sehr vielen Freiheitsgraden eingesetzt. Eine spezielle Konvergenzeigenschaft, daß nämlich der Rechenaufwand nur mit der Wurzel der Anzahl der Unbekannten steigt, prädestiniert sie dafür. Die evolutionären Algorithmen haben aber auch noch eine weitere interessante Eigenschaft: Von der Zielfunktion wird nur verlangt, daß sie monoton ist - nichts weiter. Speziell wird, im Gegensatz zu gradientenbasierten Verfahren, keinerlei Ableitung von der Zielfunktion benötigt. Dadurch können evolutionäre Algorithmen auch in solchen Fällen eingesetzt werden, in denen Ableitungen der Zielfunktion nicht oder nur schwierig zu beschaffen sind. Die evolutionären Algorithmen kommen deshalb mit so geringen Anforderungen an die Zielfunktion aus, weil nur absolute Bewertungen einzelner Punkte (hier Vektoren) im Lösungsraum durch die Zielfunktion vorgenommen werden. Dafür werden eine gewisse Anzahl Punkte gleichzeitig betrachtet. Im direkten Vergleich untereinander relativ günstig liegende Punkte werden für die weitere Rechnung übernommen, die anderen verworfen. Aus den Komponenten der übernommenen Punkte werden nun zufällig neue Punkte zusammengesetzt und ein wenig verschoben. Dann schließt sich der Kreis, indem diese neuen Punkte ebenfalls bewertet werden. Im Verlauf einer solchen Iteration konvergiert die Punktmenge in der Regel gegen ein Optimum. Oft kommt es gerade zu Beginn der Iteration zu schnellen Fortschritten. In dieser Arbeit wird ein Verfahren vorgestellt, bei dem mit Hilfe von evolutionären Algorithmen verbessernde Eingriffe in laufenden Echtzeitsystemen vorgenommen werden. Was gut oder schlecht ist, wird zu diesem Zweck über die Zielfunktion für die Optimierung definiert. Da von der Zielfunktion letztlich das Verhalten des Gesamtsystems abhängt, sollte sie sorgfältig ausgewählt werden. Die Eingriffe in das System sind zeitlich begrenzte Steuertrajektorien. Sie werden zusätzlich zur permanent wirkenden Regelung auf das System aufgebracht. Um die Anzahl der zu optimierenden Variablen in Grenzen zu halten, werden die Steuertrajektorien durch wenige Parameter repräsentiert. Da die Steuertrajektorien im voraus berechnet werden müssen, wird das Systemverhalten mittels eines Modells für eine gewisse, in der Zukunft liegende, Zeitspanne vorhergesagt. Wird die geforderte Qualität während dieser Zeitspanne unterschritten, kann so schon im Vorfeld ein Optimierungslauf des evolutionären Algorithmus durchgeführt werden. Allerdings ist die zur Verfügung stehende Rechenzeit von vornherein begrenzt. Daher ist es wesentlich, daß die mit evolutionären Algorithmen häufig assoziierte lange Rechenzeit nicht benötigt wird. Tatsächlich läßt sich unter Umständen mit wenig Rechenzeit auskommen. Erstens wird nur mit wenigen Variablen gerechnet, zweitens kommt es bei dem beschriebenen Verfahren - halbwegs gutmütige Systeme vorausgesetzt - gar nicht auf die letzte Nachkommastelle, sondern (ähnlich wie bei Sliding-Mode-Regelungen) mehr auf eine Tendenz an. Da evolutionäre Algorithmen aber gerade zu Beginn einer Iteration die größten Fortschritte in Richtung des Optimums machen, kann schon nach vergleichsweise wenigen Schritten eine deutliche Verbesserung der Gesamtsituation erreicht werden. Gerade um eine schnelle Konvergenz zu erreichen, sind die spezielle Ausprägung und die Parameter des evolutionären Algorithmus mit Bedacht zu wählen. Dafür werden im Rahmen der Arbeit einige Experimente durchgeführt. Anhand der Ergebnisse der Experimente können konkrete Empfehlungen für eine günstige Konfiguration des evolutionären Algorithmus gegeben werden. Um es vorwegzunehmen: Zuviel Aufwand beim evolutionären Algorithmus zu treiben, lohnt sich nicht. Schon mit einfachen Konfigurationen können gute Ergebnisse erzielt werden. Die einzige Maßnahme, die sich bei den Experimenten tatsächlich als vorteilhaft herausstellte, war die Aufteilung der Gesamtpopulation (betrachtete Punktmenge im Lösungsraum) in mehrere Subpopulationen. Schließlich wird noch ein Computerprogramm beschrieben, das die Arbeitsweise des vorgestellten Verfahrens am Bildschirm erlebbar macht. Die einzelnen Komponenten werden vom Programm während der Ausführung mit einigen wesentlichen Rechengrößen visualisiert. Der Betrachter erhält so einen besseren Eindruck vom Zusammenwirken der einzelnen Verfahrens-Teile.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nachdem sich in der Kolonialkrise von 1906 das Scheitern der ersten Periode deutscher Kolonialherrschaft (1885-1906) offenbarte, wurde Bernhard Dernburg die grundlegende Reorganisation der Kolonialpolitik anvertraut. Als Mann aus der Welt der Banken und Finanzen sollte er die stagnierende Entwicklung der Kolonien mit Hilfe von administrativen und wirtschaftlichen Reformmaßnahmen vorantreiben und gleichzeitig der indigenen Bevölkerung eine humane Behandlung zu garantieren. Um diese Ziele zu erreichen, verabschiedete er Reformen, die eine Rationalisierung und Humanisierung der Arbeiterpolitik vorsahen. Sowohl in der zeitgenössischen Literatur als auch in der aktuellen wissenschaftlichen Forschung wird der Amtsantritt Bernhard Dernburgs zum Leiter der Kolonialabteilung im Jahre 1906 als der „Beginn einer neuen humanen Ära“ deutscher Kolonialpolitik oder als „Wandel zum Besseren“ bezeichnet. Die Dissertation „Schwarzer Untertan versus Schwarzer Bruder. Bernhard Dernburgs Reformen in den Kolonien Deutsch-Ostafrika, Deutsch-Südwestafrika, Togo und Kamerun“ untersucht die Intention, Akzeptanz, Umsetzung und Auswirkung der reformatorischen Eingeborenenpolitik und klärt, ob die Beurteilung der Ära Dernburg (1906-1910) in der zeitgenössischen und aktuellen Forschung eine Berechtigung hat. Obwohl zumindest in der Theorie sein Konzept einer rationalen und humanen Kolonialpolitik sicherlich eine Abkehr von der bisher betriebenen Kolonialpolitik bedeutete, zeigt sich jedoch bei der Umsetzung der Reformen eine deutliche Diskrepanz zwischen Intention und Realität. Auch wenn zumindest die Bestrebung Dernburgs zur Verrechtlichung der indigenen Arbeitsverhältnisse gewürdigt werden sollte, so muss doch konstatiert werden, dass es in der „Ära Dernburg“ definitiv nicht zu einer grundlegenden Verbesserung der indigenen Lebenssituation in den deutschen Kolonien kam. Im Gegenteil, die Dernburgsche Reformpolitik beschleunigte vielmehr den Verelendungsprozess der indigenen Bevölkerung. In allen afrikanischen Kolonien verschlechterten sich mit der Intensivierung der Verwaltung die sozialen und menschlichen Beziehungen zwischen Afrikanern und Europäern. Vieles von dem, was Dernburg in seinem Programm propagierte, konnte nicht erreicht werden. Zwar führte Dernburg in Deutsch-Ostafrika, Deutsch-Südwestafrika und in Kamerun eine rechtlich bindende Arbeiterverordnung ein, jedoch unterschieden sich die Bestimmungen zum Teil erheblich voneinander, so dass von einer einheitlichen Modernisierung des kolonialen Arbeitsrechts nicht die Rede sein kann. Viele arbeitsrechtliche Bereiche, wie z.B. die Arbeiteranwerbung, Lohnzahlung, Minderjährigenschutz, Vertragsdauer, Arbeitszeit, Verpflegung und Unterkunft wurden nur unzureichend geregelt. Ähnlich negativ muss auch die Reformierung der Strafrechtspflege bewertet werden. Die Kodifizierung eines Eingeborenenstrafrechts scheiterte sowohl am Widerstand der lokalen Verwaltung als auch am Grundkonsens der Rechtmäßigkeit einer Rassenjustiz. Kolonialpolitik war auch in der „Ära Dernburg“ nichts anderes als „rohe Ausbeutungspolitik“, die zur Lösung der Arbeiterfrage beitragen sollte. Aber gerade hier, bei der Mobilisierung von afrikanischen Lohnarbeitern, war der Kolonialstaatssekretär nicht etwa mit einer „Arbeiterfürsorgepolitik“, sondern mit der Fortführung der Enteignungs- und Zwangsmaßnahmen erfolgreich gewesen. Insgesamt ist ein deutlicher Anstieg an afrikanischen Arbeitern in europäischen Unternehmen zu verzeichnen, was darauf schließen lässt, dass Dernburgs Verordnungen einen günstigen Einfluss auf die Arbeiterfrage ausgeübt haben. Obwohl nicht von einem grundlegenden Neuanfang der Kolonialpolitik gesprochen werden kann, sollte ebenso wenig bezweifelt werden, dass sich die deutsche Kolonialpolitik nicht unter Dernburg veränderte. Größere indigene Aufstände und Unruhen blieben aus, so dass während seiner Amtszeit eine systematische wirtschaftliche Erschließung der Kolonien beginnen konnte.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

To study the behaviour of beam-to-column composite connection more sophisticated finite element models is required, since component model has some severe limitations. In this research a generic finite element model for composite beam-to-column joint with welded connections is developed using current state of the art local modelling. Applying mechanically consistent scaling method, it can provide the constitutive relationship for a plane rectangular macro element with beam-type boundaries. Then, this defined macro element, which preserves local behaviour and allows for the transfer of five independent states between local and global models, can be implemented in high-accuracy frame analysis with the possibility of limit state checks. In order that macro element for scaling method can be used in practical manner, a generic geometry program as a new idea proposed in this study is also developed for this finite element model. With generic programming a set of global geometric variables can be input to generate a specific instance of the connection without much effort. The proposed finite element model generated by this generic programming is validated against testing results from University of Kaiserslautern. Finally, two illustrative examples for applying this macro element approach are presented. In the first example how to obtain the constitutive relationships of macro element is demonstrated. With certain assumptions for typical composite frame the constitutive relationships can be represented by bilinear laws for the macro bending and shear states that are then coupled by a two-dimensional surface law with yield and failure surfaces. In second example a scaling concept that combines sophisticated local models with a frame analysis using a macro element approach is presented as a practical application of this numerical model.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Im Rahmen der Dichtefunktionaltheorie wurden Orbitalfunktionale wie z.B. B3LYP entwickelt. Diese lassen sich mit der „optimized effective potential“ – Methode selbstkonsistent auswerten. Während sie früher nur im 1D-Fall genau berechnet werden konnte, entwickelten Kümmel und Perdew eine Methode, bei der das OEP-Problem unter Verwendung einer Differentialgleichung selbstkonsistent gelöst werden kann. In dieser Arbeit wird ein Finite-Elemente-Mehrgitter-Verfahren verwendet, um die entstehenden Gleichungen zu lösen und damit Energien, Dichten und Ionisationsenergien für Atome und zweiatomige Moleküle zu berechnen. Als Orbitalfunktional wird dabei der „exakte Austausch“ verwendet; das Programm ist aber leicht auf jedes beliebige Funktional erweiterbar. Für das Be-Atom ließ sich mit 8.Ordnung –FEM die Gesamtenergien etwa um 2 Größenordnungen genauer berechnen als der Finite-Differenzen-Code von Makmal et al. Für die Eigenwerte und die Eigenschaften der Atome N und Ne wurde die Genauigkeit anderer numerischer Methoden erreicht. Die Rechenzeit wuchs erwartungsgemäß linear mit der Punktzahl. Trotz recht langsamer scf-Konvergenz wurden für das Molekül LiH Genauigkeiten wie bei FD und bei HF um 2-3 Größenordnungen bessere als mit Basismethoden erzielt. Damit zeigt sich, dass auf diese Weise benchmark-Rechnungen durchgeführt werden können. Diese dürften wegen der schnellen Konvergenz über der Punktzahl und dem geringen Zeitaufwand auch auf schwerere Systeme ausweitbar sein.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Após algumas reflexões sobre o conceito de trabalho e formação, este artigo aborda algumas orientações, ou princípios, que podem contribuir para a organização de programas de formação de adultos. Ao trabalhar em programas de formação dessa natureza, devemos ter em mente que trabalhamos com indivíduos que já possuem conhecimentos elaborados, experiências práticas e vivências que devem ser consideradas como ponto de partida. Assim, devemos considerar que a aprendizagem acontece ao longo da vida, e que um curso é apenas parte do percurso de aprendizagem. Outro aspecto importante é que programas de formação para adultos, especialmente aqueles desenvolvidos em situação de trabalho, devem ter sentido para aqueles que irão participar. Os participantes devem, portanto, aderir voluntariamente à proposta; caso contrário, ela poderá ser entendida apenas como algo imposto, e não como um ganho profissional efetivo. Nas situações de formação em situações de trabalho, é também fundamental que os programas sejam elaborados a partir de um apurado conhecimento da realidade daqueles que irão participar. Avaliar e preservar a memória do que foi realizado evita que ocorram eternos recomeços. Por fim, é fundamental que os programas de formação contem também com um programa de apoio aos participantes, de tal forma que eles se sintam mais seguros no trilhar os caminhos das mudanças, quando retornarem aos seus respectivos espaços de trabalho.