979 resultados para diffusives viskoelastisches Modell, globale schwache Lösung, Fehlerabschätzung


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Land use is a crucial link between human activities and the natural environment and one of the main driving forces of global environmental change. Large parts of the terrestrial land surface are used for agriculture, forestry, settlements and infrastructure. Given the importance of land use, it is essential to understand the multitude of influential factors and resulting land use patterns. An essential methodology to study and quantify such interactions is provided by the adoption of land-use models. By the application of land-use models, it is possible to analyze the complex structure of linkages and feedbacks and to also determine the relevance of driving forces. Modeling land use and land use changes has a long-term tradition. In particular on the regional scale, a variety of models for different regions and research questions has been created. Modeling capabilities grow with steady advances in computer technology, which on the one hand are driven by increasing computing power on the other hand by new methods in software development, e.g. object- and component-oriented architectures. In this thesis, SITE (Simulation of Terrestrial Environments), a novel framework for integrated regional sland-use modeling, will be introduced and discussed. Particular features of SITE are the notably extended capability to integrate models and the strict separation of application and implementation. These features enable efficient development, test and usage of integrated land-use models. On its system side, SITE provides generic data structures (grid, grid cells, attributes etc.) and takes over the responsibility for their administration. By means of a scripting language (Python) that has been extended by language features specific for land-use modeling, these data structures can be utilized and manipulated by modeling applications. The scripting language interpreter is embedded in SITE. The integration of sub models can be achieved via the scripting language or by usage of a generic interface provided by SITE. Furthermore, functionalities important for land-use modeling like model calibration, model tests and analysis support of simulation results have been integrated into the generic framework. During the implementation of SITE, specific emphasis was laid on expandability, maintainability and usability. Along with the modeling framework a land use model for the analysis of the stability of tropical rainforest margins was developed in the context of the collaborative research project STORMA (SFB 552). In a research area in Central Sulawesi, Indonesia, socio-environmental impacts of land-use changes were examined. SITE was used to simulate land-use dynamics in the historical period of 1981 to 2002. Analogous to that, a scenario that did not consider migration in the population dynamics, was analyzed. For the calculation of crop yields and trace gas emissions, the DAYCENT agro-ecosystem model was integrated. In this case study, it could be shown that land-use changes in the Indonesian research area could mainly be characterized by the expansion of agricultural areas at the expense of natural forest. For this reason, the situation had to be interpreted as unsustainable even though increased agricultural use implied economic improvements and higher farmers' incomes. Due to the importance of model calibration, it was explicitly addressed in the SITE architecture through the introduction of a specific component. The calibration functionality can be used by all SITE applications and enables largely automated model calibration. Calibration in SITE is understood as a process that finds an optimal or at least adequate solution for a set of arbitrarily selectable model parameters with respect to an objective function. In SITE, an objective function typically is a map comparison algorithm capable of comparing a simulation result to a reference map. Several map optimization and map comparison methodologies are available and can be combined. The STORMA land-use model was calibrated using a genetic algorithm for optimization and the figure of merit map comparison measure as objective function. The time period for the calibration ranged from 1981 to 2002. For this period, respective reference land-use maps were compiled. It could be shown, that an efficient automated model calibration with SITE is possible. Nevertheless, the selection of the calibration parameters required detailed knowledge about the underlying land-use model and cannot be automated. In another case study decreases in crop yields and resulting losses in income from coffee cultivation were analyzed and quantified under the assumption of four different deforestation scenarios. For this task, an empirical model, describing the dependence of bee pollination and resulting coffee fruit set from the distance to the closest natural forest, was integrated. Land-use simulations showed, that depending on the magnitude and location of ongoing forest conversion, pollination services are expected to decline continuously. This results in a reduction of coffee yields of up to 18% and a loss of net revenues per hectare of up to 14%. However, the study also showed that ecological and economic values can be preserved if patches of natural vegetation are conservated in the agricultural landscape. -----------------------------------------------------------------------

Relevância:

20.00% 20.00%

Publicador:

Resumo:

This paper provides a model for the international market of credit ratings in order to promote transparency of rating methodologies and combat the oligopolistic market structure where Standard & Poor‘s, Moody‘s and Fitch Ratings collectively comprise approximately 85 percent of the market. For the German credit market this paper strongly advises the establishment of at least three centralistic credit rating agencies (CRAs), set up and run independently by the large bank institutions – „Großbanken“, „Sparkassen“ and „Genossenschaftsbanken“. By acting as CRAs, universal banks could not only decrease their costs but would also be able to increase competition and transparency. These new credit rating agencies would be subject to the Basel II internal ratings-based (IRB) surveillance standards that go far beyond the Basel II standard approach with its external ratings by the dominating three US-american CRAs. Due to the fact that the new Basle Accord has already been implemented in Europe, this model could be applied all over Europe and possibly even worldwide, assuming the US were to adopt the new capital adequacy rules. This would lead to an increase in the number of CRAs and hence to more competition, as the barriers to entry in the rating industry would not apply to these new institutions because of their expertise in the credit market. The fact that the IRB-criteria already have to be disclosed by law would make the methodologies transparent and subject to approval by national regulators such as the „Bundesanstalt für Finanzdienstleistungsaufsicht“ (BaFin) in Germany. Hence the requirement to set up a new monitoring committee in Europe would become obsolete.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Institutionalistische Theorien und hegemoniale Praktiken Globaler Politikgestaltung. Eine neue Beleuchtung der Prämissen Liberaler Demokratischer National-Staatlicher Ordnungen. Deutsche Zusammenfassung: Moderne Sozialwissenschaften, seien es Metatheorien der Internationalen Beziehungen, die Geschichte politischer Ökonomie oder Institutionentheorien, zeigen eine klare Dreiteilung von Weltanschauungen bzw. Paradigmen auf, die sich in allen „großen Debatten“ nachvollziehen lassen: Realismus, Liberalismus und Historischer Materialismus. Diese Grund legend unterschiedlichen Paradigmen lassen sich auch in aktuellen Ansätzen des Institutionalismus aufzeigen, liegen aber quer zu den von anderen Wissenschaftlern (Meyer, Rittberger, Hasenclever, Peters, Zangl) vorgenommenen Kategorisierungen der Institutionalismusschulen, die systemkritische Perspektiven in der Regel ignorieren oder vergleichsweise rudimentär diskutieren. Deshalb entwickelt diese Arbeit einen Vergleich von Institutionalismusschulen entlang der oben skizzierten Weltanschauungen. Das Ziel ist es, fundamentale Unterschiede zwischen den drei Paradigmen zu verdeutlichen und zu zeigen, wie ihre jeweiligen ontologischen und epistemologischen Prämissen die Forschungsdesigns und Methodologien der Institutionalismusschulen beeinflussen. In Teil I arbeite ich deshalb die Grund legenden Prämissen der jeweiligen Paradigmen heraus und entwickle in Teil II und III diesen Prämissen entsprechende Institutionalismus-Schulen, die Kooperation primär als Organisation von unüberwindbarer Rivalität, als Ergebnis zunehmender Konvergenz, oder als Ergebnis und Weiterentwicklung von Prozeduren der Interaktion versteht. Hier greife ich auf zeitgenössische Arbeiten anderer Autoren zurück und liefere damit einen Vergleich des aktuellen Forschungsstandes in allen drei Denktraditionen. Teil II diskutiert die zwei dominanten Institutionalismusschulen und Teil III entwickelt einen eigenen Gramscianischen Ansatz zur Erklärung von internationaler Kooperation und Institutionalisierung. Die übergeordnete These dieser Arbeit lautet, dass die Methodologien der dominanten Institutionalismusschulen teleologische Effekte haben, die aus dem Anspruch auf universell anwendbare, abstrahiert Konzepte resultieren und die Interpretation von Beobachtungen limitieren. Prämissen eines rational handelnden Individuums - entweder Konsequenzen kalkulierend oder Angemessenheit reflektierend – führen dazu, dass Kooperation und Institutionalisierung notwendiger Weise als die beste Lösung für alle Beteiligten in dieser Situation gelten müssen: Institutionen würden nicht bestehen, wenn sie nicht in der Summe allen Mitgliedern (egoistisch oder kooperativ motiviert) nützten. Durch diese interpretative „Brille“ finden wichtige strukturelle Gründe für die Verabschiedung internationaler Abkommen und Teile ihrer Effekte keine Berücksichtigung. Folglich können auch Abweichungen von erwarteten Ergebnissen nicht hinreichend erklärt werden. Meine entsprechende Hypothese lautet, dass systemkritische Kooperation konsistenter erklären können, da sie Akteure, Strukturen und die sie umgebenden Weltanschauungen selbst als analytische Kriterien berücksichtigen. Institutionalisierung wird dann als ein gradueller Prozess politischer Entscheidungsfindung, –umsetzung und –verankerung verstanden, der durch die vorherrschenden Institutionen und Interpretationen von „Realität“ beeinflusst wird. Jede politische Organisation wird als zeitlich-geographisch markierter Staatsraum (state space) verstanden, dessen Mandat die Festlegung von Prozeduren der Interaktion für gesellschaftliche Entwicklung ist. Politische Akteure handeln in Referenz auf diese offiziellen Prozeduren und reproduzieren und/oder verändern sie damit kontinuierlich. Institutionen werden damit als integraler Bestandteil gesellschaftlicher Entwicklungsprozesse verstanden und die Wirkungsmacht von Weltanschauungen – inklusive theoretischer Konzepte - berücksichtigt. Letztere leiten die Wahrnehmung und Interpretation von festgeschriebenen Regeln an und beeinflussen damit ihre empfundene Legitimation und Akzeptanz. Dieser Effekt wurde als „Staatsgeist“ („State Spirit“) von Montesquieu und Hegel diskutiert und von Antonio Gramsci in seiner Hegemonialtheorie aufgegriffen. Seine Berücksichtigung erlaubt eine konsistente Erklärung scheinbar irrationalen oder unangemessenen individuellen Entscheidens, sowie negativer Effekte konsensualer Abkommen. Zur Veranschaulichung der neu entwickelten Konzepte werden in Teil II existierende Fallstudien zur Welthandelsorganisation analysiert und herausgearbeitet, wie Weltanschauungen oder Paradigmen zu unterschiedlichen Erklärungen der Praxis führen. Während Teil II besonderes Augenmerk auf die nicht erklärten und innerhalb der dominanten Paradigmen nicht erklärbaren Beobachtungen legt, wendet Teil III die Gramscianischen Konzepte auf eben diese blinden Stellen an und liefert neue Einsichten. Im Ausblick wird problematisiert, dass scheinbar „neutrale“ wissenschaftliche Studien politische Positionen und Forderungen legitimieren und verdeutlicht im Sinne der gramscianischen Theorie, dass Wissenschaft selbst Teil politischer Auseinandersetzungen ist.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The 21st century has brought new challenges for forest management at a time when globalization in world trade is increasing and global climate change is becoming increasingly apparent. In addition to various goods and services like food, feed, timber or biofuels being provided to humans, forest ecosystems are a large store of terrestrial carbon and account for a major part of the carbon exchange between the atmosphere and the land surface. Depending on the stage of the ecosystems and/or management regimes, forests can be either sinks, or sources of carbon. At the global scale, rapid economic development and a growing world population have raised much concern over the use of natural resources, especially forest resources. The challenging question is how can the global demands for forest commodities be satisfied in an increasingly globalised economy, and where could they potentially be produced? For this purpose, wood demand estimates need to be integrated in a framework, which is able to adequately handle the competition for land between major land-use options such as residential land or agricultural land. This thesis is organised in accordance with the requirements to integrate the simulation of forest changes based on wood extraction in an existing framework for global land-use modelling called LandSHIFT. Accordingly, the following neuralgic points for research have been identified: (1) a review of existing global-scale economic forest sector models (2) simulation of global wood production under selected scenarios (3) simulation of global vegetation carbon yields and (4) the implementation of a land-use allocation procedure to simulate the impact of wood extraction on forest land-cover. Modelling the spatial dynamics of forests on the global scale requires two important inputs: (1) simulated long-term wood demand data to determine future roundwood harvests in each country and (2) the changes in the spatial distribution of woody biomass stocks to determine how much of the resource is available to satisfy the simulated wood demands. First, three global timber market models are reviewed and compared in order to select a suitable economic model to generate wood demand scenario data for the forest sector in LandSHIFT. The comparison indicates that the ‘Global Forest Products Model’ (GFPM) is most suitable for obtaining projections on future roundwood harvests for further study with the LandSHIFT forest sector. Accordingly, the GFPM is adapted and applied to simulate wood demands for the global forestry sector conditional on selected scenarios from the Millennium Ecosystem Assessment and the Global Environmental Outlook until 2050. Secondly, the Lund-Potsdam-Jena (LPJ) dynamic global vegetation model is utilized to simulate the change in potential vegetation carbon stocks for the forested locations in LandSHIFT. The LPJ data is used in collaboration with spatially explicit forest inventory data on aboveground biomass to allocate the demands for raw forest products and identify locations of deforestation. Using the previous results as an input, a methodology to simulate the spatial dynamics of forests based on wood extraction is developed within the LandSHIFT framework. The land-use allocation procedure specified in the module translates the country level demands for forest products into woody biomass requirements for forest areas, and allocates these on a five arc minute grid. In a first version, the model assumes only actual conditions through the entire study period and does not explicitly address forest age structure. Although the module is in a very preliminary stage of development, it already captures the effects of important drivers of land-use change like cropland and urban expansion. As a first plausibility test, the module performance is tested under three forest management scenarios. The module succeeds in responding to changing inputs in an expected and consistent manner. The entire methodology is applied in an exemplary scenario analysis for India. A couple of future research priorities need to be addressed, particularly the incorporation of plantation establishments; issue of age structure dynamics; as well as the implementation of a new technology change factor in the GFPM which can allow the specification of substituting raw wood products (especially fuelwood) by other non-wood products.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Wissenschaftsmethodische Kompetenzen sind ein Kernelement naturwissenschaftlicher Bildung und in den Bildungsstandards als Kompetenzbereich Erkenntnisgewinnung verbindlich festgeschrieben. Fokus aktueller naturwissenschaftsdidaktischer Forschung ist es, für diese normativen Standards theorie- und evidenzbasierte Kompetenzmodelle zu erarbeiten. In der vorliegenden Dissertation wird zum Kompetenzbereich Erkenntnisgewinnung für den Teilbereich der wissenschaftlichen Erkenntnismethoden geprüft, ob sich die im Kompetenzmodell wissenschaftlichen Denkens von Mayer (2007) angenommenen Teilkompetenzen Fragestellung formulieren, Hypothesen generieren, Planung einer Untersuchung sowie Deutung der Ergebnisse empirisch bestätigen lassen. Zudem wird quer- und längsschnittlich untersucht, wie sich die Kompetenz innerhalb der Sekundarstufe I entwickelt, welche Rolle Personenmerkmale spielen und ob die Unterrichtsgestaltung im Projekt Biologie im Kontext, in dessen Rahmen die Untersuchung stattfand, einen kompetenzfördernden Einfluss auf die Lernenden hat. Als Instrument wurde ein Kompetenztest mit offenen Aufgaben im Multimatrix-Design zum Thema Experimentieren im Biologieunterricht entwickelt und in Gymnasien, Realschulen und Hauptschulen in Hessen und Bayern in den Jahrgangsstufen 5-10 eingesetzt. Die Schülerantworten wurden anhand fünf a priori entwickelter Niveaustufen bewertet und mit der Item-Response-Theorie ausgewertet. Auf Basis einer Validierungsstudie (N= 1562) wurden mittels 24 Items die Schülerkompetenzen in querschnittlichen Analysen (N= 1553) sowie in einem Längsschnitt über ein Schuljahr (N= 1129) untersucht. Die Modellprüfung weist dem vierdimensionalen Modell eine bessere Passung zu als dem eindimensionalen Modell. Schwache bis mittlere Interkorrelationen und eine nachgeschaltete Faktorenanalyse lassen ebenfalls darauf schließen, dass dem vierdimensionalen Modell mit den postulierten Teilkompetenzen Fragestellung, Hypothese, Planung und Deutung gegenüber dem eindimensionalen Modell der Vorzug zu geben ist. Die querschnittlichen Analysen zeigen, dass zwischen den Jahrgangsstufen 5 6, 7 8 und 9 10 signifikante Leistungsunterschiede in der Gesamtkompetenz und den Teilkompetenzen bestehen. Dabei nehmen die zwischen den Teilkompetenzen festgestellten Leistungsunterschiede mit der Jahrgangsstufe zu. Die längsschnittlichen Analysen belegen Leistungszuwächse der Lernenden über ein Schuljahr: Die Kompetenz steigt hier in der Gesamtstichprobe und innerhalb der einzelnen Jahrgangsstufen der Sekundarstufe I signifikant an. Vergleicht man die verschiedenen Jahrgangsstufen in ihrem Kompetenzzuwachs über ein Schuljahr, so zeigt sich, dass der Kompetenzzuwachs in den Jahrgängen 5 8 stärker ausgeprägt ist als in den Jahrgängen 9 10. Auf Ebene der Teilkompetenzen liegt für die Gesamtstichprobe ein Kompetenzzuwachs über ein Schuljahr in den Teilkompetenzen Fragestellung, Hypothese und Planung vor, während in der Teilkompetenz Deutung ein geringer Kompetenzrückgang zu verzeichnen ist. Der Kompetenzgrad hängt mit der besuchten Schulform zusammen. Dabei zeigen Gymnasiasten querschnittlich untersucht bessere Leistungen als Realschüler oder Hauptschüler, wobei die Unterschiede zur Hauptschule besonders deutlich ausfallen. Kompetenzzuwächse über ein Schuljahr zeigen sich ausschließlich in Gymnasium und Realschule. Das Alter hat weder quer- noch längsschnittlich untersucht eigene Effekte auf die Kompetenzentwicklung, ebenso wenig wie das Geschlecht der Probanden. Der Einfluss der Biologienote ist im querschnittlichen Vergleich gering, im längsschnittlichen Vergleich nicht nachweisbar. Lernende, die am Projekt Biologie im Kontext teilnahmen, in dem Unterrichtsbausteine zur Erkenntnisgewinnung eingesetzt wurden, und deren Lehrkräfte verstärkt kompetenzorientiert unterrichteten, zeigen in den Klassen 9 10 größere Kompetenzzuwächse über ein Jahr als Probanden aus entsprechenden Kontrollklassen. Die Untersuchung zeigt, dass wissenschaftsmethodische Kompetenzen in der Sekundarstufe I vermittelt und weiterentwickelt werden. Der Befund der diskontinuierlichen Kompetenzentwicklung und der mit den Schuljahren zunehmenden Leistungsunterschiede zwischen den Teilkompetenzen führt als didaktische Implikation zu dem Schluss, dass weitere Maßnahmen zur Förderung wissenschaftsmethodischer Kompetenzen notwendig sind, um einen kumulativen Kompetenzaufbau gewährleisten zu können.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In der vorliegenden Arbeit betrachten wir die Strömung einer zähen, inkompressiblen, instationären Flüssigkeit in einem dreidimensionalen beschränkten Gebiet, deren Verhalten wird mit den instationären Gleichungen von Navier-Stokes beschrieben. Diese Gleichungen gelten für viele wichtige Strömungsprobleme, beispielsweise für Luftströmungen weit unterhalb der Schallgeschwindigkeit, für Wasserströmungen, sowie für flüssige Metalle. Im zweidimensionalen Fall konnten für die Navier-Stokes-Gleichungen bereits weitreichende Existenz-, Eindeutigkeits- und Regularitätsaussagen bewiesen werden. Im allgemeinen dreidimensionalen Fall, falls also die Daten keinen Kleinheitsannahmen unterliegen, hat man bisher lediglich Existenz und Eindeutigkeit zeitlich lokaler starker Lösungen nachgewiesen. Außerdem existieren zeitlich global so genannte schwache Lösungen, deren Regularität für den Nachweis der Eindeutigkeit im dreidimensionalen Fall allerdings nicht ausreicht. Somit bleibt die Lücke zwischen der zeitlich lokalen, eindeutigen starken Lösung und den zeitlich globalen, nicht eindeutigen schwachen Lösungen der Navier-Stokes-Gleichungen im dreidimensionalen Fall weiterhin offen. Das renommierte Clay Mathematics Institute hat dieses Problem zu einem von sieben Millenniumsproblemen erklärt und für seine Lösung eine Million US-Dollar ausgelobt. In der vorliegenden Arbeit wird ein neues Approximationsverfahren für die Navier-Stokes-Gleichungen entwickelt, das auf einer Kopplung der Eulerschen und Lagrangeschen Beschreibung zäher Strömungen beruht.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Bildung ist zu einem Gut geworden, das den weiteren Lebensweg für alles öffnen oder auch versperren kann. Dabei ist die Bildung schon lange nicht mehr nur eine Sache der Schulen, auch die Frühkindliche Förderung rückt immer mehr in den Vordergrund. Nicht mehr nur eine Ansammlung von Abschlüssen, sondern Fähigkeiten und Fertigkeiten werden im Mittelpunkt gerückt. Bildung soll den Menschen ermöglichen selbst zu bestimmen und sein eigenes Leben in Beruf, Familien und anderen Bereichen zu führen Deutschland hat im Bereich der Bildungspolitik besonders mit den Folgen der schlechten PISA-Ergebnisse von 2000 zu kämpfen. Die Kritik an dem längst überholten System und der mangelnden Chancengleichheit, besonders bei Schülerinnen und Schülern mit Migrationshintergrund, werden von Seiten der Eltern, Lehrer und Bildungsforscher immer lauter. Der Blick auf den Rest der Welt und dessen Bildungssysteme werden dabei immer wichtiger. Schweden hingegen gilt schon seit Jahrzehnten als Vorzeigeland in Sachen Bildung. Die schwedischen Schüler schneiden bei PISA unter anderem bei der Lesekompetenz deutlich besser ab als die deutschen Schüler. In dieser Arbeit soll der Frage nachgegangen werden, wie Schweden es schafft eine hohe Chancengleichheit in der Bildung durchzusetzen und was Deutschland von diesem Land lernen kann. Besonders die aktuelle PISA- Diskussion steht dabei im Mittelpunkt. Infolge dessen wird besonders auf die Chancengleichheit im Bezug auf die Migrationspolitik eingegangen. Welche Maßnahmen Schweden und Deutschland unternehmen, um Chancengleichheit zu garantieren wird erläutert, um abschließend einen Blick in die Zukunft zu werfen und aufzuzeigen, wie es mit dem deutschen Bildungssystem weiter gehen kann und welche Herausforderungen es gegenüber steht.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Kern der vorliegenden Arbeit ist die Erforschung von Methoden, Techniken und Werkzeugen zur Fehlersuche in modellbasierten Softwareentwicklungsprozessen. Hierzu wird zuerst ein von mir mitentwickelter, neuartiger und modellbasierter Softwareentwicklungsprozess, der sogenannte Fujaba Process, vorgestellt. Dieser Prozess wird von Usecase Szenarien getrieben, die durch spezielle Kollaborationsdiagramme formalisiert werden. Auch die weiteren Artefakte des Prozess bishin zur fertigen Applikation werden durch UML Diagrammarten modelliert. Es ist keine Programmierung im Quelltext nötig. Werkzeugunterstützung für den vorgestellte Prozess wird von dem Fujaba CASE Tool bereitgestellt. Große Teile der Werkzeugunterstützung für den Fujaba Process, darunter die Toolunterstützung für das Testen und Debuggen, wurden im Rahmen dieser Arbeit entwickelt. Im ersten Teil der Arbeit wird der Fujaba Process im Detail erklärt und unsere Erfahrungen mit dem Einsatz des Prozesses in Industrieprojekten sowie in der Lehre dargestellt. Der zweite Teil beschreibt die im Rahmen dieser Arbeit entwickelte Testgenerierung, die zu einem wichtigen Teil des Fujaba Process geworden ist. Hierbei werden aus den formalisierten Usecase Szenarien ausführbare Testfälle generiert. Es wird das zugrunde liegende Konzept, die konkrete technische Umsetzung und die Erfahrungen aus der Praxis mit der entwickelten Testgenerierung dargestellt. Der letzte Teil beschäftigt sich mit dem Debuggen im Fujaba Process. Es werden verschiedene im Rahmen dieser Arbeit entwickelte Konzepte und Techniken vorgestellt, die die Fehlersuche während der Applikationsentwicklung vereinfachen. Hierbei wurde darauf geachtet, dass das Debuggen, wie alle anderen Schritte im Fujaba Process, ausschließlich auf Modellebene passiert. Unter anderem werden Techniken zur schrittweisen Ausführung von Modellen, ein Objekt Browser und ein Debugger, der die rückwärtige Ausführung von Programmen erlaubt (back-in-time debugging), vorgestellt. Alle beschriebenen Konzepte wurden in dieser Arbeit als Plugins für die Eclipse Version von Fujaba, Fujaba4Eclipse, implementiert und erprobt. Bei der Implementierung der Plugins wurde auf eine enge Integration mit Fujaba zum einen und mit Eclipse auf der anderen Seite geachtet. Zusammenfassend wird also ein Entwicklungsprozess vorgestellt, die Möglichkeit in diesem mit automatischen Tests Fehler zu identifizieren und diese Fehler dann mittels spezieller Debuggingtechniken im Programm zu lokalisieren und schließlich zu beheben. Dabei läuft der komplette Prozess auf Modellebene ab. Für die Test- und Debuggingtechniken wurden in dieser Arbeit Plugins für Fujaba4Eclipse entwickelt, die den Entwickler bestmöglich bei der zugehörigen Tätigkeit unterstützen.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In der algebraischen Kryptoanalyse werden moderne Kryptosysteme als polynomielle, nichtlineare Gleichungssysteme dargestellt. Das Lösen solcher Gleichungssysteme ist NP-hart. Es gibt also keinen Algorithmus, der in polynomieller Zeit ein beliebiges nichtlineares Gleichungssystem löst. Dennoch kann man aus modernen Kryptosystemen Gleichungssysteme mit viel Struktur generieren. So sind diese Gleichungssysteme bei geeigneter Modellierung quadratisch und dünn besetzt, damit nicht beliebig. Dafür gibt es spezielle Algorithmen, die eine Lösung solcher Gleichungssysteme finden. Ein Beispiel dafür ist der ElimLin-Algorithmus, der mit Hilfe von linearen Gleichungen das Gleichungssystem iterativ vereinfacht. In der Dissertation wird auf Basis dieses Algorithmus ein neuer Solver für quadratische, dünn besetzte Gleichungssysteme vorgestellt und damit zwei symmetrische Kryptosysteme angegriffen. Dabei sind die Techniken zur Modellierung der Chiffren von entscheidender Bedeutung, so das neue Techniken entwickelt werden, um Kryptosysteme darzustellen. Die Idee für das Modell kommt von Cube-Angriffen. Diese Angriffe sind besonders wirksam gegen Stromchiffren. In der Arbeit werden unterschiedliche Varianten klassifiziert und mögliche Erweiterungen vorgestellt. Das entstandene Modell hingegen, lässt sich auch erfolgreich auf Blockchiffren und auch auf andere Szenarien erweitern. Bei diesen Änderungen muss das Modell nur geringfügig geändert werden.