1000 resultados para diffusives viskoelastisches Modell, globale schwache Lösung, Fehlerabschätzung
Resumo:
Institutionalistische Theorien und hegemoniale Praktiken Globaler Politikgestaltung. Eine neue Beleuchtung der Prämissen Liberaler Demokratischer National-Staatlicher Ordnungen. Deutsche Zusammenfassung: Moderne Sozialwissenschaften, seien es Metatheorien der Internationalen Beziehungen, die Geschichte politischer Ökonomie oder Institutionentheorien, zeigen eine klare Dreiteilung von Weltanschauungen bzw. Paradigmen auf, die sich in allen „großen Debatten“ nachvollziehen lassen: Realismus, Liberalismus und Historischer Materialismus. Diese Grund legend unterschiedlichen Paradigmen lassen sich auch in aktuellen Ansätzen des Institutionalismus aufzeigen, liegen aber quer zu den von anderen Wissenschaftlern (Meyer, Rittberger, Hasenclever, Peters, Zangl) vorgenommenen Kategorisierungen der Institutionalismusschulen, die systemkritische Perspektiven in der Regel ignorieren oder vergleichsweise rudimentär diskutieren. Deshalb entwickelt diese Arbeit einen Vergleich von Institutionalismusschulen entlang der oben skizzierten Weltanschauungen. Das Ziel ist es, fundamentale Unterschiede zwischen den drei Paradigmen zu verdeutlichen und zu zeigen, wie ihre jeweiligen ontologischen und epistemologischen Prämissen die Forschungsdesigns und Methodologien der Institutionalismusschulen beeinflussen. In Teil I arbeite ich deshalb die Grund legenden Prämissen der jeweiligen Paradigmen heraus und entwickle in Teil II und III diesen Prämissen entsprechende Institutionalismus-Schulen, die Kooperation primär als Organisation von unüberwindbarer Rivalität, als Ergebnis zunehmender Konvergenz, oder als Ergebnis und Weiterentwicklung von Prozeduren der Interaktion versteht. Hier greife ich auf zeitgenössische Arbeiten anderer Autoren zurück und liefere damit einen Vergleich des aktuellen Forschungsstandes in allen drei Denktraditionen. Teil II diskutiert die zwei dominanten Institutionalismusschulen und Teil III entwickelt einen eigenen Gramscianischen Ansatz zur Erklärung von internationaler Kooperation und Institutionalisierung. Die übergeordnete These dieser Arbeit lautet, dass die Methodologien der dominanten Institutionalismusschulen teleologische Effekte haben, die aus dem Anspruch auf universell anwendbare, abstrahiert Konzepte resultieren und die Interpretation von Beobachtungen limitieren. Prämissen eines rational handelnden Individuums - entweder Konsequenzen kalkulierend oder Angemessenheit reflektierend – führen dazu, dass Kooperation und Institutionalisierung notwendiger Weise als die beste Lösung für alle Beteiligten in dieser Situation gelten müssen: Institutionen würden nicht bestehen, wenn sie nicht in der Summe allen Mitgliedern (egoistisch oder kooperativ motiviert) nützten. Durch diese interpretative „Brille“ finden wichtige strukturelle Gründe für die Verabschiedung internationaler Abkommen und Teile ihrer Effekte keine Berücksichtigung. Folglich können auch Abweichungen von erwarteten Ergebnissen nicht hinreichend erklärt werden. Meine entsprechende Hypothese lautet, dass systemkritische Kooperation konsistenter erklären können, da sie Akteure, Strukturen und die sie umgebenden Weltanschauungen selbst als analytische Kriterien berücksichtigen. Institutionalisierung wird dann als ein gradueller Prozess politischer Entscheidungsfindung, –umsetzung und –verankerung verstanden, der durch die vorherrschenden Institutionen und Interpretationen von „Realität“ beeinflusst wird. Jede politische Organisation wird als zeitlich-geographisch markierter Staatsraum (state space) verstanden, dessen Mandat die Festlegung von Prozeduren der Interaktion für gesellschaftliche Entwicklung ist. Politische Akteure handeln in Referenz auf diese offiziellen Prozeduren und reproduzieren und/oder verändern sie damit kontinuierlich. Institutionen werden damit als integraler Bestandteil gesellschaftlicher Entwicklungsprozesse verstanden und die Wirkungsmacht von Weltanschauungen – inklusive theoretischer Konzepte - berücksichtigt. Letztere leiten die Wahrnehmung und Interpretation von festgeschriebenen Regeln an und beeinflussen damit ihre empfundene Legitimation und Akzeptanz. Dieser Effekt wurde als „Staatsgeist“ („State Spirit“) von Montesquieu und Hegel diskutiert und von Antonio Gramsci in seiner Hegemonialtheorie aufgegriffen. Seine Berücksichtigung erlaubt eine konsistente Erklärung scheinbar irrationalen oder unangemessenen individuellen Entscheidens, sowie negativer Effekte konsensualer Abkommen. Zur Veranschaulichung der neu entwickelten Konzepte werden in Teil II existierende Fallstudien zur Welthandelsorganisation analysiert und herausgearbeitet, wie Weltanschauungen oder Paradigmen zu unterschiedlichen Erklärungen der Praxis führen. Während Teil II besonderes Augenmerk auf die nicht erklärten und innerhalb der dominanten Paradigmen nicht erklärbaren Beobachtungen legt, wendet Teil III die Gramscianischen Konzepte auf eben diese blinden Stellen an und liefert neue Einsichten. Im Ausblick wird problematisiert, dass scheinbar „neutrale“ wissenschaftliche Studien politische Positionen und Forderungen legitimieren und verdeutlicht im Sinne der gramscianischen Theorie, dass Wissenschaft selbst Teil politischer Auseinandersetzungen ist.
"Glatte" Zahlen für eine Schulbuchaufgabe - eine diophantische Gleichung und deren elementare Lösung
Resumo:
The 21st century has brought new challenges for forest management at a time when globalization in world trade is increasing and global climate change is becoming increasingly apparent. In addition to various goods and services like food, feed, timber or biofuels being provided to humans, forest ecosystems are a large store of terrestrial carbon and account for a major part of the carbon exchange between the atmosphere and the land surface. Depending on the stage of the ecosystems and/or management regimes, forests can be either sinks, or sources of carbon. At the global scale, rapid economic development and a growing world population have raised much concern over the use of natural resources, especially forest resources. The challenging question is how can the global demands for forest commodities be satisfied in an increasingly globalised economy, and where could they potentially be produced? For this purpose, wood demand estimates need to be integrated in a framework, which is able to adequately handle the competition for land between major land-use options such as residential land or agricultural land. This thesis is organised in accordance with the requirements to integrate the simulation of forest changes based on wood extraction in an existing framework for global land-use modelling called LandSHIFT. Accordingly, the following neuralgic points for research have been identified: (1) a review of existing global-scale economic forest sector models (2) simulation of global wood production under selected scenarios (3) simulation of global vegetation carbon yields and (4) the implementation of a land-use allocation procedure to simulate the impact of wood extraction on forest land-cover. Modelling the spatial dynamics of forests on the global scale requires two important inputs: (1) simulated long-term wood demand data to determine future roundwood harvests in each country and (2) the changes in the spatial distribution of woody biomass stocks to determine how much of the resource is available to satisfy the simulated wood demands. First, three global timber market models are reviewed and compared in order to select a suitable economic model to generate wood demand scenario data for the forest sector in LandSHIFT. The comparison indicates that the ‘Global Forest Products Model’ (GFPM) is most suitable for obtaining projections on future roundwood harvests for further study with the LandSHIFT forest sector. Accordingly, the GFPM is adapted and applied to simulate wood demands for the global forestry sector conditional on selected scenarios from the Millennium Ecosystem Assessment and the Global Environmental Outlook until 2050. Secondly, the Lund-Potsdam-Jena (LPJ) dynamic global vegetation model is utilized to simulate the change in potential vegetation carbon stocks for the forested locations in LandSHIFT. The LPJ data is used in collaboration with spatially explicit forest inventory data on aboveground biomass to allocate the demands for raw forest products and identify locations of deforestation. Using the previous results as an input, a methodology to simulate the spatial dynamics of forests based on wood extraction is developed within the LandSHIFT framework. The land-use allocation procedure specified in the module translates the country level demands for forest products into woody biomass requirements for forest areas, and allocates these on a five arc minute grid. In a first version, the model assumes only actual conditions through the entire study period and does not explicitly address forest age structure. Although the module is in a very preliminary stage of development, it already captures the effects of important drivers of land-use change like cropland and urban expansion. As a first plausibility test, the module performance is tested under three forest management scenarios. The module succeeds in responding to changing inputs in an expected and consistent manner. The entire methodology is applied in an exemplary scenario analysis for India. A couple of future research priorities need to be addressed, particularly the incorporation of plantation establishments; issue of age structure dynamics; as well as the implementation of a new technology change factor in the GFPM which can allow the specification of substituting raw wood products (especially fuelwood) by other non-wood products.
Resumo:
Wissenschaftsmethodische Kompetenzen sind ein Kernelement naturwissenschaftlicher Bildung und in den Bildungsstandards als Kompetenzbereich Erkenntnisgewinnung verbindlich festgeschrieben. Fokus aktueller naturwissenschaftsdidaktischer Forschung ist es, für diese normativen Standards theorie- und evidenzbasierte Kompetenzmodelle zu erarbeiten. In der vorliegenden Dissertation wird zum Kompetenzbereich Erkenntnisgewinnung für den Teilbereich der wissenschaftlichen Erkenntnismethoden geprüft, ob sich die im Kompetenzmodell wissenschaftlichen Denkens von Mayer (2007) angenommenen Teilkompetenzen Fragestellung formulieren, Hypothesen generieren, Planung einer Untersuchung sowie Deutung der Ergebnisse empirisch bestätigen lassen. Zudem wird quer- und längsschnittlich untersucht, wie sich die Kompetenz innerhalb der Sekundarstufe I entwickelt, welche Rolle Personenmerkmale spielen und ob die Unterrichtsgestaltung im Projekt Biologie im Kontext, in dessen Rahmen die Untersuchung stattfand, einen kompetenzfördernden Einfluss auf die Lernenden hat. Als Instrument wurde ein Kompetenztest mit offenen Aufgaben im Multimatrix-Design zum Thema Experimentieren im Biologieunterricht entwickelt und in Gymnasien, Realschulen und Hauptschulen in Hessen und Bayern in den Jahrgangsstufen 5-10 eingesetzt. Die Schülerantworten wurden anhand fünf a priori entwickelter Niveaustufen bewertet und mit der Item-Response-Theorie ausgewertet. Auf Basis einer Validierungsstudie (N= 1562) wurden mittels 24 Items die Schülerkompetenzen in querschnittlichen Analysen (N= 1553) sowie in einem Längsschnitt über ein Schuljahr (N= 1129) untersucht. Die Modellprüfung weist dem vierdimensionalen Modell eine bessere Passung zu als dem eindimensionalen Modell. Schwache bis mittlere Interkorrelationen und eine nachgeschaltete Faktorenanalyse lassen ebenfalls darauf schließen, dass dem vierdimensionalen Modell mit den postulierten Teilkompetenzen Fragestellung, Hypothese, Planung und Deutung gegenüber dem eindimensionalen Modell der Vorzug zu geben ist. Die querschnittlichen Analysen zeigen, dass zwischen den Jahrgangsstufen 5 6, 7 8 und 9 10 signifikante Leistungsunterschiede in der Gesamtkompetenz und den Teilkompetenzen bestehen. Dabei nehmen die zwischen den Teilkompetenzen festgestellten Leistungsunterschiede mit der Jahrgangsstufe zu. Die längsschnittlichen Analysen belegen Leistungszuwächse der Lernenden über ein Schuljahr: Die Kompetenz steigt hier in der Gesamtstichprobe und innerhalb der einzelnen Jahrgangsstufen der Sekundarstufe I signifikant an. Vergleicht man die verschiedenen Jahrgangsstufen in ihrem Kompetenzzuwachs über ein Schuljahr, so zeigt sich, dass der Kompetenzzuwachs in den Jahrgängen 5 8 stärker ausgeprägt ist als in den Jahrgängen 9 10. Auf Ebene der Teilkompetenzen liegt für die Gesamtstichprobe ein Kompetenzzuwachs über ein Schuljahr in den Teilkompetenzen Fragestellung, Hypothese und Planung vor, während in der Teilkompetenz Deutung ein geringer Kompetenzrückgang zu verzeichnen ist. Der Kompetenzgrad hängt mit der besuchten Schulform zusammen. Dabei zeigen Gymnasiasten querschnittlich untersucht bessere Leistungen als Realschüler oder Hauptschüler, wobei die Unterschiede zur Hauptschule besonders deutlich ausfallen. Kompetenzzuwächse über ein Schuljahr zeigen sich ausschließlich in Gymnasium und Realschule. Das Alter hat weder quer- noch längsschnittlich untersucht eigene Effekte auf die Kompetenzentwicklung, ebenso wenig wie das Geschlecht der Probanden. Der Einfluss der Biologienote ist im querschnittlichen Vergleich gering, im längsschnittlichen Vergleich nicht nachweisbar. Lernende, die am Projekt Biologie im Kontext teilnahmen, in dem Unterrichtsbausteine zur Erkenntnisgewinnung eingesetzt wurden, und deren Lehrkräfte verstärkt kompetenzorientiert unterrichteten, zeigen in den Klassen 9 10 größere Kompetenzzuwächse über ein Jahr als Probanden aus entsprechenden Kontrollklassen. Die Untersuchung zeigt, dass wissenschaftsmethodische Kompetenzen in der Sekundarstufe I vermittelt und weiterentwickelt werden. Der Befund der diskontinuierlichen Kompetenzentwicklung und der mit den Schuljahren zunehmenden Leistungsunterschiede zwischen den Teilkompetenzen führt als didaktische Implikation zu dem Schluss, dass weitere Maßnahmen zur Förderung wissenschaftsmethodischer Kompetenzen notwendig sind, um einen kumulativen Kompetenzaufbau gewährleisten zu können.
Resumo:
In der vorliegenden Arbeit betrachten wir die Strömung einer zähen, inkompressiblen, instationären Flüssigkeit in einem dreidimensionalen beschränkten Gebiet, deren Verhalten wird mit den instationären Gleichungen von Navier-Stokes beschrieben. Diese Gleichungen gelten für viele wichtige Strömungsprobleme, beispielsweise für Luftströmungen weit unterhalb der Schallgeschwindigkeit, für Wasserströmungen, sowie für flüssige Metalle. Im zweidimensionalen Fall konnten für die Navier-Stokes-Gleichungen bereits weitreichende Existenz-, Eindeutigkeits- und Regularitätsaussagen bewiesen werden. Im allgemeinen dreidimensionalen Fall, falls also die Daten keinen Kleinheitsannahmen unterliegen, hat man bisher lediglich Existenz und Eindeutigkeit zeitlich lokaler starker Lösungen nachgewiesen. Außerdem existieren zeitlich global so genannte schwache Lösungen, deren Regularität für den Nachweis der Eindeutigkeit im dreidimensionalen Fall allerdings nicht ausreicht. Somit bleibt die Lücke zwischen der zeitlich lokalen, eindeutigen starken Lösung und den zeitlich globalen, nicht eindeutigen schwachen Lösungen der Navier-Stokes-Gleichungen im dreidimensionalen Fall weiterhin offen. Das renommierte Clay Mathematics Institute hat dieses Problem zu einem von sieben Millenniumsproblemen erklärt und für seine Lösung eine Million US-Dollar ausgelobt. In der vorliegenden Arbeit wird ein neues Approximationsverfahren für die Navier-Stokes-Gleichungen entwickelt, das auf einer Kopplung der Eulerschen und Lagrangeschen Beschreibung zäher Strömungen beruht.
Resumo:
Bildung ist zu einem Gut geworden, das den weiteren Lebensweg für alles öffnen oder auch versperren kann. Dabei ist die Bildung schon lange nicht mehr nur eine Sache der Schulen, auch die Frühkindliche Förderung rückt immer mehr in den Vordergrund. Nicht mehr nur eine Ansammlung von Abschlüssen, sondern Fähigkeiten und Fertigkeiten werden im Mittelpunkt gerückt. Bildung soll den Menschen ermöglichen selbst zu bestimmen und sein eigenes Leben in Beruf, Familien und anderen Bereichen zu führen Deutschland hat im Bereich der Bildungspolitik besonders mit den Folgen der schlechten PISA-Ergebnisse von 2000 zu kämpfen. Die Kritik an dem längst überholten System und der mangelnden Chancengleichheit, besonders bei Schülerinnen und Schülern mit Migrationshintergrund, werden von Seiten der Eltern, Lehrer und Bildungsforscher immer lauter. Der Blick auf den Rest der Welt und dessen Bildungssysteme werden dabei immer wichtiger. Schweden hingegen gilt schon seit Jahrzehnten als Vorzeigeland in Sachen Bildung. Die schwedischen Schüler schneiden bei PISA unter anderem bei der Lesekompetenz deutlich besser ab als die deutschen Schüler. In dieser Arbeit soll der Frage nachgegangen werden, wie Schweden es schafft eine hohe Chancengleichheit in der Bildung durchzusetzen und was Deutschland von diesem Land lernen kann. Besonders die aktuelle PISA- Diskussion steht dabei im Mittelpunkt. Infolge dessen wird besonders auf die Chancengleichheit im Bezug auf die Migrationspolitik eingegangen. Welche Maßnahmen Schweden und Deutschland unternehmen, um Chancengleichheit zu garantieren wird erläutert, um abschließend einen Blick in die Zukunft zu werfen und aufzuzeigen, wie es mit dem deutschen Bildungssystem weiter gehen kann und welche Herausforderungen es gegenüber steht.
Resumo:
Kern der vorliegenden Arbeit ist die Erforschung von Methoden, Techniken und Werkzeugen zur Fehlersuche in modellbasierten Softwareentwicklungsprozessen. Hierzu wird zuerst ein von mir mitentwickelter, neuartiger und modellbasierter Softwareentwicklungsprozess, der sogenannte Fujaba Process, vorgestellt. Dieser Prozess wird von Usecase Szenarien getrieben, die durch spezielle Kollaborationsdiagramme formalisiert werden. Auch die weiteren Artefakte des Prozess bishin zur fertigen Applikation werden durch UML Diagrammarten modelliert. Es ist keine Programmierung im Quelltext nötig. Werkzeugunterstützung für den vorgestellte Prozess wird von dem Fujaba CASE Tool bereitgestellt. Große Teile der Werkzeugunterstützung für den Fujaba Process, darunter die Toolunterstützung für das Testen und Debuggen, wurden im Rahmen dieser Arbeit entwickelt. Im ersten Teil der Arbeit wird der Fujaba Process im Detail erklärt und unsere Erfahrungen mit dem Einsatz des Prozesses in Industrieprojekten sowie in der Lehre dargestellt. Der zweite Teil beschreibt die im Rahmen dieser Arbeit entwickelte Testgenerierung, die zu einem wichtigen Teil des Fujaba Process geworden ist. Hierbei werden aus den formalisierten Usecase Szenarien ausführbare Testfälle generiert. Es wird das zugrunde liegende Konzept, die konkrete technische Umsetzung und die Erfahrungen aus der Praxis mit der entwickelten Testgenerierung dargestellt. Der letzte Teil beschäftigt sich mit dem Debuggen im Fujaba Process. Es werden verschiedene im Rahmen dieser Arbeit entwickelte Konzepte und Techniken vorgestellt, die die Fehlersuche während der Applikationsentwicklung vereinfachen. Hierbei wurde darauf geachtet, dass das Debuggen, wie alle anderen Schritte im Fujaba Process, ausschließlich auf Modellebene passiert. Unter anderem werden Techniken zur schrittweisen Ausführung von Modellen, ein Objekt Browser und ein Debugger, der die rückwärtige Ausführung von Programmen erlaubt (back-in-time debugging), vorgestellt. Alle beschriebenen Konzepte wurden in dieser Arbeit als Plugins für die Eclipse Version von Fujaba, Fujaba4Eclipse, implementiert und erprobt. Bei der Implementierung der Plugins wurde auf eine enge Integration mit Fujaba zum einen und mit Eclipse auf der anderen Seite geachtet. Zusammenfassend wird also ein Entwicklungsprozess vorgestellt, die Möglichkeit in diesem mit automatischen Tests Fehler zu identifizieren und diese Fehler dann mittels spezieller Debuggingtechniken im Programm zu lokalisieren und schließlich zu beheben. Dabei läuft der komplette Prozess auf Modellebene ab. Für die Test- und Debuggingtechniken wurden in dieser Arbeit Plugins für Fujaba4Eclipse entwickelt, die den Entwickler bestmöglich bei der zugehörigen Tätigkeit unterstützen.
Resumo:
In der algebraischen Kryptoanalyse werden moderne Kryptosysteme als polynomielle, nichtlineare Gleichungssysteme dargestellt. Das Lösen solcher Gleichungssysteme ist NP-hart. Es gibt also keinen Algorithmus, der in polynomieller Zeit ein beliebiges nichtlineares Gleichungssystem löst. Dennoch kann man aus modernen Kryptosystemen Gleichungssysteme mit viel Struktur generieren. So sind diese Gleichungssysteme bei geeigneter Modellierung quadratisch und dünn besetzt, damit nicht beliebig. Dafür gibt es spezielle Algorithmen, die eine Lösung solcher Gleichungssysteme finden. Ein Beispiel dafür ist der ElimLin-Algorithmus, der mit Hilfe von linearen Gleichungen das Gleichungssystem iterativ vereinfacht. In der Dissertation wird auf Basis dieses Algorithmus ein neuer Solver für quadratische, dünn besetzte Gleichungssysteme vorgestellt und damit zwei symmetrische Kryptosysteme angegriffen. Dabei sind die Techniken zur Modellierung der Chiffren von entscheidender Bedeutung, so das neue Techniken entwickelt werden, um Kryptosysteme darzustellen. Die Idee für das Modell kommt von Cube-Angriffen. Diese Angriffe sind besonders wirksam gegen Stromchiffren. In der Arbeit werden unterschiedliche Varianten klassifiziert und mögliche Erweiterungen vorgestellt. Das entstandene Modell hingegen, lässt sich auch erfolgreich auf Blockchiffren und auch auf andere Szenarien erweitern. Bei diesen Änderungen muss das Modell nur geringfügig geändert werden.
Resumo:
Det satsas allt mer på mobiltelefontjänster idag och snabbt växande är sådana tjänster som involverar SMS. Högskolans Bibliotek på Campus Borlänge har ett intresse av att kunna erbjuda sina låntagare en påminnelsetjänst för försenade eller reserverade böcker.Vi fick i uppgift att under vårt examensarbete ta fram en prototyp av en SMS-tjänst åt biblioteket. Den skall påminna låntagare om att en bok är försenad och/eller att en reserverad bok har inkommit. Denna tjänst skall hjälpa biblioteket att nå ut med informationen till låntagaren via ett SMS till mobiltelefonen.Denna rapport är en undersökning av vilka delkomponenter i David Siegels modell som anses lämpade respektive inte lämpade för utveckling av ny funktionalitet som innefattar SMS till en befintlig webbplats. En förklaring finns varför vissa är lämpade och andra inte.I rapporten förklaras också att SMS-funktionen är en IT-tjänst, närmare bestämt en SMS-tjänst. Tjänsten utvecklas utifrån David Siegels modell och genom en prövning mot empirin har vi kommit fram till vilka delkomponenter som är lämpliga respektive inte lämpliga för utveckling av en SMS- tjänst.Vid utvecklingen av denna SMS-tjänst fungerade Siegels modell tillfredsställande. Om man använder de dokument vi anser vara viktiga för denna typ av utveckling kan vi rekommendera denna modell för framtida tilläggstjänster som innefattar SMS.
Resumo:
Resandet ökar i dagens samhälle och människor söker nya upplevelser och utmaningar. Konkurrensen om besökarna är stor. Med hjälp av den nya informations- och kommunikationstekniken kan en elektronisk rese- och upplevelseguide utgöra ett alternativ i syfte att attrahera besökarna och få dem att stanna längre. Genom tekniken kan intressanta berättelser presenteras med både ljud, bild och video, s k multimedieteknik. För att besökaren ska kunna vara rörlig och samtidigt ta emot information krävs en mobil utrustning som exempelvis en handdator.Denna magisteruppsats i informatik ingår i ett projekt, uppdelat i tre steg. Projektet, som drivs på uppdrag av Vision Vimmerby och Högskolan Dalarna, har som mål att ta fram en elektronisk rese- och upplevelseguide, avsedd för vuxna bilburna besökare i Astrid Lindgrens landskap. Den elektroniska guiden ska presenteras via en handdator som besökare kan hyra vid Turistbyrån i Vimmerby.Målet för uppsatsen, som utgör första fasen av dessa tre, är att redogöra för en konceptuell generell modell för en elektronisk rese- och upplevelseguide. Grundtanken är att modellen lätt ska kunna appliceras på vilket resmål som helst. Förutsättningar för det skapas genom att använda befintliga nationella databaser.Vi har strävat efter att den konceptuella modellen ska vara komponentbaserad så att andra datakällor kan väljas utan att konceptet faller. Vidare har vi analyserat om VITSA-projektets tekniska grundplattform, som innehåller funktionalitet som är anpassad för den här typen av tjänster, är lämplig att använda.I arbetet har vi använt oss av befintliga teorier om mobilitet, tjänster och systemarkitekturer. Parallellt med att de befintliga teorierna har använts, har en strukturell modell för IT-tjänster vidareutvecklats. Vår tanke är att den vidareutvecklade modellen ska inspirera till användning och eventuellt användas som stöd vid fortsatt forskning om IT-tjänster.
Resumo:
SSAB Tunnplåt har i Borlänge en produktionsanläggning innehållande varmvalsverk, kallvalsverk, normaliseringsanläggning, betsträckor, spaltsträckor, klippsträckor och ytbeläggningslinjer m.m. Genom hela varmvalsningsprocessen bildas oxid på den varma stålytan s.k. glödskal. Under pågående processer avlägsnas glödskalet för att ej påverka slutproduktens ytfinish och materialegenskaper. Fastän ytan spolas ren från glödskal före varje valsning händer det att det finns glödskalsproblem i form av grov yta på de färdiga banden. Anledningen till detta är att det hinner bildas glödskal i början av färdigverket efter att den sista glödskalsrensningen gjorts. Denna glödskalsbildning beror på en rad olika faktorer och troligen kombinationer av olika faktorer. En nyligen installerad ytsyningsanläggning detekterar återbildat (tertiärt) glödskal, detta presenteras som area fraktion av defekter per band. Detta mått används som resultat parameter när man med hjälp av ett verktyg för multivariatdataanalys analyserar ett stort antal valsningsparametrar som kan ha påverkan på det återbildade glödskalet. Analysen utförs med ett verktyg för multivariatdataanalys som heter Simca. Resultatet från analysen skall ses som ett hjälpmedel för att tala om inom vilka gränser valsverket skall köras för att undvika problemen med återbildat glödskal.