234 resultados para leistenhernienreparation, langzeitergebnisse, transperitonealer Zugang, TAPP
Resumo:
Dans les crypto-monnaies telles Bitcoin, l’anonymité des utilisateurs peut être compromise de plusieurs façons. Dans ce mémoire, nous effectuons une revue de littérature et une classification des différents protocoles existants pour anonymiser les usagers et analysons leur efficacité. S’appuyant sur certains critères désirables dans de tels protocoles, nous proposons un modèle de mixeur synchrone décentralisé. Nous avons ciblé deux approches qui s’inscrivent dans ce modèle, le plan de transaction et le réseau de transactions, le second étant une contribution originale de ce mémoire. Nous expliquons son fonctionnement puis analysons son efficacité dans le contexte actuel d’utilisation de Bitcoin
Resumo:
Ce mémoire cherche à créer un dialogue entre les domaines de recherche du livre d’images et celui de recherches sur la paix afin d’exposer les différentes formes et fonctions des livres d’images pour la paix. Questionnant le pourquoi et le comment de ces œuvres, ce travail expose la façon et la manière avec lesquelles ces dernières contribuent à « l’alphabétisation de la paix » auprès des enfants et comment elles les motivent à agir en fonction de la paix. Les livres d’images constituent un média idéal pour éduquer les enfants à la paix. Très tôt dans le processus de socialisation, ces livres sauront transmettre et inculquer des concepts et aptitudes clefs et éventuellement ancrer dans l’esprit de l’enfant les valeurs d’une culture de la paix. Au centre de cette recherche est exposé le thème de la paix tel que traité à travers les œuvres de l’écrivaine autrichienne Mira Lobe (1913–1995). Par l’analyse de sept livres d’images pour la paix, ce travail explique quelles stratégies et méthodes littéraires, pédagogiques, sémiotiques, narratives et esthétiques sont employées par l’auteure pour réussir à bien présenter et à traiter de sujets politiques complexes et d’enjeux sociaux et humains parfois délicats et tabous à un jeune auditoire. Il montre également par quels moyens ces œuvres font naître l’empathie, une aversion pour la violence et comment elles pourront finalement amener les enfants à opter pour l’acte de la paix. En joignant et en mettant en relation les résultats et conclusions des deux champs de recherche observés dans ce travail, soit l’éducation à la paix et la recherche sur des livres d’images, il devient possible de démontrer comment Mira Lobe apporte, avec ses livres d’images pour la paix, une contribution universelle et intemporelle à l’éducation à la paix.
Resumo:
Dans l'apprentissage machine, la classification est le processus d’assigner une nouvelle observation à une certaine catégorie. Les classifieurs qui mettent en œuvre des algorithmes de classification ont été largement étudié au cours des dernières décennies. Les classifieurs traditionnels sont basés sur des algorithmes tels que le SVM et les réseaux de neurones, et sont généralement exécutés par des logiciels sur CPUs qui fait que le système souffre d’un manque de performance et d’une forte consommation d'énergie. Bien que les GPUs puissent être utilisés pour accélérer le calcul de certains classifieurs, leur grande consommation de puissance empêche la technologie d'être mise en œuvre sur des appareils portables tels que les systèmes embarqués. Pour rendre le système de classification plus léger, les classifieurs devraient être capable de fonctionner sur un système matériel plus compact au lieu d'un groupe de CPUs ou GPUs, et les classifieurs eux-mêmes devraient être optimisés pour ce matériel. Dans ce mémoire, nous explorons la mise en œuvre d'un classifieur novateur sur une plate-forme matérielle à base de FPGA. Le classifieur, conçu par Alain Tapp (Université de Montréal), est basé sur une grande quantité de tables de recherche qui forment des circuits arborescents qui effectuent les tâches de classification. Le FPGA semble être un élément fait sur mesure pour mettre en œuvre ce classifieur avec ses riches ressources de tables de recherche et l'architecture à parallélisme élevé. Notre travail montre que les FPGAs peuvent implémenter plusieurs classifieurs et faire les classification sur des images haute définition à une vitesse très élevée.
Resumo:
La théorie de l'information quantique s'est développée à une vitesse fulgurante au cours des vingt dernières années, avec des analogues et extensions des théorèmes de codage de source et de codage sur canal bruité pour la communication unidirectionnelle. Pour la communication interactive, un analogue quantique de la complexité de la communication a été développé, pour lequel les protocoles quantiques peuvent performer exponentiellement mieux que les meilleurs protocoles classiques pour certaines tâches classiques. Cependant, l'information quantique est beaucoup plus sensible au bruit que l'information classique. Il est donc impératif d'utiliser les ressources quantiques à leur plein potentiel. Dans cette thèse, nous étudions les protocoles quantiques interactifs du point de vue de la théorie de l'information et étudions les analogues du codage de source et du codage sur canal bruité. Le cadre considéré est celui de la complexité de la communication: Alice et Bob veulent faire un calcul quantique biparti tout en minimisant la quantité de communication échangée, sans égard au coût des calculs locaux. Nos résultats sont séparés en trois chapitres distincts, qui sont organisés de sorte à ce que chacun puisse être lu indépendamment. Étant donné le rôle central qu'elle occupe dans le contexte de la compression interactive, un chapitre est dédié à l'étude de la tâche de la redistribution d'état quantique. Nous prouvons des bornes inférieures sur les coûts de communication nécessaires dans un contexte interactif. Nous prouvons également des bornes atteignables avec un seul message, dans un contexte d'usage unique. Dans un chapitre subséquent, nous définissons une nouvelle notion de complexité de l'information quantique. Celle-ci caractérise la quantité d'information, plutôt que de communication, qu'Alice et Bob doivent échanger pour calculer une tâche bipartie. Nous prouvons beaucoup de propriétés structurelles pour cette quantité, et nous lui donnons une interprétation opérationnelle en tant que complexité de la communication quantique amortie. Dans le cas particulier d'entrées classiques, nous donnons une autre caractérisation permettant de quantifier le coût encouru par un protocole quantique qui oublie de l'information classique. Deux applications sont présentées: le premier résultat général de somme directe pour la complexité de la communication quantique à plus d'une ronde, ainsi qu'une borne optimale, à un terme polylogarithmique près, pour la complexité de la communication quantique avec un nombre de rondes limité pour la fonction « ensembles disjoints ». Dans un chapitre final, nous initions l'étude de la capacité interactive quantique pour les canaux bruités. Étant donné que les techniques pour distribuer de l'intrication sont bien étudiées, nous nous concentrons sur un modèle avec intrication préalable parfaite et communication classique bruitée. Nous démontrons que dans le cadre plus ardu des erreurs adversarielles, nous pouvons tolérer un taux d'erreur maximal de une demie moins epsilon, avec epsilon plus grand que zéro arbitrairement petit, et ce avec un taux de communication positif. Il s'ensuit que les canaux avec bruit aléatoire ayant une capacité positive pour la transmission unidirectionnelle ont une capacité positive pour la communication interactive quantique. Nous concluons avec une discussion de nos résultats et des directions futures pour ce programme de recherche sur une théorie de l'information quantique interactive.
Resumo:
A stand-alone power system is an autonomous system that supplies electricity to the user load without being connected to the electric grid. This kind of decentralized system is frequently located in remote and inaccessible areas. It is essential for about one third of the world population which are living in developed or isolated regions and have no access to an electricity utility grid. The most people live in remote and rural areas, with low population density, lacking even the basic infrastructure. The utility grid extension to these locations is not a cost effective option and sometimes technically not feasible. The purpose of this thesis is the modelling and simulation of a stand-alone hybrid power system, referred to as “hydrogen Photovoltaic-Fuel Cell (PVFC) hybrid system”. It couples a photovoltaic generator (PV), an alkaline water electrolyser, a storage gas tank, a proton exchange membrane fuel cell (PEMFC), and power conditioning units (PCU) to give different system topologies. The system is intended to be an environmentally friendly solution since it tries maximising the use of a renewable energy source. Electricity is produced by a PV generator to meet the requirements of a user load. Whenever there is enough solar radiation, the user load can be powered totally by the PV electricity. During periods of low solar radiation, auxiliary electricity is required. An alkaline high pressure water electrolyser is powered by the excess energy from the PV generator to produce hydrogen and oxygen at a pressure of maximum 30bar. Gases are stored without compression for short- (hourly or daily) and long- (seasonal) term. A proton exchange membrane (PEM) fuel cell is used to keep the system’s reliability at the same level as for the conventional system while decreasing the environmental impact of the whole system. The PEM fuel cell consumes gases which are produced by an electrolyser to meet the user load demand when the PV generator energy is deficient, so that it works as an auxiliary generator. Power conditioning units are appropriate for the conversion and dispatch the energy between the components of the system. No batteries are used in this system since they represent the weakest when used in PV systems due to their need for sophisticated control and their short lifetime. The model library, ISET Alternative Power Library (ISET-APL), is designed by the Institute of Solar Energy supply Technology (ISET) and used for the simulation of the hybrid system. The physical, analytical and/or empirical equations of each component are programmed and implemented separately in this library for the simulation software program Simplorer by C++ language. The model parameters are derived from manufacturer’s performance data sheets or measurements obtained from literature. The identification and validation of the major hydrogen PVFC hybrid system component models are evaluated according to the measured data of the components, from the manufacturer’s data sheet or from actual system operation. Then, the overall system is simulated, at intervals of one hour each, by using solar radiation as the primary energy input and hydrogen as energy storage for one year operation. A comparison between different topologies, such as DC or AC coupled systems, is carried out on the basis of energy point of view at two locations with different geographical latitudes, in Kassel/Germany (Europe) and in Cairo/Egypt (North Africa). The main conclusion in this work is that the simulation method of the system study under different conditions could successfully be used to give good visualization and comparison between those topologies for the overall performance of the system. The operational performance of the system is not only depending on component efficiency but also on system design and consumption behaviour. The worst case of this system is the low efficiency of the storage subsystem made of the electrolyser, the gas storage tank, and the fuel cell as it is around 25-34% at Cairo and 29-37% at Kassel. Therefore, the research for this system should be concentrated in the subsystem components development especially the fuel cell.
Resumo:
In der vorliegenden Arbeit wird ein Unterrichtskonzept für die gymnasiale Oberstufe beschrieben, das anhand der Polarisationseigenschaft des Lichts von der Beobachtung ausgehend einen Zugang zur Quantenphysik ermöglicht. Die Unterrichtsinhalte bauen so aufeinander auf, dass ein "harter Bruch" zwischen der klassischen und der quantenphysikalischen Beschreibung von Licht vermieden wird. Das methodische Vorgehen des Unterrichtskonzeptes führt vom Phänomen ausgehend zu quantitativen Experimenten hin zu einer Einführung in quantenphysikalische Begriffe und Prinzipien. Dabei bildet der elektrische Feldvektor die Verknüpfung zwischen der klassischen und der quantenphysi-kalischen Beschreibung der Polarisationsexperimente, in dem er zunächst die Polarisationsexperimente beschreibt und im weiteren Verlauf des Unterrichtsganges als Wahrscheinlichkeitsamplitude gedeutet wird. Die Polarisation von Licht wird zu Beginn des Unterrichtsganges im Rahmen eines fächerübergreifenden Kontextes eingeführt, wobei die Navigation der Insekten nach dem polarisierten Himmelslicht als Einstieg dient. Die Erzeugung und die Eigen-schaften von polarisiertem Licht werden anhand von einfachen qualitativen Schüler- und Demonstrationsexperimenten mit Polarisationsfolien erarbeitet. Das Polarisationsphänomen der Haidinger-Büschel, das bei der Beobachtung von polarisiertem Licht wahrgenommen werden kann, ermöglicht eine Anbindung an das eigene Erleben der Schülerinnen und Schüler. Zur Erklärung dieser Experimente auf der Modellebene wird der elektrische Feldvektor und dessen Komponentenzerlegung benutzt. Im weiteren Verlauf des Unterrichtsganges wird die Komponentenzerlegung des elektrischen Feldvektors für eine quantitative Beschreibung der Polarisationsexperimente wieder aufgegriffen. In Experimenten mit Polarisationsfiltern wird durch Intensitätsmessungen das Malussche Gesetz und der quadratische Zusammenhang zwischen Intensität und elektrischem Feldvektor erarbeitet. Als Abschluss der klassischen Polarisationsexperimente wird das Verhalten von polarisiertem Licht bei Überlagerung in einem Michelson-Interferometer untersucht. Das in Abhängigkeit der Polarisationsrichtungen entstehende Interferenzmuster wird wiederum mit Hilfe der Komponentenzerlegung des elektrischen Feldvektors beschrieben und führt zum Superpositionsprinzip der elektrischen Feldvektoren. Beim Übergang zur Quantenphysik werden die bereits durchgeführten Polarisationsexperimente als Gedankenexperimente in der Photonenvorstellung gedeutet. Zur Beschreibung der Polarisation von Photonen wird der Begriff des Zustandes eingeführt, der durch die Wechselwirkung der Photonen mit dem Polarisationsfilter erzeugt wird. Das Malussche Gesetz wird in der Teilchenvorstellung wieder aufgegriffen und führt mit Hilfe der statistischen Deutung zum Begriff der Wahrscheinlichkeit. Bei der Beschreibung von Interferenzexperimenten mit einzelnen Photonen wird die Notwendigkeit eines Analogons zum elektrischen Feldvektor deutlich. Diese Betrachtungen führen zum Begriff der Wahrscheinlichkeitsamplitude und zum Superpositionsprinzip der Wahrscheinlichkeitsamplituden. Zum Abschluss des Unterrichtsganges wird anhand des Lokalisationsproblems einzelner Photonen das Fundamentalprinzip der Quantenphysik erarbeitet.
Resumo:
Die vorliegende Arbeit besteht aus einem theoretischen Teil, der Filmrezeption aus weiblicher Sicht zum Gegenstand hat und einem praktischen Teil, der 8 Filme über die Methode von Übertragung und Gegenübertragung erschließt. Es wird die These vertreten, daß Film nicht nur gesehen, sondern auch verzehrt und verschlungen wird. Das Konzept der Lewinschen Traumleinwand als visueller Erinnerungsspur und die Annahme der taktilen, primären Wahrnehmung, die René Spitz in der Mundhöhle situiert, die er als Urhöhle bezeichnet, dient der Darstellung dieses doppelten Wahrnehmungsansatzes. Das Konzept Daniel Sterns von der „amodalen Wahrnehmung“ kann den Transfer von visueller zu akustischer Rezeption von Film erklären. Es wird die Annahme vertreten, daß es zu einer Regression auf die Stufe der Wiederbelebung einer halluzinatorischen Einheit mit einer frühen prägenitalen Mutter kommt, die sich in multiplen primären Identifizierungen der Zuschauerin niederschlägt. Es wird ein weiblicher Blick auf den Film postuliert. Die Autorin geht davon aus, daß diese Regression, aufgrund spezifischer weiblicher Entwicklung, Frauen leichter fällt als Männern. Die Arbeit stellt die ursprünglich von der feministischen Filmtheorie vertretene Auffassung von der ausschließlichen Auslösung von phallischen Identifizierungen aufgrund der Annahme der Verschweißung des männlichen Zuschauerblicks mit der männlichen Filmkamera in Frage. Die Filminterpretationen verdanken sich einem intersubjektiven methodischen Zugang. Der Film wird zu einem Partner, mit dem die Autorin interagiert; er hat die Qualität eines Übergangsobjekts. Im Prozess des Erlebens und des Verstehens bewegt sich Mechthild Zeul in einem „intermediären Raum“ (Winnicott), in dem sich psychische Realität mit äußerer Realität mischen. Theoretisch wird dieser Raum in Anlehnung an René Spitz als „Urhöhle“ bezeichnet.
Resumo:
Das Grünbuch 2006 der Europäischen Kommission "Eine Europäische Strategie für nachhaltige, wettbewerbsfähige und sichere Energie" unterstreicht, dass Europa in ein neues Energie-Zeitalter eingetreten ist. Die vorrangigen Ziele europäischer Energiepolitik müssen Nachhaltigkeit, Wettbewerbsfähigkeit und Versorgungssicherheit sein, wobei sie eine zusammenhängende und logische Menge von Taktiken und Maßnahmen benötigt, um diese Ziele zu erreichen. Die Strommärkte und Verbundnetze Europas bilden das Kernstück unseres Energiesystems und müssen sich weiterentwickeln, um den neuen Anforderungen zu entsprechen. Die europäischen Stromnetze haben die lebenswichtigen Verbindungen zwischen Stromproduzenten und Verbrauchern mit großem Erfolg seit vielen Jahrzehnten gesichert. Die grundlegende Struktur dieser Netze ist entwickelt worden, um die Bedürfnisse großer, überwiegend auf Kohle aufgebauten Herstellungstechnologien zu befriedigen, die sich entfernt von den Verbraucherzentren befinden. Die Energieprobleme, denen Europa jetzt gegenübersteht, ändern die Stromerzeugungslandschaft in zwei Gesichtspunkten: die Notwendigkeit für saubere Kraftwerkstechnologien verbunden mit erheblich verbesserten Wirkungsgraden auf der Verbraucherseite wird es Kunden ermöglichen, mit den Netzen viel interaktiver zu arbeiten; andererseits müssen die zukünftigen europaweiten Stromnetze allen Verbrauchern eine höchst zuverlässige, preiswerte Energiezufuhr bereitstellen, wobei sowohl die Nutzung von großen zentralisierten Kraftwerken als auch kleineren lokalen Energiequellen überall in Europa ausgeschöpft werden müssen. In diesem Zusammenhang wird darauf hingewiesen, dass die Informationen, die in dieser Arbeit dargestellt werden, auf aktuellen Fragen mit großem Einfluss auf die gegenwärtigen technischen und wirtschaftspolitischen Diskussionen basieren. Der Autor hat während der letzten Jahre viele der hier vorgestellten Schlussfolgerungen und Empfehlungen mit Vertretern der Kraftwerksindustrie, Betreibern von Stromnetzen und Versorgungsbetrieben, Forschungsgremien und den Regulierungsstellen diskutiert. Die folgenden Absätze fassen die Hauptergebnisse zusammen: Diese Arbeit definiert das neue Konzept, das auf mehr verbraucherorientierten Netzen basiert, und untersucht die Notwendigkeiten sowie die Vorteile und die Hindernisse für den Übergang auf ein mögliches neues Modell für Europa: die intelligenten Stromnetze basierend auf starker Integration erneuerbarer Quellen und lokalen Kleinkraftwerken. Das neue Modell wird als eine grundlegende Änderung dargestellt, die sich deutlich auf Netzentwurf und -steuerung auswirken wird. Sie fordert ein europäisches Stromnetz mit den folgenden Merkmalen: – Flexibel: es erfüllt die Bedürfnisse der Kunden, indem es auf Änderungen und neue Forderungen eingehen kann – Zugänglich: es gestattet den Verbindungszugang aller Netzbenutzer besonders für erneuerbare Energiequellen und lokale Stromerzeugung mit hohem Wirkungsgrad sowie ohne oder mit niedrigen Kohlendioxidemissionen – Zuverlässig: es verbessert und garantiert die Sicherheit und Qualität der Versorgung mit den Forderungen des digitalen Zeitalters mit Reaktionsmöglichkeiten gegen Gefahren und Unsicherheiten – Wirtschaftlich: es garantiert höchste Wirtschaftlichkeit durch Innovation, effizientes Energiemanagement und liefert „gleiche Ausgangsbedingungen“ für Wettbewerb und Regulierung. Es beinhaltet die neuesten Technologien, um Erfolg zu gewährleisten, während es die Flexibilität behält, sich an weitere Entwicklungen anzupassen und fordert daher ein zuversichtliches Programm für Forschung, Entwicklung und Demonstration, das einen Kurs im Hinblick auf ein Stromversorgungsnetz entwirft, welches die Bedürfnisse der Zukunft Europas befriedigt: – Netztechnologien, die die Stromübertragung verbessern und Energieverluste verringern, werden die Effizienz der Versorgung erhöhen, während neue Leistungselektronik die Versorgungsqualität verbessern wird. Es wird ein Werkzeugkasten erprobter technischer Lösungen geschaffen werden, der schnell und wirtschaftlich eingesetzt werden kann, so dass bestehende Netze Stromeinleitungen von allen Energieressourcen aufnehmen können. – Fortschritte bei Simulationsprogrammen wird die Einführung innovativer Technologien in die praktische Anwendung zum Vorteil sowohl der Kunden als auch der Versorger stark unterstützen. Sie werden das erfolgreiche Anpassen neuer und alter Ausführungen der Netzkomponenten gewährleisten, um die Funktion von Automatisierungs- und Regelungsanordnungen zu garantieren. – Harmonisierung der ordnungspolitischen und kommerziellen Rahmen in Europa, um grenzüberschreitenden Handel von sowohl Energie als auch Netzdienstleistungen zu erleichtern; damit muss eine Vielzahl von Einsatzsituationen gewährleistet werden. Gemeinsame technische Normen und Protokolle müssen eingeführt werden, um offenen Zugang zu gewährleisten und den Einsatz der Ausrüstung eines jeden Herstellers zu ermöglichen. – Entwicklungen in Nachrichtentechnik, Mess- und Handelssystemen werden auf allen Ebenen neue Möglichkeiten eröffnen, auf Grund von Signalen des Marktes frühzeitig technische und kommerzielle Wirkungsgrade zu verbessern. Es wird Unternehmen ermöglichen, innovative Dienstvereinbarungen zu benutzen, um ihre Effizienz zu verbessern und ihre Angebote an Kunden zu vergrößern. Schließlich muss betont werden, dass für einen erfolgreichen Übergang zu einem zukünftigen nachhaltigen Energiesystem alle relevanten Beteiligten involviert werden müssen.
Resumo:
Der in dieser Arbeit wesentliche Fokus ist die Realisierung eines anwendungsbezogenen Konzeptes zur Förderung stochastischer Kompetenzen im Mathematikunterricht, die sich auf Entscheiden und Urteilen unter Unsicherheit beziehen. Von zentraler Bedeutung ist hierbei die alltagsrelevante Kompetenz, mit Problemen um bedingte Wahrscheinlichkeiten und Anwendungen des Satzes von Bayes umgehen zu können, die i.w.S. mit „Bayesianischem Denken“ bezeichnet wird. Die historische und theoretische Grundlage der Arbeit sind kognitionspsychologische Erkenntnisse zum menschlichen Urteilen unter Unsicherheit: Intuitive Formen probabilistischen Denkens basieren auf Häufigkeitsanschauungen (z.B. Piaget & Inhelder, 1975; Gigerenzer, 1991). Meine didaktischen Analysen ergaben aber, dass der Umgang mit Unsicherheit im üblichen Stochastikunterricht nach einer häufigkeitsbasierten Einführung des Wahrscheinlichkeitsbegriffes (der ja bekanntlich vielfältige Interpretationsmöglichkeiten aufweist) nur noch auf Basis der numerischen Formate für Wahrscheinlichkeiten (z.B. Prozentwerte, Dezimalbrüche) und entsprechenden Regeln gelehrt wird. Damit werden m.E. grundlegende Intuitionen von Schülern leider nur unzureichend beachtet. Das in dieser Arbeit detailliert entwickelte „Didaktische Konzept der natürlichen Häufigkeiten“ schlägt somit die konsequente Modellierung probabilistischer Probleme mit Häufigkeitsrepräsentationen vor. Auf Grundlage empirischer Laborbefunde und didaktischer Analysen wurde im Rahmen der Arbeit eine Unterrichtsreihe „Authentisches Bewerten und Urteilen unter Unsicherheit“ für die Sekundarstufe I entwickelt (Wassner, Biehler, Schweynoch & Martignon, 2004 auch als Band 5 der KaDiSto-Reihe veröffentlicht). Zum einen erfolgte eine Umsetzung des „Didaktischen Konzeptes der natürlichen Häufigkeiten“, zum anderen wurde ein Zugang mit hohem Realitätsbezug verwirklicht, in dem so genannte „allgemeinere Bildungsaspekte“ wie Lebensvorbereitung, eigenständige Problemlösefähigkeit, kritischer Vernunftgebrauch, Sinnstiftung, motivationale Faktoren etc. wesentliche Beachtung fanden. Die Reihe wurde auch im Rahmen dieser Arbeit in der Sekundarstufe I (fünf 9. Klassen, Gymnasium) implementiert und daraufhin der Unterrichtsgang detailliert bewertet und analysiert. Diese Arbeit stellt die Dissertation des Verfassers dar, die an der Universität Kassel von Rolf Biehler betreut wurde. Sie ist identisch mit der Erstveröffentlichung 2004 im Franzbecker Verlag, Hildesheim, der der elektronischen Veröffentlichung im Rahmen von KaDiSto zugestimmt hat.
Resumo:
In der Arbeit wird ein Ansatz für die destabilisierende Wirkung von adaptiven Hedge-Fonds Aktivitäten diskutiert und mit einer konkreten Implementation für den USD-JPY Carry Trade illustriert. Die sich dabei entwickelnde Marktdynamik wird systemtheoretisch durch den Prozess einer kollektiven Selbstorganisation erklärt. Die Neuerung des vorgestellten Ansatzes liegt darin, dass durch die Kombination von Fallstudien-/Simulations- und systemtheoretischer Methodik ein besserer Zugang zur Erklärung der Entstehung exzessiver Preisentwicklungen in Währungsmärkten gefunden werden konnte, als bisher mit traditionellen Ansätzen möglich war. In der Dissertation wird gezeigt, dass Hedge-Fonds nicht die alleinige Schuld für das Entstehen von Finanzmarktinstabilitäten trifft.
Resumo:
Die Technologie dienstorientierter Architekturen (Service-oriented Architectures, kurz SOA) weckt große Visionen auf Seiten der Industrie wie auch der Forschung. Sie hat sich als derzeit ideale Lösung für Umgebungen, in denen sich die Anforderungen an die IT-Bedürfnisse rapide ändern, erwiesen. Heutige IT-Systeme müssen Managementaufgaben wie Softwareinstallation, -anpassung oder -austausch erlauben, ohne dabei den laufenden Betrieb wesentlich zu stören. Die dafür nötige Flexibilität bieten dienstorientierte Architekturen, in denen Softwarekomponenten in Form von Diensten zur Verfügung stehen. Ein Dienst bietet über seine Schnittstelle lokalen wie entfernten Applikationen einen Zugang zu seiner Funktionalität. Wir betrachten im Folgenden nur solche dienstorientierte Architekturen, in denen Dienste zur Laufzeit dynamisch entdeckt, gebunden, komponiert, verhandelt und adaptiert werden können. Eine Applikation kann mit unterschiedlichen Diensten arbeiten, wenn beispielsweise Dienste ausfallen oder ein neuer Dienst die Anforderungen der Applikation besser erfüllt. Eine unserer Grundvoraussetzungen lautet somit, dass sowohl das Dienstangebot als auch die Nachfrageseite variabel sind. Dienstorientierte Architekturen haben besonderes Gewicht in der Implementierung von Geschäftsprozessen. Im Rahmen des Paradigmas Enterprise Integration Architecture werden einzelne Arbeitsschritte als Dienste implementiert und ein Geschäftsprozess als Workflow von Diensten ausgeführt. Eine solche Dienstkomposition wird auch Orchestration genannt. Insbesondere für die so genannte B2B-Integration (Business-to-Business) sind Dienste das probate Mittel, um die Kommunikation über die Unternehmensgrenzen hinaus zu unterstützen. Dienste werden hier in der Regel als Web Services realisiert, welche vermöge BPEL4WS orchestriert werden. Der XML-basierte Nachrichtenverkehr und das http-Protokoll sorgen für eine Verträglichkeit zwischen heterogenen Systemen und eine Transparenz des Nachrichtenverkehrs. Anbieter dieser Dienste versprechen sich einen hohen Nutzen durch ihre öffentlichen Dienste. Zum einen hofft man auf eine vermehrte Einbindung ihrer Dienste in Softwareprozesse. Zum anderen setzt man auf das Entwickeln neuer Software auf Basis ihrer Dienste. In der Zukunft werden hunderte solcher Dienste verfügbar sein und es wird schwer für den Entwickler passende Dienstangebote zu finden. Das Projekt ADDO hat in diesem Umfeld wichtige Ergebnisse erzielt. Im Laufe des Projektes wurde erreicht, dass der Einsatz semantischer Spezifikationen es ermöglicht, Dienste sowohl im Hinblick auf ihre funktionalen als auch ihre nicht-funktionalen Eigenschaften, insbesondere die Dienstgüte, automatisch zu sichten und an Dienstaggregate zu binden [15]. Dazu wurden Ontologie-Schemata [10, 16], Abgleichalgorithmen [16, 9] und Werkzeuge entwickelt und als Framework implementiert [16]. Der in diesem Rahmen entwickelte Abgleichalgorithmus für Dienstgüte beherrscht die automatische Aushandlung von Verträgen für die Dienstnutzung, um etwa kostenpflichtige Dienste zur Dienstnutzung einzubinden. ADDO liefert einen Ansatz, Schablonen für Dienstaggregate in BPEL4WS zu erstellen, die zur Laufzeit automatisch verwaltet werden. Das Vorgehen konnte seine Effektivität beim internationalen Wettbewerb Web Service Challenge 2006 in San Francisco unter Beweis stellen: Der für ADDO entwickelte Algorithmus zur semantischen Dienstkomposition erreichte den ersten Platz. Der Algorithmus erlaubt es, unter einer sehr großenMenge angebotener Dienste eine geeignete Auswahl zu treffen, diese Dienste zu Dienstaggregaten zusammenzufassen und damit die Funktionalität eines vorgegebenen gesuchten Dienstes zu leisten. Weitere Ergebnisse des Projektes ADDO wurden auf internationalen Workshops und Konferenzen veröffentlicht. [12, 11]
Resumo:
Im Rahmen der Arbeit wird ein Unterrichtskonzept für den Leistungskurs Stochastik in der gymnasialen Oberstufe vorgestellt, bei welchem Computersimulationen und Lernumgebungen mit der Software FATHOM über das gesamte Kurshalbjahr unterstützend eingesetzt werden. Der experimentelle Zugang zur Wahrscheinlichkeit ergänzt den theoretischen Zugang und soll im Sinn eines handlungsorientierten Lernens die Motivation der Schülerinnen und Schüler fördern. Das Unterrichtskonzept enthält drei Schwerpunktsetzungen: • Einstieg in den Stochastikkurs mit Simulationen • Binomialverteilung • Das Testen von Hypothesen Die Arbeit konzentriert sich in der Darstellung und der Analyse auf den Einstieg in den Stochastikkurs mit Simulationen und computergestützten Lernumgebungen. Der Erwerb der Simulations- und Fathomkompetenzen in der Einstiegsphase wird auf inhaltlicher Seite verknüpft mit dem Wahrscheinlichkeitsbegriff, mit dem Gesetz der großen Zahl, sowie mit weiteren stochastischen Grundlagen. Das Unterrichtskonzept zum Einstieg in das Kurshalbjahr Stochastik wird ausführlich vorgestellt, zu den beiden anderen genannten Schwerpunkten werden die entwickelten Unterrichtskonzepte knapp erläutert. Die ausführlich kommentierten Unterrichtsmaterialien zu allen drei Schwerpunkten sind als Band 2 der KaDiSto-Schriftenreihe publiziert. Im Rahmen unterrichtlicher Erprobungen wurden verschiedene empirische Untersuchungen durchgeführt. Bei diesen Untersuchungen liegt ein Schwerpunkt auf der Transkriptanalyse von Videos des Bildschirmgeschehens und der simultan hierzu aufgenommenen verbalen Kommunikation während der Schülerarbeitsphasen am Computer. Diese Videos ermöglichen tiefer gehende Einblicke in die Kompetenzentwicklung der Schülerinnen und Schüler, in auftretende Probleme bei der Erstellung der Computersimulationen und in den Umgang der Schülerinnen und Schüler mit den Aufgabenstellungen. Die Analyse ausgewählter Transkriptausschnitte wird eingebettet in die Schilderung des Unterrichtsverlaufs auf der Basis von Unterrichtsprotokollen. Weiter wird die Bearbeitung einer komplexen Simulationsaufgabe in einer notenrelevanten Klausur nach Abschluss der Einstiegsphase analysiert. Es werden die Ergebnisse eines Eingangstests vor Beginn der Einstiegsphase und eines Ausgangstests im Anschluss an die Einstiegsphase geschildert. Ergänzend werden die Ergebnisse einer Schülerbefragung vorgestellt. Zum Abschluss der Arbeit wird eine Gesamtbetrachtung des Unterrichtskonzepts vorgenommen, bei der die Stärken aber auch zentrale Probleme des Konzepts beschrieben und teilweise verallgemeinert werden. Aus diesen Betrachtungen werden weitere Entwicklungsmöglichkeiten des geschilderten Projekts abgeleitet. Die Arbeit verfolgt einen stark unterrichtspraktischen Ansatz. Das methodische Vorgehen ist im Bereich einer Design-Research-Studie angesiedelt. Der Autor selber ist Lehrer an dem Kasseler Oberstufengymnasium Jacob-Grimm-Schule und hat über einen längeren Zeitraum im Rahmen einer Abordnung in der Arbeitsgruppe Mathematik-Didaktik der Universität Kassel mitgearbeitet. Die Arbeit stellt die Dissertation des Verfassers dar, die an der Universität Kassel von Prof. Dr. Rolf Biehler betreut wurde. Sie ist identisch mit der Erstveröffentlichung 2008 im Franzbecker Verlag, Hildesheim, der der elektronischen Veröffentlichung im Rahmen von KaDiSto zugestimmt hat
Resumo:
Angesichts der Geschichte der Entwicklungspolitik, ist diese Arbeit darauf ausgerichtet, einige Beobachtungen in Bezug auf die so genannte Entwicklung hervorzuheben; insbesondere auf die andauernde prekäre Situation und Armut in ländlichen afrikanischen Gebieten. Armut ist nach Amartya SEN – weiter präzisiert von J.L. Dubois – die Deprivation von „Fähigkeiten“, die Individuen und lokale Gemeinschaften zu ausgeschlossenen und vergessenen Akteuren des Systems machen. Das nennt Paulo Freire, das Menschen zu „Objekten“ gemacht werden. Es rechtfertigt die starke Annahme, die in dieser Studie getroffen wird, dass vielmehr die Menschen als „Subjekte“ ihrer Veränderung und Entwicklung im Mittelpunkt stehen. Die Arbeit zeigt und erklärt in historischer Chronologie, wie die Entwicklungspolitiken und unterschiedliche Beteiligte auf allen Ebenen diese Situation verursachen. Trotz alledem bleiben die Individuen und lokalen Gemeinschaften, die in Symbiose mit ihrer natürlichen Umwelt leben, die reich an verschiedenen Ressourcen und Potentialen ist, als Reaktion darauf und gleichzeitig als Überlebensstrategie zutiefst verbunden mit dem, was sie vor Ort haben, womit sie eine tiefere und intensive Beziehung besitzen, wenn man von ihrer Geschichte, ihrer Kultur und der Handlungslogik ausgeht. Für externe Akteure, die sie über das vorhandene System dominieren und beeinflussen bleiben sie „Objekte“, aber in der Vielzahl ihrer endogenen Initiativen, zeigen sie die Fähigkeit und Substanz, die beweisen, dass sie auf ihrer Ebene das eigentliche Subjekt sind, die dynamischen Akteure. Aber isolierte Initiativen auf spezifische reale Bedürfnisse bei gleichzeitiger Dominierung durch das System mit seiner Marktlogik, führt dies langfristig nur zu dem Zirkulus Vitiosus der Armut. Daher ist eine ganzheitliche Sicht entscheidend für nachhaltige Entwicklung und für die notwendige Veränderung. Es geht nicht nur um die Veränderung des Systems und die Wahl politischer Maßnahmen, sondern genau genommen um das Verhalten der Akteure auf allen Ebenen und die Art der Beziehungen zwischen ihnen allen. Es ist eine Frage des erneuten Überdenkens des Entwicklungspfades, der andere Logik, Visionen, Interessen und Strategien aller Beteiligten, unserer so genannten Akteure einschließt. Ob dies von endogenen Initiativen oder neuen gemeinsamen Projekten ausgeht: man wird in einen Prozess kollektiven Lernens eintreten, den Paul Singer und Clarita Müller-Plantenberg erläutern und entwickeln in dem Konzept der Inkubation und Solidarischen Ökonomie, die Eigeninitiative, Selbstbestimmung und Selbstverwaltung von lokalen Gemeinschaften und die Öffnung für eine Neu-Konzeptualisierung und Institutionalisierung einschließt. So ein Prozess ist nur mit einem interdisziplinären Rahmen möglich. Dieser Rahmen soll auf einer zusätzlicher Kommunikation zwischen den Akteuren und Sozialwissenschaften beruhen und mit jenen, die auf dem Feld der Technologie arbeiten. So können dann technische „Experten“ angesichts eines technischen Projektfehlers, der aufgrund von bestimmten sozialen und kulturellen Realitäten zustande kam sagen, „es ist kein Scheitern ; es war ein Schritt innerhalb eines Lernprozesse der in die technischen Projekte und Studien einbezogen werden muss“. Wir haben das Energiethema gewählt; und insbesondere, Energie für eine nachhaltige ländliche Entwicklung in Subsahara-Afrika, um den Weg von der Theorie in die Praxis zu illustrieren und experimentell auszuprobieren, den Weg von den Beobachtungen zu der Veränderung, wobei Fragen, Annahmen, Strategien und konkrete Aktionen für den Wandel behandelt werden. Wir nennen unseren experimentellen Weg: DRIEE, das heißt auf Deutsch Ländliche Entwicklung und Inkubation von Energieunternehmen. Dabei gehen wir davon aus, dass: - Energie im Allgemeinen auf der internationalen Ebene fast gleichbedeutend mit Elektrizität ist. Heute bestehen die wichtigsten Bedürfnisse nach Energie dort wo die agro-pastorale Produktion, das Kochen, die Nahrungsmittelkonservierung und Verarbeitung …etc. stattfindet. - Diese ländliche Bevölkerung zu etwa 80% der nationalen Wirtschaft ausmacht. Dass sie gleichzeitig aber nur zu weniger als 5% der Energieproduktion Zugang hat, was oft auf Licht reduziert ist und nicht einmal ihrer Produktion zugute kommen kann. - Die Projekte für Energie und Elektrizität vor allem auf die Technologischen Fragen konzentriert sind und weniger auf die Bedürfnisse. Fast die Gesamtheit der Fonds für Energie wird in Bezug auf die Investitionen Infrastruktur der Produktion und Verteilung durch die konventionellen zentralisierten Netze geplant. Angesichts dieser Analysen gehen die in dieser Arbeit vorgenommenen Studien in Gambia und Kamerun von Bestandsaufnahmen und / oder beschreibenden regionalen Analysen aus: - von Bedürfnissen, von Praktiken und lokalen Initiativen von Fragen der Energie, für einzelne Professionen, Haushalte, Gruppen, spezifische Gruppen, wie Frauen, ländliche Gemeinden mit ihren spezifischen Charakteristika. - Von Potentialen: natürliche lokale Energieressourcen, soziokulturelle Ressourcen – so z.B. die empirisch feststellbaren menschliche Ressourcen wie endogenes Wissen und praktische organisatorische Fähigkeiten gegenüber den Problemen der Energie. Dieser experimentelle Schritt von Handlungsforschung (DRIEE) in Kamerun führte zu der Gründung einer Organisation, über die und mit der wir die Logik der Inkubation und Solidarischen Ökonomie einführen. Das ist FERDEDSI, das heißt auf Deutsch „Forum für Erneuerbare Energie – Nachhaltige Entwicklung und Internationale Solidarität“. Zunächst war dies eine Energiegenossenschaft und dann (im Prozess) wurde es zu einer institutionellen Nische von mehreren Mikro Initiativen in ländlichen Gebieten. FERDEDSI ist ein Prozess der Inkubation und ein Inkubator ist also gleichzeitig ein inkubiertes Energieunternehmen aber auch ein Inkubator für lokale Organisationen. Die ersten Aktionen finden in den Departments von Noun und Ménoua in der westlichen Provinz von Kamerun statt. Während der Forschungsperiode findet akademische Austausch statt (Nord-Süd und Süd-Süd), diese ist dabei zu formalen Partnerschaften zu werden, nicht nur zwischen Universitäten sondern genauer lokale Organisationen und Universitäten. Dieser letzte Typ von Partnerschaften, die die solidarische Ökonomie ausmachen ist auch eine Innovation des Prozesses für die afrikanischen Fälle, die dem Beispiel dessen, was in Lateinamerika geschieht, folgen. So kommt es zu gegenseitiger sinnvoller Ausbildung in den internationalen Arbeitsgruppen und Seminaren der Universität.
Resumo:
Die vorliegende Arbeit befasst sich mit den Fehlern, die bei der Berechnung von Tragstrukturen auftreten können, dem Diskretisierungs- und dem Modellfehler. Ein zentrales Werkzeug für die Betrachtung des lokalen Fehlers in einer FE-Berechnung sind die Greenschen Funktionen, die auch in anderen Bereichen der Statik, wie man zeigen kann, eine tragende Rolle spielen. Um den richtigen Einsatz der Greenschen Funktion mit der FE-Technik sicherzustellen, werden deren Eigenschaften und die konsistente Generierung aufgezeigt. Mit dem vorgestellten Verfahren, der Lagrange-Methode, wird es möglich auch für nichtlineare Probleme eine Greensche Funktion zu ermitteln. Eine logische Konsequenz aus diesen Betrachtungen ist die Verbesserung der Einflussfunktion durch Verwendung von Grundlösungen. Die Greensche Funktion wird dabei in die Grundlösung und einen regulären Anteil, welcher mittels FE-Technik bestimmt wird, aufgespalten. Mit dieser Methode, hier angewandt auf die Kirchhoff-Platte, erhält man deutlich genauere Ergebnisse als mit der FE-Methode bei einem vergleichbaren Rechenaufwand, wie die numerischen Untersuchungen zeigen. Die Lagrange-Methode bietet einen generellen Zugang zur zweiten Fehlerart, dem Modellfehler, und kann für lineare und nichtlineare Probleme angewandt werden. Auch hierbei übernimmt die Greensche Funktion wieder eine tragende Rolle, um die Auswirkungen von Parameteränderungen auf ausgewählte Zielgrößen betrachten zu können.
Resumo:
Generell gelten in Deutschland alle Kinder und Jugendlichen als schulpflichtig, deren Aufenthaltsort sich im Land befindet. Weiterhin gilt die Verpflichtung zum Schulbesuch für alle „bildungsfähigen“ Kinder. Der Sachverhalt der Schulverweigerung, der in Kapitel 2 und 3 zu erläutern ist, kann nur in einer Gesellschaft vorliegen, in der ein Schulbesuch gesetzlich festgelegt ist. Im Jahr 1999 lag die Zahl der Verletzungen der Schulpflicht in Hessen, laut Kultusministerium, bei 4.417. Hierbei handelt es sich allerdings nur um Fälle, bei denen ein Ordnungswidrigkeitsverfahren eingeleitet wurde also nicht um Schulversäumnisse, die von Eltern oder Ärzten entschuldigt wurden. Dies zeige allerdings, dass das Phänomen der Schulverweigerung in den letzten Jahren, gerade in den Klassen 7 bis 9 stetig zugenommen habe. Generell gehe man diesbezüglich davon aus, dass gelegentliches unerlaubtes Fernbleiben von der Schule im Jugendalter als entwicklungstypisch eingestuft werden könne. Oppositionelles und autoritätssuchendes Verhalten in der Adoleszensphase sei als ´normale` Entwicklungsstufe anzusehen und kann sich in schulabsentem Verhalten äußern. Schulverweigerung im Sinne einer Aufmerksamkeitserregung bezüglich eines psychosomatischen Krankheitsbildes tritt vorwiegend im Alter von 12 bis 14 Jahren auf. Darüber hinaus veröffentlichten die Hertie- und die Bertelsmann-Stiftung im Jahr 2002 in einer Presseinformation, dass es in Deutschland etwa 500.000 Schulschwänzer gebe. In diesem Zusammenhang würden etwa 10% bis 15% der Schüler in der Bundesrepublik die Schule ohne einen Schulabschluss verlassen, was in Zahlen ausgedrückt knapp 83.000 Kinder und Jugendliche bedeute. Von diesen Zahlen geht auch das Deutsche Jugendinstitut aus. In der Region Kassel existieren zurzeit zwei Projekte zum Umgang mit und der Prävention von Schulverweigerung. Durch das bundesweite „Netzwerk Prävention von Schulmüdigkeit und Schulverweigerung“ koordiniert wurde der 2005 ausgelaufene Modelversuch „Auf Kurs“ der Kasseler Produktionsschule BuntStift GmbH, evaluiert und ins Regelsystem übernommen. Das Projekt „Schulverweigerung - Die 2. Chance“, ausgehend vom Europäischen Sozialfond, läuft in Kassel seit 2007 beziehungsweise 2009 und beinhaltet eine Koordination von Schule und Jugendhilfe. Anknüpfend an das Prozedere bei Erkennung eines Falls von Schulverweigerung ist zu untersuchen, inwiefern und mit welchen Zielsetzungen die Reintegrationsprojekte in der Region Kassel die Ursachen von Schulverweigerung aufgreifen. In diesem Zusammenhang steht eine Kontaktaufnahme mit dem Planer des Projektes „Auf Kurs“ von BuntStift, der Georg-August-Zinn-Schule und der Offenen Schule Kassel Waldau, zwei Kooperationsschulen des Projekts, sowie der Jugendfürsorge von Landkreis und Stadt Kassel, die im Rahmen des Projektes „Schulverweigerung - Die 2. Chance“ mit Schulen und Gemeinden zusammenarbeiten. Ziel beider Projekte ist es, Schülern den Zugang zu sozialen Kompetenzen, der Bereitschaft zur Leistungsentfaltung und der Fähigkeit sich dauerhaft Lehr- und Lerninhalte anzueignen zu verschaffen. Die Darstellung der projektinternen Interventions-, Präventions- und Reintegrationsmaßnahmen vor dem Hintergrund der vielfältigen Ursachen von Schulverweigerung bilden den Schwerpunkt dieser Arbeit. In diesem Zusammenhang entsteht die Frage, inwiefern die Projekte Ursachen von Schulverweigerung präventiv und produktiv aufgreifen, um Schülern einen erfolgreichen Wiedereinstieg in das Bildungssystem zu ermöglichen und welche Rolle die Kooperation zwischen Schulen, Jugendhilfe und Eltern in dieser Hinsicht spielt.