288 resultados para Autonome Objekte


Relevância:

10.00% 10.00%

Publicador:

Resumo:

La rumeur publique joue un rôle-clé dès les plus anciens textes français : elle motive les héros à la guerre et assure la renommée du saint auprès du bon peuple. Quand les auteurs vernaculaires délaissent les chansons de geste ou de saints (genres marqués par l’oralité) au profit d’une forme narrative bientôt appelée roman (genre défini d’abord par son rapport à l’écriture), la rumeur – qui fait et défait les héros – se voit concurrencée par l’écrit, auquel est attribuée une valeur de vérité supérieure. Le roman met ainsi en abyme sa propre quête de légitimité. Le statut ambigu de la narration médiévale, au carrefour de l’oralité et de l’écriture, se reflète dans la situation ambivalente de la rumeur, clairement associée au peuple et en position d’infériorité manifeste, mais demeurant néanmoins le véritable moteur de la narration. À ce titre, la rumeur, ou plus exactement la nouvelle « qui court et vole », devient un sujet autonome qui relance le récit, dans un apparent parallèle avec à la voix du narrateur. Au début du XIIIe siècle, l’opposition entre roman et chanson se double d’une séparation entre vers et prose. Le roman en vers prend ses distances avec la rumeur en adoptant des accents parodiques, mais la prose est le lieu où la rumeur est mise en cause de la manière la plus systématique. Le roman en prose élabore ainsi un système complexe où la lettre et la voix se répondent. Par exemple, le grand cycle du Lancelot-Graal se clôt avec un roman, La Mort du roi Arthur, où la vérité vient de la lettre (missives révélatrices, inscriptions funéraires), alors même que la rumeur se révèle mortifère, depuis la rumeur de la fausse mort, qui a poussé Lancelot et Guenièvre au bord du suicide, jusqu’à celle qui condamne injustement la reine du meurtre de Gaheris de Karaheu. Le roman oppose ainsi à la voix de Merlin, le prophète à l’origine de ce royaume déchu, la permanence de la lettre, seule capable d’assurer la pérennité du royaume dans la mémoire et dans les lettres. La rumeur qui traverse les premières entreprises romanesques porte avec elle la question fondamentale du roman : celle de la vérité et du statut de la fiction, dans un monde où la langue vulgaire quitte la sphère de l’oralité et cherche à s’imposer comme langue d’écriture.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

De plus en plus, le jeu vidéo se présente et se vit en termes de récit, ce qui n’est pas sans causer de nombreux maux de tête aux concepteurs de jeux comme aux théoriciens. Cet article s’intéresse au rôle central joué par le personnage dans la réconciliation de la narrativité et de l’interactivité à travers une étude théorique et critique de quelques stratégies employées par les concepteurs pour réaliser une fusion identitaire du joueur avec le personnage. Il y est question de deux postures d’immersion fictionnelle identifiées par Jean-Marie Schaeffer : l’identification allosubjective et la virtualisation identitaire. Ces postures sont liées à des processus de design de personnage : l’approche avatorielle, centrée sur le concept d’avatar et qui tente d’aplanir les différences intersubjectives, et l’approche actorielle, qui au contraire vise à les accroître en faisant du personnage un acteur autonome plutôt qu’un avatar. Ces deux pratiques ne sont pas mutuellement exclusives; au contraire, il est démontré que pour réaliser l’immersion fictionnelle, la plupart des jeux tentent de conserver une trace du joueur dans l’avatar, et une trace du personnage dans l’acteur. Des marqueurs d’allosubjectivité et de subjectivisation sont identifiés par l’analyse des jeux Metroid Prime, Duke Nukem 3D, Gears of War et Shadowrun. Enfin, l’article étudie également les rapports entre le ludique et le narratif selon le rôle actantiel du joueur et du personnage, écorchant au passage la convention du « héros muet » (silent protagonist) souvent rencontrée dans le jeu vidéo mais ultimement improductive.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'activité électrique du coeur est initiée par la génération spontanée de potentiels d'action venant des cellules pacemaker du noeud sinusal (SN). Toute dysfonction au niveau de cette région entraîne une instabilité électrique du coeur. La majorité des patients souffrant d'un noeud sinusal déficient nécessitent l'implantation chirurgicale d'un pacemaker électronique; cependant, les limitations de cette approche incitent à la recherche d'une alternative thérapeutique. La base moléculaire des courants ioniques jouant un rôle crucial dans l'activité du noeud sinusal sont de plus en plus connues. Une composante importante de l'activité des cellules pacemakers semble être le canal HCN, responsable du courant pacemaker If. Le facteur T-box 3 (Tbx3), un facteur de transcription conservé durant le processus de l'évolution, est nécessaire au développement du système de conduction cardiaque. De précédentes études ont démontré que dans différentes lignées cellulaires le Phorbol 12-myristate 13-acetate (PMA) active l'expression du gène codant Tbx3 via des réactions en cascade partant de la protéine kinase C (PKC). L'objectif principal de cette étude est de tester si le PMA peut augmenter la fréquence et la synchronisation de l'activité spontanée du pacemaker biologique en culture. Plus précisément, nous avons étudié les effets de l'exposition chronique au PMA sur l'expression du facteur de transcription Tbx3, sur HCN4 et l'activité spontanée chez des monocouches de culture de myocytes ventriculaires de rats néonataux (MVRN). Nos résultats démontrent que le PMA augmente significativement le facteur transcription de Tbx3 et l'expression ARNm de HCN4, favorisant ainsi l'augmentation du rythme et de la stabilité de l'activité autonome. De plus, une diminution significative de la vitesse de conduction a été relevée et est attribuée à la diminution du couplage intercellulaire. La diminution de la vitesse de conduction pourrait expliquer l'effet négatif du PMA sur la synchronisation de l'activité autonome du pacemaker biologique. Ces résultats ont été confirmés par un modèle mathématique multicellulaire suggérant que des fréquences et résistances intercellulaires plus élevée pourraient induire une activité plus stable et moins synchrone. Cette étude amène de nouvelles connaissances très importantes destinées à la production d'un pacemaker biologique efficient et robuste.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Essai présenté à la Faculté des arts et des sciences en vue de l’obtention du doctorat en psychologie (D.Psy.)

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Von der Idee zum Mythos. Die Rezeption des Bauhaus in beiden Teilen Deutschlands in Zeiten des Neuanfangs (1945 und 1989) Das Bauhaus wird 1919 durch Zusammenlegung der Großherzoglich Sächsischen Kunstgewerbeschule und der Hochschule für Bildende Kunst von Walter Gropius gegründet. Dabei geht es in seinem programmatischen Ansatz weit über seine institutionellen Vorgänger hinaus. Das Bauhaus-Konzept zielt nicht auf die Erschaffung einer zeitgemäßen Formsprache, sondern auf die Veränderung der gesellschaftlichen Wirklichkeit mit den Mitteln der Kunst. Diese Haltung ist eine Reaktion auf die Bewusstseinskrise, die durch den Ersten Weltkrieg ausgelöst worden war: Der zunehmenden Entfremdung von Kunst und Leben soll entgegengewirkt und dabei die versprengten Einzelkünste unter dem Primat der Architektur wieder zusammengeführt werden: Weil sich dieser sozial-moralische Impetus, der gemeinhin mit dem Schlagwort ‚Bauhaus-Idee’ umschrieben wird, äußerst vielschichtig darstellt, lässt er sich in die verschiedensten Kulturkonzepte einpassen. Die Arbeit legt die Bauhaus-Rezeption in Deutschland zu zwei verschiedenen Zeiten vergleichend dar. Im ersten Schritt wird die Ost- mit der Westrezeption verglichen. Dieser synchrone Vergleich wird zu zwei epochalen Umbruchsituationen durchgeführt; zum einen von 1945 bis Mitte der 50er Jahre, zum anderen von 1989 bis Mitte der 90er Jahre. Auf dieser Grundlage wird geprüft, wie sich die östliche als auch die westliche Wahrnehmung des Bauhaus von 1945-1955 gegenüber der Bauhausrezeption nach 1989 abhebt (diachroner Vergleich). Die Jahre 1945-1955 beschreiben die Entwicklung des Auseinanderbrechens der deutschen Nation in zwei autonome deutsche Staaten. Mit dem Jahr 1989 wird die Entwicklung umgekehrt: Deutschland wächst zu einer Kulturnation zusammen. Durch die Periodisierung (1945/1989) wird geklärt, wie das wiedervereinigte Deutschland auf kultureller Ebene mit der Vergangenheit des Kalten Krieges umgeht. Weil sich an der Bauhaus-Pädagogik am ehesten die reale Umsetzung der ‚Bauhaus-Idee’ ablesen lässt, analysiert meine Arbeit die pädagogischen Konzeptionen an deutschen Kunstschulen. Dabei wird in den Institutionsgeschichten der politisch-gesellschaftliche Rahmen stets mitgedacht, der Restituierungsversuche ermöglicht oder scheitern lässt. Im Zentrum meiner Arbeit steht nicht die Analyse der Sache ‚Bauhaus, sondern dessen Missdeutung und Umdeutung in politisch divergenten Zeiten. Für die Zeit 1945-1955 beschreibe ich auf westdeutscher Seite die Hochschule für Gestaltung in Ulm und die Werkakademie bzw. Werkkunstschule in Kassel. Im Osten konzentriert sich der Blick auf die historischen Bauhaus-Stätten: Weimar und Dessau. Nach der Wende vermischen sich die bis dahin getrennten Rezeptionsstränge von Ost und West. In der wiedervereinigten Bundesrepublik existieren neben dem Bauhaus-Archiv nunmehr zwei zusätzliche Institutionen: die Bauhaus-Universität in Weimar und die Stiftung Bauhaus Dessau. Wie wird in dieser historischen Situation das Bauhaus-Erbe aufgeteilt und verwaltet?

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A stand-alone power system is an autonomous system that supplies electricity to the user load without being connected to the electric grid. This kind of decentralized system is frequently located in remote and inaccessible areas. It is essential for about one third of the world population which are living in developed or isolated regions and have no access to an electricity utility grid. The most people live in remote and rural areas, with low population density, lacking even the basic infrastructure. The utility grid extension to these locations is not a cost effective option and sometimes technically not feasible. The purpose of this thesis is the modelling and simulation of a stand-alone hybrid power system, referred to as “hydrogen Photovoltaic-Fuel Cell (PVFC) hybrid system”. It couples a photovoltaic generator (PV), an alkaline water electrolyser, a storage gas tank, a proton exchange membrane fuel cell (PEMFC), and power conditioning units (PCU) to give different system topologies. The system is intended to be an environmentally friendly solution since it tries maximising the use of a renewable energy source. Electricity is produced by a PV generator to meet the requirements of a user load. Whenever there is enough solar radiation, the user load can be powered totally by the PV electricity. During periods of low solar radiation, auxiliary electricity is required. An alkaline high pressure water electrolyser is powered by the excess energy from the PV generator to produce hydrogen and oxygen at a pressure of maximum 30bar. Gases are stored without compression for short- (hourly or daily) and long- (seasonal) term. A proton exchange membrane (PEM) fuel cell is used to keep the system’s reliability at the same level as for the conventional system while decreasing the environmental impact of the whole system. The PEM fuel cell consumes gases which are produced by an electrolyser to meet the user load demand when the PV generator energy is deficient, so that it works as an auxiliary generator. Power conditioning units are appropriate for the conversion and dispatch the energy between the components of the system. No batteries are used in this system since they represent the weakest when used in PV systems due to their need for sophisticated control and their short lifetime. The model library, ISET Alternative Power Library (ISET-APL), is designed by the Institute of Solar Energy supply Technology (ISET) and used for the simulation of the hybrid system. The physical, analytical and/or empirical equations of each component are programmed and implemented separately in this library for the simulation software program Simplorer by C++ language. The model parameters are derived from manufacturer’s performance data sheets or measurements obtained from literature. The identification and validation of the major hydrogen PVFC hybrid system component models are evaluated according to the measured data of the components, from the manufacturer’s data sheet or from actual system operation. Then, the overall system is simulated, at intervals of one hour each, by using solar radiation as the primary energy input and hydrogen as energy storage for one year operation. A comparison between different topologies, such as DC or AC coupled systems, is carried out on the basis of energy point of view at two locations with different geographical latitudes, in Kassel/Germany (Europe) and in Cairo/Egypt (North Africa). The main conclusion in this work is that the simulation method of the system study under different conditions could successfully be used to give good visualization and comparison between those topologies for the overall performance of the system. The operational performance of the system is not only depending on component efficiency but also on system design and consumption behaviour. The worst case of this system is the low efficiency of the storage subsystem made of the electrolyser, the gas storage tank, and the fuel cell as it is around 25-34% at Cairo and 29-37% at Kassel. Therefore, the research for this system should be concentrated in the subsystem components development especially the fuel cell.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In der vorliegenden Arbeit 1 wird ein neues, erweiter- und konfigurierbares Visualisierungsverfahren zur Interaktion mit komplex strukturierten Datenobjekten vorgestellt. Die Erweiterbarkeit bezieht sich dabei auf die vom Verfahren einsetzbaren Techniken der Visualisierung (Visualisierungsfunktionen) und auf die in das Verfahren integrierte Interaktion. Die mit dem Verfahren generierbaren Repräsentationen sind besonders zum Browsen in den Objekten und zum Editieren der Objekte geeignet, die typischerweise in objekt-relationalen Datenbanken gespeichert werden. Die generierten Repräsentationen können modulartig in vorhandene graphische Benutzerschnittstellen integriert werden oder als vollständige graphische Benutzerschnittstelle einer Anwendung eingesetzt werden. Modularität und Orthogonalität, also die sinnvolle Aufteilung in Funktionseinheiten und die Möglichkeit, Methoden einer Komponente auf andere Komponenten anzuwenden, werden als Mittel eingesetzt, mit weniger Komponenten mehr Funktionalität zu erreichen. Für den Teilaspekt der Benutzerschnittstelle wurde dies durch Visualisierungsvorschriften für Datenobjekte (Relationen, Tabellen) vorgeschlagen, indem ein Baum aus der Strukturdefinition (Schema) abgeleitet und als persistentes (Meta-) Datenobjekt in der Datenbank gespeichert wird. Sie werden kurz "Visualisierungen" genannt. Wie gezeigt werden kann, sind sechs Meta-Objekte die notwendige und hinreichende Anzahl und Ausprägung von Schemata und Visualisierungen zur Definition und visuellen Repräsentation beliebiger Anwendungs-Objekte (Schemata und durch sie definierte Tabellen), inklusive ihrer eigenen Schemata und Visualisierungen. Der Einsatz der Selbstreferenzierung mit Meta-Objekten hat zu mehr Sicherheit und Kompaktheit ohne nenneswerte Laufzeiteinbußen geführt.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Diese Arbeit beschreibt den Evaluationsprozess einer dreidimensionalen Visualisierungstechnik, die am Institut für periphere Mikroelektronik der Universität Kassel entwickelt wurde. Hinter der dreidimensionalen Darstellung mittels Linsenrasterscheibe verbirgt sich eine neue Dimension der Interaktion mit dem Computer. Im Vergleich zu gewöhnlichen dreidimensionalen Darstellungen, bei denen ein 3D-Objekt auf einer 2D-Fläche abgebildet wird und somit nach wie vor nicht aus der Bildschirmebene heraus kann, können bei der stereoskopen Darstellung die Objekte dreidimensional visualisiert werden. Die Objekte tauchen vor, beziehungsweise hinter der Darstellungsebene auf. Da die Linsenrasterscheibe bisher noch nicht wahrnehmungspsychologisch untersucht wurde und auch allgemein auf dem Gebiet der Evaluation von 3D-Systemen nur wenige Untersuchungen mit quantitativen Ergebnissen verfügbar sind (Vollbracht, 1997), besteht hier ein zentrales Forschungsinteresse. Um eine Evaluation dieses 3D-Systems durchzuführen, wird im Theorieteil der Arbeit zunächst der Begriff der Evaluation definiert. Des Weiteren werden die wahrnehmungspsychologischen Grundlagen der monokularen und binokularen Raumwahrnehmung erörtert. Anschließend werden Techniken zur Erzeugung von Tiefe in Bildern und auf Bildschirmen erläutert und die Unterschiede zwischen der technisch erzeugten und der natürlichen Tiefenwahrnehmung näher beleuchtet. Nach der Vorstellung verschiedener stereoskoper Systeme wird näher auf die autostereoskope Linsenrasterscheibe eingegangen. Zum Abschluss des theoretischen Teils dieser Arbeit wird die Theorie des eingesetzten Befindlichkeitsfragebogens veranschaulicht. Gegenstand des empirischen Teils dieser Arbeit sind zwei zentrale Fragestellungen. Erstens soll untersucht werden, ob durch den höheren Informationsgehalt grundlegende Wahrnehmungsleistungen in bestimmten Bereichen positiv beeinflusst werden können. Zweitens soll untersucht werden, ob sich die höhere visuelle Natürlichkeit und die Neuartigkeit der Bildpräsentation auch auf die subjektive Befindlichkeit der Probanden auswirkt. Die empirische Überprüfung dieser Hypothesen erfolgt mittels dreier Experimente. Bei den ersten beiden Experimenten stehen grundlegende wahrnehmungspsychologische Leistungen im Vordergrund, während in der dritten Untersuchung der Bereich der subjektiven Befindlichkeit gemessen wird. Abschließend werden die Ergebnisse der Untersuchungen vorgestellt und diskutiert. Des Weiteren werden konkrete Einsatzmöglichkeiten für die Linsenrasterscheibe aufgezeigt und denkbare nachfolgende experimentelle Vorgehensweisen skizziert.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Am Institut für Mikrostrukturtechnologie und Analytik wurde eine neue Technik entwickelt, die neue Anwendungen und Methoden der Mikro- und Nanostrukturierung auf Basis eines neuen Verfahrens erschlossen hat. NANOJET führt über die passive Rastersondenmikroskopie hinaus zu einem vielseitigen, aktiven Bearbeitungswerkzeug auf der Mikro- und Nanometerskala. NANOJET (NANOstructuring Downstream PlasmaJET) ist eine aktive Rasterkraft-Mikroskopie-Sonde. Radikale (chemisch aktive Teilchen, die ein ungepaartes Valenzelektron besitzen) strömen aus dem Ende einer ultradünnen, hohlen Rasterkraftmikroskop-Spitze. Dadurch wird es möglich, über die übliche passive Abtastung einer Probenoberfläche hinausgehend, diese simultan und in-situ durch chemische Reaktionen zu verändern. Die Abtragung von Material wird durch eine chemische Ätzreaktion erreicht. In dieser Arbeit wurde zum größten Teil Photoresist als Substrat für die Ätzexperimente verwendet. Für das Ätzen des Resists wurden die Atome des Fluors und des Sauerstoffs im Grundzustand als verantwortlich identifiziert. Durch Experimente und durch Ergänzung von Literaturdaten wurde die Annahme bestätigt, dass Sauerstoffradikale mit Unterstützung von Fluorradikalen für die hohen erzielten Ätzraten verantwortlich sind. Die Beimischung von Fluor in einem Sauerstoffplasma führt zu einer Verringerung der Aktivierungsenergie für die Ätzreaktion gegenüber Verwendung reinen Sauerstoffs. In weiterer Folge wurde ein Strukturierungsverfahren dargestellt. Hierbei wurden "geformte Kapillaren" (mikrostrukturierte Aperturen) eingesetzt. Die Herstellung der Aperturen erfolgte durch einen elektrochemischen Ätzstop-Prozess. Die typische Größe der unter Verwendung der "geformten Kapillaren" geätzten Strukturen entsprach den Kapillarenöffnungen. Es wurde ein Monte-Carlo Simulationsprogramm entwickelt, welches den Transport der reaktiven Teilchen in der langen Transportröhre simulierte. Es wurde sowohl die Transmission der Teilchen in der Transportröhre und der Kapillare als auch ihre Winkelverteilung nach dem Verlassen der Kapillare berechnet. Das Aspektverhältnis der Röhren hat dabei einen sehr starken Einfluss. Mit einem steigenden Aspektverhältnis nahm die Transmission exponentiell ab. Die geschaffene experimentelle Infrastruktur wurde genutzt, um auch biologische Objekte zu behandeln und zu untersuchen. Hierfür wurde eine neue Methodik entwickelt, die eine dreidimensionale Darstellung des Zellinneren erlaubt. Dies wurde durch die kontrollierte Abtragung von Material aus der Zellmembran durchgeführt. Die Abtragung der Zellmembran erfolgte mittels Sauerstoffradikalen, die durch eine hohle Spitze lokalisiert zum Ort der Reaktion transportiert wurden. Ein piezoresistiver Cantilever diente als Sensor in dem zur Bildgebung eingesetzten RKM. Das entwickelte Verfahren ermöglicht es nun erstmals, schonend Zellen zu öffnen und die innen liegenden Organellen weiter zu untersuchen. Als Nachweis für weitere Verwendungsmöglichkeiten des NANOJET-Verfahrens wurde auch Knochenmaterial behandelt. Die Ergebnisse dieser Experimente zeigen klar, dass das Verfahren für vielfältige biologische Materialien verwendbar ist und somit nun ein weiter Anwendungskreis in der Biologie und Medizin offen steht.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Diese Arbeit umfaßt das elektromechanische Design und die Designoptimierung von weit durchstimmbaren optischen multimembranbasierten Bauelementen, mit vertikal orientierten Kavitäten, basierend auf der Finiten Element Methode (FEM). Ein multimembran InP/Luft Fabry-Pérot optischer Filter wird dargestellt und umfassend analysiert. In dieser Arbeit wird ein systematisches strukturelles Designverfahren dargestellt. Genaue analytische elektromechanischer Modelle für die Bauelemente sind abgeleitet worden. Diese können unschätzbare Werkzeuge sein, um am Anfang der Designphase schnell einen klaren Einblick zur Verfügung zu stellen. Mittels des FEM Programms ist der durch die nicht-lineare Verspannung hervorgerufene versteifende Effekt nachgeforscht und sein Effekt auf die Verlängerung der mechanischen Durchstimmungsstrecke der Bauelemente demonstriert worden. Interessant war auch die Beobachtung, dass die normierte Relation zwischen Ablenkung und Spannung ein unveränderliches Profil hat. Die Deformation der Membranflächen der in dieser Arbeit dargestellten Bauelementformen erwies sich als ein unerwünschter, jedoch manchmal unvermeidbarer Effekt. Es zeigt sich aber, dass die Wahl der Größe der strukturellen Dimensionen den Grad der Membrandeformation im Falle der Aktuation beeinflusst. Diese Arbeit stellt ein elektromechanisches in FEMLAB implementierte quasi-3D Modell, das allgemein für die Modellierung dünner Strukturen angewendet werden kann, dar; und zwar indem man diese als 2D-Objekte betrachtet und die dritte Dimension als eine konstante Größe (z.B. die Schichtdicke) oder eine Größe, welche eine mathematische Funktion ist, annimmt. Diese Annahme verringert drastisch die Berechnungszeit sowie den erforderlichen Arbeitsspeicherbedarf. Weiter ist es für die Nachforschung des Effekts der Skalierung der durchstimmbaren Bauelemente verwendet worden. Eine neuartige Skalierungstechnik wurde abgeleitet und verwendet. Die Ergebnisse belegen, dass das daraus resultierende, skalierte Bauelement fast genau die gleiche mechanische Durchstimmung wie das unskalierte zeigt. Die Einbeziehung des Einflusses von axialen Verspannungen und Gradientenverspannungen in die Berechnungen erforderte die Änderung der Standardimplementierung des 3D Mechanikberechnungsmodus, der mit der benutzten FEM Software geliefert wurde. Die Ergebnisse dieser Studie zeigen einen großen Einfluss der Verspannung auf die Durchstimmungseigenschaften der untersuchten Bauelemente. Ferner stimmten die Ergebnisse der theoretischen Modellrechnung mit den experimentellen Resultaten sehr gut überein.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In dieser Arbeit wird ein generisches Modell fuer synchrone Gruppenarbeit auf gemeinsamen Informationsraeumen entwickelt. Fuer die Entwicklung dieses Modells muessen die Grundfunktionen fuer Anwendungen der synchronen Gruppenarbeit realisiert werden. Neben der Modellierung des Datenraumes (Datenmodell) und der operationellen Schnittstelle (Interaktionsmodell), muessen Mechanismen fuer die Darstellung der Aktivitaeten der Gruppenmitglieder auf dem Informationsraum (Awareness), sowie fuer die Synchronisierung gleichzeitiger Zugriffe verschiedener Benutzer auf dem Datenraum realisiert werden (Nebenlaeufgkeitskontrolle). Das Grundproblem bei der Loesung der Nebenlaeufigkeit liegt bei der Aufgabe der Isolation aus den klassischen ACID-Transaktionen zu gunsten von Awareness. Die rapide Entwicklung von Techniken der mobilen Kommunikation ermoeglicht den Einsatz dieser Geraete fuer den Zugriff auf Daten im Internet. Durch UMTSund WLAN-Technologien koennen Mobilgeraete fuer Anwendungen ueber die reine Kommunikation hinaus eingesetzt werden. Eine natuerliche Folge dieser Entwicklung sind Anwendungen fuer die Zusammenarbeit mehrerer Benutzer. In der Arbeit wird daher auf die Unterstuetzung mobiler Geraete besonderen Wert gelegt. Die Interaktion der Benutzer auf den gemeinsamen Datenraum wird durch einfache Navigationsoperationen mit einem Cursor (Finger) realisiert, wobei der Datenraum durch XML-Dokumente dargestellt wird. Die Visualisierung basiert auf der Transformierung von XML-Dokumenten in andere XML-basierte Sprachen wie HTML oder SVG durch XSLT-Stylesheets. Awareness-Informationen werden, aehnlich dem Fokus/Nimbus-Modell, von der Interaktion der Benutzer und der Ermittlung der sichtbaren Objekte bei dem Benutzer hergeleitet. Fuer eine geeignete Kontrolle der Nebenlaeufigkeit wurde der Begriff der visuellen Transaktion eingefuehrt, wo die Auswirkungen einer Transaktion von anderen Benutzern (Transaktionen) beobachtet werden koennen. Die Synchronisierung basiert auf einem Sperrverfahren und der Einfuehrung der neuen W-Sperre und der Grundoperationen readV und writeV. Das Modell (Groupware-Server) wird in der Arbeit in einem Prototyp implementiert. Weiterhin wird eine Java-Anwendung sowohl auf einem Desktop PC als auch auf einem Pocket PC (iPAQ 3970) implementiert, welche die Einsetzbarkeit dieses Prototyps demonstriert.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Aufarbeitung der Wechselwirkung von Politik, Schulentwicklung und dem mit dem Verfassungsauftrag verbundenen Verantwortungsbereich der Schulaufsicht und ihrer Steuerungsfunktion im Bildungswesen ist Thema der Studie. Es sollen die Kontexte von Bildungsplanung, Steuerung der Schulentwicklung und Schulaufsicht bezogen auf die „autonome“ Schule am Beispiel Hessens dargestellt, analysiert und Perspektiven aufgezeigt werden. Die rechtlichen Grundlagen der Schulentwicklung und ihre bildungspolitischen Ausprägungen und die Strukturen und die Organisation der Bildungsverwaltung – mit einer Fokussierung auf die „inneren“ und „äußeren“ Schulangelegenheiten - werden dargestellt und die Entwicklungsprozesse analysiert. An den Beispielen Mittelpunktschule/Förderstufe und Schulprogramm wird der Versuch unternommen, die veränderten Rollen und Funktionen der Schulaufsicht in Verbindung mit den jeweiligen Entwicklungsphasen der Schulaufsichtsorganisation seit 1945 aufzuzeigen. Im Spannungsfeld von Politik, Pädagogik und Ökonomie war und ist die Steuerung der Schulentwicklung durch die Bildungsverwaltung ein zentrales gestaltendes Element. Die Schulforschung hat in der Vergangenheit dem Bereich der Bildungsverwaltung, hier insbesondere der Schulaufsicht, relativ wenig Aufmerksamkeit geschenkt. Dabei ist die Schulaufsicht nicht nur im Grundgesetz sondern in allen Länderverfassung als „hoheitliche“ Aufgabe verankert und in den entsprechenden Schulgesetzen als Dienst-, Fach- und Rechtsaufsicht über die Schulen ein fester Bestandteil des staatlichen Gewaltmonopols. Nicht nur die Schulaufsicht als Teil der Bildungsverwaltung und ihre direkte und indirekte Rolle bei der Steuerung der Schulentwicklung in Hessen, auch der Einfluss der Finanzpolitik sowie die Auswirkungen der internationalen Vergleichsuntersuchungen und der Europäisierung (TIMSS, PISA, IGLU, Bologna, Lissabon, EU-Programme, internationale Organisationen) werden kontextuell behandelt. Die Auswirkungen finanzpolitischer Entscheidungen ("schlanker Staat") und die Einführung der Neuen Verwaltungssteuerung in Hessen auf die weiteren Perspektiven der Schulaufsicht und die Bildungsverwaltung insgesamt werden im Kontext zu den übrigen Bundesländern auf Grund aktueller politischer Entscheidungen im Zusammenhang mit der Diskussion um Qualitätssicherung im Bildungswesen aufgezeigt und künftige Funktionen und Gestaltungsmöglichkeiten der Schulaufsicht als „regionaler Qualitätsagentur“ perspektivisch entwickelt.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In der Arbeit werden zunächst die wesentlichsten Fakten über Schiefpolynome wiederholt, der Fokus liegt dabei auf Shift- und q-Shift-Operatoren in Charakteristik Null. Alle für die Arithmetik mit diesen Objekten notwendigen Konzepte und Algorithmen finden sich im ersten Kapitel. Einige der zur Bestimmung von Lösungen notwendigen Daten können aus dem Newtonpolygon, einer den Operatoren zugeordneten geometrischen Figur, abgelesen werden. Die Herleitung dieser Zusammenhänge ist das Thema des zweiten Kapitels der Arbeit, wobei dies insbesondere im q-Shift-Fall in dieser Form neu ist. Das dritte Kapitel beschäftigt sich mit der Bestimmung polynomieller und rationaler Lösungen dieser Operatoren, dabei folgt es im Wesentlichen der Darstellung von Mark van Hoeij. Der für die Faktorisierung von (q-)Shift Operatoren interessanteste Fall sind die sogenannten (q-)hypergeometrischen Lösungen, die direkt zu Rechtsfaktoren erster Ordnung korrespondieren. Im vierten Kapitel wird der van Hoeij-Algorithmus vom Shift- auf den q-Shift-Fall übertragen. Außerdem wird eine deutliche Verbesserung des q-Petkovsek-Algorithmus mit Hilfe der Daten des Newtonpolygons hergeleitet. Das fünfte Kapitel widmet sich der Berechnung allgemeiner Faktoren, wozu zunächst der adjungierte Operator eingeführt wird, der die Berechnung von Linksfaktoren erlaubt. Dann wird ein Algorithmus zur Berechnung von Rechtsfaktoren beliebiger Ordnung dargestellt. Für die praktische Benutzung ist dies allerdings für höhere Ordnungen unpraktikabel. Bei fast allen vorgestellten Algorithmen tritt das Lösen linearer Gleichungssysteme über rationalen Funktionenkörpern als Zwischenschritt auf. Dies ist in den meisten Computeralgebrasystemen nicht befriedigend gelöst. Aus diesem Grund wird im letzten Kapitel ein auf Evaluation und Interpolation basierender Algorithmus zur Lösung dieses Problems vorgestellt, der in allen getesteten Systemen den Standard-Algorithmen deutlich überlegen ist. Alle Algorithmen der Arbeit sind in einem MuPAD-Package implementiert, das der Arbeit beiliegt und eine komfortable Handhabung der auftretenden Objekte erlaubt. Mit diesem Paket können in MuPAD nun viele Probleme gelöst werden, für die es vorher keine Funktionen gab.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die q-Analysis ist eine spezielle Diskretisierung der Analysis auf einem Gitter, welches eine geometrische Folge darstellt, und findet insbesondere in der Quantenphysik eine breite Anwendung, ist aber auch in der Theorie der q-orthogonalen Polynome und speziellen Funktionen von großer Bedeutung. Die betrachteten mathematischen Objekte aus der q-Welt weisen meist eine recht komplizierte Struktur auf und es liegt daher nahe, sie mit Computeralgebrasystemen zu behandeln. In der vorliegenden Dissertation werden Algorithmen für q-holonome Funktionen und q-hypergeometrische Reihen vorgestellt. Alle Algorithmen sind in dem Maple-Package qFPS, welches integraler Bestandteil der Arbeit ist, implementiert. Nachdem in den ersten beiden Kapiteln Grundlagen geschaffen werden, werden im dritten Kapitel Algorithmen präsentiert, mit denen man zu einer q-holonomen Funktion q-holonome Rekursionsgleichungen durch Kenntnis derer q-Shifts aufstellen kann. Operationen mit q-holonomen Rekursionen werden ebenfalls behandelt. Im vierten Kapitel werden effiziente Methoden zur Bestimmung polynomialer, rationaler und q-hypergeometrischer Lösungen von q-holonomen Rekursionen beschrieben. Das fünfte Kapitel beschäftigt sich mit q-hypergeometrischen Potenzreihen bzgl. spezieller Polynombasen. Wir formulieren einen neuen Algorithmus, der zu einer q-holonomen Rekursionsgleichung einer q-hypergeometrischen Reihe mit nichttrivialem Entwicklungspunkt die entsprechende q-holonome Rekursionsgleichung für die Koeffizienten ermittelt. Ferner können wir einen neuen Algorithmus angeben, der umgekehrt zu einer q-holonomen Rekursionsgleichung für die Koeffizienten eine q-holonome Rekursionsgleichung der Reihe bestimmt und der nützlich ist, um q-holonome Rekursionen für bestimmte verallgemeinerte q-hypergeometrische Funktionen aufzustellen. Mit Formulierung des q-Taylorsatzes haben wir schließlich alle Zutaten zusammen, um das Hauptergebnis dieser Arbeit, das q-Analogon des FPS-Algorithmus zu erhalten. Wolfram Koepfs FPS-Algorithmus aus dem Jahre 1992 bestimmt zu einer gegebenen holonomen Funktion die entsprechende hypergeometrische Reihe. Wir erweitern den Algorithmus dahingehend, dass sogar Linearkombinationen q-hypergeometrischer Potenzreihen bestimmt werden können. ________________________________________________________________________________________________________________