905 resultados para Actuator faults
Resumo:
Vues imprenables est un récit où se succèdent les monologues de six personnages se trouvant dans un hôtel de luxe le temps d’une fin de semaine. À travers les détours discursifs que chaque personnage emprunte, les mécanismes textuels qu’il ou elle utilise pour éviter de dire et de se confronter aux réminiscences de ses fautes passées, la question du voir et de l’aveuglement se lie étroitement à celle du passage à l’acte. Quels forfaits ces hommes et ces femmes ont-ils commis ? Sont-ils capables de « se voir » réellement ? Quelle est la portée du regard sur le geste qu’ils ont antérieurement posé ? S’inspirant, entre autres, du jeu de société Clue, des Dix Commandements et de l’esthétique du film The Shining, Vues imprenables interroge la notion de repentir, cherchant à savoir jusqu’où le « voile » de la parole peut dissimuler certains actes, jusqu’à quel point le voir peut se révéler insaisissable. L’essai intitulé « Paradoxes du voir et de l’aveuglement dans Ceux d’à côté de Laurent Mauvignier » tisse également des liens avec Vues imprenables : en questionnant les limites et les possibilités du voir dans le roman de Mauvignier, il s’agit en effet d’analyser comment l’avènement de la vue, dans ce récit, laisse en tout temps présager sa possible perte, mais aussi de quelles façons le geste criminel devient « aveugle » au moment même où il est perpétré. En revisitant certains des plus grands mythes grecs, tels ceux d’Œdipe, de Tirésias et de Gorgô, cet essai étudie plus particulièrement la figure de l’alter ego, ce « moi à côté », tantôt coupable tantôt témoin, qui hante le récit de Mauvignier et il propose une réflexion sur les paradoxes du rapport au vu à partir des travaux d’Hélène Cixous, de Georges Didi-Huberman, de J.-B. Pontalis et de Maurice Merleau-Ponty.
Resumo:
Le présent travail de recherche se propose d’analyser les dispositifs de gouvernance nodale de la sécurité locale en France, alors que le paradigme a vu le jour et s’est développé dans les pays anglo-saxons fortement décentralisés. C’est qu’en France les dispositifs de gouvernance nodale s’apparentent bien plus à un dialogue entre central et local qu’entre secteur public et privé. La recherche identifie ainsi les caractéristiques de la gouvernance nodale au cœur des dispositifs partenariaux de la sécurité locale, supportés par le Contrat Local de Sécurité (CLS), le Conseil Local de Sécurité et de Prévention de la Délinquance (CLSPD) ou encore le Groupe Local de Traitement de la Délinquance (GLTD). La recherche identifie ainsi les stratégies de décentrage de l’État et de transfert de la production de sécurité vers une diversité d’acteurs locaux, dont les maires et les services municipaux. Une diversité de politiques publiques locales de sécurité de pertinences différentes voit alors le jour. Le premier enseignement de cette recherche est l’importance du rôle joué par le node super-structurel, que nous appelons super-node et qui regroupe le maire ou l’élu local à la sécurité, le responsable de la police d’État, celui de la police municipale et le représentant de l’État. Il apparaît que dans le dispositif de gouvernance nodale, ce groupe informel génère la dynamique collective qui permet de regrouper, tant les producteurs que les consommateurs de sécurité locale gravitant au sein du réseau local de sécurité. La quarantaine d’entrevues qualitatives permet également d’identifier que la Justice, productrice de sécurité comme peut l’être aussi la sécurité privée ou la médiation sociale, apparaît plus distante que ce que pouvait laisser penser l’étude des textes réglementaires organisant le partenariat. Les bailleurs sociaux, les transporteurs et l’Éducation nationale apparaissent clairement comme des acteurs importants, mais périphériques de sécurité, en intégrant cette « famille élargie » de la sécurité locale. Le deuxième enseignement est relatif au fonctionnement même du dispositif nodal ainsi que du super-node, la recherche permettant d’identifier les ressources mutualisées par l’ensemble des nodes. Cela permet également d’identifier les mécanismes de répartition des tâches entre les différents acteurs et plus particulièrement entre les deux organisations policières d’État et municipale, travaillant autant en compétition, qu’en complémentarité. Cette recherche explore également le rôle joué par l’information dans le fonctionnement du super-node ainsi que l’importance de la confiance dans les relations interpersonnelles des représentants des nodes au sein du super-node. Enfin, l’étude permet également de mettre en perspective les limites du dispositif actuel de gouvernance nodale : le défaut avéré d’outils performants permettant d’informer convenablement le super-node quant aux phénomènes de violence ainsi que d’évaluer l’efficience du dispositif. Cela permet également de questionner l’autonomie des dispositifs de gouvernance nodale, la confiance pouvant ouvrir à la déviance et la collégialité au défaut de la traçabilité de la responsabilité. La fracture avec la société civile apparaît clairement et ne facilite pas le contrôle sur un mode de production de sécurité qui se développe en parallèle des dispositifs traditionnels de démocratie locale.
Resumo:
The purpose of the present study is to understand the surface deformation associated with the Killari and Wadakkancheri earthquake and to examine if there are any evidence of occurrence of paleo-earthquakes in this region or its vicinity. The present study is an attempt to characterize active tectonic structures from two areas within penisular India: the sites of 1993 Killari (Latur) (Mb 6.3) and 1994 Wadakkancheri (M 4.3) earthquakes in the Precambrian shield. The main objectives of the study are to isolate structures related to active tectonism, constraint the style of near – surface deformation and identify previous events by interpreting the deformational features. The study indicates the existence of a NW-SE trending pre-existing fault, passing through the epicentral area of the 1993 Killari earthquake. It presents the salient features obtained during the field investigations in and around the rupture zone. Details of mapping of the scrap, trenching, and shallow drilling are discussed here. It presents the geologic and tectonic settings of the Wadakkancheri area and the local seismicity; interpretation of remote sensing data and a detailed geomorphic analysis. Quantitative geomorphic analysis around the epicenter of the Wadakkancheri earthquake indicates suitable neotectonic rejuvenation. Evaluation of remote sensing data shows distinct linear features including the presence of potentially active WNW-ESE trending fault within the Precambrian shear zone. The study concludes that the earthquakes in the shield area are mostly associated with discrete faults that are developed in association with the preexisting shear zones or structurally weak zones
Resumo:
Photonic band-gap (PBG) structures are utilized in microwave components as filters to suppress unwanted signals. In this work, rectangular perforations were created in the ground plane of a microstrip line to construct a PBG structure. A gold-coated alumina substrate was utilized to switch or tune the bandstop characteristics of this structure. It was demonstrated that the bandstop characteristics were switched off from - 35 to - 1 dB at 16 GHz. Tuning of the bandstop edge with a shift of 1.5 GHz was also shown
Resumo:
Sharing of information with those in need of it has always been an idealistic goal of networked environments. With the proliferation of computer networks, information is so widely distributed among systems, that it is imperative to have well-organized schemes for retrieval and also discovery. This thesis attempts to investigate the problems associated with such schemes and suggests a software architecture, which is aimed towards achieving a meaningful discovery. Usage of information elements as a modelling base for efficient information discovery in distributed systems is demonstrated with the aid of a novel conceptual entity called infotron.The investigations are focused on distributed systems and their associated problems. The study was directed towards identifying suitable software architecture and incorporating the same in an environment where information growth is phenomenal and a proper mechanism for carrying out information discovery becomes feasible. An empirical study undertaken with the aid of an election database of constituencies distributed geographically, provided the insights required. This is manifested in the Election Counting and Reporting Software (ECRS) System. ECRS system is a software system, which is essentially distributed in nature designed to prepare reports to district administrators about the election counting process and to generate other miscellaneous statutory reports.Most of the distributed systems of the nature of ECRS normally will possess a "fragile architecture" which would make them amenable to collapse, with the occurrence of minor faults. This is resolved with the help of the penta-tier architecture proposed, that contained five different technologies at different tiers of the architecture.The results of experiment conducted and its analysis show that such an architecture would help to maintain different components of the software intact in an impermeable manner from any internal or external faults. The architecture thus evolved needed a mechanism to support information processing and discovery. This necessitated the introduction of the noveI concept of infotrons. Further, when a computing machine has to perform any meaningful extraction of information, it is guided by what is termed an infotron dictionary.The other empirical study was to find out which of the two prominent markup languages namely HTML and XML, is best suited for the incorporation of infotrons. A comparative study of 200 documents in HTML and XML was undertaken. The result was in favor ofXML.The concept of infotron and that of infotron dictionary, which were developed, was applied to implement an Information Discovery System (IDS). IDS is essentially, a system, that starts with the infotron(s) supplied as clue(s), and results in brewing the information required to satisfy the need of the information discoverer by utilizing the documents available at its disposal (as information space). The various components of the system and their interaction follows the penta-tier architectural model and therefore can be considered fault-tolerant. IDS is generic in nature and therefore the characteristics and the specifications were drawn up accordingly. Many subsystems interacted with multiple infotron dictionaries that were maintained in the system.In order to demonstrate the working of the IDS and to discover the information without modification of a typical Library Information System (LIS), an Information Discovery in Library Information System (lDLIS) application was developed. IDLIS is essentially a wrapper for the LIS, which maintains all the databases of the library. The purpose was to demonstrate that the functionality of a legacy system could be enhanced with the augmentation of IDS leading to information discovery service. IDLIS demonstrates IDS in action. IDLIS proves that any legacy system could be augmented with IDS effectively to provide the additional functionality of information discovery service.Possible applications of IDS and scope for further research in the field are covered.
Resumo:
Drainage basins are durable geomorphic features that provide insights into the long term evolution of the landscape. River basin geometry develop response to the nature and distribution of uplift and subsidence, the spatial arrangement of lineaments (faults and joints), the relative resistance of different rock types and to climatically influenced hydrological parameters . For developing a drainage basin evolution history, it is necessary to understand physiography, drainage patterns, geomorphic features and its structural control and erosion status. The present study records evidences for active tectonic activities which were found to be responsible for the present day geomorphic set up of the study area since the Western Ghat evolution. A model was developed to explain the evolution of Chaliar River drainage basin based on detailed interpretation of morphometry and genesis of landforms with special emphasis on tectonic geomorphic indices and markers.
Resumo:
Embedded systems are usually designed for a single or a specified set of tasks. This specificity means the system design as well as its hardware/software development can be highly optimized. Embedded software must meet the requirements such as high reliability operation on resource-constrained platforms, real time constraints and rapid development. This necessitates the adoption of static machine codes analysis tools running on a host machine for the validation and optimization of embedded system codes, which can help meet all of these goals. This could significantly augment the software quality and is still a challenging field.Embedded systems are usually designed for a single or a specified set of tasks. This specificity means the system design as well as its hardware/software development can be highly optimized. Embedded software must meet the requirements such as high reliability operation on resource-constrained platforms, real time constraints and rapid development. This necessitates the adoption of static machine codes analysis tools running on a host machine for the validation and optimization of embedded system codes, which can help meet all of these goals. This could significantly augment the software quality and is still a challenging field.Embedded systems are usually designed for a single or a specified set of tasks. This specificity means the system design as well as its hardware/software development can be highly optimized. Embedded software must meet the requirements such as high reliability operation on resource-constrained platforms, real time constraints and rapid development. This necessitates the adoption of static machine codes analysis tools running on a host machine for the validation and optimization of embedded system codes, which can help meet all of these goals. This could significantly augment the software quality and is still a challenging field.Embedded systems are usually designed for a single or a specified set of tasks. This specificity means the system design as well as its hardware/software development can be highly optimized. Embedded software must meet the requirements such as high reliability operation on resource-constrained platforms, real time constraints and rapid development. This necessitates the adoption of static machine codes analysis tools running on a host machine for the validation and optimization of embedded system codes, which can help meet all of these goals. This could significantly augment the software quality and is still a challenging field.This dissertation contributes to an architecture oriented code validation, error localization and optimization technique assisting the embedded system designer in software debugging, to make it more effective at early detection of software bugs that are otherwise hard to detect, using the static analysis of machine codes. The focus of this work is to develop methods that automatically localize faults as well as optimize the code and thus improve the debugging process as well as quality of the code.Validation is done with the help of rules of inferences formulated for the target processor. The rules govern the occurrence of illegitimate/out of place instructions and code sequences for executing the computational and integrated peripheral functions. The stipulated rules are encoded in propositional logic formulae and their compliance is tested individually in all possible execution paths of the application programs. An incorrect sequence of machine code pattern is identified using slicing techniques on the control flow graph generated from the machine code.An algorithm to assist the compiler to eliminate the redundant bank switching codes and decide on optimum data allocation to banked memory resulting in minimum number of bank switching codes in embedded system software is proposed. A relation matrix and a state transition diagram formed for the active memory bank state transition corresponding to each bank selection instruction is used for the detection of redundant codes. Instances of code redundancy based on the stipulated rules for the target processor are identified.This validation and optimization tool can be integrated to the system development environment. It is a novel approach independent of compiler/assembler, applicable to a wide range of processors once appropriate rules are formulated. Program states are identified mainly with machine code pattern, which drastically reduces the state space creation contributing to an improved state-of-the-art model checking. Though the technique described is general, the implementation is architecture oriented, and hence the feasibility study is conducted on PIC16F87X microcontrollers. The proposed tool will be very useful in steering novices towards correct use of difficult microcontroller features in developing embedded systems.
Resumo:
Intrinsisch leitfähige Polymere sind durch eine Reihe materialspezifischer Eigenschaften gekennzeichnet. In Abhängigkeit des angelegten Potenzials und der chemischen Umgebung zeigen sie elektrochromes Verhalten, Veränderungen der Masse, des Volumens und der elektronischen Leitfähigkeit. Basierend auf diesen Eigenschaften eignen sich halbleitende organische Polymere als funktionales Material für Anwendungen in der Mikro- und Nanotechnologie, insbesondere für miniaturisierte chemische Sensoren und Aktoren. Im Gegensatz zu konventionellen Piezo-Aktoren operieren diese Aktoren z. B. bei Spannungen unterhalb 1 V. Diese Arbeit befasst sich mit den elektrochemomechanischen Eigenschaften der ausgewählten Polymere Polyanilin und Polypyrrol, d. h. mit den potenzialkontrollierten Veränderungen des Volumens, der Struktur und der mechanischen Eigenschaften. Bei diesem Prozess werden positive Ladungen innerhalb der Polymerphase generiert. Um die für den Ladungsausgleich benötigten Gegenionen bereitzustellen, werden alle Messungen in Anwesenheit eines wässrigen Elektrolyten durchgeführt. Der Ladungstransport und die Volumenänderungen werden mit den Methoden der zyklischen Voltammetrie, der elektrochemischen Quarzmikrowaage und der Rastersondenmikroskopie untersucht. Signifikante Ergebnisse können für dünne homogene Polymerschichten erhalten werden, wobei Schichtdicken oberhalb 150 nm aufgrund der insbesondere bei Polyanilin einsetzenden Bildung von Fadenstrukturen (Fibrillen) vermieden werden. Von besonderem Interesse im Rahmen dieser Arbeit ist die Kombination der funktionalen Polymere mit Strukturen auf Siliziumbasis, insbesondere mit mikrostrukturierten Cantilevern. Die zuvor erhaltenen Ergebnisse bilden die Grundlage für das Design und die Dimensionierung der Mikroaktoren. Diese bestehen aus Siliziumcantilevern, die eine Elektrodenschicht aus Gold oder Platin tragen. Auf der Elektrode wird mittels Elektrodeposition eine homogene Schicht Polymer mit Schichtdicken bis zu 150 nm aufgebracht. Die Aktorcharakteristik, die Biegung des Cantilevers aufgrund des angelegten Potenzials, wird mit dem aus der Rastersondenmikroskopie bekannten Lichtzeigerverfahren gemessen. Das Aktorsystem wird hinsichtlich des angelegten Potenzials, des Elektrolyten und der Redox-Kinetik charakterisiert. Die verschiedenen Beiträge zum Aktorverhalten werden in situ während des Schichtwachstums untersucht. Das beobachtete Verhalten kann als Superposition verschiedener Effekte beschrieben werden. Darunter sind die Elektrodenaufladung (Elektrokapillarität), die Veränderungen der Elektrodenoberfläche durch dünne Oxidschichten und die Elektrochemomechanik des Polymers.
Resumo:
Mit aktiven Magnetlagern ist es möglich, rotierende Körper durch magnetische Felder berührungsfrei zu lagern. Systembedingt sind bei aktiv magnetgelagerten Maschinen wesentliche Signale ohne zusätzlichen Aufwand an Messtechnik für Diagnoseaufgaben verfügbar. In der Arbeit wird ein Konzept entwickelt, das durch Verwendung der systeminhärenten Signale eine Diagnose magnetgelagerter rotierender Maschinen ermöglicht und somit neben einer kontinuierlichen Anlagenüberwachung eine schnelle Bewertung des Anlagenzustandes gestattet. Fehler können rechtzeitig und ursächlich in Art und Größe erkannt und entsprechende Gegenmaßnahmen eingeleitet werden. Anhand der erfassten Signale geschieht die Gewinnung von Merkmalen mit signal- und modellgestützten Verfahren. Für den Magnetlagerregelkreis erfolgen Untersuchungen zum Einsatz modellgestützter Parameteridentifikationsverfahren, deren Verwendbarkeit wird bei der Diagnose am Regler und Leistungsverstärker nachgewiesen. Unter Nutzung von Simulationsmodellen sowie durch Experimente an Versuchsständen werden die Merkmalsverläufe im normalen Referenzzustand und bei auftretenden Fehlern aufgenommen und die Ergebnisse in einer Wissensbasis abgelegt. Diese dient als Grundlage zur Festlegung von Grenzwerten und Regeln für die Überwachung des Systems und zur Erstellung wissensbasierter Diagnosemodelle. Bei der Überwachung werden die Merkmalsausprägungen auf das Überschreiten von Grenzwerten überprüft, Informationen über erkannte Fehler und Betriebszustände gebildet sowie gegebenenfalls Alarmmeldungen ausgegeben. Sich langsam anbahnende Fehler können durch die Berechnung der Merkmalstrends mit Hilfe der Regressionsanalyse erkannt werden. Über die bisher bei aktiven Magnetlagern übliche Überwachung von Grenzwerten hinaus erfolgt bei der Fehlerdiagnose eine Verknüpfung der extrahierten Merkmale zur Identifizierung und Lokalisierung auftretender Fehler. Die Diagnose geschieht mittels regelbasierter Fuzzy-Logik, dies gestattet die Einbeziehung von linguistischen Aussagen in Form von Expertenwissen sowie die Berücksichtigung von Unbestimmtheiten und ermöglicht damit eine Diagnose komplexer Systeme. Für Aktor-, Sensor- und Reglerfehler im Magnetlagerregelkreis sowie Fehler durch externe Kräfte und Unwuchten werden Diagnosemodelle erstellt und verifiziert. Es erfolgt der Nachweis, dass das entwickelte Diagnosekonzept mit beherrschbarem Rechenaufwand korrekte Diagnoseaussagen liefert. Durch Kaskadierung von Fuzzy-Logik-Modulen wird die Transparenz des Regelwerks gewahrt und die Abarbeitung der Regeln optimiert. Endresultat ist ein neuartiges hybrides Diagnosekonzept, welches signal- und modellgestützte Verfahren der Merkmalsgewinnung mit wissensbasierten Methoden der Fehlerdiagnose kombiniert. Das entwickelte Diagnosekonzept ist für die Anpassung an unterschiedliche Anforderungen und Anwendungen bei rotierenden Maschinen konzipiert.
Resumo:
Kern der vorliegenden Arbeit ist die Erforschung von Methoden, Techniken und Werkzeugen zur Fehlersuche in modellbasierten Softwareentwicklungsprozessen. Hierzu wird zuerst ein von mir mitentwickelter, neuartiger und modellbasierter Softwareentwicklungsprozess, der sogenannte Fujaba Process, vorgestellt. Dieser Prozess wird von Usecase Szenarien getrieben, die durch spezielle Kollaborationsdiagramme formalisiert werden. Auch die weiteren Artefakte des Prozess bishin zur fertigen Applikation werden durch UML Diagrammarten modelliert. Es ist keine Programmierung im Quelltext nötig. Werkzeugunterstützung für den vorgestellte Prozess wird von dem Fujaba CASE Tool bereitgestellt. Große Teile der Werkzeugunterstützung für den Fujaba Process, darunter die Toolunterstützung für das Testen und Debuggen, wurden im Rahmen dieser Arbeit entwickelt. Im ersten Teil der Arbeit wird der Fujaba Process im Detail erklärt und unsere Erfahrungen mit dem Einsatz des Prozesses in Industrieprojekten sowie in der Lehre dargestellt. Der zweite Teil beschreibt die im Rahmen dieser Arbeit entwickelte Testgenerierung, die zu einem wichtigen Teil des Fujaba Process geworden ist. Hierbei werden aus den formalisierten Usecase Szenarien ausführbare Testfälle generiert. Es wird das zugrunde liegende Konzept, die konkrete technische Umsetzung und die Erfahrungen aus der Praxis mit der entwickelten Testgenerierung dargestellt. Der letzte Teil beschäftigt sich mit dem Debuggen im Fujaba Process. Es werden verschiedene im Rahmen dieser Arbeit entwickelte Konzepte und Techniken vorgestellt, die die Fehlersuche während der Applikationsentwicklung vereinfachen. Hierbei wurde darauf geachtet, dass das Debuggen, wie alle anderen Schritte im Fujaba Process, ausschließlich auf Modellebene passiert. Unter anderem werden Techniken zur schrittweisen Ausführung von Modellen, ein Objekt Browser und ein Debugger, der die rückwärtige Ausführung von Programmen erlaubt (back-in-time debugging), vorgestellt. Alle beschriebenen Konzepte wurden in dieser Arbeit als Plugins für die Eclipse Version von Fujaba, Fujaba4Eclipse, implementiert und erprobt. Bei der Implementierung der Plugins wurde auf eine enge Integration mit Fujaba zum einen und mit Eclipse auf der anderen Seite geachtet. Zusammenfassend wird also ein Entwicklungsprozess vorgestellt, die Möglichkeit in diesem mit automatischen Tests Fehler zu identifizieren und diese Fehler dann mittels spezieller Debuggingtechniken im Programm zu lokalisieren und schließlich zu beheben. Dabei läuft der komplette Prozess auf Modellebene ab. Für die Test- und Debuggingtechniken wurden in dieser Arbeit Plugins für Fujaba4Eclipse entwickelt, die den Entwickler bestmöglich bei der zugehörigen Tätigkeit unterstützen.
Resumo:
The main focus and concerns of this PhD thesis is the growth of III-V semiconductor nanostructures (Quantum dots (QDs) and quantum dashes) on silicon substrates using molecular beam epitaxy (MBE) technique. The investigation of influence of the major growth parameters on their basic properties (density, geometry, composition, size etc.) and the systematic characterization of their structural and optical properties are the core of the research work. The monolithic integration of III-V optoelectronic devices with silicon electronic circuits could bring enormous prospect for the existing semiconductor technology. Our challenging approach is to combine the superior passive optical properties of silicon with the superior optical emission properties of III-V material by reducing the amount of III-V materials to the very limit of the active region. Different heteroepitaxial integration approaches have been investigated to overcome the materials issues between III-V and Si. However, this include the self-assembled growth of InAs and InGaAs QDs in silicon and GaAx matrices directly on flat silicon substrate, sitecontrolled growth of (GaAs/In0,15Ga0,85As/GaAs) QDs on pre-patterned Si substrate and the direct growth of GaP on Si using migration enhanced epitaxy (MEE) and MBE growth modes. An efficient ex-situ-buffered HF (BHF) and in-situ surface cleaning sequence based on atomic hydrogen (AH) cleaning at 500 °C combined with thermal oxide desorption within a temperature range of 700-900 °C has been established. The removal of oxide desorption was confirmed by semicircular streaky reflection high energy electron diffraction (RHEED) patterns indicating a 2D smooth surface construction prior to the MBE growth. The evolution of size, density and shape of the QDs are ex-situ characterized by atomic-force microscopy (AFM) and transmission electron microscopy (TEM). The InAs QDs density is strongly increased from 108 to 1011 cm-2 at V/III ratios in the range of 15-35 (beam equivalent pressure values). InAs QD formations are not observed at temperatures of 500 °C and above. Growth experiments on (111) substrates show orientation dependent QD formation behaviour. A significant shape and size transition with elongated InAs quantum dots and dashes has been observed on (111) orientation and at higher Indium-growth rate of 0.3 ML/s. The 2D strain mapping derived from high-resolution TEM of InAs QDs embedded in silicon matrix confirmed semi-coherent and fully relaxed QDs embedded in defectfree silicon matrix. The strain relaxation is released by dislocation loops exclusively localized along the InAs/Si interfaces and partial dislocations with stacking faults inside the InAs clusters. The site controlled growth of GaAs/In0,15Ga0,85As/GaAs nanostructures has been demonstrated for the first time with 1 μm spacing and very low nominal deposition thicknesses, directly on pre-patterned Si without the use of SiO2 mask. Thin planar GaP layer was successfully grown through migration enhanced epitaxy (MEE) to initiate a planar GaP wetting layer at the polar/non-polar interface, which work as a virtual GaP substrate, for the GaP-MBE subsequently growth on the GaP-MEE layer with total thickness of 50 nm. The best root mean square (RMS) roughness value was as good as 1.3 nm. However, these results are highly encouraging for the realization of III-V optical devices on silicon for potential applications.
Resumo:
Im Rahmen dieser Arbeit wird eine gemeinsame Optimierung der Hybrid-Betriebsstrategie und des Verhaltens des Verbrennungsmotors vorgestellt. Die Übernahme von den im Steuergerät verwendeten Funktionsmodulen in die Simulationsumgebung für Fahrzeuglängsdynamik stellt eine effiziente Applikationsmöglichkeit der Originalparametrierung dar. Gleichzeitig ist es notwendig, das Verhalten des Verbrennungsmotors derart nachzubilden, dass das stationäre und das dynamische Verhalten, inklusive aller relevanten Einflussmöglichkeiten, wiedergegeben werden kann. Das entwickelte Werkzeug zur Übertragung der in Ascet definierten Steurgerätefunktionen in die Simulink-Simulationsumgebung ermöglicht nicht nur die Simulation der relevanten Funktionsmodule, sondern es erfüllt auch weitere wichtige Eigenschaften. Eine erhöhte Flexibilität bezüglich der Daten- und Funktionsstandänderungen, sowie die Parametrierbarkeit der Funktionsmodule sind Verbesserungen die an dieser Stelle zu nennen sind. Bei der Modellierung des stationären Systemverhaltens des Verbrennungsmotors erfolgt der Einsatz von künstlichen neuronalen Netzen. Die Auswahl der optimalen Neuronenanzahl erfolgt durch die Betrachtung des SSE für die Trainings- und die Verifikationsdaten. Falls notwendig, wird zur Sicherstellung der angestrebten Modellqualität, das Interpolationsverhalten durch Hinzunahme von Gauß-Prozess-Modellen verbessert. Mit den Gauß-Prozess-Modellen werden hierbei zusätzliche Stützpunkte erzeugt und mit einer verminderten Priorität in die Modellierung eingebunden. Für die Modellierung des dynamischen Systemverhaltens werden lineare Übertragungsfunktionen verwendet. Bei der Minimierung der Abweichung zwischen dem Modellausgang und den Messergebnissen wird zusätzlich zum SSE das 2σ-Intervall der relativen Fehlerverteilung betrachtet. Die Implementierung der Steuergerätefunktionsmodule und der erstellten Steller-Sensor-Streckenmodelle in der Simulationsumgebung für Fahrzeuglängsdynamik führt zum Anstieg der Simulationszeit und einer Vergrößerung des Parameterraums. Das aus Regelungstechnik bekannte Verfahren der Gütevektoroptimierung trägt entscheidend zu einer systematischen Betrachtung und Optimierung der Zielgrößen bei. Das Ergebnis des Verfahrens ist durch das Optimum der Paretofront der einzelnen Entwurfsspezifikationen gekennzeichnet. Die steigenden Simulationszeiten benachteiligen Minimumsuchverfahren, die eine Vielzahl an Iterationen benötigen. Um die Verwendung einer Zufallsvariablen, die maßgeblich zur Steigerung der Iterationanzahl beiträgt, zu vermeiden und gleichzeitig eine Globalisierung der Suche im Parameterraum zu ermöglichen wird die entwickelte Methode DelaunaySearch eingesetzt. Im Gegensatz zu den bekannten Algorithmen, wie die Partikelschwarmoptimierung oder die evolutionären Algorithmen, setzt die neu entwickelte Methode bei der Suche nach dem Minimum einer Kostenfunktion auf eine systematische Analyse der durchgeführten Simulationsergebnisse. Mit Hilfe der bei der Analyse gewonnenen Informationen werden Bereiche mit den bestmöglichen Voraussetzungen für ein Minimum identifiziert. Somit verzichtet das iterative Verfahren bei der Bestimmung des nächsten Iterationsschrittes auf die Verwendung einer Zufallsvariable. Als Ergebnis der Berechnungen steht ein gut gewählter Startwert für eine lokale Optimierung zur Verfügung. Aufbauend auf der Simulation der Fahrzeuglängsdynamik, der Steuergerätefunktionen und der Steller-Sensor-Streckenmodelle in einer Simulationsumgebung wird die Hybrid-Betriebsstrategie gemeinsam mit der Steuerung des Verbrennungsmotors optimiert. Mit der Entwicklung und Implementierung einer neuen Funktion wird weiterhin die Verbindung zwischen der Betriebsstrategie und der Motorsteuerung erweitert. Die vorgestellten Werkzeuge ermöglichten hierbei nicht nur einen Test der neuen Funktionalitäten, sondern auch eine Abschätzung der Verbesserungspotentiale beim Verbrauch und Abgasemissionen. Insgesamt konnte eine effiziente Testumgebung für eine gemeinsame Optimierung der Betriebsstrategie und des Verbrennungsmotorverhaltens eines Hybridfahrzeugs realisiert werden.
Resumo:
This research aims to understand the fundamental dynamic behavior of servo-controlled machinery in response to various types of sensory feedback. As an example of such a system, we study robot force control, a scheme which promises to greatly expand the capabilities of industrial robots by allowing manipulators to interact with uncertain and dynamic tasks. Dynamic models are developed which allow the effects of actuator dynamics, structural flexibility, and workpiece interaction to be explored in the frequency and time domains. The models are used first to explain the causes of robot force control instability, and then to find methods of improving this performance.
Resumo:
This thesis presents a new actuator system consisting of a micro-actuator and a macro-actuator coupled in parallel via a compliant transmission. The system is called the Parallel Coupled Micro-Macro Actuator, or PaCMMA. In this system, the micro-actuator is capable of high bandwidth force control due to its low mass and direct-drive connection to the output shaft. The compliant transmission of the macro-actuator reduces the impedance (stiffness) at the output shaft and increases the dynamic range of force. Performance improvement over single actuator systems was expected in force control, impedance control, force distortion and reduction of transient impact forces. A set of quantitative measures is proposed and the actuator system is evaluated against them: Force Control Bandwidth, Position Bandwidth, Dynamic Range, Impact Force, Impedance ("Backdriveability'"), Force Distortion and Force Performance Space. Several theoretical performance limits are derived from the saturation limits of the system. A control law is proposed and control system performance is compared to the theoretical limits. A prototype testbed was built using permanenent magnet motors and an experimental comparison was performed between this actuator concept and two single actuator systems. The following performance was observed: Force bandwidth of 56Hz, Torque Dynamic Range of 800:1, Peak Torque of 1040mNm, Minimum Torque of 1.3mNm. Peak Impact Force was reduced by an order of magnitude. Distortion at small amplitudes was reduced substantially. Backdriven impedance was reduced by 2-3 orders of magnitude. This actuator system shows promise for manipulator design as well as psychophysical tests of human performance.
Resumo:
The transformation from high level task specification to low level motion control is a fundamental issue in sensorimotor control in animals and robots. This thesis develops a control scheme called virtual model control which addresses this issue. Virtual model control is a motion control language which uses simulations of imagined mechanical components to create forces, which are applied through joint torques, thereby creating the illusion that the components are connected to the robot. Due to the intuitive nature of this technique, designing a virtual model controller requires the same skills as designing the mechanism itself. A high level control system can be cascaded with the low level virtual model controller to modulate the parameters of the virtual mechanisms. Discrete commands from the high level controller would then result in fluid motion. An extension of Gardner's Partitioned Actuator Set Control method is developed. This method allows for the specification of constraints on the generalized forces which each serial path of a parallel mechanism can apply. Virtual model control has been applied to a bipedal walking robot. A simple algorithm utilizing a simple set of virtual components has successfully compelled the robot to walk eight consecutive steps.