134 resultados para Fehler
Resumo:
Es wird dargestellt, auf welche Weise man den Einfluss von Steifigkeitsänderungen auf Weg- oder Kraftgrößen bestimmen kann. Berücksichtigt werden Steifigkeitsänderungen eines Punktlagers, z.B. an einem Durchlaufträger und Steifigkeitsänderungen in einem bestimmten Bereich, z.B. die Lagerung einer Platte auf Wänden. Darüberhinaus wird auch der komplette Ausfall eines Punktlagers oder einer Wand bei der Herleitung berücksichtigt. Außerdem wird dargestellt, wie man Dehn- oder Biegesteifigkeitsänderungen in einzelnen Stäben, Balken und Bereichen einer Platte oder Scheibe berücksichtigen kann. Auch für den Ausfall eines Stabs in einem ebenen Fachwerk oder eines Balkens in einem Rahmentragwerk werden Formeln hergeleitet, mit denen man die Änderung einer Punktgröße für diesen Fall ermitteln kann. Die hergeleiteten Formeln basieren auf der schwachen Formulierung, die mittels partieller Integration aus der Differential- gleichung hervorgeht. Man betrachtet den Unterschied der inneren Energie eines ungeschwächten Systems 1 und eines geschwächten Systems 2 und setzt anstelle der virtuellen Verrückung die Einflussfunktion für die gesuchte Weg- oder Kraftgröße im System 1 ein. Das Ergebnis der Herleitung ist eine Gleichung, mit der man Steifigkeitsänderungen in Tragwerken und deren Einfluss auf Punkt- größen berücksichtigen kann.
Resumo:
Aus der Einleitung: "'Die Wissensgesellschaft existiert noch nicht, aber sie wirft ihre Schatten voraus' (Willke 1998, S. 163). Als zentrales Element der bevorstehenden Umwandlung von der Industrie- in eine Wissensgesellschaft wird dabei die organisierte Wissensarbeit identifiziert. Gegenwärtig werden anscheinend jedoch auch Schatten hervorgebracht, die eine andere Lichtquelle als die Renaissance der Idee einer aufkommenden Wissensgesellschaft (vgl. u. a. Etzioni 1971) haben: 'Der Beruf des Arztes (...) verliert an Ansehen und Respekt. Im täglichen Umgang mit den Patienten ist davon vorläufig noch wenig zu spüren. Glücklicherweise. Gerade als junger Krankenhausarzt am Ende des zweiten chirurgischen Ausbildungsjahres weiß ich: Ohne den hartnäckigen, historisch gewachsenen Nimbus des grundsätzlichen Wohltuenden, des Vertrauenswürdigen und Kundigen könnten Ärzte ihre täglichen Aufgaben niemals angemessen erfüllen. (...) Wo langjährige persönliche Vertrauensbildung zum Arzt fehlt, entsteht beim Patienten oft genug nur auf diese Weise die Überzeugung, er sei in guten Händen. (...) Gleichsam als Zins und Tilgung für den erhaltenen Autoritätskredit sehe ich mich in der Pflicht, das Ansehen meines Berufstandes zu wahren. (...) Kurz: Ohne den geliehenen Glanz des Arztberufes keine Chance auf Erfüllung im Beruf. (...) Die gegenwärtig von den Ärzten selbst, von den Krankenkassen, von Politikern und den Medien mit Lust betriebene Demontage des ärztlichen Nimbus wird sich noch als schwerer Fehler erweisen. Denn wo Ärzte ohne Glanz und Status sind, bleiben schließlich die Patienten auf sich allein gestellt zurück' (Pohland 1999, S. 13). Wird dieser Beobachtung ein empirischer Gehalt zugestanden, dann spricht einiges für die Annahme, daß parallel mit der Expansion wissensintensiver Dienstleistungen sich eine schleichende Entwertung von Expertenkulturen vollzieht und bisher auf exklusives Wissen basierende professionelle Tätigkeiten ihre ausschließliche Deutungsmacht verlieren. Mit leichtem Zynismus kann infolgedessen konstatiert werden, daß die wissenschaftliche Sozialpädagogik in diesem Punkt einmal wirklich dem gesellschaftlichen Zeitgeist voraus war. Denn auf ein der medizinischen Profession entsprechendes selbstverständliches, traditionell gewachsenes Ansehen konnte die Profession der Sozialen Arbeit in ihrer Geschichte noch nie verweisen. Respekt und Ansehen müssen sich die sozialpädagogischen Professionellen bis heute tagtäglich neu erobern. Und wo diese interaktiv konstituierende Vertrauensbildung nicht gelingt, kann auf kein Autoritätskredit zurückgegriffen werden, um anvisierten Hilfe- und Bildungsprozesse effektiv zu aktivieren. Diplom-SozialpädagogInnen und SozialarbeiterInnen, ErzieherInnen und DiplompädagogInnen in der Sozialen Arbeit befürchten demzufolge primär auch nicht die Demontage ihres Ansehens. Ihr Ansehen in der Öffentlichkeit ist seit Jahrzehnten äußerst fragil. Die Sozialpädagogik kann, so ein vielfach nachzulesender Befund (vgl. Haupert/Kraimer 1991; Thole/Küster-Schapfl 1997; Niemeyer 1990, 1998; Rauschenbach 1999), weder auf eine Kartographie ausformulierter und für sie reservierter Wissensbestände verweisen noch hat sie einen eindeutigen, klar zu benennenden Ort in der Praxis, ein einheitliches Profil der Ausbildung, eine selbstverständliche, von allen ihren VertreterInnen geteilte disziplinäre Heimat. Der Beitrag wird diesen Befund aus professionstheoretischer Sicht vertiefen und erstens einige Etappen des sozialpädagogischen Professionalisierungsprojektes der jüngeren Zeit resümieren, zweitens die aktuellen empirischen Suchbewegungen nach den Verwendungsformen von fachlichen Wissen im sozialpädagogischen Handeln kritisch gegenlesen sowie drittens die sich daraus ergebenden Konsequenzen sowohl für die akademische Ausbildung als auch für die Performanz der Praxis Sozialer Arbeit diskutieren."
Resumo:
The process of developing software that takes advantage of multiple processors is commonly referred to as parallel programming. For various reasons, this process is much harder than the sequential case. For decades, parallel programming has been a problem for a small niche only: engineers working on parallelizing mostly numerical applications in High Performance Computing. This has changed with the advent of multi-core processors in mainstream computer architectures. Parallel programming in our days becomes a problem for a much larger group of developers. The main objective of this thesis was to find ways to make parallel programming easier for them. Different aims were identified in order to reach the objective: research the state of the art of parallel programming today, improve the education of software developers about the topic, and provide programmers with powerful abstractions to make their work easier. To reach these aims, several key steps were taken. To start with, a survey was conducted among parallel programmers to find out about the state of the art. More than 250 people participated, yielding results about the parallel programming systems and languages in use, as well as about common problems with these systems. Furthermore, a study was conducted in university classes on parallel programming. It resulted in a list of frequently made mistakes that were analyzed and used to create a programmers' checklist to avoid them in the future. For programmers' education, an online resource was setup to collect experiences and knowledge in the field of parallel programming - called the Parawiki. Another key step in this direction was the creation of the Thinking Parallel weblog, where more than 50.000 readers to date have read essays on the topic. For the third aim (powerful abstractions), it was decided to concentrate on one parallel programming system: OpenMP. Its ease of use and high level of abstraction were the most important reasons for this decision. Two different research directions were pursued. The first one resulted in a parallel library called AthenaMP. It contains so-called generic components, derived from design patterns for parallel programming. These include functionality to enhance the locks provided by OpenMP, to perform operations on large amounts of data (data-parallel programming), and to enable the implementation of irregular algorithms using task pools. AthenaMP itself serves a triple role: the components are well-documented and can be used directly in programs, it enables developers to study the source code and learn from it, and it is possible for compiler writers to use it as a testing ground for their OpenMP compilers. The second research direction was targeted at changing the OpenMP specification to make the system more powerful. The main contributions here were a proposal to enable thread-cancellation and a proposal to avoid busy waiting. Both were implemented in a research compiler, shown to be useful in example applications, and proposed to the OpenMP Language Committee.
Resumo:
Mit aktiven Magnetlagern ist es möglich, rotierende Körper durch magnetische Felder berührungsfrei zu lagern. Systembedingt sind bei aktiv magnetgelagerten Maschinen wesentliche Signale ohne zusätzlichen Aufwand an Messtechnik für Diagnoseaufgaben verfügbar. In der Arbeit wird ein Konzept entwickelt, das durch Verwendung der systeminhärenten Signale eine Diagnose magnetgelagerter rotierender Maschinen ermöglicht und somit neben einer kontinuierlichen Anlagenüberwachung eine schnelle Bewertung des Anlagenzustandes gestattet. Fehler können rechtzeitig und ursächlich in Art und Größe erkannt und entsprechende Gegenmaßnahmen eingeleitet werden. Anhand der erfassten Signale geschieht die Gewinnung von Merkmalen mit signal- und modellgestützten Verfahren. Für den Magnetlagerregelkreis erfolgen Untersuchungen zum Einsatz modellgestützter Parameteridentifikationsverfahren, deren Verwendbarkeit wird bei der Diagnose am Regler und Leistungsverstärker nachgewiesen. Unter Nutzung von Simulationsmodellen sowie durch Experimente an Versuchsständen werden die Merkmalsverläufe im normalen Referenzzustand und bei auftretenden Fehlern aufgenommen und die Ergebnisse in einer Wissensbasis abgelegt. Diese dient als Grundlage zur Festlegung von Grenzwerten und Regeln für die Überwachung des Systems und zur Erstellung wissensbasierter Diagnosemodelle. Bei der Überwachung werden die Merkmalsausprägungen auf das Überschreiten von Grenzwerten überprüft, Informationen über erkannte Fehler und Betriebszustände gebildet sowie gegebenenfalls Alarmmeldungen ausgegeben. Sich langsam anbahnende Fehler können durch die Berechnung der Merkmalstrends mit Hilfe der Regressionsanalyse erkannt werden. Über die bisher bei aktiven Magnetlagern übliche Überwachung von Grenzwerten hinaus erfolgt bei der Fehlerdiagnose eine Verknüpfung der extrahierten Merkmale zur Identifizierung und Lokalisierung auftretender Fehler. Die Diagnose geschieht mittels regelbasierter Fuzzy-Logik, dies gestattet die Einbeziehung von linguistischen Aussagen in Form von Expertenwissen sowie die Berücksichtigung von Unbestimmtheiten und ermöglicht damit eine Diagnose komplexer Systeme. Für Aktor-, Sensor- und Reglerfehler im Magnetlagerregelkreis sowie Fehler durch externe Kräfte und Unwuchten werden Diagnosemodelle erstellt und verifiziert. Es erfolgt der Nachweis, dass das entwickelte Diagnosekonzept mit beherrschbarem Rechenaufwand korrekte Diagnoseaussagen liefert. Durch Kaskadierung von Fuzzy-Logik-Modulen wird die Transparenz des Regelwerks gewahrt und die Abarbeitung der Regeln optimiert. Endresultat ist ein neuartiges hybrides Diagnosekonzept, welches signal- und modellgestützte Verfahren der Merkmalsgewinnung mit wissensbasierten Methoden der Fehlerdiagnose kombiniert. Das entwickelte Diagnosekonzept ist für die Anpassung an unterschiedliche Anforderungen und Anwendungen bei rotierenden Maschinen konzipiert.
Resumo:
Die vorliegende Arbeit behandelt Restartautomaten und Erweiterungen von Restartautomaten. Restartautomaten sind ein Werkzeug zum Erkennen formaler Sprachen. Sie sind motiviert durch die linguistische Methode der Analyse durch Reduktion und wurden 1995 von Jancar, Mráz, Plátek und Vogel eingeführt. Restartautomaten bestehen aus einer endlichen Kontrolle, einem Lese/Schreibfenster fester Größe und einem flexiblen Band. Anfänglich enthält dieses sowohl die Eingabe als auch Bandbegrenzungssymbole. Die Berechnung eines Restartautomaten läuft in so genannten Zyklen ab. Diese beginnen am linken Rand im Startzustand, in ihnen wird eine lokale Ersetzung auf dem Band durchgeführt und sie enden mit einem Neustart, bei dem das Lese/Schreibfenster wieder an den linken Rand bewegt wird und der Startzustand wieder eingenommen wird. Die vorliegende Arbeit beschäftigt sich hauptsächlich mit zwei Erweiterungen der Restartautomaten: CD-Systeme von Restartautomaten und nichtvergessende Restartautomaten. Nichtvergessende Restartautomaten können einen Zyklus in einem beliebigen Zustand beenden und CD-Systeme von Restartautomaten bestehen aus einer Menge von Restartautomaten, die zusammen die Eingabe verarbeiten. Dabei wird ihre Zusammenarbeit durch einen Operationsmodus, ähnlich wie bei CD-Grammatik Systemen, geregelt. Für beide Erweiterungen zeigt sich, dass die deterministischen Modelle mächtiger sind als deterministische Standardrestartautomaten. Es wird gezeigt, dass CD-Systeme von Restartautomaten in vielen Fällen durch nichtvergessende Restartautomaten simuliert werden können und andererseits lassen sich auch nichtvergessende Restartautomaten durch CD-Systeme von Restartautomaten simulieren. Des Weiteren werden Restartautomaten und nichtvergessende Restartautomaten untersucht, die nichtdeterministisch sind, aber keine Fehler machen. Es zeigt sich, dass diese Automaten durch deterministische (nichtvergessende) Restartautomaten simuliert werden können, wenn sie direkt nach der Ersetzung einen neuen Zyklus beginnen, oder ihr Fenster nach links und rechts bewegen können. Außerdem gilt, dass alle (nichtvergessenden) Restartautomaten, die zwar Fehler machen dürfen, diese aber nach endlich vielen Zyklen erkennen, durch (nichtvergessende) Restartautomaten simuliert werden können, die keine Fehler machen. Ein weiteres wichtiges Resultat besagt, dass die deterministischen monotonen nichtvergessenden Restartautomaten mit Hilfssymbolen, die direkt nach dem Ersetzungsschritt den Zyklus beenden, genau die deterministischen kontextfreien Sprachen erkennen, wohingegen die deterministischen monotonen nichtvergessenden Restartautomaten mit Hilfssymbolen ohne diese Einschränkung echt mehr, nämlich die links-rechts regulären Sprachen, erkennen. Damit werden zum ersten Mal Restartautomaten mit Hilfssymbolen, die direkt nach dem Ersetzungsschritt ihren Zyklus beenden, von Restartautomaten desselben Typs ohne diese Einschränkung getrennt. Besonders erwähnenswert ist hierbei, dass beide Automatentypen wohlbekannte Sprachklassen beschreiben.
Resumo:
Die Diagnose von Fehlern des Zylinderdrucksensors wird anhand eines Ottomotors mit Saugrohreinspritzung (MPI) vorgestellt. Die physikalischen Zusammenhänge und die Einflussgrößen auf das Drehmoment des Motors werden erläutert. Hierzu werden verschiedene Modellansätze vorgestellt sowie eine Variation der Modelleingangsgrößen durchgeführt. Anhand des Verfahrens der analytischen Redundanz werden Residuen abgeleitet und die Empfindlichkeit gegenüber bestimmten Fehlertypen aufgezeigt. Dadurch ist eine Trennung von Fehlern des Zylinderdrucksensors gegenüber motorischen Toleranzen oder nicht zylinderdrucksensorbasierten Fehlern möglich. Handelt es sich bei dem verwendeten Motorkonzept um einen Ottomotor mit quantitätsbasierter Laststeuerung, d.h. mit gleichbleibender Gemischzusammensetzung (i.d.R. Luft-/Kraftstoffverhältnis =1), so kann bei erkanntem Fehler des Zylinderdrucksensors eine weitere Aufteilung nach verschiedenen Fehlertypen erfolgen (z.B. Hysterese, Verstärkungsfehler). Auf diese Weise können Sensortoleranzen wie der Verstärkungsfehler des Zylinderdrucksensors durch eine Adaption korrigiert werden. Die Diagnosefunktion und die Verstärkungsadaption wurde erfolgreich an einem 2,0l-Ottomotor (MPI) ohne externe Abgasrückführung (AGR) und ohne kontinuierliche Nockenwellenverstellung (KNWE) durchgeführt, wobei die erwähnten Einschränkungen in Bezug auf die Betriebsbereiche zu berücksichtigen sind. Anhand der Modellstreuungen und Modellungenauigkeiten sind die Grenzen der Diagnose und der Adaption aufgezeigt worden. Die auf einem Prototypensteuergerät implementierten Algorithmen sind echtzeitfähig, wenngleich für die Zylinderdruck- und Drehzahlauswertung eine hohe Rechenleistung erforderlich ist.
Resumo:
Kern der vorliegenden Arbeit ist die Erforschung von Methoden, Techniken und Werkzeugen zur Fehlersuche in modellbasierten Softwareentwicklungsprozessen. Hierzu wird zuerst ein von mir mitentwickelter, neuartiger und modellbasierter Softwareentwicklungsprozess, der sogenannte Fujaba Process, vorgestellt. Dieser Prozess wird von Usecase Szenarien getrieben, die durch spezielle Kollaborationsdiagramme formalisiert werden. Auch die weiteren Artefakte des Prozess bishin zur fertigen Applikation werden durch UML Diagrammarten modelliert. Es ist keine Programmierung im Quelltext nötig. Werkzeugunterstützung für den vorgestellte Prozess wird von dem Fujaba CASE Tool bereitgestellt. Große Teile der Werkzeugunterstützung für den Fujaba Process, darunter die Toolunterstützung für das Testen und Debuggen, wurden im Rahmen dieser Arbeit entwickelt. Im ersten Teil der Arbeit wird der Fujaba Process im Detail erklärt und unsere Erfahrungen mit dem Einsatz des Prozesses in Industrieprojekten sowie in der Lehre dargestellt. Der zweite Teil beschreibt die im Rahmen dieser Arbeit entwickelte Testgenerierung, die zu einem wichtigen Teil des Fujaba Process geworden ist. Hierbei werden aus den formalisierten Usecase Szenarien ausführbare Testfälle generiert. Es wird das zugrunde liegende Konzept, die konkrete technische Umsetzung und die Erfahrungen aus der Praxis mit der entwickelten Testgenerierung dargestellt. Der letzte Teil beschäftigt sich mit dem Debuggen im Fujaba Process. Es werden verschiedene im Rahmen dieser Arbeit entwickelte Konzepte und Techniken vorgestellt, die die Fehlersuche während der Applikationsentwicklung vereinfachen. Hierbei wurde darauf geachtet, dass das Debuggen, wie alle anderen Schritte im Fujaba Process, ausschließlich auf Modellebene passiert. Unter anderem werden Techniken zur schrittweisen Ausführung von Modellen, ein Objekt Browser und ein Debugger, der die rückwärtige Ausführung von Programmen erlaubt (back-in-time debugging), vorgestellt. Alle beschriebenen Konzepte wurden in dieser Arbeit als Plugins für die Eclipse Version von Fujaba, Fujaba4Eclipse, implementiert und erprobt. Bei der Implementierung der Plugins wurde auf eine enge Integration mit Fujaba zum einen und mit Eclipse auf der anderen Seite geachtet. Zusammenfassend wird also ein Entwicklungsprozess vorgestellt, die Möglichkeit in diesem mit automatischen Tests Fehler zu identifizieren und diese Fehler dann mittels spezieller Debuggingtechniken im Programm zu lokalisieren und schließlich zu beheben. Dabei läuft der komplette Prozess auf Modellebene ab. Für die Test- und Debuggingtechniken wurden in dieser Arbeit Plugins für Fujaba4Eclipse entwickelt, die den Entwickler bestmöglich bei der zugehörigen Tätigkeit unterstützen.
Resumo:
Bei der Arbeit an sicherheitsgerichteten Kommunikationsprotokollen stellten sich immer wieder die Fragen nach der Eignung von einzelnen Mechanismen der Protokolle, um den Gefährdungen entsprechende Maßnahmen zur Beherrschung entgegenzusetzen. Dabei waren durchweg die Anforderungen der IEC 61508 mit dem Safety Integrity Level 3 zu erfüllen. Die IEC 61508-2 ist mit 5 Zeilen Umfang für die wesentlichen Anforderungen an die sicherheitsgerichtete Kommunikation sehr kurz gehalten und die IEC 61784-3 war zu Beginn der Arbeiten noch nicht veröffentlicht. Aber die IEC 61784-3 stellt auch heute nur einen unvollständigen Kriterienkatalog zusammen. Insbesondere die in IEC 61508-2 geforderte quantitative Analyse wird in der IEC 61784-3 nicht ausreichend thematisiert. In bisherigen sicherheitsgerichteten Protokollen und den relevanten Normen des Anwendungsbereichs fanden die Gefährdungspotentiale, wie Masquerading und Adressierung in offenen Übertragungssystemen, absichtliche Unterminierung der Sicherheitsmechanismen und fehlerhafte Konfiguration keine ausreichende Beachtung und die Gefährdungen durch absehbaren Missbrauch, absehbare Fehlbedienung und unberechtigter Zugriff auf sichere Kommunikationseinrichtungen wurde nur in Randgebieten diskutiert. Hier zeigt die vorliegende Arbeit die Bedeutung dieser für den Einsatz von sicherheitsgerichteten Kommunikationsprotokollen im industriellen Umfeld auf und folgert daraus die entsprechenden Maßnahmen, die in der Verantwortung des Anwenders liegen, bzw. zum Teil auch durch Protokollmechanismen beherrscht werden können. Die Arbeit stellt einen umfassenden Gefährdungskatalog auf und bewertet nach diesem Katalog die am weitest verbreiteten sicherheitsgerichteten Kommunikationsprotokolle nach einem einheitlichen Maßstab. Weiter zeigt die vorgelegte Arbeit, dass auch ein existierendes Zertifikat gemäß IEC 61508 SIL3 nicht in jedem Fall ausreichend ist, um die Eignung eines Protokolls für den Einsatz gemäß dem aktuellen Stand der Normen zu bestätigen. Hervor zu heben ist insbesondere die quantitative Bewertung jeder einzelnen Maßnahme der Protokolle. Bislang wurde diese nur für die Beherrschung von verfälschten Nachrichten durchgeführt. Die Arbeit führt diese quantitative Bewertung der eingesetzten Maßnahmen systematisch durch und zeigt dabei, dass diese Bewertung dringend erforderlich ist, da die betrachteten öffentlichen Protokolle nicht die für SIL3 notwendige Güte für alle ihre Maßnahmen aufweisen, bzw. aufwiesen. Einer der Schwerpunkte dieser Arbeit ist die Definition von Verarbeitungsmodellen für die Berechnung der maximalen Reaktionszeit und der Worst-Case Reaktionszeit. Dazu wurde ein Modell aus 5 Komponenten erstellt, dass geeignet ist, die Reaktionszeit über ein Kommunikationssystem für die im industriellen Umfeld gebräuchlichen Anwendungen zu untersuchen. Diese 5 Komponenten, das Eingangsmodul, die Sicherheitssteuerung, die Kommunikation zwischen beiden, sowie das Ausgangsmodul und die Kommunikation zwischen diesem und der Sicherheitssteuerung. Anhand dieses Modells wurde die maximale Reaktionszeit definiert. Dies ist die Zeit, die von der Änderung eines physikalischen Eingangssignals der Eingangskomponente, bis zur zugehörigen Reaktion des physikalischen Ausgangssignals der Ausgangskomponente, über die Sicherheitssteuerung hinweg, benötigt wird. Die maximale Reaktionszeit betrachtet dabei den Fall, dass im gesamten System aus diesen 5 Komponenten kein Fehler eine Wirkung entfaltet. Die Worst-Case Reaktionszeiten der Protokolle sind auf Grund der verschiedenen Konzepte sehr differenziert zu betrachten. Erschwerend kommt hier noch hinzu, dass die im konkreten System erreichte minimale Worst-Case Reaktionszeit stark von der Implementierung des jeweiligen Herstellers abhängt. Ebenso problematisch ist die unterschiedliche Modellbildung der jeweiligen Protokoll-Organisationen. Es werden Fehlerausschlüsse gemacht, wie die Annahme, dass nur ein Fehler auftritt und dieser Fehler sich nicht auf die Verbindung zwischen Eingangsmodul und Sicherheitssteuerung und auf die Verbindung zwischen Sicherheitssteuerung und Ausgangsmodul gleichzeitig auswirken kann. Da für den sicherheitsgerichteten Einsatz die maximale Reaktionszeit mit Fehlern die relevante Betrachtungseinheit darstellt, wurden anhand des Modells die Worst-Case 1 und 2 Reaktionszeiten definiert. Die erste definiert die Zeit die eine Reaktion maximal benötigt, wenn im Kommunikationssystem eine Fehlerwirkung vorliegt und bei der zweiten wird angenommen, dass mehrere der 5 Komponenten von Fehlerwirkungen betroffen sein können. Um einen vertieften Einblick in die Thematik zu erhalten, wurde im Rahmen dieser Arbeit ein eigenes sicherheitsgerichtetes Kommunikationsprotokoll spezifiziert, entworfen und realisiert. Hierbei wurde besonderer Augenmerk auf die Wirksamkeit des Verfälschungsschutzes mittels CRCs für kurze Nachrichten gelegt und ebenso die Wirksamkeit gekoppelter CRCs betrachtet.
Resumo:
Diese Arbeit befasst sich mit der Modellbildung mechatronischer Systeme mit Reibung. Geeignete dynamische Modelle sind die Grundlage für verschiedenste Aufgabenstellungen. Sind dynamische Prozessmodelle verfügbar, so können leistungsfähige modellbasierte Entwurfsmethoden angewendet werden sowie modellbasierte Anwendungen entwickelt werden. Allerdings ist der Aufwand für die Modellbildung ein beschränkender Faktor für eine weite Verbreitung modellbasierter Applikationen in der Praxis. Eine Automatisierung des Modellbildungsprozesses ist deshalb von großem Interesse. Die vorliegende Arbeit stellt für die Klasse „mechatronischer Systeme mit Reibung“ drei Modellierungsmethoden vor: semi-physikalische Modellierung, Sliding-Mode-Beobachter-basierte Modellierung und empirische Modellierung mit einem stückweise affinen (PWA) Modellansatz. Zum Ersten wird die semi-physikalische Modellierung behandelt. Gegenüber anderen Verfahren, die häufig umfangreiche Vorkenntnisse und aufwändige Experimente erfordern, haben diese neuen Verfahren den Vorteil, dass die Modellierung von Systemen mit Reibung selbst bei begrenzten Vorkenntnissen und minimalem Experimentaufwand automatisiert werden kann. Zum Zweiten wird ein neuer Ansatz zur Reibkraftrekonstruktion und Reibmodellierung mittels Sliding-Mode-Beobachter präsentiert. Durch Verwendung des vorgestellten Sliding-Mode- Beobachters, der basierend auf einem einfachen linearen Zustandsraummodell entworfen wird, lässt sich die Reibung datengetrieben aus den Ein-/Ausgangsmessdaten (im offenen Regelkreis) rekonstruieren und modellieren. Im Vergleich zu anderen Reibmodellierungsmethoden, die häufig umfangreiche Vorkenntnisse und aufwändige Messungen im geschlossenen Regelkreis erfordern, haben diese neuen Verfahren den Vorteil, dass die Modellierung von Systemen mit Reibung selbst bei begrenzten Vorkenntnissen und minimalem Experimentaufwand weitgehend automatisiert werden kann. Zum Dritten wird ein PWA-Modellierungsansatz mit einer clusterungsbasierten Identifikationsmethode für Systeme mit Reibung vorgestellt. In dieser Methode werden die Merkmale in Hinblick auf Reibeffekte ausgewählt. Und zwar wird der klassische c-Means-Algorithmus verwendet, welcher bedienfreundlich, effizient und geeignet für große und reale Datensätze ist. Im Gegensatz zu anderen Methoden sind bei dieser Methode nur wenige Entwurfsparameter einzustellen und sie ist für reale Systeme mit Reibung einfach anwendbar. Eine weitere Neuheit der vorgestellten PWA-Methode liegt darin, dass die Kombination der Clustervaliditätsmaße und Modellprädiktionsfehler zur Festlegung der Anzahl der Teilmodelle benutzt wird. Weiterhin optimiert die vorgestellte Methode die Parameter der lokalen Teilmodelle mit der OE (Output-Fehler)-Schätzmethode. Als Anwendungsbeispiele werden Drosselklappen, Drallklappen und AGR-Ventile (Abgasrückführventil) im Dieselfahrzeug betrachtet und die erzeugten Modelle werden in der industriellen HiL-Simulation eingesetzt. Aufgrund der Effizienz und Effektivität der Modellierungsmethoden sind die vorgestellten Methoden direkt in der automobilen Praxis einsetzbar.
Resumo:
In der algebraischen Kryptoanalyse werden moderne Kryptosysteme als polynomielle, nichtlineare Gleichungssysteme dargestellt. Das Lösen solcher Gleichungssysteme ist NP-hart. Es gibt also keinen Algorithmus, der in polynomieller Zeit ein beliebiges nichtlineares Gleichungssystem löst. Dennoch kann man aus modernen Kryptosystemen Gleichungssysteme mit viel Struktur generieren. So sind diese Gleichungssysteme bei geeigneter Modellierung quadratisch und dünn besetzt, damit nicht beliebig. Dafür gibt es spezielle Algorithmen, die eine Lösung solcher Gleichungssysteme finden. Ein Beispiel dafür ist der ElimLin-Algorithmus, der mit Hilfe von linearen Gleichungen das Gleichungssystem iterativ vereinfacht. In der Dissertation wird auf Basis dieses Algorithmus ein neuer Solver für quadratische, dünn besetzte Gleichungssysteme vorgestellt und damit zwei symmetrische Kryptosysteme angegriffen. Dabei sind die Techniken zur Modellierung der Chiffren von entscheidender Bedeutung, so das neue Techniken entwickelt werden, um Kryptosysteme darzustellen. Die Idee für das Modell kommt von Cube-Angriffen. Diese Angriffe sind besonders wirksam gegen Stromchiffren. In der Arbeit werden unterschiedliche Varianten klassifiziert und mögliche Erweiterungen vorgestellt. Das entstandene Modell hingegen, lässt sich auch erfolgreich auf Blockchiffren und auch auf andere Szenarien erweitern. Bei diesen Änderungen muss das Modell nur geringfügig geändert werden.
Resumo:
“Il tocco pianistico: premesse storiche e sviluppi scientifici” si pone l’obiettivo di provare la politimbricità del pianoforte. A tal fine, ho indagato la relazione tra il gesto, la meccanica del pianoforte e il suono, problema sfiorato da alcuni maestri del Novecento, ma mai approfondito e sviscerato per ovvie ragioni riguardanti la mancanza di una tecnologia idonea e competenze difficili da trovare in una medesima persona. Per quest’ultima ragione mi sono avvalsa della collaborazione sia del Laboratorio di Anatomia Funzionale dell'Apparato Locomotore del Dipartimento di Morfologia Umana dell’Università di Milano, dove lavorano esperti delle più moderne tecnologie idonee alla registrazione del movimento, sia dell’ingegnere Alberto Amendola, docente a contratto di Acustica musicale presso l’Università di Parma per ciò che concerne l’analisi del suono e i rilievi acustici. La tesi si articola in due parti organizzate in quattro capitoli. Nel primo, La didattica pianistica nel primo trentennio del Novecento: il tocco e il timbro come parole chiave, dopo aver tracciato un quadro generale riguardante i concetti di ‘tocco’ e ‘timbro’ incontrati nei metodi e trattati del Sette/Ottocento, già affrontati nella tesi di laurea, procedo ad analizzare alcuni dei lavori più rappresentativi scritti tra la fine dell’Ottocento e gli anni Trenta del Novecento (The Leschetizky Method. A Guide to Fine and Correct Piano Playing di Malwine Brée, Über die physiologischen Fehler und die Umgestaltung der Klaviertechnik di Albert Maria Steinhausen, Die Grundlagen der Klaviertechnik di Rudolph Maria Breithaupt e The Phisiological Mechanics of Piano Technique di Otto Ortmann). Tali studi presentano una parte dedicata alle diverse modalità di produzione sonora e, quasi tutti, giungono ad una medesima conclusione: pur nella sua ricchezza, il pianoforte è uno strumento monotimbrico, dove la differenza tra i suoni è data dall’intensità e dall’agogica. Al fine di provare la politimbricità del pianoforte, il mio percorso di studi si è scontrato sia con la meccanica del pianoforte sia con l’acustica musicale. Ho fatto precedere quindi l’indagine scientifica, che confluisce nel capitolo IV, da una sezione in cui presento l’evoluzione della meccanica del pianoforte fino a giungere alla descrizione della meccanica moderna (capitolo II, Il Pianoforte: meccanica e modalità di produzione del suono), e da un’altra in cui affronto i fondamenti di acustica musicale, al fine di fornire al lettore i mezzi basilari per cimentarsi con la parte scientifica (capitolo III, Cenni di acustica musicale). Il capitolo IV è il resoconto organico e sistematico delle sperimentazioni svolte durante il dottorato presso il laboratorio di Anatomia funzionale dell’apparato locomotore dell’Università di Milano. La presentazione ripercorre necessariamente le tappe della ricerca considerata la novità assoluta dell’oggetto indagato. All’illustrazione dei dati di ogni fase segue sempre la discussione e l’interpretazione dei risultati per garantire la validità dell’esperimento. L’interesse della ricerca è stato condiviso oltre che dal dipartimento di Anatomia, anche dalla casa costruttrice di pianoforti Bechstein che ha costruito una meccanica speciale, e dalla ditta di pianoforti Angelo Fabbrini, che ha messo a disposizione un mezza coda Bechstein per effettuare i rilievi. Il capitolo IV, che rappresenta, dunque, il cuore della presente dissertazione dottorale, dimostra che il pianoforte è uno strumento politimbrico: mettendo in relazione il gesto pianistico, la reazione della meccanica e il suono è risultato che al movimento del martello, ripetibilmente diverso a seconda del tocco pianistico, corrisponde una reazione acustica che varia ripetibilmente in maniera differente a seconda del tocco.
Resumo:
In dieser Arbeit wird eine Messung des magnetischen Moments des Elektronsin wasserstoffähnlichem Kohlenstoff vorgestellt. Das Ergebnis derMessungen an einem einzelnen gespeicherten12C5+-Ionist: g = 2,001 041 596 4 (8)(6)(44). Der erste Fehler bezeichnet die statistischeUnsicherheit, der zweite Fehler die systematische Unsicherheit. Der letzteFehler resultiert aus der Unsicherheit des Verhältnisses der Massedes 12C5+-Ions und der des Elektrons. Die hohe Genauigkeitder Messung wurde durch die räumliche Trennung des Nachweises derAusrichtung des Spins und des Induzierens der spin-flips erreicht. DieMessung stellt die bisher genaueste Bestimmung eines atomaren g-Faktorsdar und bestätigt den theoretischen Wert der Göteborger Theoriegruppeauf 7*10-9. Zusammen mit diesen Rechnungen verifiziert sie dieBound-State-QED-Korrekturen genauer als 1%. Somit ist der g-Faktor desin12C5+ gebunden Elektrons neben Messungen der Lambshiftin schweren hochgeladenen Ionen der genaueste Test der Bound-State-QED.
Wird auf die Richtigkeit der Berechnung des g-Faktors des gebundenenElektrons vertraut, kann folgender Wert für die atomare Masse desElektrons gewonnen werden: me= 0,000 548 579 912 8 (15) u.
Resumo:
Die Messung der 1s Hyperfeinstruktur (HFS) wasserstoffähn-licher Ionen bei hoher Kernladung Z erlaubt den Test der QED in Gegenwart starker elektrischer und magnetischer Felder durchzuführen. Aufgrund der Z^3-Abhängigkeit der magnetischen Wechselwirkung liegt die 1s-HFS bei hohem Z im optischen Spektrum und kann mit der Laserspektroskopie untersucht werden.In der vorliegenden Arbeit wurde die Grundzustands-HFS an 207Pb81+ bestimmt. Die Experimente wurden am Speicherring ESR der Gesellschaft für Schwerionenforschung mbH am Elek-tronen-gekühlten Bleistrahl durchgeführt.Ein besonderer Schwerpunkt dieser Arbeit war die Entwick-lung neuer Experimentiertechniken, die es erlauben, lang-lebigen Strahlungsübergänge im nahen infraroten Spektral-bereich mit Hilfe der Fluoreszenz-Laserspektroskopie am Speicherring zu untersuchen. Der Ionenstrahl wurde in kollinearer Geometrie mit einem Nd:YAG-Laser angeregt und die Resonanz durch Doppler-Abstimmung gemessen. Der M1-Übergang der 1s HFS an 207Pb81+ liegt bei 1019,7(2) nm. Die QED-Korrekturen sind damit auf wenige Prozent genau bestimmt. Die theoretische Berechnung der QED-Korrekturen benutzt die gemessenen bzw. den Kernmodellen entnommenen Verteilungen der Kernladung und der Kernmagnetisierung. Die Unsicherheit der Kenntnis dieser Verteilungen spielt nur eine untergeordnete Rolle für die Fehler in der gerechneten QED-Korrektur. Allerdings existieren für das magnetische Moment von 207Pb zwei widersprüchliche Literaturwerte. Die Diskussion der Ergebnisse wird im Rahmen dieses Sachver-haltes geführt.Die natürliche Lebensdauer des oberen Hyperfein-Niveaus wurde mit 49,5(6,5) ms gemessen und ist mit dem Theoriewert von 52,3(2) ms verträglich. Durch präzise Lebensdauermes-sungen können QED-Korrekturen zum g-Faktor des gebundenen Elektrons getestet werden.