993 resultados para Industrie aérospatiale
Resumo:
Persönlichkeiten, wie sie in der Arbeit beschrieben werden, treten zu Beginn ihres biografischen Weges noch ungeprägt auf. Erst ihre Lebens- und Arbeitsverhältnisse, die Auseinandersetzung mit Menschen, öffentlichen Institutionen sowie ihr Handeln, sei es positiv oder negativ, lassen die Person zur Persönlichkeit werden. Dabei beeinflussen neben individueller Veranlagung gesellschaftliche Rahmenbedingungen diesen Bildungsprozess. Der erste Teil setzt sich mit allgemeiner Interessenwahrnehmung und deren Umsetzung als ein Ausdruck von Macht auseinander, wobei erfolgsorientiertes Handeln sich auch als Kampf um Anerkennung bezeichnen ließe. Mit den dazu aufgeführten Kriterien soll am Ende der Arbeit der Aktor gemessen werden. Das persönliche Anspruchsdenken basiert auf einem gesellschaftlichen Umfeld, in dem Abbau ständischer Privilegien zum einen und Veränderung absolutistischer Staatsgewalt zum anderen voranschreiten. Unter den ökonomischen Bedingungen einer noch zeitlich begrenzt funktionierenden kurfürstlichen Administration versucht ein junger Kaufmann nach marktwirtschaftlichen Kriterien ein Leinenverlagssystem zu entwickeln, das die Zeit der Heimindustrie erneut kurz aufleben lässt, um nach Durchbruch des Industriekapitalismus wieder zu verschwinden. Von flexiblem Unternehmergeist getragen, wird der mit dem Verlag erwirtschaftete Mehrwert nicht in den Aufbau einer „neuen Industrie“ investiert, sondern als mobiles Kapital für den Erwerb von Grund und Boden benutzt. Hier wird die Notwendigkeit eines sich entwickelnden städtischen Wohnungsmarktes rechtzeitig erkannt. Eine bereits vorhandene kapitalistische Ordnung mit einem expandierenden Markt ermöglicht, Wohnungsbedarf mit Stadterweiterungsprojekten zu begegnen. Diese sind notwendig, da die Zentrierung von Arbeit in Form von Industriebetrieben eine Migration aus ländlichen Gebieten zum Arbeitsangebot in Gang setzt. Der Stadtbau verzögert sich in verschiedenen Kleinstaaten im Verhältnis zu Preußen. Die Finanzierung des „Produktes Stadt“ wird im Gegensatz zu landesherrlicher Zeit zu einem Instrument des kapitalistischen Marktes. Die industrielle Entwicklung ist an eine Organisation von Kreditvermittlungen gebunden. Das führt zu Erfolg und Misserfolg mit Bankgeschäften. Vergrößerungen kapitalistischer Unternehmungen erfordern Vermehrung des Kapitals. Der Aufschwung des deutschen Wirtschaftslebens ist von Krediten durch Geldgeber abhängig und diese treiben als Schrittmacher Industrie und Handel an. Die Vorgänge lassen sich auf den Stadtbauprozess übertragen. Klassengeist und Klassenhochmut einer bürgerlichen Gesellschaft führen zu mangelnder politischer Gleichberechtigung, die bei Unterschichten, politischen und gesellschaftlichen Randgruppen häufiger zu sozialer Diskriminierung beitragen. Mit besonderem Engagement auf ökonomischem Terrain versuchen Juden, ihre gesellschaftliche Isolierung aufzuheben, indem sie materiellen Erfolg benutzen, um als Wirtschaftsbürger, als „Bourgeois“ im Sinne von Marx, zu gelten. Die „Titelordnung“ der wilhelminischen Gesellschaft verändert sich von Leistungsauszeichnung zu Beförderung durch Bezahlung, um damit die monarchische „Schatulle“ und im sozialen Bereich den Staatshaushalt zu entlasten. Die Ausgezeichneten erkennen diesen Wandel nicht und sehen dagegen in der Verleihung eine Geste gesellschaftlicher Anerkennung. Die Orden tragen dazu bei, die äußerliche Kluft zwischen den ausgezeichneten bürgerlichen Trägern und dem die Gesellschaft führenden Feudaladel zu verringern. Die vorliegende Arbeit stützt sich auf Quellen aus unterschiedlichen politischen Entscheidungsebenen. Sie sind nur soweit umfassend, wie sie als Archivmaterial auszuheben sind. Die dort gesammelten Schriftstücke unterlagen bei ihrer Archivierung einem hausinternen Auswahlvorgang. Somit ist eine umfassende Darstellung nicht möglich. Die Schriftstücke liegen, von wenigen Ausnahmen abgesehen, handgeschrieben vor und sind häufig schwer zu lesen. Der Rückgriff auf Äußerungen von administrativer Seite könnte auch als Blick von „oben“ gedeutet werden. Jedoch verbergen sich hinter jedem Vorgang ganz normale menschliche Interessen, die für viele Abläufe keines wissenschaftlichen Überbaus bedürfen. Meine Arbeit beabsichtigt, den Untersuchungsgegenstand aus einem bisher nicht erschlossenen Blickwinkel zu beleuchten. Straßennamen erfahren im Untersuchungszeitraum verifizierte Schreibweisen, die möglicherweise auf Vorstellungen des jeweiligen Planverfassers zurückzuführen sind. Für Kölnische Straße wird auch Kölnische Allee, Cölnische Str. oder Cöllnsche Str. gebraucht. Gleiches gilt z.B. bei Querallee mit Quer Allee, Quer-Allee oder Cölnische Querallee. Werden Erklärungen zu bestimmten Karten formuliert wird auch die dortige Schreibweise verwandt, um einen Zusammenhang zwischen Text und Karte zu erleichtern. Die nach dem 2. Weltkrieg im Untersuchungsraum aufgenommenen Straßennamen stehen in keiner Verbindung zur Entstehungsgeschichte. Marxistische Terminologie als Erklärung wirtschaftlicher Zusammenhänge schließt ein marxistisches Gesellschaftsbild nicht mit ein. Wirtschaftliche Entwicklungen des 19. Jahrhundert bis 1915 werden mit ihrer impliziten liberalen Wirtschaftsauffassung dargestellt. Im Dezember 2005 erschien zur Denkmalstopografie, Kulturdenkmäler Hessen, die Ausgabe Stadt Kassel II. Diese setzt sich auch mit Problemstellungen der vorliegenden Arbeit auseinander. Der Verfasser hat versucht, nach bereits fertig gestelltem Gesamttext, wesentliche Aspekte daraus aufzugreifen, um damit die Relevanz eigener Erkenntnisse zu überprüfen. Dabei bleiben verschiedene Fragestellungen, wie z.B. der mögliche Einfluss von Reinhard Baumeister (1833-1917) auf die Kasseler Stadterweiterung, ungelöst. Derartige Hypothesen bedürfen weiterer Überprüfung. Kartografische Darstellungen sollen die historisch-genetische Schichtung des Siedlungsraumes erfassen, um durch veränderte Sichtweise Textaussagen zu unterstützen. Hierzu bilden Kartenblätter um 1840 die Basis für kartografische Aussagen zu Siedlungs- und Landschaftsformen. Ferner werden Stadtpläne ab 1822 die westliche Gemarkung der Stadt betreffend, sogenannte Kataster „Urkarten“ der „Feldmark Cassel“ sowie dem „Kreis Kassel“ als Gemarkungskarten ab 1848, bezüglich Fragestellungen zum Siedlungsraum vor der westlichen Stadterweiterung herangezogen. Fluchtlinien- und Stadtpläne besonders Möckel- 1866, Neumann- 1878 sowie Blumenauer-Plan 1891-97 unterstützen Aussagen zum Bauprozess des Quartiers. Für Gestaltung bestimmter kartografischer Zustände wird die jeweilige Kartenschreibweise benutzt, was zu Abweichungen gegenüber heutiger Namensgebung führt. Bei allgemeinen Feststellungen zieht der Verfasser die gebräuchliche Schreibweise des 19. Jahrhunderts bis 1913 heran. Mit dieser Vorgehensweise wird versucht, eine urbane Entwicklung auch bei der verbalen Akzentuierung als Gesamtprozess zu erfassen. Um mehrere Zeitzustände zu visualisieren und deren Entwicklungszustände zu deuten, werden Kartendarstellungen in verschiedene Ebenen gebracht. Der Endzustand gründet sich auf Stadtpläne von 1913 und 1943. Grundlage der digitalisierten Kartenproduktion sowie ihre Georeferenzierung erfolgt mit dem Programm Arc View sowie Informationen aus GIS-DATA/kassel. Einheitliches Kartenbild soll die Interpretation erleichtern. In der gedruckten Arbeit ist das umfangreiche Kartenmaterial nur partiell berücksichtigt. Deshalb sind auf beiliegender CD neben bereits verwendeten Karten andere Originalabbildungen aufgenommen, um dem Interessierten spezielle Detailinformationen zu vermitteln und für weitere Forschungsvorhaben eine Plattform zu schaffen.
Resumo:
Aus der Einleitung: "'Die Wissensgesellschaft existiert noch nicht, aber sie wirft ihre Schatten voraus' (Willke 1998, S. 163). Als zentrales Element der bevorstehenden Umwandlung von der Industrie- in eine Wissensgesellschaft wird dabei die organisierte Wissensarbeit identifiziert. Gegenwärtig werden anscheinend jedoch auch Schatten hervorgebracht, die eine andere Lichtquelle als die Renaissance der Idee einer aufkommenden Wissensgesellschaft (vgl. u. a. Etzioni 1971) haben: 'Der Beruf des Arztes (...) verliert an Ansehen und Respekt. Im täglichen Umgang mit den Patienten ist davon vorläufig noch wenig zu spüren. Glücklicherweise. Gerade als junger Krankenhausarzt am Ende des zweiten chirurgischen Ausbildungsjahres weiß ich: Ohne den hartnäckigen, historisch gewachsenen Nimbus des grundsätzlichen Wohltuenden, des Vertrauenswürdigen und Kundigen könnten Ärzte ihre täglichen Aufgaben niemals angemessen erfüllen. (...) Wo langjährige persönliche Vertrauensbildung zum Arzt fehlt, entsteht beim Patienten oft genug nur auf diese Weise die Überzeugung, er sei in guten Händen. (...) Gleichsam als Zins und Tilgung für den erhaltenen Autoritätskredit sehe ich mich in der Pflicht, das Ansehen meines Berufstandes zu wahren. (...) Kurz: Ohne den geliehenen Glanz des Arztberufes keine Chance auf Erfüllung im Beruf. (...) Die gegenwärtig von den Ärzten selbst, von den Krankenkassen, von Politikern und den Medien mit Lust betriebene Demontage des ärztlichen Nimbus wird sich noch als schwerer Fehler erweisen. Denn wo Ärzte ohne Glanz und Status sind, bleiben schließlich die Patienten auf sich allein gestellt zurück' (Pohland 1999, S. 13). Wird dieser Beobachtung ein empirischer Gehalt zugestanden, dann spricht einiges für die Annahme, daß parallel mit der Expansion wissensintensiver Dienstleistungen sich eine schleichende Entwertung von Expertenkulturen vollzieht und bisher auf exklusives Wissen basierende professionelle Tätigkeiten ihre ausschließliche Deutungsmacht verlieren. Mit leichtem Zynismus kann infolgedessen konstatiert werden, daß die wissenschaftliche Sozialpädagogik in diesem Punkt einmal wirklich dem gesellschaftlichen Zeitgeist voraus war. Denn auf ein der medizinischen Profession entsprechendes selbstverständliches, traditionell gewachsenes Ansehen konnte die Profession der Sozialen Arbeit in ihrer Geschichte noch nie verweisen. Respekt und Ansehen müssen sich die sozialpädagogischen Professionellen bis heute tagtäglich neu erobern. Und wo diese interaktiv konstituierende Vertrauensbildung nicht gelingt, kann auf kein Autoritätskredit zurückgegriffen werden, um anvisierten Hilfe- und Bildungsprozesse effektiv zu aktivieren. Diplom-SozialpädagogInnen und SozialarbeiterInnen, ErzieherInnen und DiplompädagogInnen in der Sozialen Arbeit befürchten demzufolge primär auch nicht die Demontage ihres Ansehens. Ihr Ansehen in der Öffentlichkeit ist seit Jahrzehnten äußerst fragil. Die Sozialpädagogik kann, so ein vielfach nachzulesender Befund (vgl. Haupert/Kraimer 1991; Thole/Küster-Schapfl 1997; Niemeyer 1990, 1998; Rauschenbach 1999), weder auf eine Kartographie ausformulierter und für sie reservierter Wissensbestände verweisen noch hat sie einen eindeutigen, klar zu benennenden Ort in der Praxis, ein einheitliches Profil der Ausbildung, eine selbstverständliche, von allen ihren VertreterInnen geteilte disziplinäre Heimat. Der Beitrag wird diesen Befund aus professionstheoretischer Sicht vertiefen und erstens einige Etappen des sozialpädagogischen Professionalisierungsprojektes der jüngeren Zeit resümieren, zweitens die aktuellen empirischen Suchbewegungen nach den Verwendungsformen von fachlichen Wissen im sozialpädagogischen Handeln kritisch gegenlesen sowie drittens die sich daraus ergebenden Konsequenzen sowohl für die akademische Ausbildung als auch für die Performanz der Praxis Sozialer Arbeit diskutieren."
Resumo:
Die Technologie dienstorientierter Architekturen (Service-oriented Architectures, kurz SOA) weckt große Visionen auf Seiten der Industrie wie auch der Forschung. Sie hat sich als derzeit ideale Lösung für Umgebungen, in denen sich die Anforderungen an die IT-Bedürfnisse rapide ändern, erwiesen. Heutige IT-Systeme müssen Managementaufgaben wie Softwareinstallation, -anpassung oder -austausch erlauben, ohne dabei den laufenden Betrieb wesentlich zu stören. Die dafür nötige Flexibilität bieten dienstorientierte Architekturen, in denen Softwarekomponenten in Form von Diensten zur Verfügung stehen. Ein Dienst bietet über seine Schnittstelle lokalen wie entfernten Applikationen einen Zugang zu seiner Funktionalität. Wir betrachten im Folgenden nur solche dienstorientierte Architekturen, in denen Dienste zur Laufzeit dynamisch entdeckt, gebunden, komponiert, verhandelt und adaptiert werden können. Eine Applikation kann mit unterschiedlichen Diensten arbeiten, wenn beispielsweise Dienste ausfallen oder ein neuer Dienst die Anforderungen der Applikation besser erfüllt. Eine unserer Grundvoraussetzungen lautet somit, dass sowohl das Dienstangebot als auch die Nachfrageseite variabel sind. Dienstorientierte Architekturen haben besonderes Gewicht in der Implementierung von Geschäftsprozessen. Im Rahmen des Paradigmas Enterprise Integration Architecture werden einzelne Arbeitsschritte als Dienste implementiert und ein Geschäftsprozess als Workflow von Diensten ausgeführt. Eine solche Dienstkomposition wird auch Orchestration genannt. Insbesondere für die so genannte B2B-Integration (Business-to-Business) sind Dienste das probate Mittel, um die Kommunikation über die Unternehmensgrenzen hinaus zu unterstützen. Dienste werden hier in der Regel als Web Services realisiert, welche vermöge BPEL4WS orchestriert werden. Der XML-basierte Nachrichtenverkehr und das http-Protokoll sorgen für eine Verträglichkeit zwischen heterogenen Systemen und eine Transparenz des Nachrichtenverkehrs. Anbieter dieser Dienste versprechen sich einen hohen Nutzen durch ihre öffentlichen Dienste. Zum einen hofft man auf eine vermehrte Einbindung ihrer Dienste in Softwareprozesse. Zum anderen setzt man auf das Entwickeln neuer Software auf Basis ihrer Dienste. In der Zukunft werden hunderte solcher Dienste verfügbar sein und es wird schwer für den Entwickler passende Dienstangebote zu finden. Das Projekt ADDO hat in diesem Umfeld wichtige Ergebnisse erzielt. Im Laufe des Projektes wurde erreicht, dass der Einsatz semantischer Spezifikationen es ermöglicht, Dienste sowohl im Hinblick auf ihre funktionalen als auch ihre nicht-funktionalen Eigenschaften, insbesondere die Dienstgüte, automatisch zu sichten und an Dienstaggregate zu binden [15]. Dazu wurden Ontologie-Schemata [10, 16], Abgleichalgorithmen [16, 9] und Werkzeuge entwickelt und als Framework implementiert [16]. Der in diesem Rahmen entwickelte Abgleichalgorithmus für Dienstgüte beherrscht die automatische Aushandlung von Verträgen für die Dienstnutzung, um etwa kostenpflichtige Dienste zur Dienstnutzung einzubinden. ADDO liefert einen Ansatz, Schablonen für Dienstaggregate in BPEL4WS zu erstellen, die zur Laufzeit automatisch verwaltet werden. Das Vorgehen konnte seine Effektivität beim internationalen Wettbewerb Web Service Challenge 2006 in San Francisco unter Beweis stellen: Der für ADDO entwickelte Algorithmus zur semantischen Dienstkomposition erreichte den ersten Platz. Der Algorithmus erlaubt es, unter einer sehr großenMenge angebotener Dienste eine geeignete Auswahl zu treffen, diese Dienste zu Dienstaggregaten zusammenzufassen und damit die Funktionalität eines vorgegebenen gesuchten Dienstes zu leisten. Weitere Ergebnisse des Projektes ADDO wurden auf internationalen Workshops und Konferenzen veröffentlicht. [12, 11]
Resumo:
Drei Feldversuche auf zwei Standorten (DFH: 51°4, 9°4’, BEL: 52°2’, 8°08’) wurden in den Jahren 2002 bis 2004 durchgeführt, um den Einfluss der Vorfrucht, des Vorkeimens, der N- und K-Düngung und der Sorte auf Nährstoffverfügbarkeit, Gesamt- und sortierte Knollenerträge sowie die Qualität von Kartoffeln und deren Eignung für die industrielle Verarbeitung zu Pommes frites und Chips zu untersuchen. Bestimmt wurden die N- und K-Verfügbarkeit im Boden, die N- und K-Aufnahme von Kraut und Knollen, gesamte Frisch- und Trockenmasseerträge, sortierte Frischmasseerträge für die Verarbeitung, sowie die Gehalte der Knollen an Trockensubstanz und reduzierenden Zuckern. In einer sensorischen Prüfung wurden Qualitätsparameter von Pommes frites (Aussehen/Farbe, Textur und Geschmack/Geruch) bewertet, die gewichtet in einen Qualitätsindex eingingen. Die Qualität der Chips wurde maschinell durch den L-Wert (Helligkeit) des Produktes quantifiziert. Der Gehalt des Bodens an mineralisiertem Nitrat-Stickstoff hing von der Vorfrucht und dem Jahr ab. Nach Erbsen wurden zum Auflaufen der Kartoffeln in den Versuchsjahren 2003 und 2004 (187 und 132 kg NO3-N ha-1) die höchsten NO3-N-Werte in 0-60 cm Boden gemessen verglichen mit Kleegras (169 bzw. 108 kg NO3-N ha-1 oder Getreide (112 kg bzw. 97 kg NO3-N ha-1), obgleich die Differenz nicht in allen Fällen signifikant war. Entsprechend wurden nach Erbsen die höchsten Knollen-Frischmasseerträge (414 und 308 dt ha-1) geerntet. Dasselbe galt für die Trockenmasserträge, was belegt, dass der Trockensubstanzgehalt der Knollen bei verbesserter N-Versorgung nicht im selben Maße sinkt, wie der Frischmasseertrag steigt. Das Vorkeimen der Pflanzknollen führte zu einer rascheren phänologischen Entwicklung im Jugendstadium der Pflanze, beschleunigter Trockenmassebildung des Krautes und einer früheren Einlagerung von Assimilaten vom Kraut in die Knollen. Obwohl die positive Wirkung des Vorkeimens auf den Gesamtertrag bis Ende Juli (+ 26 in 2003 bzw. 34 dt ha-1 in 2004) im Jahr ohne Krautfäuleepidemie von den nicht vorgekeimten Varianten bis zur Endernte im September kompensiert wurde, konnte in diesem Jahr durch Vorkeimen dennoch ein erhöhter Ertragsanteil (+ 12%) der besonders nachgefragten Übergrößen (>50 mm für Pommes frites) erzielt werden. Die durchschnittliche Knollenmasse reagierte positiv auf Vorkeimen (+ 5,4 g), Sortenwahl (Sorte Agria) und ein erhöhtes N-Angebot (Leguminosenvorfrucht). Generell wurde deutlich, dass die Knollengesamterträge unter den Bedingungen des Ökologischen Landbaus (geringe bis mittlere Nährstoffversorgung, verkürzte Vegetationsdauer) sehr stark vom Anbaujahr abhängen. Die Ergebnisse belegen jedoch, dass organisch-mineralische N-K-Düngung den sortierten Ertrag an Knollen für die Verarbeitung signifikant erhöht: Höchste Gesamt- und sortierte Knollenfrischmasseerträge wurden nach kombinierter N (Horngrieß) und mineralischer K- (Kaliumsulfat) Gabe erzielt (348 dt ha-1 im Durchschnitt von 2002-2004). Im Gegensatz dazu kann eine Wirkung von Stallmist auf den Ertrag im Jahr der Ausbringung nicht unbedingt erwartet werden. Steigende Erträge nach Stallmistdüngung wurden lediglich in einem von drei Versuchsjahren (+58 dt ha-1) festgestellt und ließen sich eher auf eine K- als eine N-Wirkung zurückführen. Die Ergebnisse belegen, dass die Sortenwahl eine entscheidende Rolle spielt, wenn die Kartoffeln für die industrielle Verarbeitung zu den oben genannten Produkten angebaut werden. Insgesamt kann festgestellt werden, dass Kartoffelknollen aus ökologischen Anbauverfahren ausreichend hohe Trockensubstanzgehalte aufweisen, um für die Verarbeitung zu Pommes frites (>19%) geeignet zu sein und ohne dass dadurch die Konsistenz des Endproduktes gefährdet würde. Der Trockensubstanzgehalt der Referenzsorte für Chips, „Marlen“, unterschritt das in der Literatur geforderte Minimum für Chips von 23% lediglich, wenn die kombinierte Horngrieß-Kaliumsulfatdüngung zur Anwendung kam. Die Trockensubstanzgehalte der Knollen konnten durch Vorkeimen signifikant gesteigert werden und der Effekt war besonders groß (+1.2% absolut) in dem Jahr mit frühem Auftreten der Krautfäule (Phytophthora infestans), d.h. verkürzter Vegetationszeit. Die Knollen-Trockensubstanzgehalte waren in zwei von drei Experimenten nach Lagerung höher (+0.4 und 0.5% absolut) als noch zur Ernte. Sorten der sehr frühen und frühen Reifegruppe wiesen den größten relativen Anstieg der Gehalte an reduzierenden Zuckern (Glukose und Fruktose) während der Lagerung auf. Den mittelfrühen Sorten „Agria“ und „Marena“ hingegen kann aufgrund des von ihnen erreichten höchsten Qualitätsstandards (Pommes frites) zur Ernte eine sehr gute Eignung für die Bedingungen des Ökologischen Landbaus unterstellt werden. Die durchgehend beste Chipseignung wies die mittelfrühe Referenzsorte „Marlen“ auf. Insgesamt konnte nachgewiesen werden, dass durch gezielte Sortenwahl der Trockensubstanzgehalt und die Konzentration reduzierender Zucker, sowie die Qualität der Endprodukte (Pommes frites und Chips) gezielt beeinflusst werden kann. Im Gegensatz dazu haben acker- und pflanzenbauliche Maßnahmen wie Düngung, Wahl der Vorfrucht und Vorkeimen der Pflanzknollen einen eher geringen Einfluss. Dementsprechend sollte der Landwirt versuchen, durch die Wahl der Sorte den hohen Anforderungen der Industrie an die Rohware gerecht zu werden.
Resumo:
Bei der Arbeit an sicherheitsgerichteten Kommunikationsprotokollen stellten sich immer wieder die Fragen nach der Eignung von einzelnen Mechanismen der Protokolle, um den Gefährdungen entsprechende Maßnahmen zur Beherrschung entgegenzusetzen. Dabei waren durchweg die Anforderungen der IEC 61508 mit dem Safety Integrity Level 3 zu erfüllen. Die IEC 61508-2 ist mit 5 Zeilen Umfang für die wesentlichen Anforderungen an die sicherheitsgerichtete Kommunikation sehr kurz gehalten und die IEC 61784-3 war zu Beginn der Arbeiten noch nicht veröffentlicht. Aber die IEC 61784-3 stellt auch heute nur einen unvollständigen Kriterienkatalog zusammen. Insbesondere die in IEC 61508-2 geforderte quantitative Analyse wird in der IEC 61784-3 nicht ausreichend thematisiert. In bisherigen sicherheitsgerichteten Protokollen und den relevanten Normen des Anwendungsbereichs fanden die Gefährdungspotentiale, wie Masquerading und Adressierung in offenen Übertragungssystemen, absichtliche Unterminierung der Sicherheitsmechanismen und fehlerhafte Konfiguration keine ausreichende Beachtung und die Gefährdungen durch absehbaren Missbrauch, absehbare Fehlbedienung und unberechtigter Zugriff auf sichere Kommunikationseinrichtungen wurde nur in Randgebieten diskutiert. Hier zeigt die vorliegende Arbeit die Bedeutung dieser für den Einsatz von sicherheitsgerichteten Kommunikationsprotokollen im industriellen Umfeld auf und folgert daraus die entsprechenden Maßnahmen, die in der Verantwortung des Anwenders liegen, bzw. zum Teil auch durch Protokollmechanismen beherrscht werden können. Die Arbeit stellt einen umfassenden Gefährdungskatalog auf und bewertet nach diesem Katalog die am weitest verbreiteten sicherheitsgerichteten Kommunikationsprotokolle nach einem einheitlichen Maßstab. Weiter zeigt die vorgelegte Arbeit, dass auch ein existierendes Zertifikat gemäß IEC 61508 SIL3 nicht in jedem Fall ausreichend ist, um die Eignung eines Protokolls für den Einsatz gemäß dem aktuellen Stand der Normen zu bestätigen. Hervor zu heben ist insbesondere die quantitative Bewertung jeder einzelnen Maßnahme der Protokolle. Bislang wurde diese nur für die Beherrschung von verfälschten Nachrichten durchgeführt. Die Arbeit führt diese quantitative Bewertung der eingesetzten Maßnahmen systematisch durch und zeigt dabei, dass diese Bewertung dringend erforderlich ist, da die betrachteten öffentlichen Protokolle nicht die für SIL3 notwendige Güte für alle ihre Maßnahmen aufweisen, bzw. aufwiesen. Einer der Schwerpunkte dieser Arbeit ist die Definition von Verarbeitungsmodellen für die Berechnung der maximalen Reaktionszeit und der Worst-Case Reaktionszeit. Dazu wurde ein Modell aus 5 Komponenten erstellt, dass geeignet ist, die Reaktionszeit über ein Kommunikationssystem für die im industriellen Umfeld gebräuchlichen Anwendungen zu untersuchen. Diese 5 Komponenten, das Eingangsmodul, die Sicherheitssteuerung, die Kommunikation zwischen beiden, sowie das Ausgangsmodul und die Kommunikation zwischen diesem und der Sicherheitssteuerung. Anhand dieses Modells wurde die maximale Reaktionszeit definiert. Dies ist die Zeit, die von der Änderung eines physikalischen Eingangssignals der Eingangskomponente, bis zur zugehörigen Reaktion des physikalischen Ausgangssignals der Ausgangskomponente, über die Sicherheitssteuerung hinweg, benötigt wird. Die maximale Reaktionszeit betrachtet dabei den Fall, dass im gesamten System aus diesen 5 Komponenten kein Fehler eine Wirkung entfaltet. Die Worst-Case Reaktionszeiten der Protokolle sind auf Grund der verschiedenen Konzepte sehr differenziert zu betrachten. Erschwerend kommt hier noch hinzu, dass die im konkreten System erreichte minimale Worst-Case Reaktionszeit stark von der Implementierung des jeweiligen Herstellers abhängt. Ebenso problematisch ist die unterschiedliche Modellbildung der jeweiligen Protokoll-Organisationen. Es werden Fehlerausschlüsse gemacht, wie die Annahme, dass nur ein Fehler auftritt und dieser Fehler sich nicht auf die Verbindung zwischen Eingangsmodul und Sicherheitssteuerung und auf die Verbindung zwischen Sicherheitssteuerung und Ausgangsmodul gleichzeitig auswirken kann. Da für den sicherheitsgerichteten Einsatz die maximale Reaktionszeit mit Fehlern die relevante Betrachtungseinheit darstellt, wurden anhand des Modells die Worst-Case 1 und 2 Reaktionszeiten definiert. Die erste definiert die Zeit die eine Reaktion maximal benötigt, wenn im Kommunikationssystem eine Fehlerwirkung vorliegt und bei der zweiten wird angenommen, dass mehrere der 5 Komponenten von Fehlerwirkungen betroffen sein können. Um einen vertieften Einblick in die Thematik zu erhalten, wurde im Rahmen dieser Arbeit ein eigenes sicherheitsgerichtetes Kommunikationsprotokoll spezifiziert, entworfen und realisiert. Hierbei wurde besonderer Augenmerk auf die Wirksamkeit des Verfälschungsschutzes mittels CRCs für kurze Nachrichten gelegt und ebenso die Wirksamkeit gekoppelter CRCs betrachtet.
Resumo:
Optische Spektroskopie ist eine sehr wichtige Messtechnik mit einem hohen Potential für zahlreiche Anwendungen in der Industrie und Wissenschaft. Kostengünstige und miniaturisierte Spektrometer z.B. werden besonders für moderne Sensorsysteme “smart personal environments” benötigt, die vor allem in der Energietechnik, Messtechnik, Sicherheitstechnik (safety and security), IT und Medizintechnik verwendet werden. Unter allen miniaturisierten Spektrometern ist eines der attraktivsten Miniaturisierungsverfahren das Fabry Pérot Filter. Bei diesem Verfahren kann die Kombination von einem Fabry Pérot (FP) Filterarray und einem Detektorarray als Mikrospektrometer funktionieren. Jeder Detektor entspricht einem einzelnen Filter, um ein sehr schmales Band von Wellenlängen, die durch das Filter durchgelassen werden, zu detektieren. Ein Array von FP-Filter wird eingesetzt, bei dem jeder Filter eine unterschiedliche spektrale Filterlinie auswählt. Die spektrale Position jedes Bandes der Wellenlänge wird durch die einzelnen Kavitätshöhe des Filters definiert. Die Arrays wurden mit Filtergrößen, die nur durch die Array-Dimension der einzelnen Detektoren begrenzt werden, entwickelt. Allerdings erfordern die bestehenden Fabry Pérot Filter-Mikrospektrometer komplizierte Fertigungsschritte für die Strukturierung der 3D-Filter-Kavitäten mit unterschiedlichen Höhen, die nicht kosteneffizient für eine industrielle Fertigung sind. Um die Kosten bei Aufrechterhaltung der herausragenden Vorteile der FP-Filter-Struktur zu reduzieren, wird eine neue Methode zur Herstellung der miniaturisierten FP-Filtern mittels NanoImprint Technologie entwickelt und präsentiert. In diesem Fall werden die mehreren Kavitäten-Herstellungsschritte durch einen einzigen Schritt ersetzt, die hohe vertikale Auflösung der 3D NanoImprint Technologie verwendet. Seit dem die NanoImprint Technologie verwendet wird, wird das auf FP Filters basierende miniaturisierte Spectrometer nanospectrometer genannt. Ein statischer Nano-Spektrometer besteht aus einem statischen FP-Filterarray auf einem Detektorarray (siehe Abb. 1). Jeder FP-Filter im Array besteht aus dem unteren Distributed Bragg Reflector (DBR), einer Resonanz-Kavität und einen oberen DBR. Der obere und untere DBR sind identisch und bestehen aus periodisch abwechselnden dünnen dielektrischen Schichten von Materialien mit hohem und niedrigem Brechungsindex. Die optischen Schichten jeder dielektrischen Dünnfilmschicht, die in dem DBR enthalten sind, entsprechen einen Viertel der Design-Wellenlänge. Jeder FP-Filter wird einer definierten Fläche des Detektorarrays zugeordnet. Dieser Bereich kann aus einzelnen Detektorelementen oder deren Gruppen enthalten. Daher werden die Seitenkanal-Geometrien der Kavität aufgebaut, die dem Detektor entsprechen. Die seitlichen und vertikalen Dimensionen der Kavität werden genau durch 3D NanoImprint Technologie aufgebaut. Die Kavitäten haben Unterschiede von wenigem Nanometer in der vertikalen Richtung. Die Präzision der Kavität in der vertikalen Richtung ist ein wichtiger Faktor, der die Genauigkeit der spektralen Position und Durchlässigkeit des Filters Transmissionslinie beeinflusst.
Resumo:
Die Wissenschaft weist im Zuge der Entwicklung von der Industrie- zu einer Wissensgesellschaft einschneidende Veränderungen in der Wissensordnung auf, welche sich bis hin zu einem zunehmenden Verlust der wissenschaftlichen Selbststeuerungsmechanismen bemerkbar machen und einen veränderten Umgang mit dem generierten Wissensschatz erfordern. Nicht nur Änderungen in der Wissensordnung und -produktion stellen die Psychoanalyse vor neue Herausforderungen: In den letzten Jahrzehnten geriet sie als Wissenschaft und Behandlungsverfahren zunehmend in die Kritik und reagierte mit einer konstruktiven Diskussion um ein dem Forschungsgegenstand – die Untersuchung unbewusster Prozesse und Fantasien – adäquates psychoanalytisches Forschungsverständnis. Die Auseinandersetzung mit Forderungen gesellschaftlicher Geldgeber, politischer Vertreter und Interessensgruppen wie auch der wissenschaftlichen Community stellt die Psychoanalyse vor besondere Herausforderungen. Um wissenschaftsexternen wie -internen Gütekriterien zu genügen, ist häufig ein hoher personeller, materieller, finanzieller, methodischer wie organisatorischer Aufwand unabdingbar, wie das Beispiel des psychoanalytischen Forschungsinstitutes Sigmund-Freud-Institut zeigt. Der steigende Aufwand schlägt sich in einer zunehmenden Komplexität des Forschungsprozesses nieder, die unter anderem in den vielschichtigen Fragestellungen und Zielsetzungen, dem vermehrt interdisziplinären, vernetzten Charakter, dem Umgang mit dem umfangreichen, hochspezialisierten Wissen, der Methodenvielfalt, etc. begründet liegt. Um jener Komplexität des Forschungsprozesses gerecht zu werden, ist es zunehmend erforderlich, Wege des Wissensmanagement zu beschreiten. Tools wie z. B. Mapping-Verfahren stellen unterstützende Werkzeuge des Wissensmanagements dar, um den Herausforderungen des Forschungsprozesses zu begegnen. In der vorliegenden Arbeit werden zunächst die veränderten Forschungsbedingungen und ihre Auswirkungen auf die Komplexität des Forschungsprozesses - insbesondere auch des psychoanalytischen Forschungsprozesses - reflektiert. Die mit der wachsenden Komplexität einhergehenden Schwierigkeiten und Herausforderungen werden am Beispiel eines interdisziplinär ausgerichteten EU-Forschungsprojektes näher illustriert. Um dieser wachsenden Komplexität psychoanalytischer Forschung erfolgreich zu begegnen, wurden in verschiedenen Forschungsprojekten am Sigmund-Freud-Institut Wissensmanagement-Maßnahmen ergriffen. In der vorliegenden Arbeit wird daher in einem zweiten Teil zunächst auf theoretische Aspekte des Wissensmanagements eingegangen, die die Grundlage der eingesetzten Wissensmanagement-Instrumente bildeten. Dabei spielen insbesondere psychologische Aspekte des Wissensmanagements eine zentrale Rolle. Zudem werden die konkreten Wissensmanagement-Tools vorgestellt, die in den verschiedenen Forschungsprojekten zum Einsatz kamen, um der wachsenden Komplexität psychoanalytischer Forschung zu begegnen. Abschließend werden die Hauptthesen der vorliegenden Arbeit noch einmal reflektiert und die geschilderten Techniken des Wissensmanagements im Hinblick auf ihre Vor- und Nachteile kritisch diskutiert.
Resumo:
In the past decades since Schumpeter’s influential writings economists have pursued research to examine the role of innovation in certain industries on firm as well as on industry level. Researchers describe innovations as the main trigger of industry dynamics, while policy makers argue that research and education are directly linked to economic growth and welfare. Thus, research and education are an important objective of public policy. Firms and public research are regarded as the main actors which are relevant for the creation of new knowledge. This knowledge is finally brought to the market through innovations. What is more, policy makers support innovations. Both actors, i.e. policy makers and researchers, agree that innovation plays a central role but researchers still neglect the role that public policy plays in the field of industrial dynamics. Therefore, the main objective of this work is to learn more about the interdependencies of innovation, policy and public research in industrial dynamics. The overarching research question of this dissertation asks whether it is possible to analyze patterns of industry evolution – from evolution to co-evolution – based on empirical studies of the role of innovation, policy and public research in industrial dynamics. This work starts with a hypothesis-based investigation of traditional approaches of industrial dynamics. Namely, the testing of a basic assumption of the core models of industrial dynamics and the analysis of the evolutionary patterns – though with an industry which is driven by public policy as example. Subsequently it moves to a more explorative approach, investigating co-evolutionary processes. The underlying questions of the research include the following: Do large firms have an advantage because of their size which is attributable to cost spreading? Do firms that plan to grow have more innovations? What role does public policy play for the evolutionary patterns of an industry? Are the same evolutionary patterns observable as those described in the ILC theories? And is it possible to observe regional co-evolutionary processes of science, innovation and industry evolution? Based on two different empirical contexts – namely the laser and the photovoltaic industry – this dissertation tries to answer these questions and combines an evolutionary approach with a co-evolutionary approach. The first chapter starts with an introduction of the topic and the fields this dissertation is based on. The second chapter provides a new test of the Cohen and Klepper (1996) model of cost spreading, which explains the relationship between innovation, firm size and R&D, at the example of the photovoltaic industry in Germany. First, it is analyzed whether the cost spreading mechanism serves as an explanation for size advantages in this industry. This is related to the assumption that the incentives to invest in R&D increase with the ex-ante output. Furthermore, it is investigated whether firms that plan to grow will have more innovative activities. The results indicate that cost spreading serves as an explanation for size advantages in this industry and, furthermore, growth plans lead to higher amount of innovative activities. What is more, the role public policy plays for industry evolution is not finally analyzed in the field of industrial dynamics. In the case of Germany, the introduction of demand inducing policy instruments stimulated market and industry growth. While this policy immediately accelerated market volume, the effect on industry evolution is more ambiguous. Thus, chapter three analyzes this relationship by considering a model of industry evolution, where demand-inducing policies will be discussed as a possible trigger of development. The findings suggest that these instruments can take the same effect as a technical advance to foster the growth of an industry and its shakeout. The fourth chapter explores the regional co-evolution of firm population size, private-sector patenting and public research in the empirical context of German laser research and manufacturing over more than 40 years from the emergence of the industry to the mid-2000s. The qualitative as well as quantitative evidence is suggestive of a co-evolutionary process of mutual interdependence rather than a unidirectional effect of public research on private-sector activities. Chapter five concludes with a summary, the contribution of this work as well as the implications and an outlook of further possible research.
Resumo:
Punktförmig messende optische Sensoren zum Erfassen von Oberflächentopografien im Nanometerbereich werden in der Forschung und Industrie benötigt. Dennoch ist die Auswahl unterschiedlicher Technologien und kommerziell verfügbarer Sensoren gering. In dieser Dissertationsschrift werden die wesentlichen Aspekte eines Messsystems untersucht das über das Potenzial verfügt, zu den künftigen Standardmessmethoden zu gehören. Das Messprinzip beruht auf einem Common-Path-Interferometer. In einer mikrooptischen Sonde wird das Laserlicht auf die zu untersuchende Oberfläche gerichtet. Das vom Messobjekt reflektierte Licht interferiert sondenintern mit einem Referenzreflex. Die kompakte Bauweise bewirkt kurze optische Wege und eine gewisse Robustheit gegen Störeinflüsse. Die Abstandsinformation wird durch eine mechanische Oszillation in eine Phasenmodulation überführt. Die Phasenmodulation ermöglicht eine robuste Auswertung des Interferenzsignals, auch wenn eine zusätzliche Amplitudenmodulation vorhanden ist. Dies bietet den Vorteil, unterschiedlich geartete Oberflächen messen zu können, z. B. raue, teilweise transparente und geneigte Oberflächen. Es können wiederholbar Messungen mit einer Standardabweichung unter einem Nanometer erzielt werden. Die beschriebene mechanische Oszillation wird durch ein periodisches elektrisches Signal an einem piezoelektrischen Aktor hervorgerufen, der in einem Biegebalken integriert ist. Die Bauform des Balkens gestattet eine Hybridisierung von optischen und mechanischen Komponenten zu einer Einheit, welche den Weg zur weiteren Miniaturisierung aufzeigt. Im Rahmen dieser Arbeit konnte so u. a. eine Sonde mit einer Bauhöhe unter 10 mm gefertigt werden. Durch eine zweite optische Wellenlänge lässt sich der eingeschränkte Eindeutigkeitsbereich des Laserinterferometers nachweislich vergrößern. Die hierfür eingesetzte Methode, die Stand der Technik ist, konnte erfolgreich problemspezifisch angepasst werden. Um das volle Potenzial des Sensors nutzen zu können, wurden zudem zahlreiche Algorithmen entworfen und erfolgreich getestet. Anhand von hier dokumentierten Messergebnissen können die Möglichkeiten, als auch die Schwächen des Messsystems abgeschätzt werden.
Resumo:
Wenn sich in einem wichtigen Bereich der Elektrotechnik ein neues Halbleitermaterial zu etablieren beginnt, weckt dies einerseits Erwartungen der Wirtschaft und Industrie, andererseits kann es eine erhebliche Herausforderung für die Hersteller bedeuten. Nachdem Gallium-Nitrid erstmalig vor 20 Jahren als Transistor verwendet wurde und seit über einer Dekade serienmäßig in der Hochfrequenztechnik eingesetzt wird, erobert es nun die Leistungselektronik. Die ausschlaggebenden Kriterien sind hier die Verwendbarkeit bei höheren Betriebstemperaturen, die Energieeffizienz und die Reduzierung von Größe und Gewicht durch den Betrieb bei höheren Schaltfrequenzen. Die vorliegende Arbeit basiert auf der Motivation zunächst einen möglichst breit angelegten Überblick des ständig wachsenden Angebotsspektrums zu geben, das mittlerweile durch die vielfältigen Varianten der verfügbaren Transistoren an Übersichtlichkeit etwas verloren hat. Nach einer ausführlichen Erläuterung der physikalischen und elektrischen Eigenschaften, werden die jeweiligen Typen in überschaubaren Abschnitten beschrieben und im Anschluss tabellarisch zusammengefasst. Die elektrischen Eigenschaften der hier ausgewählten EPC 2010 eGaN-HFETs (200 V Spannungsklasse) werden eingehend diskutiert. Das Schaltverhalten der eGaN-HFETs in einem Synchron-Tiefsetzsteller wird untersucht und modelliert. Eine Analyse aller in den GaN-FETs entstehenden Verlustleistungen wird durchgeführt. Zur Abschätzung der dynamischen Verlustleistungen wird eine analytische Methode umgesetzt und weiter entwickelt. Um die Vorteile der erhöhten Schaltfrequenzen nutzen zu können, erfolgt eine sehr ausführliche Betrachtung der notwendigen magnetischen Komponenten, deren Auswahl- und Verwendungskriterien im Detail untersucht, evaluiert und aufgegliedert werden. Diese werden im praktischen Teil ausgiebig in Verbindung mit den GaN-Transistoren ausgesucht und messtechnisch bewertet. Theoretische Betrachtungen hinsichtlich der Grenzen, die magnetische Bauelemente schnell schaltenden Halbleitern auferlegen, werden durchgeführt. Da die untersuchten Niedervolt-GaN-HFETs quasi kein Gehäuse haben, ist eine korrekte Strommessung nicht realisierbar. Am praktischen Beispiel eines Synchron-Tiefsetzstellers werden zwei experimentelle Methoden entwickelt, mit deren Hilfe die Verlustleistungen in den EPC 2010 eGaN-HFETs ermittelt werden. Anschließend wird das Verbesserungspotential der GaN-Leistungstransistoren erläutert sowie deren Anwendungsbereiche diskutiert.
Resumo:
El presente trabajo de grado busca evaluar el perfil del mercado de la Unión Europea y los países de la EFTA para identificar las oportunidades comerciales de Colombia, más específicamente en los siguientes países: Suiza, Noruega, Liechtenstein, Islandia, Republica Checa, Rumania y Suecia. A través de esta investigación se realizó un análisis de los 25 productos más exportados de Colombia a cada uno de los países estudiados, tomando en cuenta sus códigos arancelarios. Adicionalmente, se evaluaron las balanzas comerciales de cada uno de los países, las tendencias de las exportaciones Colombianas de los últimos años, y las posibles oportunidades de mercados teniendo en cuenta las necesidades de importaciones detalladas de cada país europeo. A partir de la información encontrada la investigación se concentró en la proveniencia exacta del departamento Colombiano que hacia las exportaciones de los 25 productos más representativos a cada uno de los países evaluados. Teniendo en cuenta esta información, se evaluó por departamento, las oportunidades y perfiles de mercado de exportación hacia Suiza, Noruega, Liechtenstein, Islandia, Republica Checa, Rumania y Suecia. Finalmente se identificaron los 10 productos más exportados de Colombia a cada uno de los países analizados, con el fin de enfocar las mejoras y potencializar las exportaciones de estos productos a los países europeos evaluados. Adicionalmente durante la investigación se realizan recomendaciones específicas por país y al final del documento se encuentran las conclusiones generales y recomendaciones principales para futuras exportaciones de Colombia a los países de la EFTA, República Checa, Rumania y Suecia.
Resumo:
Purpose: Interferon regulatory factor 6 encodes a member of the IRF family of transcription factors. Mutations in interferon regulatory factor 6 cause Van der Woude and popliteal pterygium syndrome, two related orofacial clefting disorders. Here, we compared and contrasted the frequency and distribution of exonic Mutations in interferon regulatory factor 6 between two large geographically distinct collections of families with Van der Woude and between one collection of families with popliteal pterygium syndrome. Methods: We performed direct sequence analysis of interferon regulatory factor 6 exons oil samples from three collections, two with Van der Woude and one with popliteal pterygium syndrome. Results: We identified mutations in interferon regulatory factor 6 exons in 68% of families in both Van der Woude collections and in 97% of families with popliteal pterygium syndrome. In sum, 106 novel disease-causing variants were found. The distribution of mutations in the interferon regulatory factor 6 exons in each collection was not random; exons 3, 4, 7, and 9 accounted for 80%. In the Van der Woude collections, the mutations were evenly divided between protein truncation and missense, whereas most mutations identified in the popliteal pterygium syndrome collection were missense. Further, the missense mutations associated with popliteal pterygium syndrome were localized significantly to exon 4, at residues that are predicted to bind directly to DNA. Conclusion: The nonrandom distribution of mutations in the interferon regulatory factor 6 exons suggests a two-tier approach for efficient mutation screens for interferon regulatory factor 6. The type and distribution of mutations are consistent with the hypothesis that Van der Woude is caused by haploinsufficiency of interferon regulatory factor 6. Oil the other hand, the distribution of popliteal pterygium syndrome-associated mutations suggests a different, though not mutually exclusive, effect oil interferon regulatory factor 6 function. Genet Med 2009:11(4):241-247.
Resumo:
O objetivo deste estudo foi verificar se as habilitações profissionais, implantadas pela SE nas escolas do Estado de S. Paulo, sob os auspícios da Lei 5692/71, haviam, realmente, preparado os jovens que as concluíram para o exercLcio de uma profissão e averiguar quantos alunos egressos da primeira turma do 2º grau profissionalizante conseguiram ser aproveitados de acordo com a qualificação auferida por eles. O estudo limitou-se às escolas da DE de são José do Rio Preto. O instrumental usado foi a entrevista, por não se saber quais os rumos tomados por esses estudantes, nem porque. Foram entrevistados alunos e autoridades do ensino. Aos primeiros aplicou-se a entrevista estruturada e aos segundos a entrevista semiestruturada. Dentre as autoridades foram entrevistados Diretores de Escola, Supervisores Pedagógicos e Assistentes Técnicos da DRE. Concluiu-se que o intuito maior dos entrevistados era o prosseguimento dos estudos em nível de 3º grau, intuito este já alcançado por um número expressivo desses egressos: 64,66% de S. Jose do Rio Preto e 31,85% das cidades vizinhas. Contudo, nem todos lograram ingressar nos cursos que queriam, nem tampouco em cursos relacionados com o 2º grau concluído: apenas 28,69% o conseguiram. A propósito da destinação para o trabalho, pode-se perceber uma dispersão 5,74% trabalham na profissão muito grande desses jovens: para a qual foram preparados, 59,77% estão foram do ramo e 34,48% ainda não trabalham. Foram 19 os cursos profissionalizantes instalados e conseguiu-se catalogar 58 diferentes serviços executados pelos egressos desses cursos, desde os mais simples como empregada doméstica e servente de pedreiro até ao presidente de indústria o que leva a crer que tais cursos, realmente não profissionalizaram e que o intento da Lei 5692/71 não foi atingido.