361 resultados para swd: Automatische Sprachproduktion


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Childhood absence epilepsy (CAE) is a syndrome with well-defined electroclinical features but unknown pathological basis. An increased thalamic tonic GABA inhibition has recently been discovered on animal models (Cope et al., 2009), but its relevance for human CAE is unproven. METHODS: We studied an 11-year-old boy, presenting the typical clinical features of CAE, but spike-wave discharges (SWD) restricted to one hemisphere. RESULTS: High-resolution EEG failed to demonstrate independent contralateral hemisphere epileptic activity. Consistently, simultaneous EEG-fMRI revealed the typical thalamic BOLD activation, associated with caudate and default mode network deactivation, but restricted to the hemisphere with SWD. Cortical BOLD activations were localized on the ipsilateral pars transverse. Magnetic resonance spectroscopy, using MEGA-PRESS, showed that the GABA/creatine ratio was 2.6 times higher in the hemisphere with SWD than in the unaffected one, reflecting a higher GABA concentration. Similar comparisons for the patient's occipital cortex and thalamus of a healthy volunteer yielded asymmetries below 25%. SIGNIFICANCE: In a clinical case of CAE with EEG and fMRI-BOLD manifestations restricted to one hemisphere, we found an associated increase in thalamic GABA concentration consistent with a role for this abnormality in human CAE.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Magdeburg, Univ., Fak. für Elektrotechnik und Informationstechnik, Diss., 2007

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Magdeburg, Univ., Fak. für Elektrotechnik und Informationstechnik, Diss., 2009

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In der Firma KERAMAG wird für den Guss von Sanitärkeramik das Hohlgussverfahren angewendet. Bei diesem Gießverfahren treten Fehlerbilder auf, die die Qualität negativ beeinflussen. Ziel der vorliegenden Arbeit ist den Gießprozess zu optimieren, damit sich die komplexen physikalischen Eigenschaften des Schlickers weniger stark auf den technologischen Ablauf des Gießprozesses auswirken. Dazu wird eine intelligente Softwarelösung (automatische Eingießsteuerung)erarbeitet, die die herkömmliche elektromechanische Steuerung ablöst. Als erstes werden der Aufbau und die Funktionsweise der herkömmlichen Gießanlage analysiertund die Einflüsse auf den technologischen Ablauf des Gießprozess untersucht. Aus dengewonnenen Erkenntnissen der Analyse werden Lösungsansätze zur Optimierung desGießprozesses abgeleitet. Mit den Anforderungen die sich aus den Lösungsansätzen ergebenen, wird eine geeigneteHardware für die Steuerungskomponenten des Automatisierungssytems ausgewählt. Auf Grundlage der ermittelten Steuerungsaufgaben wird mit SIMATIC-STEP7 ein Automatisierungsprojekt erstellt. Dabei sind die behandelten Schwerpunkte die „Selbstparametrierung und Optimierung der Eingießkurve“ und die „gleitende Skalierung der Analogausgangsgröße des Proportional-Druckregelventils“. Die vorgeschlagenen Lösungen werden an einer Gießanlage installiert und es wird der Nachweis erbracht, dass die Aufgabenstellung vollständig umgesetzt werden konnte.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’objectif de ce mémoire de maîtrise est de caractériser la distribution axiale des plasmas tubulaires à la pression atmosphérique créés et entretenus par une onde électromagnétique de surface ainsi que d’explorer le potentiel de ces sources pour la synthèse de matériaux et de nanomatériaux. Un précédent travail de thèse, qui avait pour objectif de déterminer les mécanismes à l’origine de la contraction radiale du plasma créé dans des gaz rares, a mis en lumière un phénomène jusque-là inconnu dans les plasmas d’onde de surface (POS). En effet, la distribution axiale varie différemment selon la puissance incidente ce qui constitue une différence majeure par rapport aux plasmas à pression réduite. Dans ce contexte, nous avons réalisé une étude paramétrique des POS à la pression atmosphérique dans l’Ar. À partir de nos mesures de densité électronique, de température d’excitation et de densité d’atomes d’Ar dans un niveau métastable (Ar 3P2), résolues axialement, nous avons conclu que le comportement axial de l’intensité lumineuse avec la puissance n’est pas lié à un changement de la cinétique de la décharge (qui est dépendante de la température des électrons et de la densité d’atomes d’Ar métastables), mais plutôt à une distribution anormale de dissipation de puissance dans le plasma (reliée à la densité d’électrons). Plus précisément, nos résultats suggèrent que ce dépôt anormal de puissance provient d’une réflexion de l’onde dans le fort gradient de densité de charges en fin de colonne, un effet plus marqué pour de faibles longueurs de colonnes à plasma. Ensuite, nous avons effectué une étude spectroscopique du plasma en présence de précurseurs organiques, en particulier le HMDSO pour la synthèse de matériaux organosiliciés et l’IPT pour la synthèse de matériaux organotitaniques. Les POS à la PA sont caractérisés par des densités de charges très élevées (>10^13 cm^-3), permettant ainsi d’atteindre des degrés de dissociation des précurseurs nettement plus élevés que ceux d'autres plasmas froids à la pression atmosphérique comme les décharges à barrière diélectrique. Dans de tels cas, les matériaux synthétisés prennent la forme de nanopoudres organiques de taille inférieure à 100 nm. En présence de faibles quantités d’oxygène dans le plasma, nous obtenons plutôt des nanopoudres à base d’oxyde de silicium (HMDSO) ou à base de titanate de silicium (IPT), avec très peu de carbone.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Zur Senkung von Kosten werden in vielen Unternehmen Dienstleistungen, die nicht zur Kernkompetenz gehören, an externe Dienstleister ausgelagert. Dieser Prozess wird auch als Outsourcing bezeichnet. Die dadurch entstehenden Abhängigkeiten zu den externen Dienstleistern werden mit Hilfe von Service Level Agreements (SLAs) vertraglich geregelt. Die Aufgabe des Service Level Managements (SLM) ist es, die Einhaltung der vertraglich fixierten Dienstgüteparameter zu überwachen bzw. sicherzustellen. Für eine automatische Bearbeitung ist daher eine formale Spezifikation von SLAs notwendig. Da der Markt eine Vielzahl von unterschiedlichen SLM-Werkzeugen hervorgebracht hat, entstehen in der Praxis Probleme durch proprietäre SLA-Formate und fehlende Spezifikationsmethoden. Daraus resultiert eine Werkzeugabhängigkeit und eine limitierte Wiederverwendbarkeit bereits spezifizierter SLAs. In der vorliegenden Arbeit wird ein Ansatz für ein plattformunabhängiges Service Level Management entwickelt. Ziel ist eine Vereinheitlichung der Modellierung, so dass unterschiedliche Managementansätze integriert und eine Trennung zwischen Problem- und Technologiedomäne erreicht wird. Zudem wird durch die Plattformunabhängigkeit eine hohe zeitliche Stabilität erstellter Modelle erreicht. Weiteres Ziel der Arbeit ist, die Wiederverwendbarkeit modellierter SLAs zu gewährleisten und eine prozessorientierte Modellierungsmethodik bereitzustellen. Eine automatisierte Etablierung modellierter SLAs ist für eine praktische Nutzung von entscheidender Relevanz. Zur Erreichung dieser Ziele werden die Prinzipien der Model Driven Architecture (MDA) auf die Problemdomäne des Service Level Managements angewandt. Zentrale Idee der Arbeit ist die Definition von SLA-Mustern, die konfigurationsunabhängige Abstraktionen von Service Level Agreements darstellen. Diese SLA-Muster entsprechen dem Plattformunabhängigen Modell (PIM) der MDA. Durch eine geeignete Modelltransformation wird aus einem SLA-Muster eine SLA-Instanz generiert, die alle notwendigen Konfigurationsinformationen beinhaltet und bereits im Format der Zielplattform vorliegt. Eine SLA-Instanz entspricht damit dem Plattformspezifischen Modell (PSM) der MDA. Die Etablierung der SLA-Instanzen und die daraus resultierende Konfiguration des Managementsystems entspricht dem Plattformspezifischen Code (PSC) der MDA. Nach diesem Schritt ist das Managementsystem in der Lage, die im SLA vereinbarten Dienstgüteparameter eigenständig zu überwachen. Im Rahmen der Arbeit wurde eine UML-Erweiterung definiert, die eine Modellierung von SLA-Mustern mit Hilfe eines UML-Werkzeugs ermöglicht. Hierbei kann die Modellierung rein graphisch als auch unter Einbeziehung der Object Constraint Language (OCL) erfolgen. Für die praktische Realisierung des Ansatzes wurde eine Managementarchitektur entwickelt, die im Rahmen eines Prototypen realisiert wurde. Der Gesamtansatz wurde anhand einer Fallstudie evaluiert.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Niedrige Milchpreise setzen die deutschen Milchbauern unter Kostendruck und veranlassen sie, die Laktationsleistung der Kühe zu erhöhen. Im Zusammenhang mit weiteren Milchleistungssteigerungen kommt einer wiederkäuergerechten Fütterung im Hinblick auf die Vermeidung gesundheitlicher Risiken eine besondere Bedeutung zu. Ziel des Forschungsvorhabens war es, eine Messmethode zur Bestimmung von Fress- und Wiederkäuaktivitäten zu entwickeln, welche die bisherigen methodischen Unzulänglichkeiten überwindet und ermöglicht den qualitativen und quantitativen Einfluss tierindividueller, fütterungsbedingter und leistungsbezogener Faktoren zu erfassen. Hierzu wurde der Prototyp eines Messsystem entwickelt, das in einem Messhalfter integriert wurde. Das Messsystem beinhaltet einen Sensor zur Erfassung der Kaubewegungen, einen Datenlogger für die Speicherung der Messdaten, ein Akkupack zur Energieversorgung, und eine Auswertungssoftware für die automatische Analyse der erfassten Messdaten. Zwecks Überprüfung des Prototypen unter Praxisbedingungen wurden im Rahmen eines Fütterungsversuches Messungen der Fress- und Wiederkäuaktivität durchgeführt. Die Anwendung des Prototypen auf dem Versuchsbetrieb deckte die folgenden methodischen Unzulänglichkeiten auf: - elektromagnetische Störfelder, hervorgerufen durch die auf den Versuchsbetrieb verwendeten Wiegetröge zur Erfassung der Futteraufnahme, - Fehlmessungen aufgrund verrutschender Halfter, bedingt durch die große Variation in den Schädelmaßen der Versuchstiere, - keine hinreichende Differenzierung der einzelnen Verhaltenstypen bei schnell aufeinanderfolgenden unterschiedlichen Verhaltensmustern. Die aufgetretenen elektrischen Probleme konnten mittels einer verbesserten Abschirmung gegen elektromagnetische Felder behoben werden. Fehlmessungen aufgrund sich verschiebender Halfter konnten durch eine Änderung des Halfterdesigns verringert werden. Es war jedoch nicht möglich, diese Störgröße gänzlich zu beseitigen. Ebenso war es nicht möglich, die Differenzierung der einzelnen Verhaltenstypen bei schnell aufeinanderfolgenden unterschiedlichen Verhaltensmustern mittels einer Änderung im Auswertealgorithmus zu verbessern. Um diesen beiden Problemen Rechnung zu tragen, wurden die Ergebnisse der Auswertungssoftware mittels einer Sichtkontrolle der Messwertkurven validiert. Nach der Validierung verblieben für die statistische Auswertung folgende Messergebnisse: - Anzahl auswertbarer Einzeltiere: 9 - Anzahl auswertbarer Messtage: 73 - Anzahl auswertbarer Wiederkäuphasen: 512 - Anzahl auswertbarer Fressphasen: 676 - Anzahl auswertbarer Einzelboli: 11.347 In der statistischen Auswertung wurden Korrelation der Charakteristika der Wiederkäuboli: Länge des Bolus in Sekunden, Anzahl der Kauschläge pro Bolus und der Frequenz der Kauschläge pro Sekunde und Bolus, der Wiederkäuphasen: Länge der Wiederkäuphasen in Minuten, Anzahl Boli in der Wiederkäuphase und die Anzahl der Kauschläge in der Wiederkäuphase und der Wiederkäudauer pro Tag (in Minuten) mit den erfassten Einflussfaktoren: tierindividuelle Parameter, Milchparameter und Fütterungsparameter berechnet. Um wechselseitige Beziehungen der Einflussfaktoren untereinander besser darstellen zu können, wurde im nächsten Schritt eine multiple lineare Regression durchgeführt. Zur Erfassung der Gewichtung der Einflussfaktoren wurde als dritte statistische Methode eine Regressionsbaumanalyse berechnet. Die Charakteristika der Wiederkäuboli wiesen eine große tierindividuelle Variation zwischen den Einzeltieren auf. Die Milchkühe käuten im Mittel 46 ± 12 Sekunden wieder und vollzogen in dieser Zeit 60 ± 25 Kauschläge bei einer mittleren Kauschlagfrequenz von 1,3 ± 0,4 Kauschlägen pro Sekunde. Die größte tierindividuelle Variation mit 53,1 % wies der Parameter Anzahl der Kauschläge pro Bolus auf. Die Frequenz der Kauschläge pro Bolus wurde in hohem Maße von der Anzahl der Kauschläge pro Bolus beeinflusst (R² = 0,71) und nur in geringem Maße von der Länge des Bolus (R² = 0,21). Das geringe Bestimmtheitsmaß der multiplen Regression der Länge des Bolus (R² = 0,18) deutet auf eine sehr geringe Beeinflussung durch alle erfassten Einflussfaktoren hin. Ebenso wie die Charakteristika der Wiederkäuboli wiesen die Charakteristika der Wiederkäuphasen eine hohe inter- und intraindividuelle Variation (>45%) und bei allen Versuchstieren eine hohe Korrelation der Charakteristika untereinander auf (r = 0,74 bis r =0,98). In der Regressionsanalyse konnte keiner der geprüften Einflussfaktoren einen nennenswerten Erklärungswert liefern. Die Variationen in der Länge der Wiederkäuphasen, Anzahl der Boli pro Phase und der Anzahl der Kauschläge pro Phase wurden weder von der Fütterung, noch vom Tier oder der Milchleistung in nennenswerter Weise geprägt. Eine Beurteilung dieser Einflussfaktoren anhand der Beobachtung einzelner Wiederkäuphasen ist somit nicht möglich. Die Fress- und Wiederkäudauer pro Tag wiesen eine große tierindividuelle Variation auf (37,9 % bzw. 29,0 %). Bei beiden Verhaltensweisen ist die intraindividuelle Variation geringer als die interindividuelle Variation (Fressdauer: 37,9 zu 23,6 %; Wiederkäudauer: 29,0 zu 9%). Der geringe Wert des intraindividuellen Variationskoeffizienten der Wiederkäudauer pro Tag legt eine starke tierindividuelle Determinierung der Wiederkäuaktivität nahe.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In dieser Dissertation werden mithilfe von Ansätzen, die aus der Mustererekennung abgeleiteten sind, zwei typische Aufgabenstellungen aus dem Bereich der geodätischen Überwachungsmessungen bearbeitet. Die hier benutzten Ansätze bedienen sich automatisch arbeitender Clusterverfahren, die unter Nutzung formaler Kriterien Daten in homogene Gruppen einordnen. Die Besonderheit sind hier die verwendeten Fuzzy-Clusterverfahren, bei denen die Daten nicht genau einer Gruppe zugeordnet werden, sondern jeder Gruppe mit einem graduell variierenden Zugehörigkeitswert. In dem ersten Beispiel geht es um das Auffinden von Punktgruppen mit einem gleichförmigen Bewegungsverhalten in einem zweidimensionalen Überwachungsnetz und in dem zweiten Beispiel um die automatische Klassifizierung von Setzungszeitreihen. In beiden Beispielen wird gezeigt, dass die bisher in der Praxis überwiegend durch einen erfahrenen Auswerter, durch manuelle Beurteilung von graphischen Darstellungen, erfolgte Vorgehensweise weitestgehend automatisiert werden kann.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Heutzutage haben selbst durchschnittliche Computersysteme mehrere unabhängige Recheneinheiten (Kerne). Wird ein rechenintensives Problem in mehrere Teilberechnungen unterteilt, können diese parallel und damit schneller verarbeitet werden. Obwohl die Entwicklung paralleler Programme mittels Abstraktionen vereinfacht werden kann, ist es selbst für Experten anspruchsvoll, effiziente und korrekte Programme zu schreiben. Während traditionelle Programmiersprachen auf einem eher geringen Abstraktionsniveau arbeiten, bieten funktionale Programmiersprachen wie z.B. Haskell, Möglichkeiten zur fortgeschrittenen Abstrahierung. Das Ziel der vorliegenden Dissertation war es, zu untersuchen, wie gut verschiedene Arten der Abstraktion das Programmieren mit Concurrent Haskell unterstützen. Concurrent Haskell ist eine Bibliothek für Haskell, die parallele Programmierung auf Systemen mit gemeinsamem Speicher ermöglicht. Im Mittelpunkt der Dissertation standen zwei Forschungsfragen. Erstens wurden verschiedene Synchronisierungsansätze verglichen, die sich in ihrem Abstraktionsgrad unterscheiden. Zweitens wurde untersucht, wie Abstraktionen verwendet werden können, um die Komplexität der Parallelisierung vor dem Entwickler zu verbergen. Bei dem Vergleich der Synchronisierungsansätze wurden Locks, Compare-and-Swap Operationen und Software Transactional Memory berücksichtigt. Die Ansätze wurden zunächst bezüglich ihrer Eignung für die Synchronisation einer Prioritätenwarteschlange auf Basis von Skiplists untersucht. Anschließend wurden verschiedene Varianten des Taskpool Entwurfsmusters implementiert (globale Taskpools sowie private Taskpools mit und ohne Taskdiebstahl). Zusätzlich wurde für das Entwurfsmuster eine Abstraktionsschicht entwickelt, welche eine einfache Formulierung von Taskpool-basierten Algorithmen erlaubt. Für die Untersuchung der Frage, ob Haskells Abstraktionsmethoden die Komplexität paralleler Programmierung verbergen können, wurden zunächst stencil-basierte Algorithmen betrachtet. Es wurde eine Bibliothek entwickelt, die eine deklarative Beschreibung von stencil-basierten Algorithmen sowie ihre parallele Ausführung erlaubt. Mit Hilfe dieses deklarativen Interfaces wurde die parallele Implementation vollständig vor dem Anwender verborgen. Anschließend wurde eine eingebettete domänenspezifische Sprache (EDSL) für Knoten-basierte Graphalgorithmen sowie eine entsprechende Ausführungsplattform entwickelt. Die Plattform erlaubt die automatische parallele Verarbeitung dieser Algorithmen. Verschiedene Beispiele zeigten, dass die EDSL eine knappe und dennoch verständliche Formulierung von Graphalgorithmen ermöglicht.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die thermische Verarbeitung von Lebensmitteln beeinflusst deren Qualität und ernährungsphysiologischen Eigenschaften. Im Haushalt ist die Überwachung der Temperatur innerhalb des Lebensmittels sehr schwierig. Zudem ist das Wissen über optimale Temperatur- und Zeitparameter für die verschiedenen Speisen oft unzureichend. Die optimale Steuerung der thermischen Zubereitung ist maßgeblich abhängig von der Art des Lebensmittels und der äußeren und inneren Temperatureinwirkung während des Garvorgangs. Das Ziel der Arbeiten war die Entwicklung eines automatischen Backofens, der in der Lage ist, die Art des Lebensmittels zu erkennen und die Temperatur im Inneren des Lebensmittels während des Backens zu errechnen. Die für die Temperaturberechnung benötigten Daten wurden mit mehreren Sensoren erfasst. Hierzu kam ein Infrarotthermometer, ein Infrarotabstandssensor, eine Kamera, ein Temperatursensor und ein Lambdasonde innerhalb des Ofens zum Einsatz. Ferner wurden eine Wägezelle, ein Strom- sowie Spannungs-Sensor und ein Temperatursensor außerhalb des Ofens genutzt. Die während der Aufheizphase aufgenommen Datensätze ermöglichten das Training mehrerer künstlicher neuronaler Netze, die die verschiedenen Lebensmittel in die entsprechenden Kategorien einordnen konnten, um so das optimale Backprogram auszuwählen. Zur Abschätzung der thermische Diffusivität der Nahrung, die von der Zusammensetzung (Kohlenhydrate, Fett, Protein, Wasser) abhängt, wurden mehrere künstliche neuronale Netze trainiert. Mit Ausnahme des Fettanteils der Lebensmittel konnten alle Komponenten durch verschiedene KNNs mit einem Maximum von 8 versteckten Neuronen ausreichend genau abgeschätzt werden um auf deren Grundlage die Temperatur im inneren des Lebensmittels zu berechnen. Die durchgeführte Arbeit zeigt, dass mit Hilfe verschiedenster Sensoren zur direkten beziehungsweise indirekten Messung der äußeren Eigenschaften der Lebensmittel sowie KNNs für die Kategorisierung und Abschätzung der Lebensmittelzusammensetzung die automatische Erkennung und Berechnung der inneren Temperatur von verschiedensten Lebensmitteln möglich ist.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Thermografie hat sich als wichtiges Hilfsmittel für die Inspektion, Prüfung und Überwachung etabliert. Bei vielen Anwendungen ist eine einzelne Messung allein oft nicht aussagekräftig, z. B. weil Strukturen nicht deutlich genug wahrgenommen werden können, das Messobjekt größer als das Blickfeld der Optik ist oder sich Kenngrößen erst aus dem zeitlichen Verlauf von Messungen ergeben. Zudem erfasst der Bediener der Kamera mit seinen Sinnen und seiner Erfahrung noch viele weitere Einflussgrößen, die bei der Entscheidungsfindung berücksichtigt werden. Eine Automatisierung von Inspektionsaufgaben in unbekannten Umgebungen ist also sehr komplex. In dieser Arbeit werden daher verschiedene Sensordatenfusionsansätze untersucht, die in der Thermografie eingesetzt werden können. Das Ziel bei der Fusion ist dabei die Verbesserung der Qualität der Messung und die Vergrößerung der verfügbaren Menge an nutzbaren Informationen über ein Messobjekt. Die betrachteten Ansätze können entweder nur mit Messungen der Thermografiekamera durchgeführt werden: zur Rauschunterdrückung durch zeitliche Mittelwertbildung, zur Vergrößerung der Schärfentiefe durch Kombination von Aufnahmen mit unterschiedlichem Fokus, zur Vergrößerung der Dynamik (also des Temperaturmessbereichs) durch Kombination von Messungen mit unterschiedlichen Messbereichen und durch Veränderung von Filtereinstellungen zur Unterdrückung von Störungen und zum Ableiten von geometrischen Informationen und Oberflächeneigenschaften. Weiterhin kann durch Veränderung der Kameraausrichtung das Blickfeld vergrößert und die geometrische Auflösung verbessert werden. Die Datenfusion von Thermogrammen kann aber auch mit Daten von anderen bildgebenden Messgeräten durchgeführt werden. Betrachtet wird die Kombination mit normalen Kameras im sichtbaren Spektralbereich, Thermografiekameras in anderen Wellenlängenbereichen und Tiefenkameras/Entfernungsmessgeräten (3D-Scanner, Laserscanner). Dadurch lassen sich für einen Messpunkt mehr Informationen gewinnen und die Messdaten können geometrisch als 3D-Modelle interpretiert und analysiert werden. Die Vielzahl an Informationen soll eine solide Dokumentation und gute (automatische) Analyse ermöglichen. Neben den Grundlagen zur Thermografie, dem punktweisen Zusammenführen von Messdaten und den oben genannten Sensordatenfusionsansätzen, wird ein Anwendungsbeispiel gezeigt. Darin soll die Machbarkeit der automatisierten Inspektionsdurchführung und die Kombination und praktische Anwendung der verschiedenen Sensordatenfusionsansätze gezeigt werden.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In vielen Industrieanlagen werden verschiedenste Fluide in der Produktion eingesetzt, die bei einer Freisetzung, z. B. durch ihre toxische oder karzinogene Eigenschaft oder wegen der Brand- und Explosionsgefahr, sowohl die Umwelt als auch Investitionsgüter gefährden können. In Deutschland sind zur Risikominimierung die maximal zulässigen Emissionsmengen von Stoffen und Stoffgruppen in verschiedenen Umweltvorschriften festgelegt, wodurch zu deren Einhaltung eine ausreichende Überwachung aller relevanten Anlagenkomponenten seitens der Betreiber notwendig ist. Eine kontinuierliche und flächendeckende Überwachung der Anlagen ist aber weder personell, noch finanziell mit klassischer In-situ-Sensorik realisierbar. In der vorliegenden Arbeit wird die Problemstellung der autonomen mobilen Gasferndetektion und Gasleckortung in industrieller Umgebung mittels optischer Gasfernmesstechnik adressiert, die zum Teil im Rahmen des Verbundprojekts RoboGasInspector entstand. Neben der Beschreibung des verwendeten mobilen Robotersystems und der Sensorik, werden die eingesetzten Techniken zur Messdatenverarbeitung vorgestellt. Für die Leckortung, als Sonderfall im Inspektionsablauf, wurde die TriMax-Methode entwickelt, die zusätzlich durch einen Bayes-Klassifikator basierten Gasleckschätzer (Bayes classification based gas leak estimator (BeaGLE)) erweitert wurde, um die Erstellung von Leckhypothesen zu verbessern. Der BeaGLE basiert auf Techniken, die in der mobilen Robotik bei der Erstellung von digitalen Karten mittels Entfernungsmessungen genutzt werden. Die vorgestellten Strategien wurden in industrieller Umgebung mittels simulierter Lecks entwickelt und getestet. Zur Bestimmung der Strategieparameter wurden diverse Laborund Freifelduntersuchungen mit dem verwendeten Gasfernmessgerät durchgeführt. Die abschließenden Testergebnisse mit dem Gesamtsystem haben gezeigt, dass die automatische Gasdetektion und Gaslecksuche mittels autonomer mobiler Roboter und optischer Gasfernmesstechnik innerhalb praktikabler Zeiten und mit hinreichender Präzision realisierbar sind. Die Gasdetektion und Gasleckortung mittels autonomer mobiler Roboter und optischer Gasfernmesstechnik ist noch ein junger Forschungszweig der industriellen Servicerobotik. In der abschließenden Diskussion der vorliegenden Arbeit wird deutlich, dass noch weitergehende, interessante Forschungs- und Entwicklungspotentiale erkennbar sind.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP)

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)