892 resultados para Speed Limit Module
Resumo:
The aim of this study was to examine whether a real high speed-short term competition influences clinicopathological data focusing on muscle enzymes, iron profile and Acute Phase Proteins. 30 Thoroughbred racing horses (15 geldings and 15 females) aged between 4-12 years (mean 7 years), were used for the study. All the animals performed a high speed-short term competition for a total distance of 154 m in about 12 seconds, repeated 8 times, within approximately one hour (Niballo Horse Race). Blood samples were obtained 24 hours before and within 30 minutes after the end of the races. On all samples were performed a complete blood count (CBC), biochemical and haemostatic profiles. The post-race concentrations for the single parameter were corrected using an estimation of the plasma volume contraction according to the individual Alb concentration. Data were analysed with descriptive statistics and the percentage of variation from the baseline values were recorded. Pre- and post-race results were compared with non-parametric statistics (Mann Whitney U test). A difference was considered significant at p<0.05. A significant plasma volume contraction after the race was detected (Hct, Alb; p<0.01). Other relevant findings were increased concentrations of muscular enzymes (CK, LDH; p<0.01), Crt (p<0.01), significant increased uric acid (p<0.01), a significant decrease of haptoglobin (p<0.01) associated to an increase of ferritin concentrations (p<0.01), significant decrease of fibrinogen (p<0.05) accompanied by a non-significant increase of D-Dimers concentrations (p=0.08). This competition produced relevant abnormalities on clinical pathology in galloping horses. This study confirms a significant muscular damage, oxidative stress, intravascular haemolysis and subclinical hemostatic alterations. Further studies are needed to better understand the pathogenesis, the medical relevance and the impact on performance of these alterations in equine sport medicine.
Resumo:
In dieser Arbeit werden wir ein Modell untersuchen, welches die Ausbreitung einer Infektion beschreibt. Bei diesem Modell werden zunächst Partikel gemäß eines Poissonschen Punktprozesses auf der reellen Achse verteilt. Bis zu einem gewissen Punkt auf der reellen Achse sind alle Partikel von einer Infektion befallen. Während sich nicht infizierte Partikel nicht bewegen, folgen die infizierten Partikel den Pfaden von voneinander unabhängigen Brownschen Bewegungen und verbreitet die Infektion dabei an den Orten, welche sie betreten. Wenn sie dabei auf ein nicht infiziertes Partikel treffen, ist dieses von diesem Moment an auch infiziert und beginnt ebenfalls, dem Pfad einer Brownschen Bewegung zu folgen und die Infektion auszubreiten. Auf diese Art verschiebt sich nun der am weitesten rechts liegende Ort R_t, an dem die Infektion bereits verbreitet wurde. Wir werden mit Hilfe des subadditiven Ergodensatzes zeigen, dass sich dieser Ort mit linearer Geschwindigkeit fortbewegt. Ferner werden wir eine obere und eine untere Schranke für die Ausbreitungsgeschwindkeit angeben. Danach werden wir zeigen, dass der Prozess Regenerationszeiten hat, nämlich solche zufällige Zeiten, zu denen er eine Art Neustart unter speziellen Startbedingungen durchführt. Wir werden diese für eine weitere Charakterisierung der Ausbreitungsgeschwingkeit nutzen. Ferner erhalten wir durch die Regenerationszeiten auch einen Zentralen Grenzwertsatz für R_t und können zeigen, dass die Verteilung der infizierten Partikel aus Sicht des am weitesten rechts liegenden infizierten Ortes gegen eine invariante Verteilung konvergiert.
Resumo:
Due to its practical importance and inherent complexity, the optimisation of distribution networks for supplying drinking water has been the subject of extensive study for the past 30 years. The optimization is governed by sizing the pipes in the water distribution network (WDN) and / or optimises specific parts of the network such as pumps, tanks etc. or try to analyse and optimise the reliability of a WDN. In this thesis, the author has analysed two different WDNs (Anytown City and Cabrera city networks), trying to solve and optimise a multi-objective optimisation problem (MOOP). The main two objectives in both cases were the minimisation of Energy Cost (€) or Energy consumption (kWh), along with the total Number of pump switches (TNps) during a day. For this purpose, a decision support system generator for Multi-objective optimisation used. Its name is GANetXL and has been developed by the Center of Water System in the University of Exeter. GANetXL, works by calling the EPANET hydraulic solver, each time a hydraulic analysis has been fulfilled. The main algorithm used, was a second-generation algorithm for multi-objective optimisation called NSGA_II that gave us the Pareto fronts of each configuration. The first experiment that has been carried out was the network of Anytown city. It is a big network with a pump station of four fixed speed parallel pumps that are boosting the water dynamics. The main intervention was to change these pumps to new Variable speed driven pumps (VSDPs), by installing inverters capable to diverse their velocity during the day. Hence, it’s been achieved great Energy and cost savings along with minimisation in the number of pump switches. The results of the research are thoroughly illustrated in chapter 7, with comments and a variety of graphs and different configurations. The second experiment was about the network of Cabrera city. The smaller WDN had a unique FS pump in the system. The problem was the same as far as the optimisation process was concerned, thus, the minimisation of the energy consumption and in parallel the minimisation of TNps. The same optimisation tool has been used (GANetXL).The main scope was to carry out several and different experiments regarding a vast variety of configurations, using different pump (but this time keeping the FS mode), different tank levels, different pipe diameters and different emitters coefficient. All these different modes came up with a large number of results that were compared in the chapter 8. Concluding, it should be said that the optimisation of WDNs is a very interested field that has a vast space of options to deal with. This includes a large number of algorithms to choose from, different techniques and configurations to be made and different support system generators. The researcher has to be ready to “roam” between these choices, till a satisfactory result will convince him/her that has reached a good optimisation point.
Resumo:
Die Invarianz physikalischer Gesetze unter Lorentztransformationen ist eines der fundamentalen Postulate der modernen Physik und alle Theorien der grundlegenden Wechselwirkungen sind in kovarianter Form formuliert. Obwohl die Spezielle Relativitätstheorie (SRT) in einer Vielzahl von Experimenten mit hoher Genauigkeit überprüft und bestätigt wurde, sind aufgrund der weitreichenden Bedeutung dieses Postulats weitere verbesserte Tests von grundsätzlichem Interesse. Darüber hinaus weisen moderne Ansätze zur Vereinheitlichung der Gravitation mit den anderen Wechselwirkungen auf eine mögliche Verletzung der Lorentzinvarianz hin. In diesem Zusammenhang spielen Ives-Stilwell Experimente zum Test der Zeitdilatation in der SRT eine bedeutende Rolle. Dabei wird die hochauflösende Laserspektroskopie eingesetzt, um die Gültigkeit der relativistischen Dopplerformel – und damit des Zeitdilatationsfaktors γ – an relativistischen Teilchenstrahlen zu untersuchen. Im Rahmen dieser Arbeit wurde ein Ives-Stilwell Experiment an 7Li+-Ionen, die bei einer Geschwindigkeit von 34 % der Lichtgeschwindigkeit im Experimentierspeicherring (ESR) des GSI Helmholtzzentrums für Schwerionenforschung gespeichert waren, durchgeführt. Unter Verwendung des 1s2s3S1→ 1s2p3P2-Übergangs wurde sowohl Λ-Spektroskopie als auch Sättigungsspektroskopie betrieben. Durch die computergestützte Analyse des Fluoreszenznachweises und unter Verwendung optimierter Kantenfilter für den Nachweis konnte das Signal zu Rauschverhältnis entscheidend verbessert und unter Einsatz eines zusätzlichen Pumplasers erstmals ein Sättigungssignal beobachtet werden. Die Frequenzstabilität der beiden verwendeten Lasersysteme wurde mit Hilfe eines Frequenzkamms spezifiziert, um eine möglichst hohe Genauigkeit zu erreichen. Die aus den Strahlzeiten gewonnen Daten wurden im Rahmen der Robertson-Mansouri-Sexl-Testtheorie (RMS) und der Standard Model Extension (SME) interpretiert und entsprechende Obergrenzen für die relevanten Testparameter der jeweiligen Theorie bestimmt. Die Obergrenze für den Testparameter α der RMS-Theorie konnte gegenüber den früheren Messungen bei 6,4 % der Lichtgeschwindigkeit am Testspeicherring (TSR) des Max-Planck-Instituts für Kernphysik in Heidelberg um einen Faktor 4 verbessert werden.
Resumo:
Atmosphärische Aerosolpartikel haben einen Einfluss sowohl auf das Klima als auch auf die menschliche Gesundheit, wobei sowohl die Größe, als auch die chemische Zusammensetzung der Partikel maßgeblich sind. Um insbesondere die chemische Zusammensetzung der Partikel in Abhängigkeit ihrer Quellen besser zu verstehen, wurden im Rahmen dieser Arbeit massenspektrometrische Untersuchungen thermisch verdampfbarer Partikel im Submikrometerbereich durchgeführt. Hierzu wurden sowohl die Massenspektren einzelner Partikel, als auch die von Ensembles von Partikeln mit dem Aerodyne Aerosolmassenspektrometer (AMS) in mehreren Feldmesskampagnen untersucht. Für die Messung von Einzelpartikelmassenspektren wurde das AMS zunächst durch den Einbau eines optischen Partikeldetektors (light scattering probe) modifiziert und anschließend eingehend charakterisiert. Dabei wurde festgestellt, dass mit dem Gerät im Partikelgrößenbereich von etwa 400-750 nm (untere Grenze bedingt durch die Detektionseffizienz des optischen Detektors, obere Grenze durch die Transmissionseffizienz des Aerosoleinlasssystems) quantitative Einzelpartikelmessungen möglich sind. Zudem wurde die Analyse der erhaltenen Messdaten systematisiert, und durch Einsatz von Standardspektren ein Sortieralgorithmus für die Einzelpartikelmassenspektren entwickelt, der erfolgreich auf Daten von Feldmesskampagnen angewandt werden konnte. Mit diesem Sortieralgorithmus sind zudem quantitative Aussagen über die verschiedenen Partikelbestandteile möglich. Im Sommer 2009 und im Winter 2010 fanden im Großraum Paris zwei einmonatige Feldmesskampagnen statt, bei denen unter anderem der Einfluss der Abluftfahne der Megastadt auf seine Vororte untersucht wurde. Erhöhte Konzentrationen sekundär gebildeter Aerosolkomponenten (Nitrat, Sulfat, oxidiertes organisches Aerosol (OOA)) waren insbesondere beim Herantransport kontinentaler Luftmassen zu beobachten. Im Gegensatz dazu waren die beobachteten Konzentrationen der Tracer primärer Emissionen NOx, BC (black carbon) und HOA (hydrocarbonlike organic aerosol) neben der lokalen Quellstärke insbesondere durch die herrschende Windgeschwindigkeit beeinflusst. Aus dem Vergleich der Messungen an drei Stationen konnte der Einfluss der Megastadt Paris auf seine Vororte (unter Annahme gleicher lokaler Emissionen an den zwei Vorort-Stationen) zu 0,1-0,7 µg m-3 BC, 0,3-1,1 µg m-3 HOA, und 3-5 ppb NOx abgeschätzt werden. Zudem konnten für zwei Stationen aus den Ensemble- bzw. den Einzelpartikelmessungen unabhängig voneinander zwei verschiedene HOA-Typen unterschieden werden, die den Quellen „Kochen“ und „Autoabgase“ zugeordnet wurden. Der Anteil der Partikel aus den Quellen „Kochen“ bzw. „Autoabgase“ am Gesamt-HOA betrug 65,5 % und 34,5 % für die Ensemblemessungen in der Innenstadt (nahe vieler Restaurants), und für die Einzelpartikelmessungen in einem Vorort 59 % bzw. 41 % (bezogen auf die Partikelanzahl, welche hier der Masse etwa proportional ist). Die Analyse der Einzelpartikelmassenspektren erbrachte zudem neue Erkenntnisse über den Mischungszustand der Einzelpartikel. So konnte belegt werden, dass Nitrat, Sulfat und OOA intern gemischt sind, HOA-Partikel aber als externe Mischung mit diesen vorliegen. Zudem konnte anhand der Tagesgänge der Masse pro Partikel von OOA, Nitrat und Sulfat und der Anzahl der diese Substanzen enthaltenden Partikel gezeigt werden, dass der im Ensemblemodus beobachtete fehlende Tagesgang der Sulfat-Massenkonzentration wahrscheinlich durch die gegensätzlichen Effekte der Modulation der Partikelanzahlkonzentration durch die sich verändernde Mischungsschichthöhe und der variierenden Masse an Sulfat pro Partikel (mittägliche photochemische Neuproduktion und Kondensation auf existierende Partikel) erklärt werden kann. Für OOA ist eine ähnliche Erklärung des Ensemblemodus-Tagesganges jedoch nur teilweise möglich; weitere Arbeit ist daher nötig, um auch für diese Substanzklasse belastbare Aussagen aus dem Vergleich der Ensemble- und Einzelpartikelmessungen zu erhalten. Im Rahmen einer Labormesskampagne an der AIDA-Kammer in Karlsruhe wurden Ensemble- und Einzelpartikelmassenspektren von Bakterien aufgenommen. Es konnte gezeigt werden, dass es prinzipiell möglich ist, Bakterien in Außenluft mittels Einzelpartikelmessungen nachzuweisen, jedoch wahrscheinlich nur bei sehr hohen Anzahlkonzentrationen. Der Nachweis von Bakterien und anderen primären biologischen Aerosolpartikeln mit dem AMS sollte daher in weiterführenden Experimenten noch optimiert werden.
Resumo:
The aim of this thesis is to investigate the nature of quantum computation and the question of the quantum speed-up over classical computation by comparing two different quantum computational frameworks, the traditional quantum circuit model and the cluster-state quantum computer. After an introductory survey of the theoretical and epistemological questions concerning quantum computation, the first part of this thesis provides a presentation of cluster-state computation suitable for a philosophical audience. In spite of the computational equivalence between the two frameworks, their differences can be considered as structural. Entanglement is shown to play a fundamental role in both quantum circuits and cluster-state computers; this supports, from a new perspective, the argument that entanglement can reasonably explain the quantum speed-up over classical computation. However, quantum circuits and cluster-state computers diverge with regard to one of the explanations of quantum computation that actually accords a central role to entanglement, i.e. the Everett interpretation. It is argued that, while cluster-state quantum computation does not show an Everettian failure in accounting for the computational processes, it threatens that interpretation of being not-explanatory. This analysis presented here should be integrated in a more general work in order to include also further frameworks of quantum computation, e.g. topological quantum computation. However, what is revealed by this work is that the speed-up question does not capture all that is at stake: both quantum circuits and cluster-state computers achieve the speed-up, but the challenges that they posit go besides that specific question. Then, the existence of alternative equivalent quantum computational models suggests that the ultimate question should be moved from the speed-up to a sort of “representation theorem” for quantum computation, to be meant as the general goal of identifying the physical features underlying these alternative frameworks that allow for labelling those frameworks as “quantum computation”.
Resumo:
Diese Arbeit beschreibt die Entwicklung des flugzeuggetragenen Atmosphärischen Ionisations-Massenspektrometers AIMS-H2O zur Messung von Wasserdampf in der oberen Troposphäre und unteren Stratosphäre (UTLS) und erste Flugzeugmessungen mit dem Instrument. Wasserdampf beeinflusst das Klima in der UTLS aufgrund seiner Strahlungseigenschaften und agiert als wichtiger Parameter bei der Bildung von Zirruswolken und Kondensstreifen. Deshalb sind genaue Wasserdampfmessungen für das Verständnis vieler atmosphärischer Prozesse unerlässlich. Instrumentenvergleiche wie sie im SPARC Report No. 2 und dem Bericht der AUQAVIT Kampagne zusammengefasst sind, haben gezeigt, dass große Abweichungen zwischen einzelnen Methoden und Instrumenten bestehen. Diese Unsicherheiten limitieren das Verständnis des Einflusses von Wasserdampf auf die Dynamik und die Strahlungseigenschaften in der UTLS. Die in dieser Arbeit vorgestellte Entwicklung einer neuen Messmethode für Wasserdampf mit dem Massenspektrometer AIMS-H2O ist deshalb auf die genaue Messung niedriger Wasserdampfkonzentrationen in der UTLS fokussiert. Mit AIMS H2O wird Umgebungsluft in einer neu entwickelten Gasentladungsquelle ionisiert. Durch eine Reihe von Ionen-Molekül-Reaktionen entstehen H3O+(H2O) und H3O+(H2O)2 Ionen. Diese Ionen werden genutzt, um die Wasserdampfkonzentration in der Atmosphäre zu bestimmen. Um die erforderliche hohe Genauigkeit zu erzielen, wird AIMS H2O im Flug kalibriert. In dem zu diesem Zweck aufgebauten Kalibrationsmodul wird die katalytische Reaktion von Wasserstoff und Sauerstoff auf einer Platinoberfläche genutzt, um definierte Wasserdampfkonzentrationen für die Kalibration im Flug zu erzeugen. Bei ersten Messungen auf der Falcon während der Kampagne CONCERT 2011 konnte dabei eine Genauigkeit von 8 bis 15% für die Messung der Wasserdampfkonzentration in einem Messbereich von 0,5 bis 250 ppmv erreicht werden. Die Messfrequenz betrug 4 Hz, was einer räumlichen Auflösung von etwa 50 m entspricht. Der Vergleich der Messung des Massenspektrometers mit dem Laserhygrometer Waran zeigt eine sehr gute Übereinstimmung im Rahmen der Unsicherheiten. Anhand zweier Fallstudien werden die Messungen von AIMS H2O während CONCERT 2011 detailliert analysiert. In der ersten Studie werden zwei Flüge in eine stratosphärische Intrusion über Nordeuropa untersucht. In dieser Situation wurde stratosphärische Luft bis hinunter auf 6 km Höhe transportiert und war dadurch mit der Falcon erreichbar. Es konnte gezeigt werden, dass AIMS-H2O sehr gut für die genaue Messung niedriger Wasserdampfkonzentrationen, in diesem Fall bis etwa 3,5 ppmv, geeignet ist. Der Vergleich der Messung mit Analysen des ECMWF Integrated Forecast Systems zeigt eine gute Übereinstimmung der gemessenen Wasserdampfstrukturen mit der dynamischen Tropopause. Unterschiede tauchen dagegen beim Vergleich der Wasserdampfkonzentrationen in der unteren Stratosphäre auf. Hier prognostiziert das Modell deutlich höhere Feuchten. Die zweite Fallstudie beschäftigt sich mit der Verteilung der relativen Feuchte in jungen Kondensstreifen im Vergleich zu ihrer direkten Umgebung. Dabei wurde für drei Messsequenzen im Abgasstrahl von Flugzeugen beobachtet, dass die relative Feuchte innerhalb des Kondensstreifens im Vergleich zur Umgebung sowohl bei unter- als auch übersättigten Umgebungsbedingungen in Richtung Sättigung verschoben ist. Die hohe Anzahl an Eispartikeln und die damit verbundene große Eisoberfläche in jungen Kondensstreifen führt also zu einer schnellen Relaxation von Gasphase und Eis in Richtung Gleichgewicht. In der Zukunft soll AIMS-H2O auch auf HALO für die genaue Messung von Wasserdampf bei ML-CIRRUS und weiteren Kampagnen eingesetzt werden.
Resumo:
Il concetto di inflazione e' stato introdotto nei primi anni ’80 per risolvere alcuni problemi del modello cosmologico standard, quali quello dell’orizzonte e quello della piattezza. Le predizioni dei piu' semplici modelli inflazionari sono in buon accordo con le osservazioni cosmologiche piu'recenti, che confermano sezioni spaziali piatte e uno spettro di fluttuazioni primordiali con statistica vicina a quella gaussiana. I piu' recenti dati di Planck, pur in ottimo accordo con una semplice legge di potenza per lo spettro a scale k > 0.08 Mpc−1 , sembrano indicare possibili devi- azioni a scale maggiori, seppur non a un livello statisticamente significativo a causa della varianza cosmica. Queste deviazioni nello spettro possono essere spiegate da modelli inflazionari che includono una violazione della condizione di lento rotolamento (slow-roll ) e che hanno precise predizioni per lo spettro. Per uno dei primi modelli, caratterizzato da una discontinuita' nella derivata prima del potenziale proposto da Starobinsky, lo spettro ed il bispettro delle fluttuazioni primordiali sono noti analiticamente. In questa tesi estenderemo tale modello a termini cinetici non standard, calcolandone analiticamente il bispettro e confrontando i risultati ottenuti con quanto presente in letteratura. In particolare, l’introduzione di un termine cinetico non standard permettera' di ottenere una velocita' del suono per l’inflatone non banale, che consentira' di estendere i risultati noti, riguardanti il bispettro, per questo modello. Innanzitutto studieremo le correzioni al bispettro noto in letteratura dovute al fatto che in questo caso la velocita' del suono e' una funzione dipendente dal tempo; successivamente, cercheremo di calcolare analiticamente un ulteriore contributo al bispettro proporzionale alla derivata prima della velocita' del suono (che per il modello originale e' nullo).
Resumo:
I Big Data hanno forgiato nuove tecnologie che migliorano la qualità della vita utilizzando la combinazione di rappresentazioni eterogenee di dati in varie discipline. Occorre, quindi, un sistema realtime in grado di computare i dati in tempo reale. Tale sistema viene denominato speed layer, come si evince dal nome si è pensato a garantire che i nuovi dati siano restituiti dalle query funcions con la rapidità in cui essi arrivano. Il lavoro di tesi verte sulla realizzazione di un’architettura che si rifaccia allo Speed Layer della Lambda Architecture e che sia in grado di ricevere dati metereologici pubblicati su una coda MQTT, elaborarli in tempo reale e memorizzarli in un database per renderli disponibili ai Data Scientist. L’ambiente di programmazione utilizzato è JAVA, il progetto è stato installato sulla piattaforma Hortonworks che si basa sul framework Hadoop e sul sistema di computazione Storm, che permette di lavorare con flussi di dati illimitati, effettuando l’elaborazione in tempo reale. A differenza dei tradizionali approcci di stream-processing con reti di code e workers, Storm è fault-tolerance e scalabile. Gli sforzi dedicati al suo sviluppo da parte della Apache Software Foundation, il crescente utilizzo in ambito di produzione di importanti aziende, il supporto da parte delle compagnie di cloud hosting sono segnali che questa tecnologia prenderà sempre più piede come soluzione per la gestione di computazioni distribuite orientate agli eventi. Per poter memorizzare e analizzare queste moli di dati, che da sempre hanno costituito una problematica non superabile con i database tradizionali, è stato utilizzato un database non relazionale: HBase.
Resumo:
In the field of computer assisted orthopedic surgery (CAOS) the anterior pelvic plane (APP) is a common concept to determine the pelvic orientation by digitizing distinct pelvic landmarks. As percutaneous palpation is - especially for obese patients - known to be error-prone, B-mode ultrasound (US) imaging could provide an alternative means. Several concepts of using ultrasound imaging to determine the APP landmarks have been introduced. In this paper we present a novel technique, which uses local patch statistical shape models (SSMs) and a hierarchical speed of sound compensation strategy for an accurate determination of the APP. These patches are independently matched and instantiated with respect to associated point clouds derived from the acquired ultrasound images. Potential inaccuracies due to the assumption of a constant speed of sound are compensated by an extended reconstruction scheme. We validated our method with in-vitro studies using a plastic bone covered with a soft-tissue simulation phantom and with a preliminary cadaver trial.
Resumo:
In many cases, it is not possible to call the motorists to account for their considerable excess in speeding, because they deny being the driver on the speed-check photograph. An anthropological comparison of facial features using a photo-to-photo comparison can be very difficult depending on the quality of the photographs. One difficulty of that analysis method is that the comparison photographs of the presumed driver are taken with a different camera or camera lens and from a different angle than for the speed-check photo. To take a comparison photograph with exactly the same camera setup is almost impossible. Therefore, only an imprecise comparison of the individual facial features is possible. The geometry and position of each facial feature, for example the distances between the eyes or the positions of the ears, etc., cannot be taken into consideration. We applied a new method using 3D laser scanning, optical surface digitalization, and photogrammetric calculation of the speed-check photo, which enables a geometric comparison. Thus, the influence of the focal length and the distortion of the objective lens are eliminated and the precise position and the viewing direction of the speed-check camera are calculated. Even in cases of low-quality images or when the face of the driver is partly hidden, good results are delivered using this method. This new method, Geometric Comparison, is evaluated and validated in a prepared study which is described in this article.
Resumo:
This is the first part of a study investigating a model-based transient calibration process for diesel engines. The motivation is to populate hundreds of parameters (which can be calibrated) in a methodical and optimum manner by using model-based optimization in conjunction with the manual process so that, relative to the manual process used by itself, a significant improvement in transient emissions and fuel consumption and a sizable reduction in calibration time and test cell requirements is achieved. Empirical transient modelling and optimization has been addressed in the second part of this work, while the required data for model training and generalization are the focus of the current work. Transient and steady-state data from a turbocharged multicylinder diesel engine have been examined from a model training perspective. A single-cylinder engine with external air-handling has been used to expand the steady-state data to encompass transient parameter space. Based on comparative model performance and differences in the non-parametric space, primarily driven by a high engine difference between exhaust and intake manifold pressures (ΔP) during transients, it has been recommended that transient emission models should be trained with transient training data. It has been shown that electronic control module (ECM) estimates of transient charge flow and the exhaust gas recirculation (EGR) fraction cannot be accurate at the high engine ΔP frequently encountered during transient operation, and that such estimates do not account for cylinder-to-cylinder variation. The effects of high engine ΔP must therefore be incorporated empirically by using transient data generated from a spectrum of transient calibrations. Specific recommendations on how to choose such calibrations, how many data to acquire, and how to specify transient segments for data acquisition have been made. Methods to process transient data to account for transport delays and sensor lags have been developed. The processed data have then been visualized using statistical means to understand transient emission formation. Two modes of transient opacity formation have been observed and described. The first mode is driven by high engine ΔP and low fresh air flowrates, while the second mode is driven by high engine ΔP and high EGR flowrates. The EGR fraction is inaccurately estimated at both modes, while EGR distribution has been shown to be present but unaccounted for by the ECM. The two modes and associated phenomena are essential to understanding why transient emission models are calibration dependent and furthermore how to choose training data that will result in good model generalization.
Resumo:
This is the second part of a study investigating a model-based transient calibration process for diesel engines. The first part addressed the data requirements and data processing required for empirical transient emission and torque models. The current work focuses on modelling and optimization. The unexpected result of this investigation is that when trained on transient data, simple regression models perform better than more powerful methods such as neural networks or localized regression. This result has been attributed to extrapolation over data that have estimated rather than measured transient air-handling parameters. The challenges of detecting and preventing extrapolation using statistical methods that work well with steady-state data have been explained. The concept of constraining the distribution of statistical leverage relative to the distribution of the starting solution to prevent extrapolation during the optimization process has been proposed and demonstrated. Separate from the issue of extrapolation is preventing the search from being quasi-static. Second-order linear dynamic constraint models have been proposed to prevent the search from returning solutions that are feasible if each point were run at steady state, but which are unrealistic in a transient sense. Dynamic constraint models translate commanded parameters to actually achieved parameters that then feed into the transient emission and torque models. Combined model inaccuracies have been used to adjust the optimized solutions. To frame the optimization problem within reasonable dimensionality, the coefficients of commanded surfaces that approximate engine tables are adjusted during search iterations, each of which involves simulating the entire transient cycle. The resulting strategy, different from the corresponding manual calibration strategy and resulting in lower emissions and efficiency, is intended to improve rather than replace the manual calibration process.
Resumo:
Acousto-optic modulators are widely used for rapid switching and shuttering of laser beams. In many applications, the concomitant frequency shift is undesirable and must be compensated for elsewhere in the system. Here we present a simple method of achieving rapid laser power switching without an accompanying laser frequency shift. The demonstrated acousto-optic shutter achieves a switching time of around 25 ns, an extinction ratio of 46 dB, and efficiency comparable to a conventional double-pass acousto-optical modulator configuration. (C) 2012 American Institute of Physics. [http://dx.doi.org/10.1063/1.4746292]