956 resultados para Layer dependent order parameters
Resumo:
Die Miniaturisierung von konventioneller Labor- und Analysetechnik nimmt eine zentrale Rolle im Bereich der allgemeinen Lebenswissenschaften und medizinischen Diagnostik ein. Neuartige und preiswerte Technologieplattformen wie Lab-on-a-Chip (LOC) oder Mikrototalanalysesysteme (µTAS) versprechen insbesondere im Bereich der Individualmedizin einen hohen gesellschaftlichen Nutzen zur frühzeitigen und nichtinvasiven Diagnose krankheitsspezifischer Indikatoren. Durch den patientennahen Einsatz preiswerter und verlässlicher Mikrochips auf Basis hoher Qualitätsstandards entfallen kostspielige und zeitintensive Zentrallaboranalysen, was gleichzeitig Chancen für den globalen Einsatz - speziell in Schwellen- und Entwicklungsländern - bietet. Die technischen Herausforderungen bei der Realisierung moderner LOC-Systeme sind in der kontrollierten und verlässlichen Handhabung kleinster Flüssigkeitsmengen sowie deren diagnostischem Nachweis begründet. In diesem Kontext wird der erfolgreichen Integration eines fernsteuerbaren Transports von biokompatiblen, magnetischen Mikro- und Nanopartikeln eine Schlüsselrolle zugesprochen. Die Ursache hierfür liegt in der vielfältigen Einsetzbarkeit, die durch die einzigartigen Materialeigenschaften begründet sind. Diese reichen von der beschleunigten, aktiven Durchmischung mikrofluidischer Substanzvolumina über die Steigerung der molekularen Interaktionsrate in Biosensoren bis hin zur Isolation und Aufreinigung von krankheitsspezifischen Indikatoren. In der Literatur beschriebene Ansätze basieren auf der dynamischen Transformation eines makroskopischen, zeitabhängigen externen Magnetfelds in eine mikroskopisch veränderliche potentielle Energielandschaft oberhalb magnetisch strukturierter Substrate, woraus eine gerichtete und fernsteuerbare Partikelbewegung resultiert. Zentrale Kriterien, wie die theoretische Modellierung und experimentelle Charakterisierung der magnetischen Feldlandschaft in räumlicher Nähe zur Oberfläche der strukturierten Substrate sowie die theoretische Beschreibung der Durchmischungseffekte, wurden jedoch bislang nicht näher beleuchtet, obwohl diese essentiell für ein detailliertes Verständnis der zu Grunde liegenden Mechanismen und folglich für einen Markteintritt zukünftiger Geräte sind. Im Rahmen der vorgestellten Arbeit wurde daher ein neuartiger Ansatz zur erfolgreichen Integration eines Konzepts zum fernsteuerbaren Transport magnetischer Partikel zur Anwendung in modernen LOC-Systemen unter Verwendung von magnetisch strukturierten Exchange-Bias (EB) Dünnschichtsystemen verfolgt. Die Ergebnisse zeigen, dass sich das Verfahren der ionenbe-schussinduzierten magnetischen Strukturierung (IBMP) von EB-Systemen zur Herstellung von maßgeschneiderten magnetischen Feldlandschaften (MFL) oberhalb der Substratoberfläche, deren Stärke und räumlicher Verlauf auf Nano- und Mikrometerlängenskalen gezielt über die Veränderung der Materialparameter des EB-Systems via IBMP eingestellt werden kann, eignet. Im Zuge dessen wurden erstmals moderne, experimentelle Verfahrenstechniken (Raster-Hall-Sonden-Mikroskopie und rastermagnetoresistive Mikroskopie) in Kombination mit einem eigens entwickelten theoretischen Modell eingesetzt, um eine Abbildung der MFL in unterschiedlichen Abstandsbereichen zur Substratoberfläche zu realisieren. Basierend auf der quantitativen Kenntnis der MFL wurde ein neuartiges Konzept zum fernsteuerbaren Transport magnetischer Partikel entwickelt, bei dem Partikelgeschwindigkeiten im Bereich von 100 µm/s unter Verwendung von externen Magnetfeldstärken im Bereich weniger Millitesla erzielt werden können, ohne den magnetischen Zustand des Substrats zu modifizieren. Wie aus den Untersuchungen hervorgeht, können zudem die Stärke des externen Magnetfelds, die Stärke und der Gradient der MFL, das magnetfeldinduzierte magnetische Moment der Partikel sowie die Größe und der künstlich veränderliche Abstand der Partikel zur Substratoberfläche als zentrale Einflussgrößen zur quantitativen Modifikation der Partikelgeschwindigkeit genutzt werden. Abschließend wurde erfolgreich ein numerisches Simulationsmodell entwickelt, das die quantitative Studie der aktiven Durchmischung auf Basis des vorgestellten Partikeltransportkonzepts von theoretischer Seite ermöglicht, um so gezielt die geometrischen Gegebenheiten der mikrofluidischen Kanalstrukturen auf einem LOC-System für spezifische Anwendungen anzupassen.
Resumo:
In this paper, a method for enhancing current QoS routing methods by means of QoS protection is presented. In an MPLS network, the segments (links) to be protected are predefined and an LSP request involves, apart from establishing a working path, creating a specific type of backup path (local, reverse or global). Different QoS parameters, such as network load balancing, resource optimization and minimization of LSP request rejection should be considered. QoS protection is defined as a function of QoS parameters, such as packet loss, restoration time, and resource optimization. A framework to add QoS protection to many of the current QoS routing algorithms is introduced. A backup decision module to select the most suitable protection method is formulated and different case studies are analyzed
Resumo:
In this paper, different recovery methods applied at different network layers and time scales are used in order to enhance the network reliability. Each layer deploys its own fault management methods. However, current recovery methods are applied to only a specific layer. New protection schemes, based on the proposed partial disjoint path algorithm, are defined in order to avoid protection duplications in a multi-layer scenario. The new protection schemes also encompass shared segment backup computation and shared risk link group identification. A complete set of experiments proves the efficiency of the proposed methods in relation with previous ones, in terms of resources used to protect the network, the failure recovery time and the request rejection ratio
Resumo:
The H∞ synchronization problem of the master and slave structure of a second-order neutral master-slave systems with time-varying delays is presented in this paper. Delay-dependent sufficient conditions for the design of a delayed output-feedback control are given by Lyapunov-Krasovskii method in terms of a linear matrix inequality (LMI). A controller, which guarantees H∞ synchronization of the master and slave structure using some free weighting matrices, is then developed. A numerical example has been given to show the effectiveness of the method
Resumo:
Los resultados en depilación láser son variables entre los diferentes equipos y pacientes, alcanzando reducciones de hasta el 25% por sesión en la literatura disponible. En la práctica clínica se utiliza el conteo de pelos como instrumento para modificar parámetros de tratamiento y realizar cambios o combinaciones de los láseres con el fin de alcanzar la máxima reducción posible. Materiales y métodos: En una cohorte histórica se analizaron 298 sesiones (79 pacientes) a los que se determinó variables clínicas registradas de reducción de pelo con tres láseres diferentes, junto a parámetros para cada uno de los equipos, a un intervalo máximo de 90 días entre cada sesión. Resultados: Se evaluaron 79 mujeres para un total de 298 sesiones, con un rango de edad entre los 18 y 67 años, fototipo de piel III-V, intervalo entre sesiones de 14 a 90 días. Los equipos utilizados fueron Soprano XLi® (64.7%), Lightsheer® (18.4%) y Alexandrita (16.9%). Los promedios de reducción fueron en la primera sesión 43.3±32%, segunda sesión 55.8±42.1%, tercera sesión 48.1±16%, cuarta sesión 51.8±26.6%, quinta sesión 61.2±26.7%.(p<0.001). Se encontró una baja incidencia de complicaciones (7.6% de pacientes), siendo significativa la presencia de éstas con Lightsheer® y Alexandrita, a diferencia del Soprano®. Discusión: Éste estudio longitudinal mostró altas reducciones sesión a sesión comparadas con las disponibles en la literatura, independientemente del equipo utilizado. Soprano® presentó un mejor perfil de seguridad que Lightsheer® y Alexandrita.
Resumo:
La butirilcolinesterasa humana (BChE; EC 3.1.1.8) es una enzima polimórfica sintetizada en el hígado y en el tejido adiposo, ampliamente distribuida en el organismo y encargada de hidrolizar algunos ésteres de colina como la procaína, ésteres alifáticos como el ácido acetilsalicílico, fármacos como la metilprednisolona, el mivacurium y la succinilcolina y drogas de uso y/o abuso como la heroína y la cocaína. Es codificada por el gen BCHE (OMIM 177400), habiéndose identificado más de 100 variantes, algunas no estudiadas plenamente, además de la forma más frecuente, llamada usual o silvestre. Diferentes polimorfismos del gen BCHE se han relacionado con la síntesis de enzimas con niveles variados de actividad catalítica. Las bases moleculares de algunas de esas variantes genéticas han sido reportadas, entre las que se encuentra las variantes Atípica (A), fluoruro-resistente del tipo 1 y 2 (F-1 y F-2), silente (S), Kalow (K), James (J) y Hammersmith (H). En este estudio, en un grupo de pacientes se aplicó el instrumento validado Lifetime Severity Index for Cocaine Use Disorder (LSI-C) para evaluar la gravedad del consumo de “cocaína” a lo largo de la vida. Además, se determinaron Polimorfismos de Nucleótido Simple (SNPs) en el gen BCHE conocidos como responsables de reacciones adversas en pacientes consumidores de “cocaína” mediante secuenciación del gen y se predijo el efecto delos SNPs sobre la función y la estructura de la proteína, mediante el uso de herramientas bio-informáticas. El instrumento LSI-C ofreció resultados en cuatro dimensiones: consumo a lo largo de la vida, consumo reciente, dependencia psicológica e intento de abandono del consumo. Los estudios de análisis molecular permitieron observar dos SNPs codificantes (cSNPs) no sinónimos en el 27.3% de la muestra, c.293A>G (p.Asp98Gly) y c.1699G>A (p.Ala567Thr), localizados en los exones 2 y 4, que corresponden, desde el punto de vista funcional, a la variante Atípica (A) [dbSNP: rs1799807] y a la variante Kalow (K) [dbSNP: rs1803274] de la enzima BChE, respectivamente. Los estudios de predicción In silico establecieron para el SNP p.Asp98Gly un carácter patogénico, mientras que para el SNP p.Ala567Thr, mostraron un comportamiento neutro. El análisis de los resultados permite proponer la existencia de una relación entre polimorfismos o variantes genéticas responsables de una baja actividad catalítica y/o baja concentración plasmática de la enzima BChE y algunas de las reacciones adversas ocurridas en pacientes consumidores de cocaína.
Resumo:
La adsorció sobre carbó actiu és un tractament habitual para a l'eliminació de metalls contaminants d'afluents aquosos. Amb la finalitat de reduir el cost dels tractament actuals s'està estudiant la utilització d'adsorbents de baix cost com a substituts dels sorbents convencionals que s'utilitzen usualment en els tractaments d'aigües. En aquesta tesi s'ha avaluat la possibilitat d'aprofitar diversos residus vegetals procedents de processos agrícoles o residus industrials, com a sorbents per a l'eliminació de metalls de solucions aquoses. En concret, el treball s'ha centrat en assolir dos grans objectius, primer de tot, conèixer la possibilitat d'utilitzar el pinyol d'oliva com a adsorbent de metalls divalents de solucions aquoses, com són el Cd(II), Cu(II), Ni(II) i Pb(II), i en segon lloc, avaluar la utilització de quatre residus vegetals (escorça de yohimbe, rapa de raïm, suro i pinyol d'oliva) per a l'extracció de Cr(VI) de solucions aquoses i utilitzar el residu vegetal més apropiat com a base per tal d'obtenir un nou sorbent, amb més bona morfologia per ser utilitzat en sistemes d'eliminació de Cr(VI) en continu. Les dades cinètiques d'adsorció es van tractar amb el model cinètic de pseudo-segon ordre, amb el que es van determinar la velocitat inicial d'adsorció dels metalls. Els models d'isotermes d'equilibri de Langmuir i Freundlich es van utilitzar per descriure els equilibris d'adsorció i calcular els paràmetres de les isotermes. En els assajos amb mescles binàries de metalls, els resultats es van tractar amb el model ampliat de Langmuir. En aquest treball s'ha determinat, primerament, que el pinyol d'oliva és un bon sorbent dels metalls divalents estudiats. S'ha determinat que l'adsorció dels metalls varia amb el pH de la solució i que la presència de sals en la solució provoca una davallada en l'adsorció. També es va determinar la competència en l'adsorció entre els metalls al realitzar assajos en mescles binàries. Amb els estudis d'extracció de Cr(VI) amb els quatre materials s'ha determinat que aquests vegetals poden adsorbir el Cr(VI) en solució, tot i que la rapa i la yohimbe són els materials que presenten unes capacitats d'adsorció més elevades. Les anàlisis amb espectroscòpia electrònica de Raig-X realitzats en la rapa de raïm i la yohimbe en contacte amb Cr(VI) varen demostrar la presència del metall en els dos estats d'oxidació, Cr(VI) i Cr(III), evidenciant la participació del mecanisme de reducció de Cr(VI) en l'adsorció del metall sobre els materials. Amb l'encapsulació de la rapa de raïm es va incrementar significativament la capacitat d'adsorció del metall respecta a la seva utilització en la forma original. Les dades experimentals es van tractar amb un model de difusió i es va determinar el coeficient de difusió en l'adsorció en el sorbent amb diferent percentatge de rapa en l'interior. Finalment s'han realitzat estudis preliminars d'adsorció de crom hexavalent en continu utilitzant columnes de petites dimensions farcides amb el sorbent format per boles de rapa encapsulada en alginat càlcic. En aquests assajos s'ha determinat l'efecte en l'adsorció de metall de diversos paràmetres d'operació, com la concentració inicial de metall, el cabal i l'alçada de llit. El model de transferència de matèria i difusió en columna emprat pel tractament de les dades experimentals va mostrar l'efecte de la concentració inicial i del cabal en els coeficients de difusió i transferència de matèria. El model BDST no va predir correctament el temps de servei en els diferents paràmetres d'operació experimentats a causa de la complexitat del procés d'adsorció. Amb aquests assajos preliminars s'han establert les bases de l'adsorció de Cr(VI) amb el nou sorbent en sistemes en continu amb la finalitat de realitzar estudis posteriors d'eliminació del metall en columnes de majors dimensions.
Resumo:
La sang de porc és un subproducte comestible que es genera als escorxadors industrials durant el procés d'obtenció de la canal. Aquest subproducte es caracteritza per presentar una elevada càrrega contaminant i, degut a l'elevat volum que es genera, és necessari trobar estratègies que permetin la seva revaloració i aprofitament, a la vegada que disminuïm la contaminació ambiental i les despeses que es deriven del seu processament abans de l'abocament. La fracció cel·lular (FC) constitueix el 40 % de la sang de porc i conté principalment l'hemoglobina (Hb), que representa al voltant del 90 % del contingut en proteïna d'aquesta fracció (un 35 % aproximadament). L'elevat percentatge en proteïna i en ferro, i les seves bones propietats funcionals fan que l'aprofitament d'aquest subproducte com a primera matèria o ingredient de la indústria alimentària sigui una alternativa molt útil a l'hora de reduir les despeses de la indústria càrnia, sempre que es resolguin els problemes de l'enfosquiment i dels sabors estranys que pot conferir la FC quan s'addiciona a productes alimentaris. Una altra possible utilització de la FC és aprofitar les propietats colorants de l'Hb o del grup hemo, com a colorant d'origen natural en diversos productes alimentaris. Els objectius del present treball eren, en primer lloc, determinar les millors condicions d'aplicació del procés de conservació de la FC mitjançant la deshidratació per atomització i caracteritzar físico-químicament i microbiològica el concentrat d'Hb en pols. En segon lloc, avaluar l'eficàcia de diferents additius antioxidants i/o segrestants del ferro per prevenir l'enfosquiment que pateix la FC durant la deshidratació. En tercer lloc, aplicar tractaments d'altes pressions hidrostàtiques com a procés d'higienització i avaluar els efectes d'aquest tractament sobre la microbiota contaminant, el color i les propietats funcionals de la FC. Finalment, desenvolupar un procés d'obtenció d'hidrolitzats proteics descolorats a partir de l'Hb amb la finalitat d'utilitzar-los com a ingredients nutricionals i/o funcionals. La millor temperatura de deshidratació per atomització de la FC hemolitzada era 140ºC. La FC en pols presentava un contingut en humitat del 5,3 % i un percentatge de solubilitat proteica del 96 %. La deshidratació per atomització induïa canvis en l'estructura nativa de l'Hb i, per tant, un cert grau de desnaturalització que pot conduir a una disminució de les seves propietats funcionals. L'extracte sec de la FC en pols estava composat per un 94,6 % de proteïna, un 3 % de sals minerals i un 0,7 % de greix. Els valors CIE L*a*b* del color de la FC en pols eren força constants i reflectien el color vermell marró fosc d'aquesta, a causa de l'oxidació del ferro hèmic que es produeix durant la deshidratació. La càrrega contaminant de la FC fresca de la sang de porc era força elevada i el tractament d'hemòlisi amb ultrasons i la centrifugació posterior no produïen una reducció significativa de la microbiota contaminant, obtenint un producte amb uns recomptes microbiològics de l'ordre de 106 ufc·mL-1. La deshidratació per atomització produïa una disminució d'una unitat logarítmica dels recomptes totals de la FC hemolitzada. Tanmateix, el producte en pols encara reflectia l'elevada contaminació de la primera matèria, fet que condiciona negativament la seva utilització com a ingredient alimentari, a no ser que es millorin les condicions de recollida de la sang a l'escorxador o que aquesta o la FC es sotmeti a algun tractament d'higienització prèviament a la deshidratació. Les isotermes de sorció a 20ºC de la FC en pols tenien forma sigmoïdal i una histèresi estreta i llarga. L'equació GAB és un bon model matemàtic per ajustar les dades de sorció obtingudes experimentalment i determinar la isoterma d'adsorció de la FC deshidratada per atomització. El percentatge d'humitat de la FC deshidratada a 140ºC es corresponia a un valor d'aw a 20 ºC d'aproximadament el 0,16. Tenint en compte que estava per sota dels valors d'aw corresponents a la capa monomolecular, es pot garantir la conservació a temperatura ambient del producte, sempre que s'envasi en recipients tancats que no permetin l'entrada d'humitat de l'exterior. De l'estudi de la possible estabilització del color de la FC deshidratada per atomització mitjançant l'addició d'antioxidants i/o segrestants de ferro, es va observar que només l'àcid ascòrbic, la glucosa, l'àcid nicotínic i la nicotinamida, tenien efectes positius sobre el color del producte en pols. L'ascòrbic i la glucosa no milloraven la conservació del color de l'Hb però disminuïen l'enfosquiment que es produeix durant la deshidratació, amb la qual cosa es pot obtenir un producte en pols de color marró més clar. L'addició de dextrina o L-cisteïna no disminuïa l'enfosquiment ni evitava el canvi de color de l'Hb. L'àcid nicotínic i la nicotinamida protegien el color de l'Hb durant el procés de deshidratació i l'emmagatzematge de la FC en pols. Les millors condicions d'aplicació del tractament amb altes pressions hidrostàtiques (HHP) sobre la FC eren 400 MPa, a 20ºC, durant 15 minuts, perquè produïen una millora significativa de la qualitat microbiològica, no afectaven negativament al color, no comprometien gaire la solubilitat proteica l'Hb i, malgrat que produïen un augment de la viscositat, la FC romania fluida després del tractament. Aquest tractament permetia una reducció de la microbiota contaminant de la FC d'entre 2 i 3 unitats logarítmiques. L'aplicació de l'alta pressió i la posterior deshidratació per atomització permetien obtenir un producte en pols amb recomptes totals de l'ordre de 2,8 unitats logarítmiques. El color de la FC pressuritzada en pols era igual que el de la FC control deshidratada, perquè ambdues mostres presentaven la mateixa susceptibilitat a l'oxidació del grup hemo produïda per la deshidratació. L'alta pressió incrementava la susceptibilitat de l'Hb als efectes desnaturalitzants de la deshidratació, fonamentalment a pH 7 (PIE), ja que es va observar una disminució de la solubilitat proteica a pH neutre després dels 2 processos tecnològics. La FC en pols presentava una màxima capacitat escumant al PIE de l'Hb. L'aplicació del tractament HHP produïa una disminució de la capacitat escumant de la FC en pols, però no tenia efectes negatius sobre l'estabilitat de l'escuma formada. Tampoc es van observar efectes negatius del tractament HHP sobre l'activitat emulsionant de l'Hb. La màxima activitat emulsionant de l'Hb s'aconseguia amb una concentració de FC en pols de l'1,5 % a pH 7 i de l'1 % a pH 4,5. Les pastes obtingudes per escalfament de la FC presentaven característiques molt diferenciades depenent del pH. A pH neutre es formaven unes pastes dures i consistents, mentre que a pH àcid les pastes eren poc consistents, molt adhesives i més elàstiques que les anteriors. Aquestes tenien una capacitat de retenció d'aigua molt superior que les de pH 7, en les quals l'aigua quedava retinguda per capil·laritat. La textura i capacitat de retenció d'aigua de les pastes tampoc eren afectades pel tractament HHP. El tractament HHP incrementava l'activitat de la Tripsina sobre l'Hb quan el substrat i l'enzim es tractaven conjuntament i afavoria el procés d'obtenció d'hidrolitzats descolorats a partir de la FC, la qual cosa permetia assolir el mateix grau de descoloració amb una dosi d'enzim inferior. El tractament d'hidròlisi de la FC amb la utilització combinada de Tripsina seguida d'un tractament amb Pepsina permetia l'obtenció d'un hidrolitzat proteic d'Hb descolorat i hidrolitzava completament la globina, donant lloc a 2 pèptids de 10,8 i 7,4 KDa. Val a dir que també produïa un 60 80 % de nitrogen soluble en TCA, constituït fonamentalment per pèptids petits i aminoàcids lliures. Els hidrolitzats trípsics i pèpsics d'Hb, obtinguts a partir de FC no pressuritzada i deshidratats per atomització a 180ºC, eren de color blanc i tenien un contingut en humitat del 4,7 %, un 84,2 % de proteïna i 9,7 % de sals minerals. El procés d'hidròlisi permetia una reducció considerable de la contaminació de la FC, obtenint un producte en pols amb uns recomptes totals de l'ordre de 102-103 ufc·g-1. Pel que fa a la funcionalitat dels hidrolitzats d'Hb deshidratats per atomització, aquests presentaven una elevada solubilitat proteica a pH 5 i 7 i romanien solubles després d'un escalfament a 80ºC durant 30 min. Tanmateix, aquesta hidròlisi afectava molt negativament la capacitat de mantenir escumes estables i l'activitat emulsionant.
Resumo:
The characteristics of service independence and flexibility of ATM networks make the control problems of such networks very critical. One of the main challenges in ATM networks is to design traffic control mechanisms that enable both economically efficient use of the network resources and desired quality of service to higher layer applications. Window flow control mechanisms of traditional packet switched networks are not well suited to real time services, at the speeds envisaged for the future networks. In this work, the utilisation of the Probability of Congestion (PC) as a bandwidth decision parameter is presented. The validity of PC utilisation is compared with QOS parameters in buffer-less environments when only the cell loss ratio (CLR) parameter is relevant. The convolution algorithm is a good solution for CAC in ATM networks with small buffers. If the source characteristics are known, the actual CLR can be very well estimated. Furthermore, this estimation is always conservative, allowing the retention of the network performance guarantees. Several experiments have been carried out and investigated to explain the deviation between the proposed method and the simulation. Time parameters for burst length and different buffer sizes have been considered. Experiments to confine the limits of the burst length with respect to the buffer size conclude that a minimum buffer size is necessary to achieve adequate cell contention. Note that propagation delay is a no dismiss limit for long distance and interactive communications, then small buffer must be used in order to minimise delay. Under previous premises, the convolution approach is the most accurate method used in bandwidth allocation. This method gives enough accuracy in both homogeneous and heterogeneous networks. But, the convolution approach has a considerable computation cost and a high number of accumulated calculations. To overcome this drawbacks, a new method of evaluation is analysed: the Enhanced Convolution Approach (ECA). In ECA, traffic is grouped in classes of identical parameters. By using the multinomial distribution function instead of the formula-based convolution, a partial state corresponding to each class of traffic is obtained. Finally, the global state probabilities are evaluated by multi-convolution of the partial results. This method avoids accumulated calculations and saves storage requirements, specially in complex scenarios. Sorting is the dominant factor for the formula-based convolution, whereas cost evaluation is the dominant factor for the enhanced convolution. A set of cut-off mechanisms are introduced to reduce the complexity of the ECA evaluation. The ECA also computes the CLR for each j-class of traffic (CLRj), an expression for the CLRj evaluation is also presented. We can conclude that by combining the ECA method with cut-off mechanisms, utilisation of ECA in real-time CAC environments as a single level scheme is always possible.
Resumo:
The aim of this thesis is to narrow the gap between two different control techniques: the continuous control and the discrete event control techniques DES. This gap can be reduced by the study of Hybrid systems, and by interpreting as Hybrid systems the majority of large-scale systems. In particular, when looking deeply into a process, it is often possible to identify interaction between discrete and continuous signals. Hybrid systems are systems that have both continuous, and discrete signals. Continuous signals are generally supposed continuous and differentiable in time, since discrete signals are neither continuous nor differentiable in time due to their abrupt changes in time. Continuous signals often represent the measure of natural physical magnitudes such as temperature, pressure etc. The discrete signals are normally artificial signals, operated by human artefacts as current, voltage, light etc. Typical processes modelled as Hybrid systems are production systems, chemical process, or continuos production when time and continuous measures interacts with the transport, and stock inventory system. Complex systems as manufacturing lines are hybrid in a global sense. They can be decomposed into several subsystems, and their links. Another motivation for the study of Hybrid systems is the tools developed by other research domains. These tools benefit from the use of temporal logic for the analysis of several properties of Hybrid systems model, and use it to design systems and controllers, which satisfies physical or imposed restrictions. This thesis is focused in particular types of systems with discrete and continuous signals in interaction. That can be modelled hard non-linealities, such as hysteresis, jumps in the state, limit cycles, etc. and their possible non-deterministic future behaviour expressed by an interpretable model description. The Hybrid systems treated in this work are systems with several discrete states, always less than thirty states (it can arrive to NP hard problem), and continuous dynamics evolving with expression: with Ki ¡ Rn constant vectors or matrices for X components vector. In several states the continuous evolution can be several of them Ki = 0. In this formulation, the mathematics can express Time invariant linear system. By the use of this expression for a local part, the combination of several local linear models is possible to represent non-linear systems. And with the interaction with discrete events of the system the model can compose non-linear Hybrid systems. Especially multistage processes with high continuous dynamics are well represented by the proposed methodology. Sate vectors with more than two components, as third order models or higher is well approximated by the proposed approximation. Flexible belt transmission, chemical reactions with initial start-up and mobile robots with important friction are several physical systems, which profits from the benefits of proposed methodology (accuracy). The motivation of this thesis is to obtain a solution that can control and drive the Hybrid systems from the origin or starting point to the goal. How to obtain this solution, and which is the best solution in terms of one cost function subject to the physical restrictions and control actions is analysed. Hybrid systems that have several possible states, different ways to drive the system to the goal and different continuous control signals are problems that motivate this research. The requirements of the system on which we work is: a model that can represent the behaviour of the non-linear systems, and that possibilities the prediction of possible future behaviour for the model, in order to apply an supervisor which decides the optimal and secure action to drive the system toward the goal. Specific problems can be determined by the use of this kind of hybrid models are: - The unity of order. - Control the system along a reachable path. - Control the system in a safe path. - Optimise the cost function. - Modularity of control The proposed model solves the specified problems in the switching models problem, the initial condition calculus and the unity of the order models. Continuous and discrete phenomena are represented in Linear hybrid models, defined with defined eighth-tuple parameters to model different types of hybrid phenomena. Applying a transformation over the state vector : for LTI system we obtain from a two-dimensional SS a single parameter, alpha, which still maintains the dynamical information. Combining this parameter with the system output, a complete description of the system is obtained in a form of a graph in polar representation. Using Tagaki-Sugeno type III is a fuzzy model which include linear time invariant LTI models for each local model, the fuzzyfication of different LTI local model gives as a result a non-linear time invariant model. In our case the output and the alpha measure govern the membership function. Hybrid systems control is a huge task, the processes need to be guided from the Starting point to the desired End point, passing a through of different specific states and points in the trajectory. The system can be structured in different levels of abstraction and the control in three layers for the Hybrid systems from planning the process to produce the actions, these are the planning, the process and control layer. In this case the algorithms will be applied to robotics ¡V a domain where improvements are well accepted ¡V it is expected to find a simple repetitive processes for which the extra effort in complexity can be compensated by some cost reductions. It may be also interesting to implement some control optimisation to processes such as fuel injection, DC-DC converters etc. In order to apply the RW theory of discrete event systems on a Hybrid system, we must abstract the continuous signals and to project the events generated for these signals, to obtain new sets of observable and controllable events. Ramadge & Wonham¡¦s theory along with the TCT software give a Controllable Sublanguage of the legal language generated for a Discrete Event System (DES). Continuous abstraction transforms predicates over continuous variables into controllable or uncontrollable events, and modifies the set of uncontrollable, controllable observable and unobservable events. Continuous signals produce into the system virtual events, when this crosses the bound limits. If this event is deterministic, they can be projected. It is necessary to determine the controllability of this event, in order to assign this to the corresponding set, , controllable, uncontrollable, observable and unobservable set of events. Find optimal trajectories in order to minimise some cost function is the goal of the modelling procedure. Mathematical model for the system allows the user to apply mathematical techniques over this expression. These possibilities are, to minimise a specific cost function, to obtain optimal controllers and to approximate a specific trajectory. The combination of the Dynamic Programming with Bellman Principle of optimality, give us the procedure to solve the minimum time trajectory for Hybrid systems. The problem is greater when there exists interaction between adjacent states. In Hybrid systems the problem is to determine the partial set points to be applied at the local models. Optimal controller can be implemented in each local model in order to assure the minimisation of the local costs. The solution of this problem needs to give us the trajectory to follow the system. Trajectory marked by a set of set points to force the system to passing over them. Several ways are possible to drive the system from the Starting point Xi to the End point Xf. Different ways are interesting in: dynamic sense, minimum states, approximation at set points, etc. These ways need to be safe and viable and RchW. And only one of them must to be applied, normally the best, which minimises the proposed cost function. A Reachable Way, this means the controllable way and safe, will be evaluated in order to obtain which one minimises the cost function. Contribution of this work is a complete framework to work with the majority Hybrid systems, the procedures to model, control and supervise are defined and explained and its use is demonstrated. Also explained is the procedure to model the systems to be analysed for automatic verification. Great improvements were obtained by using this methodology in comparison to using other piecewise linear approximations. It is demonstrated in particular cases this methodology can provide best approximation. The most important contribution of this work, is the Alpha approximation for non-linear systems with high dynamics While this kind of process is not typical, but in this case the Alpha approximation is the best linear approximation to use, and give a compact representation.
Resumo:
A case of long-range transport of a biomass burning plume from Alaska to Europe is analyzed using a Lagrangian approach. This plume was sampled several times in the free troposphere over North America, the North Atlantic and Europe by three different aircraft during the IGAC Lagrangian 2K4 experiment which was part of the ICARTT/ITOP measurement intensive in summer 2004. Measurements in the plume showed enhanced values of CO, VOCs and NOy, mainly in form of PAN. Observed O3 levels increased by 17 ppbv over 5 days. A photochemical trajectory model, CiTTyCAT, was used to examine processes responsible for the chemical evolution of the plume. The model was initialized with upwind data and compared with downwind measurements. The influence of high aerosol loading on photolysis rates in the plume was investigated using in situ aerosol measurements in the plume and lidar retrievals of optical depth as input into a photolysis code (Fast-J), run in the model. Significant impacts on photochemistry are found with a decrease of 18% in O3 production and 24% in O3 destruction over 5 days when including aerosols. The plume is found to be chemically active with large O3 increases attributed primarily to PAN decomposition during descent of the plume toward Europe. The predicted O3 changes are very dependent on temperature changes during transport and also on water vapor levels in the lower troposphere which can lead to O3 destruction. Simulation of mixing/dilution was necessary to reproduce observed pollutant levels in the plume. Mixing was simulated using background concentrations from measurements in air masses in close proximity to the plume, and mixing timescales (averaging 6.25 days) were derived from CO changes. Observed and simulated O3/CO correlations in the plume were also compared in order to evaluate the photochemistry in the model. Observed slopes change from negative to positive over 5 days. This change, which can be attributed largely to photochemistry, is well reproduced by multiple model runs even if slope values are slightly underestimated suggesting a small underestimation in modeled photochemical O3 production. The possible impact of this biomass burning plume on O3 levels in the European boundary layer was also examined by running the model for a further 5 days and comparing with data collected at surface sites, such as Jungfraujoch, which showed small O3 increases and elevated CO levels. The model predicts significant changes in O3 over the entire 10 day period due to photochemistry but the signal is largely lost because of the effects of dilution. However, measurements in several other BB plumes over Europe show that O3 impact of Alaskan fires can be potentially significant over Europe.
Resumo:
It is often assumed that ventilation of the atmospheric boundary layer is weak in the absence of fronts, but is this always true? In this paper we investigate the processes responsible for ventilation of the atmospheric boundary layer during a nonfrontal day that occurred on 9 May 2005 using the UK Met Office Unified Model. Pollution sources are represented by the constant emission of a passive tracer everywhere over land. The ventilation processes observed include shallow convection, turbulent mixing followed by large-scale ascent, a sea breeze circulation and coastal outflow. Vertical distributions of tracer are validated qualitatively with AMPEP (Aircraft Measurement of chemical Processing Export fluxes of Pollutants over the UK) CO aircraft measurements and are shown to agree impressively well. Budget calculations of tracers are performed in order to determine the relative importance of these ventilation processes. Coastal outflow and the sea breeze circulation were found to ventilate 26% of the boundary layer tracer by sunset of which 2% was above 2 km. A combination of coastal outflow, the sea breeze circulation, turbulent mixing and large-scale ascent ventilated 46% of the boundary layer tracer, of which 10% was above 2 km. Finally, coastal outflow, the sea breeze circulation, turbulent mixing, large-scale ascent and shallow convection together ventilated 52% of the tracer into the free troposphere, of which 26% was above 2 km. Hence this study shows that significant ventilation of the boundary layer can occur in the absence of fronts (and thus during high-pressure events). Turbulent mixing and convection processes can double the amount of pollution ventilated from the boundary layer.
Resumo:
The influence of surface waves and an applied wind stress is studied in an ensemble of large eddy simulations to investigate the nature of deeply penetrating jets into an unstratified mixed layer. The influence of a steady monochromatic surface wave propagating parallel to the wind direction is parameterized using the wave-filtered Craik-Leibovich equations. Tracer trajectories and instantaneous downwelling velocities reveal classic counterrotating Langmuir rolls. The associated downwelling jets penetrate to depths in excess of the wave's Stokes depth scale, δs. Qualitative evidence suggests the depth of the jets is controlled by the Ekman depth scale. Analysis of turbulent kinetic energy (tke) budgets reveals a dynamical distinction between Langmuir turbulence and shear-driven turbulence. In the former, tke production is dominated by Stokes shear and a vertical flux term transports tke to a depth where it is dissipated. In the latter, tke production is from the mean shear and is locally balanced by dissipation. We define the turbulent Langmuir number Lat = (v*/Us)0.5 (v* is the ocean's friction velocity and Us is the surface Stokes drift velocity) and a turbulent anisotropy coefficient Rt = /( + ). The transition between shear-driven and Langmuir turbulence is investigated by varying external wave parameters δs and Lat and by diagnosing Rt and the Eulerian mean and Stokes shears. When either Lat or δs are sufficiently small the Stokes shear dominates the mean shear and the flow is preconditioned to Langmuir turbulence and the associated deeply penetrating jets.
Resumo:
We describe a remote sensing method for measuring the internal interface height field in a rotating, two-layer annulus laboratory experiment. The method is non-invasive, avoiding the possibility of an interaction between the flow and the measurement device. The height fields retrieved are accurate and highly resolved in both space and time. The technique is based on a flow visualization method developed by previous workers, and relies upon the optical rotation properties of the working liquids. The previous methods returned only qualitative interface maps, however. In the present study, a technique is developed for deriving quantitative maps by calibrating height against the colour fields registered by a camera which views the flow from above. We use a layer-wise torque balance analysis to determine the equilibrium interface height field analytically, in order to derive the calibration curves. With the current system, viewing an annulus of outer radius 125 mm and depth 250 mm from a distance of 2 m, the inferred height fields have horizontal, vertical and temporal resolutions of up to 0.2 mm, 1 mm and 0.04 s, respectively.
Resumo:
The Met Office Unified Model is run for a case observed during Intensive Observation Period 18 (IOP18) of the Convective Storms Initiation Project (CSIP). The aims are to identify the physical processes that lead to perturbation growth at the convective scale in response to model-state perturbations and to determine their sensitivity to the character of the perturbations. The case is strongly upper-level forced but with detailed mesoscale/convective-scale evolution that is dependent on smaller-scale processes. Potential temperature is perturbed within the boundary layer. The effects on perturbation growth of both the amplitude and typical scalelength of the perturbations are investigated and perturbations are applied either sequentially (every 30 min throughout the simulation) or at specific times. The direct effects (within one timestep) of the perturbations are to generate propagating Lamb and acoustic waves and produce generally small changes in cloud parameters and convective instability. In exceptional cases a perturbation at a specific gridpoint leads to switching of the diagnosed boundary-layer type or discontinuous changes in convective instability, through the generation or removal of a lid. The indirect effects (during the entire simulation) are changes in the intensity and location of precipitation and in the cloud size distribution. Qualitatively different behaviour is found for strong (1K amplitude) and weak (0.01K amplitude) perturbations, with faster growth after sunrise found only for the weaker perturbations. However, the overall perturbation growth (as measured by the root-mean-square error of accumulated precipitation) reaches similar values at saturation, regardless of the perturbation characterisation.