25 resultados para Automation of petroleum wells


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Desde hace tiempo ha habido mucho interés en la automatización de todo tipo de tareas en las que la intervención humana es esencial para que sean completadas con éxito. Esto es de especial interés si además se ciertas tareas que pueden ser perfectamente reproducibles y, o bien requieren mucha formación, o bien consumen mucho tiempo. Este proyecto está dirigido a la búsqueda de métodos para automatizar la anotación de imágenes médicas. En concreto, se centra en el apartado de delimitación de las regiones de interés (ROIs) en imágenes de tipo PET siendo éstas usadas con frecuencia junto con las imágenes de tipo CT en el campo de oncología para delinear volúmenes afectados por cáncer. Se pretende con esto ayudar a los hospitales a organizar y estructurar las imágenes de sus pacientes y relacionarlas con las notas clínicas. Esto es lo que llamaremos el proceso de anotación de imágenes y la integración con la anotación de notas clínicas respectivamente. En este documento nos vamos a centrar en describir cuáles eran los objetivos iniciales, los pasos dados para su consecución y las dificultades encontradas durante el proceso. De todas las técnicas existentes en la literatura, se han elegido 4 técnicas de segmentación, 2 de ellas probadas en pacientes reales y las otras 2 probadas solo en phantoms según la literatura. En nuestro caso, las pruebas, se han realizado en imágenes PET de 6 pacientes reales diagnosticados de cáncer. Los resultados han sido analizados y presentados. ---ABSTRACT---For a long period of time, there has been an increasing interest in automation of tasks where human intervention is needed in order to succeed. This interest is even greater if those tasks must be solved by qualifed specialists in the area and the task is reproducible or if the task is too time consuming. The main objective of this project is to find methods which can help to automate medical image annotation processes. In our specific case, we are willing to delineate regions of interest (ROIs) in PET images which are frequently used simultaneaously ith CT images in oncology to determine those volumes that are afected by cancer. With this process we want to help hospitals organize and have from their patient studies and to relate these images to the corpus annotations. We may call this the image annotation process and the integration with the corpus annotation respectively. In this document we are going to concentrate in the description of the initial objectives, the steps we had to go through and the di�culties we had to face during this process. From all existing techniques in the literature, 4 segmentation techniques have been chosen, 2 of them were tested in real patients and the other 2 were tested using phantoms according to the literature. In our case, the tests have been done using PET images from 6 real patients diagnosed with cancer. The results have been analyzed and presented.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El flameo o flutter es un fenómeno vibratorio debido a la interacción de fuerzas inerciales, elásticas y aerodinámicas. Consiste en un intercambio de energía, que se puede observar en el cambio de amortiguamientos, entre dos o más modos estructurales, denominados modos críticos, cuyas frecuencias tienden a acercarse (coalescencia de frecuencias). Los ensayos en vuelo de flameo suponen un gran riesgo debido a la posibilidad de una perdida brusca de estabilidad aeroelástica (flameo explosivo) con la posibilidad de destrucción de la aeronave. Además existen otros fenómenos asociados que pueden aparecer como el LCO (Limit Cycle Oscillation) y la interacción con los mandos de vuelo. Debido a esto, se deben llevar a cabo análisis exhaustivos, que incluyen GVT (vibraciones en tierra), antes de comenzar los ensayos en vuelo, y estos últimos deben ser ejecutados con robustos procedimientos. El objetivo de los ensayos es delimitar la frontera de estabilidad sin llegar a ella, manteniéndose siempre dentro de la envolvente estable de vuelo. Para lograrlo se necesitan métodos de predicción, siendo el “Flutter Margin”, el más utilizado. Para saber cuánta estabilidad aeroelástica tiene el avión y lo lejos que está de la frontera de estabilidad (a través de métodos de predicción) los parámetros modales, en particular la frecuencia y el amortiguamiento, son de vital importancia. El ensayo en vuelo consiste en la excitación de la estructura a diferentes condiciones de vuelo, la medición de la respuesta y su análisis para obtener los dos parámetros mencionados. Un gran esfuerzo se dedica al análisis en tiempo real de las señales como un medio de reducir el riesgo de este tipo de ensayos. Existen numerosos métodos de Análisis Modal, pero pocos capaces de analizar las señales procedentes de los ensayos de flameo, debido a sus especiales características. Un método novedoso, basado en la Descomposición por Valores Singulares (SVD) y la factorización QR, ha sido desarrollado y aplicado al análisis de señales procedentes de vuelos de flameo del F-18. El método es capaz de identificar frecuencia y amortiguamiento de los modos críticos. El algoritmo se basa en la capacidad del SVD para el análisis, modelización y predicción de series de datos con características periódicas y en su capacidad de identificar el rango de una matriz, así como en la aptitud del QR para seleccionar la mejor base vectorial entre un conjunto de vectores para representar el campo vectorial que forman. El análisis de señales de flameo simuladas y reales demuestra, bajo ciertas condiciones, la efectividad, robustez, resistencia al ruido y capacidad de automatización del método propuesto. ABSTRACT Flutter involves the interaction between inertial, elastic and aerodynamic forces. It consists on an exchange of energy, identified by change in damping, between two or more structural modes, named critical modes, whose frequencies tend to get closer to each other (frequency coalescence). Flight flutter testing involves high risk because of the possibility of an abrupt lost in aeroelastic stability (hard flutter) that may lead to aircraft destruction. Moreover associated phenomena may happen during the flight as LCO (Limit Cycle Oscillation) and coupling with flight controls. Because of that, intensive analyses, including GVT (Ground Vibration Test), have to be performed before beginning the flights test and during them consistent procedures have to be followed. The test objective is to identify the stability border, maintaining the aircraft always inside the stable domain. To achieve that flutter speed prediction methods have to be used, the most employed being the “Flutter Margin”. In order to know how much aeroelastic stability remains and how far the aircraft is from the stability border (using the prediction methods), modal parameters, in particular frequency and damping are paramount. So flight test consists in exciting the structure at various flight conditions, measuring the response and identifying in real-time these two parameters. A great deal of effort is being devoted to real-time flight data analysis as an effective way to reduce the risk. Numerous Modal Analysis algorithms are available, but very few are suitable to analyze signals coming from flutter testing due to their special features. A new method, based on Singular Value Decomposition (SVD) and QR factorization, has been developed and applied to the analysis of F-18 flutter flight-test data. The method is capable of identifying the frequency and damping of the critical aircraft modes. The algorithm relies on the capability of SVD for the analysis, modelling and prediction of data series with periodic features and also on its power to identify matrix rank as well as QR competence for selecting the best basis among a set of vectors in order to represent a given vector space of such a set. The analysis of simulated and real flutter flight test data demonstrates, under specific conditions, the effectiveness, robustness, noise-immunity and the capability for automation of the method proposed.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Debido a la creciente relevancia de la computación en la nube y de los sistemas distribuidos, cobran también creciente interés las herramientas que ayudan a los desarrolladores y administradores a desempeñar sus funciones con la mayor eficacia posible. Por ello el objetivo principal de este trabajo es el desarrollo de una herramienta capaz de crear y controlar un entorno de almacenamiento de claves distribuidas desde una máquina local e independiente, aumentando la productividad mediante la automatización de todas las tareas. La herramienta desarrollada tiene la capacidad necesaria para integrarse tanto en proyectos que se encuentren en marcha como para proyectos que aún no hayan comenzado y proveer una solución sencilla, eficaz, y, sobre todo, útil. A lo largo del trabajo se ha realizado una gran tarea de análisis para determinar cuáles serán, de entre las posibilidades existentes, las más apropiadas para su implementación, teniendo en cuenta las tecnologías líderes disponibles en el estado del arte. Ello ha requerido también la obtención de una mejor comprensión de su funcionamiento interno. Se han realizado diferentes diseños que se han analizado y discutido en detalle para encontrar la solución que mejor se adaptaba a los objetivos propuestos. Y finalmente se ha desarrollado una herramienta ligera y sencilla, pero con un gran potencial para la administración. ---ABSTRACT---Due to the growing relevance of cloud computing and distributed systems it seems interesting to take into account the importance of the administration tools that help developers and administrators fulfill their duties in the most efficient ways. Because of this motivation, the main objective of this project is the development of a tool capable of creating and controlling a distributed key storing environment from a local and independent machine, improving the productivity thanks to the automation of all the involved tasks. The developed tool is able to integrate itself into already running projects as well as in not-yet-started ones, providing a simple, efficient and overall useful solution. During this project big tasks of research and analysis have taken place in order to determine, from the existent possibilities, the most suitable for its implementation, taking into account the leading technologies in the sector, which are described in the state of the art section. This has required the acquisition of a better insight of their inner workings. Some different designs have been made and have been discussed in detail with the intention of finding the solution that best suits the proposed objectives. And finally a lightweight and simple tool has been developed, which presents a very big potential for administration tasks.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La introducción de la automatización de servicios en los edificios de vivienda comenzó a implementarse a finales del siglo XX. Desde entonces, los edificios que incluyen instalaciones completas de automatización suelen conocerse como edificios domotizados o edificios inteligentes e implican la introducción en la arquitectura de tecnologías que hasta la fecha eran ajenas a ésta. El diseño de estos nuevos edificios de viviendas implica cada vez más el trabajo de equipos multidisciplinares y exige por parte del arquitecto la adquisición de nuevos conocimientos y herramientas proyectuales que aseguren la viabilidad constructiva de dichos servicios de automatización doméstica. La presente tesis tiene como objetivo determinar la influencia de la automatización de servicios domésticos en la fase de proyecto constructivo de los edificios para finalmente ofrecer al arquitecto herramientas, criterios y una metodología que le ayude a proyectar estos edificios satisfactoriamente. Esta influencia se evalúa y determina en función de los condicionantes constructivos, que se definen como aquellas consideraciones que el proyectista puede tener en cuenta en la fase de diseño o de concepción de un edificio. La metodología utilizada en esta investigación incluye el análisis conceptual y de contenidos de documentos normativos, técnicos, y de investigación así como un estudio de mercado de las aplicaciones más habituales en domótica. Finalmente la investigación se centra en la envolvente interior del edificio para determinar la influencia de los servicios de domotización no convencionales en el proyecto arquitectónico. Al margen de las aportaciones teóricas de esta investigación, las cuales se han propuesto para afianzar el marco teórico de la disciplina, los resultados obtenidos constatan que dicha influencia en la fase de proyecto existe y que es posible detectar qué condicionantes constructivos se derivan de la normativa de aplicación en este tipo de proyectos, de las nuevas tecnologías implicadas en las instalaciones de automatización y de los esfuerzos de estandarización de las asociaciones de empresas en el campo de la domótica. ABSTRACT The automation of services in residential buildings (also called home automation) began to be implemented in the late twentieth century. Since then, those buildings with full automation services are often known as intelligent buildings or smart buildings, and they imply the introduction into the architecture of technologies that where foreign to the field until then. The design of these new residential buildings increasingly involves the need of multidisciplinary teams and requires the architect to acquire new knowledge and project tools in order to ensure the constructability of such home automation services. This thesis pretends to determine the impact and influence of the introduction of home automation services in the design stage of residential buildings in order to, finally, provide the architect with the tools, criteria and methodology to help him design such projects successfully. This impact is evaluated and determined by the constructive constraints or factors implied, which are defined as those considerations that the designer may take into account in the conception and design stage of the project. The methodology used in this research includes conceptual and content analysis applied to normative and technical documents, regulatory standards and research papers, as well as a market survey of the most common applications and services in home automation. Finally, the investigation focuses on the inner partitions of the building to determine the influence of unconventional domotics services in the architectural design. Besides the theoretical contributions of this research, which have been proposed to strengthen the theoretical framework of the discipline, the achieved results find that such influence in the design stage exists and that it is possible to detect which constructive constraints are derived from the application of building regulations, from the new technologies involved in home automation facilities or from the standardization efforts of the joint ventures in the field of home automation.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La relación entre la ingeniería y la medicina cada vez se está haciendo más estrecha, y debido a esto se ha creado una nueva disciplina, la bioingeniería, ámbito en el que se centra el proyecto. Este ámbito cobra gran interés debido al rápido desarrollo de nuevas tecnologías que en particular permiten, facilitan y mejoran la obtención de diagnósticos médicos respecto de los métodos tradicionales. Dentro de la bioingeniería, el campo que está teniendo mayor desarrollo es el de la imagen médica, gracias al cual se pueden obtener imágenes del interior del cuerpo humano con métodos no invasivos y sin necesidad de recurrir a la cirugía. Mediante métodos como la resonancia magnética, rayos X, medicina nuclear o ultrasonidos, se pueden obtener imágenes del cuerpo humano para realizar diagnósticos. Para que esas imágenes puedan ser utilizadas con ese fin hay que realizar un correcto tratamiento de éstas mediante técnicas de procesado digital. En ése ámbito del procesado digital de las imágenes médicas es en el que se ha realizado este proyecto. Gracias al desarrollo del tratamiento digital de imágenes con métodos de extracción de información, mejora de la visualización o resaltado de rasgos de interés de las imágenes, se puede facilitar y mejorar el diagnóstico de los especialistas. Por todo esto en una época en la que se quieren automatizar todos los procesos para mejorar la eficacia del trabajo realizado, el automatizar el procesado de las imágenes para extraer información con mayor facilidad, es muy útil. Actualmente una de las herramientas más potentes en el tratamiento de imágenes médicas es Matlab, gracias a su toolbox de procesado de imágenes. Por ello se eligió este software para el desarrollo de la parte práctica de este proyecto, su potencia y versatilidad simplifican la implementación de algoritmos. Este proyecto se estructura en dos partes. En la primera se realiza una descripción general de las diferentes modalidades de obtención de imágenes médicas y se explican los diferentes usos de cada método, dependiendo del campo de aplicación. Posteriormente se hace una descripción de las técnicas más importantes de procesado de imagen digital que han sido utilizadas en el proyecto. En la segunda parte se desarrollan cuatro aplicaciones en Matlab para ejemplificar el desarrollo de algoritmos de procesado de imágenes médicas. Dichas implementaciones demuestran la aplicación y utilidad de los conceptos explicados anteriormente en la parte teórica, como la segmentación y operaciones de filtrado espacial de la imagen, así como otros conceptos específicos. Las aplicaciones ejemplo desarrolladas han sido: obtención del porcentaje de metástasis de un tejido, diagnóstico de las deformidades de la columna vertebral, obtención de la MTF de una cámara de rayos gamma y medida del área de un fibroadenoma de una ecografía de mama. Por último, para cada una de las aplicaciones se detallará su utilidad en el campo de la imagen médica, los resultados obtenidos y su implementación en una interfaz gráfica para facilitar su uso. ABSTRACT. The relationship between medicine and engineering is becoming closer than ever giving birth to a recently appeared science field: bioengineering. This project is focused on this subject. This recent field is becoming more and more important due to the fast development of new technologies that provide tools to improve disease diagnosis, with regard to traditional procedures. In bioengineering the fastest growing field is medical imaging, in which we can obtain images of the inside of the human body without need of surgery. Nowadays by means of the medical modalities of magnetic resonance, X ray, nuclear medicine or ultrasound, we can obtain images to make a more accurate diagnosis. For those images to be useful within the medical field, they should be processed properly with some digital image processing techniques. It is in this field of digital medical image processing where this project is developed. Thanks to the development of digital image processing providing methods for data collection, improved visualization or data highlighting, diagnosis can be eased and facilitated. In an age where automation of processes is much sought, automated digital image processing to ease data collection is extremely useful. One of the most powerful image processing tools is Matlab, together with its image processing toolbox. That is the reason why that software was chosen to develop the practical algorithms in this project. This final project is divided into two main parts. Firstly, the different modalities for obtaining medical images will be described. The different usages of each method according to the application will also be specified. Afterwards we will give a brief description of the most important image processing tools that have been used in the project. Secondly, four algorithms in Matlab are implemented, to provide practical examples of medical image processing algorithms. This implementation shows the usefulness of the concepts previously explained in the first part, such as: segmentation or spatial filtering. The particular applications examples that have been developed are: calculation of the metastasis percentage of a tissue, diagnosis of spinal deformity, approximation to the MTF of a gamma camera, and measurement of the area of a fibroadenoma in an ultrasound image. Finally, for each of the applications developed, we will detail its usefulness within the medical field, the results obtained, and its implementation in a graphical user interface to ensure ease of use.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Los procesos relacionados con el almacenamiento y manipulación de productos petrolíferos, conllevan siempre determinados riesgos de incendio que dependen básicamente de las propiedades físicas y químicas de los productos, y hacen indispensable la adopción de importantes medidas de seguridad contra incendios. Esto es debido a que las consecuencias previsibles en caso de la producción y expansión del incendio son tan graves que aconsejan la instalación de medios más potentes de lucha contra incendios, que los simples extintores manuales. En base a ello, el presente proyecto pretende definir y desarrollar una propuesta de diseño del sistema de protección contra incendios en la zona de almacenamiento de una planta de almacenamiento de líquidos petrolíferos. La planta almacena Gasóleo, Gasolina y Queroseno de Aviación en ocho tanques atmosféricos de techo fijo situados en un único cubeto de retención. Se desarrolla un extenso estudio de los requisitos normativos para este tipo de casos, y en consecuencia, se calcula y clasifica el nivel de riesgo intrínseco de incendio en la zona estudiada, a partir de su carga de fuego ponderada y corregida. Además, se muestra la distribución de los tanques en el cubeto, basada en el cálculo de las distancias de seguridad entre cada uno de ellos y con el exterior. A partir de ello, el proyecto se centra en el cálculo de los valores de descarga de agua de refrigeración, requeridos en las boquillas de agua pulverizada e hidrantes exteriores de alrededor de la zona de riesgo; de espuma física para hidrocarburos, en las cámaras de espuma de la parte superior de la envolvente de los tanques, y en los monitores auxiliares de descarga de espuma, de la zona del cubeto de retención. Los objetivos, métodos y bases de cálculo se recogen en la memoria del proyecto. Además se incluye, la planificación temporal con MS Project, de la implementación del proyecto; la elección de los equipos que componen los sistemas, el presupuesto asociado y los planos de distribución de la planta y del flujo de tuberías propuesto. ABSTRACT Fire protection units and equipment are necessary on processes and operations related to storage and handling of petroleum products, because of their flammable and combustible properties. In case a hazard of fire from petroleum products is materialized, huge consequences are to be expected. To reduce losses, facilities should be equipped with appropriate protection. Based on that, this project seeks to define and develop the fire protection system design for a petroleum liquids storage installation. The plant stores Gasoil, Gasoline, and aviation Kerosene in eight fixed roof atmospheric tanks. A complete study of the fire protection regulations is carried out and, as a result, the studied area’s risk level is determined from its fire load density. The calculation of the minimum shell-to-shell spacing of adjacent aboveground storage tanks and external equipment, is also determined for a correct distribution of tanks in the bunded area. Assuming that, the design includes calculations of required discharge of water for spray nozzles and hydrants, and required discharge of foam from foam chambers and foam monitors. Objectives, methodology and calculation basis are presented on the project technical report; which also includes project scheduling with MS. Project software, the selection of system components and equipment, related budget and lay out of installation and piping.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La contaminación de suelos con hidrocarburos de petróleo en México es un problema que se ha vuelto muy común en nuestros días, debido principalmente a derrames, así como a las actividades propias de la industria petrolera. Algunos suelos contaminados, principalmente en el sureste de México, contienen concentraciones de hidrocarburos hasta de 450,000 mg/kg. Por dichas razones, una de las preocupaciones de las autoridades ambientales es el desarrollo de tecnologías eficientes y económicamente factibles que permitan la eliminación de este tipo de contaminantes. El saneamiento del sitio se puede lograr a través de diversos procedimientos, como son la aplicación de métodos físicos, químicos y biológicos (o combinaciones de ellas). La elección de un método depende de la naturaleza del contaminante, su estado físico, concentración, tipo de suelo, espacio físico disponible, tiempo destinado para su tratamiento, así como de los recursos económicos disponibles. Previa a la aplicación de la tecnología es necesario la realización de un diagnóstico de la contaminación del suelo, con el fin de conocer el tipo, concentración y distribución de los contaminantes presentes, así como el volumen de suelo a tratar, las condiciones climáticas de la zona, y características físicas del lugar (vías de acceso y servicios, entre otros). En la presente tesis, el empleo de surfactantes, se ha propuesto como una técnica para incrementar la movilidad de contaminantes orgánicos hidrofóbicos (HOCs) como hidrocarburos totales del petróleo (HTPs), bifenilos policlorados (PCBs), Benceno, Tolueno, Xilenos, explosivos, clorofenoles, pesticidas, entre otros, y así facilitar su degradación. Los surfactantes debido a que reducen la tensión superficial del agua, son moléculas formadas por grupos polares hidrofílicos y largas cadenas carbonadas hidrofóbicas. Sus grupos polares forman puentes hidrógeno con las moléculas de agua, mientras que las cadenas carbonadas se asocian a los hidrocarburos debido a interacciones hidrofóbicas que estos presentan. En soluciones acuosas, los surfactantes forman estructuras esféricas organizadas llamadas micelas. La solubilización de los contaminantes se lleva a cabo solamente cuando se forma la fase micelar, la cual se obtiene cuando la concentración del surfactante es superior a la concentración micelar crítica (CMC), es decir, arriba de la concentración de la cual el monómero se comienza a auto-agregar. La eficiencia de desorción de diésel por un surfactante depende de su naturaleza, de la dosis empleada, de la hidrofobicidad del contaminante, de la interacción surfactante-suelo y del tiempo de contacto surfactante-suelo. Sin embargo, la mejor eficiencia de desorción no está siempre relacionada con la mejor eficiencia de movilidad o solubilidad, debido principalmente a que el empleo de una alta concentración de surfactante puede inhibir la movilización. De acuerdo con información proporcionada por la Procuraduría Federal de Protección al Ambiente (PROFEPA), a la fecha no se ha llevado a cabo en México ninguna restauración de sitios específicamente contaminados con diésel, la técnica de lavado de suelos. Por lo anterior existe la necesidad de emplear la técnica de lavado de suelos ex situ. Específicamente en el suelo extraído de la ex refinería 18 de marzo ubicada en el Distrito Federal México y empleando una solución de surfactantes con agua desionizada, la cual consiste ponerlos en contacto con el suelo contaminado con diésel por medio de columnas de lavado cilíndricas, para lograr la remoción del contaminante. Se emplearon como surfactantes el lauril sulfato de sodio, lauril éter sulfato de sodio y Glucopon AV-100 a diferentes concentraciones de 0.5 a 4.0 [g/L], lográndose obtener una eficiencia del 80 % con este último surfactante. El lavado de suelos contaminados con diésel empleado surfactantes, es una tecnología que requiere que se profundice en el estudio de algunas variables como son el tipo de surfactante, concentración, tiempo de lavado, fenómenos de difusión, desorción, propiedades termodinámicas, entre otros. Los cuales determinarán el éxito o fracaso de la técnica empleada. Nowadays, soil pollution with oil in Mexico is a very common issue due mainly to both oil spill and oil activities. For example, mainly in the southeast area of Mexico, polluted soil contains high concentrations of hydrocarbons, up to 450,000 mg/kg. For these reasons, enviromental authorities have the concern in developing economically feasible and efficient technology that allow the elimination of these type of contaminants. The sanitation in sites can be achieved through several procedures such as physical, chemical and biological methods (or a combination among them). The choice of a method depends on the nature and physical state of the contaminant, the concentration, type of soil, physical space available, time consumption and financial resources. Before any technological application, a diagnostic of the polluted soil is necessary in order to know the type, concentration and distribution of contaminants as well as the soil volume, climatic conditions and physical features of the place (access routes and services, among others). In this thesis, surfactants has been proposed as a technique to increase the mobility of hydrophobic-organic contaminants (HOCs), e.g. total hydrocarbons of petroleum, polychlorinated biphenyls, benzene, toluene, xylenes, explosives, chlorophenols, pesticides, among others, and, hence, to facilitate degradation. Since surfactants reduce the water surface tension, they are molecules comprised of hydrophilic polar groups and long-hydrophobic carbon chains. Surfactant’s polar groups form hydrogen bonding with water molecules while carbon chains, i.e. hydrocarbon chains, have hydrophobic interactios. In aqueous solutions, surfactants form self-organised spherical structures called micelles. The solubilisation of contaminants is carried out only when the micellar phase is formed. This is obtained when the surfactant concentration is higher than the crítical micelle concentration (CMC), i.e. above the concentration where the surfactant monomer begins to self-aggregate. The diesel efficiency desorption by surfactants depends on their nature, the dose use, the contaminant hydrophobicity, the surfactant-soil interaction and the contact time with surfactant soil. However, the best desorption is not always related with the best either mobility or solubility efficiency since high concentration of surfactant can inhibit mobilisation. According to information of the Federal Bureau of Environmental Protection (PROFEPA), up today, there is not any restauration of diesel-polluted sites using the washing-soil technique. Due to the above, there exist the necessity of employing the waching-soil technique ex situ. More specifically, a sample soil from the oil-refinery of “18 de marzo” in Mexico city was extracted and a surfactant solution with deionised water was put in contact with the diesel contaminated soil by means of cylindrical waching columns in order to remove the contaminant. The surfactants employed in this work were sodium lauryl sulfate, sodium lauryl ether sulfate and Glucopon AV-100 at different concentrations of 0.5 to 4 [g/L], obtaining a efficiency of 80 % with this last surfactant. The washing of diesel-polluted soil using surfactants is a technology which requires a deeper study of some variables such as the type of surfactant, concentration, washing time, difusión phenomena, desorption, thermodynamic properties, among others. These parameters determine the succes or failure of the employed technique.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

RESUMEN En los últimos años, debido al incremento en la demanda por parte de las empresas de tecnologías que posibiliten la monitorización y el análisis de un gran volumen de datos en tiempo real, la tecnología CEP (Complex Event Processing) ha surgido como una potencia en alza y su uso se ha incrementado notablemente en ciertos sectores como, por ejemplo, la gestión y automatización de procesos de negocios, finanzas, monitorización de redes y aplicaciones, así como redes de sensores inteligentes como el caso de estudio en el que nos centraremos. CEP se basa en un lenguaje de procesamiento de eventos (Event Processing Language,EPL) cuya utilización puede resultar bastante compleja para usuarios inexpertos. Esta complejidad supone un hándicap y, por lo tanto, un problema a la hora de que su uso se extienda. Este Proyecto Fin de Grado (PFG) pretende dar una solución a este problema, acercando al usuario la tecnología CEP mediante técnicas de abstracción y modelado. Para ello, este PFG ha definido un lenguaje de modelado específico dominio, sencillo e intuitivo para el usuario inexperto, al que se ha dado soporte mediante el desarrollo de una herramienta de modelado gráfico (CEP Modeler) en la que se pueden modelar consultas CEP de forma gráfica, sencilla y de manera más accesible para el usuario. ABSTRACT Over recent years, more and more companies demand technology for monitoring and analyzing a vast volume of data in real time. In this regard, the CEP technology (Complex Event Processing) has emerged as a novel approach to that end, and its use has increased dramatically in certain domains, such as, management and automation of business processes, finance, monitoring of networks and applications, as well as smart sensor networks as the case study in which we will focus. CEP is based on in the Event Processing Language (EPL). This language can be rather difficult to use for new users. This complexity can be a handicap, and therefore, a problem at the time of extending its use. This project aims to provide a solution to this problem, trying to approach the CEP technology to users through abstraction and modelling techniques. To that end, this project has defined an intuitive and simple domain-specific modelling language for new users through a web tool (CEP Modeler) for graphically modeling CEP queries, in an easier and more accessible way.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En este proyecto, se pretende obtener la solución óptima para el control del hogar digital accesible. Para ello, comenzaremos explicando el funcionamiento básico de un sistema dómotico, enumeraremos los diversos dispositivos que se utilizan en este tipo de automatizaciones, y comentaremos las diferentes posibilidades con respecto a la arquitectura del sistema. Para elegir la opción más adecuada, se realizará un pequeño estudio a acerca de cada una de las tecnologías existentes, protocolos cerrados, y abiertos, así como tecnologías inalámbricas o de bus. Se realizará un estudio con mayor profundidad del estándar KNX, ya que será una de las tecnologías elegidas finalmente para la realización del proyecto. Una vez elegido el estándar, hemos de centrarnos en las necesidades del recinto, para así poder empezar a definir cada uno de los elementos que incluiremos en nuestra instalación, sensores, actuadores, elementos de intercomunicación, procesadores y dispositivos de control. El siguiente paso consistiría en la programación de la vivienda, para ello hemos de tener previamente estructurados y definidos tanto el número de circuitos eléctricos, como la función que estos desempeñan dentro del recinto inteligente, es decir, accionamiento, regulación etc, para así poder asignar cada circuito a la salida correspondiente de su propio actuador. La vivienda se programará a través de ETS, software asociado a la marca KNX. Mediante este protocolo controlaremos, iluminación, motores, climatización y seguridad. Debido a los recursos limitados que ofrece KNX con respecto a la programación lógica de eventos y secuencias de acciones, y la necesidad de visualizar la interfaz gráfica de la vivienda se ha integrado un procesador. Considerando el deseo de integrar el control de un televisor en la vivienda, futuras ampliaciones y otros aspectos, el procesador integrado será de Crestron Electronics, marca correspondiente a un protocolo cerrado de automatización de sistemas, que cuenta con grandes avances en el control multimedia. Por tanto, la segunda parte de la programación se realizará mediante otros dos softwares diferentes, pertenecientes a la marca, Simple Windows se encargará de la programación lógica del sistema, mientras que Vision Tools creará la visualización. Por último, obtendremos las conclusiones necesarias, adjuntaremos un diagrama de conexionado, presupuesto de la instalación, planos y un pequeño manual de usuario. ABSTRACT. The aim of this project is to optimize the environment control of the Accesible Digital Home unit located in ETSIST - UPM, through different essays, valuing the domestic possibilities and the current interfaces. The tests will be carried out comparing different protocols and the possibilities of optimization that they offer to a Digital Home. Aspects such as: ease the communications with other systems, reliability, costs, long term maintenance of the installation, etc. After conducting trials protocol or most appropriate technology for the automation of the enclosure shall be elected. One Chosen the standard, we have to focus on the needs of the enclosure, so, to begin defining each of the elements included in our installation, sensors, actuators, elements intercom, processors and control devices. The next step is the programing of housing, for that we have previously structured and defined both the number of electrical circuits, as the role they play in the intelligent enclosure, that is, switching, dimming etc., in order to assign each circuit to the corresponding output of its own actuator. The house will be scheduled through ETS, software associated with the brand KNX. Through this protocol we will control, lighting, motors, air conditioning and security. Due to the limited resources available in KNX with respect logic programming of events and sequences of actions, and the need to display the graphical interface housing has been integrated processor belonging to the closed protocol or Crestron electronics brand. Finally, when we get the necessary conclusions, enclose a diagram of wiring, installation budget, planes and a small manual.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

3D crop reconstruction with a high temporal resolution and by the use of non-destructive measuring technologies can support the automation of plant phenotyping processes. Thereby, the availability of such 3D data can give valuable information about the plant development and the interaction of the plant genotype with the environment. This article presents a new methodology for georeferenced 3D reconstruction of maize plant structure. For this purpose a total station, an IMU, and several 2D LiDARs with different orientations were mounted on an autonomous vehicle. By the multistep methodology presented, based on the application of the ICP algorithm for point cloud fusion, it was possible to perform the georeferenced point clouds overlapping. The overlapping point cloud algorithm showed that the aerial points (corresponding mainly to plant parts) were reduced to 1.5%–9% of the total registered data. The remaining were redundant or ground points. Through the inclusion of different LiDAR point of views of the scene, a more realistic representation of the surrounding is obtained by the incorporation of new useful information but also of noise. The use of georeferenced 3D maize plant reconstruction at different growth stages, combined with the total station accuracy could be highly useful when performing precision agriculture at the crop plant level.