94 resultados para SISTEMA DE ALMACENAMIENTO Y RECUPERACIÓN DE INFORMACIÓN
Resumo:
Una red inalámbrica de sensores (Wireless Sensor Network, WSN) constituye un sistema de comunicación de datos flexible utilizado como alternativa a las redes cableadas o como extensión de éstas y está compuesta por elementos de cómputo, medición y comunicación, que permiten al administrador instrumentar, observar y reaccionar a eventos y fenómenos en un ambiente específico. Una de las aplicaciones de estas redes es su uso en sistemas de predicción y prevención de incendios en áreas naturales. Su implementación se basa en el despliegue de sensores inalámbricos, realizado en una zona de riesgo de incendio para que puedan recolectar información sobre parámetros ambientales como temperatura, humedad, luz o presión, entre otros. Desde una estación base (o nodo "sumidero"), se suministra la información de los sensores a un centro de monitorización y control de forma estructurada. En este centro la información recibida puede ser analizada, procesada y visualizada en tiempo real. Desde este centro de control se puede controlar también la red WSN modificando el comportamiento de los sensores según el nivel de riesgo de incendio detectado. Este proyecto se basa en el diseño, implementación y despliegue de una red inalámbrica de sensores en un entorno simulado para observar su comportamiento en diferentes situaciones y mostrar su eficacia ante un posible caso de incendio. La implementación de este sistema denominado Sistema de Estimación de Riesgo de Incendio Utilizando una WSN (SERIUW) , junto con el desarrollado, en paralelo, de otro proyecto denominado Sistema de Control y Visualización de Información sobre Riesgo de Incendio (SCVIRI) que implementa las funciones de los centros de monitorización y control, conforman un Sistema de Anticipación y Seguimiento de Fuegos (SASF). Se han realizado pruebas de funcionalidad y eficacia, incluidas en la presente memoria del sistema unitario de en conjunto (ambos proyectos), en un entorno controlado simulado. Este sistema es una solución para la lucha contra los incendios forestales ya que predice y previene, de forma temprana, posibles incendios en las áreas naturales bajo supervisión. Ante un evento de incendio declarado este sistema es un poderoso instrumento de apoyo permitiendo, por un lado, generar alertas automáticas (con localización y gravedad de fuegos detectados) y por el otro, hacer un seguimiento del incendio con mapas en tiempo real (con su consecuente apoyo para la protección e información con las brigadas de bomberos en las zonas activas). ABSTRACT. A wireless sensor network (WSN) is a flexible data communication system used as an alternative to wired networks or as an extension of them and consists of nodes that perform calculation, measurement and communication activities. This allows the administrator to observe and react to events and phenomena in a specific environment. One application of these networks is fire prediction and prevention in natural areas. Its implementation is based on a deployment of wireless sensors, in a fire risk area, capable of collecting information such as temperature, humidity, luminance and pressure. A base station (or "sink") sends the collected information to a monitoring and control center following a structured format. At this center, the information received can be analyzed, processed and displayed in real time with monitoring systems. From this control center the WSN can also be controlled by changing the sensors behavior according to the level of fire risk detection. This project is based on the design, implementation and deployment of a Wireless Sensor Network (WSN) in a simulated environment in order to observe its behavior in different situations and show its effectiveness against a possible fire environment. The implementation of this system called SERIUW, has been done in parallel with other system, called SCVIRI, which has been developed in another project that implements the functions of monitoring and control center. Together, these two systems, make up a general system of anticipation and monitoring of fires. Functionality and performance tests have been performed on the overall system, in a controlled and simulated environment. The results of these tests are included in this document. The global system is a solution to fight the forest fires because it makes it easier to predict and prevent, early, possible fires in natural areas under supervision. This sytem can be a powerful tool since, before a fire event is declared, it generates automatic alerts (including location and severity information) and allows the real-time motorization of fire evolution integrated with maps. This could be also very useful for the support protection and information of fire brigades in zones in which a fire is already active.
Resumo:
La tesis que se presenta tiene como propósito la construcción automática de ontologías a partir de textos, enmarcándose en el área denominada Ontology Learning. Esta disciplina tiene como objetivo automatizar la elaboración de modelos de dominio a partir de fuentes información estructurada o no estructurada, y tuvo su origen con el comienzo del milenio, a raíz del crecimiento exponencial del volumen de información accesible en Internet. Debido a que la mayoría de información se presenta en la web en forma de texto, el aprendizaje automático de ontologías se ha centrado en el análisis de este tipo de fuente, nutriéndose a lo largo de los años de técnicas muy diversas provenientes de áreas como la Recuperación de Información, Extracción de Información, Sumarización y, en general, de áreas relacionadas con el procesamiento del lenguaje natural. La principal contribución de esta tesis consiste en que, a diferencia de la mayoría de las técnicas actuales, el método que se propone no analiza la estructura sintáctica superficial del lenguaje, sino que estudia su nivel semántico profundo. Su objetivo, por tanto, es tratar de deducir el modelo del dominio a partir de la forma con la que se articulan los significados de las oraciones en lenguaje natural. Debido a que el nivel semántico profundo es independiente de la lengua, el método permitirá operar en escenarios multilingües, en los que es necesario combinar información proveniente de textos en diferentes idiomas. Para acceder a este nivel del lenguaje, el método utiliza el modelo de las interlinguas. Estos formalismos, provenientes del área de la traducción automática, permiten representar el significado de las oraciones de forma independiente de la lengua. Se utilizará en concreto UNL (Universal Networking Language), considerado como la única interlingua de propósito general que está normalizada. La aproximación utilizada en esta tesis supone la continuación de trabajos previos realizados tanto por su autor como por el equipo de investigación del que forma parte, en los que se estudió cómo utilizar el modelo de las interlinguas en las áreas de extracción y recuperación de información multilingüe. Básicamente, el procedimiento definido en el método trata de identificar, en la representación UNL de los textos, ciertas regularidades que permiten deducir las piezas de la ontología del dominio. Debido a que UNL es un formalismo basado en redes semánticas, estas regularidades se presentan en forma de grafos, generalizándose en estructuras denominadas patrones lingüísticos. Por otra parte, UNL aún conserva ciertos mecanismos de cohesión del discurso procedentes de los lenguajes naturales, como el fenómeno de la anáfora. Con el fin de aumentar la efectividad en la comprensión de las expresiones, el método provee, como otra contribución relevante, la definición de un algoritmo para la resolución de la anáfora pronominal circunscrita al modelo de la interlingua, limitada al caso de pronombres personales de tercera persona cuando su antecedente es un nombre propio. El método propuesto se sustenta en la definición de un marco formal, que ha debido elaborarse adaptando ciertas definiciones provenientes de la teoría de grafos e incorporando otras nuevas, con el objetivo de ubicar las nociones de expresión UNL, patrón lingüístico y las operaciones de encaje de patrones, que son la base de los procesos del método. Tanto el marco formal como todos los procesos que define el método se han implementado con el fin de realizar la experimentación, aplicándose sobre un artículo de la colección EOLSS “Encyclopedia of Life Support Systems” de la UNESCO. ABSTRACT The purpose of this thesis is the automatic construction of ontologies from texts. This thesis is set within the area of Ontology Learning. This discipline aims to automatize domain models from structured or unstructured information sources, and had its origin with the beginning of the millennium, as a result of the exponential growth in the volume of information accessible on the Internet. Since most information is presented on the web in the form of text, the automatic ontology learning is focused on the analysis of this type of source, nourished over the years by very different techniques from areas such as Information Retrieval, Information Extraction, Summarization and, in general, by areas related to natural language processing. The main contribution of this thesis consists of, in contrast with the majority of current techniques, the fact that the method proposed does not analyze the syntactic surface structure of the language, but explores his deep semantic level. Its objective, therefore, is trying to infer the domain model from the way the meanings of the sentences are articulated in natural language. Since the deep semantic level does not depend on the language, the method will allow to operate in multilingual scenarios, where it is necessary to combine information from texts in different languages. To access to this level of the language, the method uses the interlingua model. These formalisms, coming from the area of machine translation, allow to represent the meaning of the sentences independently of the language. In this particular case, UNL (Universal Networking Language) will be used, which considered to be the only interlingua of general purpose that is standardized. The approach used in this thesis corresponds to the continuation of previous works carried out both by the author of this thesis and by the research group of which he is part, in which it is studied how to use the interlingua model in the areas of multilingual information extraction and retrieval. Basically, the procedure defined in the method tries to identify certain regularities at the UNL representation of texts that allow the deduction of the parts of the ontology of the domain. Since UNL is a formalism based on semantic networks, these regularities are presented in the form of graphs, generalizing in structures called linguistic patterns. On the other hand, UNL still preserves certain mechanisms of discourse cohesion from natural languages, such as the phenomenon of the anaphora. In order to increase the effectiveness in the understanding of expressions, the method provides, as another significant contribution, the definition of an algorithm for the resolution of pronominal anaphora limited to the model of the interlingua, in the case of third person personal pronouns when its antecedent is a proper noun. The proposed method is based on the definition of a formal framework, adapting some definitions from Graph Theory and incorporating new ones, in order to locate the notions of UNL expression and linguistic pattern, as well as the operations of pattern matching, which are the basis of the method processes. Both the formal framework and all the processes that define the method have been implemented in order to carry out the experimentation, applying on an article of the "Encyclopedia of Life Support Systems" of the UNESCO-EOLSS collection.
Resumo:
Los modelos de termomecánica glaciar están definidos mediante sistemas de ecuaciones en derivadas parciales que establecen los principios básicos de conservación de masa, momento lineal y energía, acompañados por una ley constitutiva que define la relación entre las tensiones a las que está sometido el hielo glaciar y las deformaciones resultantes de las mismas. La resolución de estas ecuaciones requiere la definición precisa del dominio (la geometría del glaciar, obtenido a partir de medidas topográficas y de georradar), así como contar con un conjunto de condiciones de contorno, que se obtienen a partir de medidas de campo de las variables implicadas y que constituyen un conjunto de datos geoespaciales. El objetivo fundamental de esta tesis es desarrollar una serie de herramientas que nos permitan definir con precisión la geometría del glaciar y disponer de un conjunto adecuado de valores de las variables a utilizar como condiciones de contorno del problema. Para ello, en esta tesis se aborda la recopilación, la integración y el estudio de los datos geoespaciales existentes para la Península Hurd, en la Isla Livingston (Antártida), generados desde el año 1957 hasta la actualidad, en un sistema de información geográfica. Del correcto tratamiento y procesamiento de estos datos se obtienen otra serie de elementos que nos permiten realizar la simulación numérica del régimen termomecánico presente de los glaciares de Península Hurd, así como su evolución futura. Con este objetivo se desarrolla en primer lugar un inventario completo de datos geoespaciales y se realiza un procesado de los datos capturados en campo, para establecer un sistema de referencia común a todos ellos. Se unifican además todos los datos bajo un mismo formato estándar de almacenamiento e intercambio de información, generándose los metadatos correspondientes. Se desarrollan asimismo técnicas para la mejora de los procedimientos de captura y procesado de los datos, de forma que se minimicen los errores y se disponga de estimaciones fiables de los mismos. El hecho de que toda la información se integre en un sistema de información geográfica (una vez producida la normalización e inventariado de la misma) permite su consulta rápida y ágil por terceros. Además, hace posible efectuar sobre ella una serie de operaciones conducentes a la obtención de nuevas capas de información. El análisis de estos nuevos datos permite explicar el comportamiento pasado de los glaciares objeto de estudio y proporciona elementos esenciales para la simulación de su comportamiento futuro. ABSTRACT Glacier thermo-mechanical models are defined by systems of partial differential equations stating the basic principles of conservation of mass, momentum and energy, accompanied by a constitutive principle that defines the relationship between the stresses acting on the ice and the resulting deformations. The solution of these equations requires an accurate definition of the model domain (the geometry of the glacier, obtained from topographical and ground penetrating radar measurements), as well as a set of boundary conditions, which are obtained from measurements of the variables involved and define a set of geospatial data. The main objective of this thesis is to develop tools able to provide an accurate definition of the glacier geometry and getting a proper set of values for the variables to be used as boundary conditions of our problem. With the above aim, this thesis focuses on the collection, compilation and study of the geospatial data existing for the Hurd Peninsula on Livingston Island, Antarctica, generated since 1957 to present, into a geographic information system. The correct handling and processing of these data results on a new collection of elements that allow us to numerically model the present state and the future evolution of Hurd Peninsula glaciers. First, a complete inventory of geospatial data is developed and the captured data are processed, with the aim of establishing a reference system common to all collections of data. All data are stored under a common standard format, and the corresponding metadata are generated to facilitate the information exchange. We also develop techniques for the improvement of the procedures used for capturing and processing the data, such that the errors are minimized and better estimated. All information is integrated into a geographic information system (once produced the standardization and inventory of it). This allows easy and fast viewing and consulting of the data by third parties. Also, it is possible to carry out a series of operations leading to the production of new layers of information. The analysis of these new data allows to explain past glacier behavior, and provides essential elements for explaining its future evolution.
Resumo:
La principal motivación para la elección del tema de la tesis es nuestra realidad energética y ambiental. Y más específicamente, la necesidad urgente de dar una respuesta a esta realidad desde el sector de la edificación. Por lo que, el trabajo parte de la búsqueda de soluciones pasivas que ayuden a la reducción del consumo energético y de las emisiones de C02 de los edificios, tanto nuevos como existentes. El objeto de estudio son aplicaciones innovadoras, basadas en el uso de materiales reactivos, con un efecto térmico de memoria bidireccional. La energía es un elemento imprescindible para el desarrollo. Sin embargo, el modelo energético predominante, basado principalmente en la utilización de combustibles de origen fósil, es uno de los importantes responsables del deterioro ambiental que sufre el planeta. Además, sus reservas son limitadas y están concentradas en unas pocas regiones del mundo, lo que genera problemas de dependencia, competitividad y de seguridad de suministro. Dado el gran potencial de ahorro energético del sector de la edificación, la Unión Europea en sus directivas enfatiza la necesidad de mejorar la eficiencia energética de los edificios. Añadiendo, además, la obligatoriedad de desarrollar edificios “energía casi nula”, cuyo prerrequisito es tener un muy alto rendimiento energético. En España, los edificios son responsables del 31% del consumo de energía primaria. La mayor parte de este consumo se relaciona a la utilización de sistemas activos de acondicionamiento. Una medida efectiva para reducir la demanda es mejorar la envolvente. Sin embargo, hay que buscar estrategias adicionales para aumentar aún más la eficiencia de los edificios nuevos y existentes. Para los climas de España, el uso de la inercia térmica ha probado ser una estrategia válida. Sin embargo, su funcionamiento está vinculado al peso y al volumen de los materiales utilizados. Esto limita sus posibilidades en la rehabilitación energética y en los nuevos edificios basados en la construcción ligera. Una alternativa es el uso de aplicaciones de almacenamiento térmico por calor latente, utilizando materiales de cambio de fase (PCM). Los PCM son sustancias con un muy alto calor de fusión, capaces de almacenar una gran cantidad de energía térmica sin requerir aumentos significativos de peso o volumen. Estas características los hacen idóneos para reducir el consumo relacionado con el acondicionamiento térmico, en edificios nuevos y existentes. En la parte preliminar de la investigación, se encontró que para lograr un aprovechamiento óptimo de las aplicaciones con PCM es necesario tener un conocimiento profundo de su funcionamiento y de las variables del sistema. De ahí que el objetivo principal de la presente tesis sea: establecer las bases para la optimizatión integral de las aplicaciones con almacenamiento de energía térmica por calor latente, identificando y validando sus variables más relevantes. La investigación consta de tres partes. La primera, documental, sistematizando y jerarquizando la información científica publicada; la segunda, numérica, basada en un análisis paramétrico de una aplicación con PCM, utilizando simulaciones térmicas; y la tercera, experimental, monitorizando el funcionamiento térmico y energético de diferentes aplicaciones con PCM en módulos a escala real. Los resultados brindan un más profundo entendimiento del funcionamiento de las aplicaciones evaluadas. Han permitido identificar sus variables relevantes, cuantificar su influencia, y determinar condiciones óptimas para su utilización así como situaciones en las que sería muy difícil justificar su uso. En el proceso, se realizó la caracterización térmica y energética de aplicaciones con PCM, tanto opacas como traslúcidas. Además, se ha encontrado que las aplicaciones con PCM son capaces de aumentar la eficiencia energética inclusive en recintos con diseños optimizados, demostrando ser una de las estrategias adecuadas para lograr el muy alto desempeño energético requerido en los edificios energía nula. ABSTRACT The main motivation for choosing the theme of the thesis is our energy and environmental reality. And more specifically, the urgent need to respond to this reality from the building sector. This is why, the work start with the search of passive solutions that help reduce energy consumption and C02 emissions of buildings, in both new and existing ones. The object of study is innovative applications based on the use of responsive materials, with bidirectional thermal memory. Energy is an essential element for development. However, the predominant energy model, based primarily on the use of fossil fuels, is one of the major responsible for the environmental deterioration of the planet, the cause of most of the CO2 emissions. Furthermore, reserves of fossil fuels are limited and are concentrated in a few regions of the world, which creates issues related to dependency, competitiveness, and security of supply. Given the large potential for energy savings in the building sector, the European Union in its directives emphasizes the need to improve energy efficiency in buildings. Also, adding the obligation to develop "nearly zero energy" buildings, whose first prerequisite is to achieve a very high energy efficiency. In Spain, buildings are responsible for 31% of primary energy consumption and most of this consumption is related to the used of HVAC systems. One of the most effective measures to reduce demand is to improve the envelope. However, it is necessary to look for additional strategies to further increase the efficiency of new and existing buildings. For the predominant climates in Spain, use of the thermal inertia may be a valid strategy. Nevertheless, its operation is linked to weight and volume of the materials used. This limits their possibilities in the existing buildings energy retrofitting and in the new buildings based on lightweight construction. An alternative is the use of latent heat thermal energy storage applications (LHTES), using phase change materials (PCM). PCM are substances with a high heat of fusion, capable of storing a large amount of thermal energy without requiring significant increases in weight or volume. These features make them ideal for reducing energy consumption associated with thermal conditioning in both new and existing buildings. In the preliminary part of the investigation, it was found that to get optimum utilization of the PCM applications is needed to have a deep understanding of its operation and, in particular, how the system variables affect its performance. Hence, the main objective of this thesis is: to establish the basis for the integral optimization of applications with latent heat thermal energy storage, identifying and validating the most relevant variables. The research comprises of three parts. The first, documentary, systematizing and prioritizing published scientific information. The second, numeric, based on a parametric analysis of an application PCM using thermal simulations. The third, experimental, monitoring the thermal and energy performance of different applications with PCM on real scale test cells. The results provide a complete understanding of the functioning of the evaluated LHTES application. They have allowed to identify their relevant variables, quantify their influence and determine optimum conditions for use as well as situations where it would be very difficult to justify its use. In the process, it was carried out the power and thermal characterization of various opaque and translucent PCM applications. Furthermore, it has been found that applications with PCM can increase the energy efficiency, even in buildings with optimized designs; proving to be one of the appropriate measures to achieve the high energy performance required in zero energy buildings.
Resumo:
En este proyecto se ha diseñado un sistema de adquisición y uso compartido de datos orientado a la implantación en un vehículo monoplaza de Formula SAE. Más concretamente, se encarga de recoger la información proporcionada por cuatro sensores infrarrojos de temperatura que sondearán constantemente la temperatura a la que se encuentran las ruedas del vehículo. La información, recogida en una memoria de almacenamiento masivo, se compartirá con otros dispositivos mediante un bus común. Los sensores empleados para generar la información los proporciona Melexis. Dichos sensores permiten estar todos simultáneamente conectados en un bus común gracias a su electrónica interna. Mediante el bus I2C irán conectados los cuatro sensores de nuestra aplicación (uno por cada rueda) permitiéndose añadir a posteriori más sensores o incluso otros elementos que permitan la comunicación por este tipo de bus I2C. La gestión de las tareas se realiza mediante el microcontrolador DSPIC33FJ256GP710-I/PF proporcionado por Microchip. Este es un microcontrolador complejo, por lo que para nuestra aplicación desaprovecharemos parte de su potencial. En nuestra tarjeta ha sido solamente añadido el uso de los dos I2C (uno para la tarjeta SD y el otro para los sensores), el módulo ECAN1 (para las comunicaciones por bus CAN), el módulo SPI (para acceder a una memoria Flash), 4 ADCs (para posibles mediciones) y 2 entradas de interrupción (para posible interactuación con el usuario), a parte de los recursos internos necesarios. En este proyecto se realiza tanto el desarrollo de una tarjeta de circuito impreso dedicada a resolver la funcionalidad requerida, así como su programación a través del entorno de programación facilitado por Microchip, el ICD2 Programmer. In this project, an acquisition and sharing system of data, which is oriented to be installed in a Formula SAE single-seater vehicle, has been designed. Concretely, it is responsible for getting the information supplied by four IR temperature sensors that monitor the wheels temperature. The information, which is loaded in a massive storage memory, will be shared with other devices by means of a common bus. The sensors used to generate the information are supplied by Melexis. Such specific sensors let that all they can be connected to the same bus at the same time due to their internal electronic. The four sensors will be connected through an I2C bus, one for each wheel, although we could add later more sensors or even other devices that they were able to let the I2C communication. Tasks management will be done by means of the DSPIC33FJ256GP710-I/PF microcontroller, which will be supplied by Microchip. This is a complex microcontroller, so, in our application we waste off a part of its potential. In our PCB has only been incorporated the use of the two I2C (one for the SD card and the other for the sensors), the ECAN module (to communicate devices), the SPI module (to access to the Flash memory), 4 ADC’s (for possible measurements) and 2 interrupt inputs (for possible inter-action with the user), a part of the necessary internal resources. This project aims the PCB development dedicated to solve the requested functionality and its programming through the programming environment provided by Microchip (the ICD2 programmer).
Resumo:
La termografía infrarroja (TI) es una técnica no invasiva y de bajo coste que permite, con el simple acto de tomar una fotografía, el registro sin contacto de la energía que irradia el cuerpo humano (Akimov & Son’kin, 2011, Merla et al., 2005, Ng et al., 2009, Costello et al., 2012, Hildebrandt et al., 2010). Esta técnica comenzó a utilizarse en el ámbito médico en los años 60, pero debido a los malos resultados como herramienta diagnóstica y la falta de protocolos estandarizados (Head & Elliot, 2002), ésta se dejó de utilizar en detrimento de otras técnicas más precisas a nivel diagnóstico. No obstante, las mejoras tecnológicas de la TI en los últimos años han hecho posible un resurgimiento de la misma (Jiang et al., 2005, Vainer et al., 2005, Cheng et al., 2009, Spalding et al., 2011, Skala et al., 2012), abriendo el camino a nuevas aplicaciones no sólo centradas en el uso diagnóstico. Entre las nuevas aplicaciones, destacamos las que se desarrollan en el ámbito de la actividad física y el deporte, donde recientemente se ha demostrado que los nuevos avances con imágenes de alta resolución pueden proporcionar información muy interesante sobre el complejo sistema de termorregulación humana (Hildebrandt et al., 2010). Entre las nuevas aplicaciones destacan: la cuantificación de la asimilación de la carga de trabajo físico (Čoh & Širok, 2007), la valoración de la condición física (Chudecka et al., 2010, 2012, Akimov et al., 2009, 2011, Merla et al., 2010), la prevención y seguimiento de lesiones (Hildebrandt et al., 2010, 2012, Badža et al., 2012, Gómez Carmona, 2012) e incluso la detección de agujetas (Al-Nakhli et al., 2012). Bajo estas circunstancias, se acusa cada vez más la necesidad de ampliar el conocimiento sobre los factores que influyen en la aplicación de la TI en los seres humanos, así como la descripción de la respuesta de la temperatura de la piel (TP) en condiciones normales, y bajo la influencia de los diferentes tipos de ejercicio. Por consiguiente, este estudio presenta en una primera parte una revisión bibliográfica sobre los factores que afectan al uso de la TI en los seres humanos y una propuesta de clasificación de los mismos. Hemos analizado la fiabilidad del software Termotracker, así como su reproducibilidad de la temperatura de la piel en sujetos jóvenes, sanos y con normopeso. Finalmente, se analizó la respuesta térmica de la piel antes de un entrenamiento de resistencia, velocidad y fuerza, inmediatamente después y durante un período de recuperación de 8 horas. En cuanto a la revisión bibliográfica, hemos propuesto una clasificación para organizar los factores en tres grupos principales: los factores ambientales, individuales y técnicos. El análisis y descripción de estas influencias deben representar la base de nuevas investigaciones con el fin de utilizar la TI en las mejores condiciones. En cuanto a la reproducibilidad, los resultados mostraron valores excelentes para imágenes consecutivas, aunque la reproducibilidad de la TP disminuyó ligeramente con imágenes separadas por 24 horas, sobre todo en las zonas con valores más fríos (es decir, zonas distales y articulaciones). Las asimetrías térmicas (que normalmente se utilizan para seguir la evolución de zonas sobrecargadas o lesionadas) también mostraron excelentes resultados pero, en este caso, con mejores valores para las articulaciones y el zonas centrales (es decir, rodillas, tobillos, dorsales y pectorales) que las Zonas de Interés (ZDI) con valores medios más calientes (como los muslos e isquiotibiales). Los resultados de fiabilidad del software Termotracker fueron excelentes en todas las condiciones y parámetros. En el caso del estudio sobre los efectos de los entrenamientos de la velocidad resistencia y fuerza en la TP, los resultados muestran respuestas específicas según el tipo de entrenamiento, zona de interés, el momento de la evaluación y la función de las zonas analizadas. Los resultados mostraron que la mayoría de las ZDI musculares se mantuvieron significativamente más calientes 8 horas después del entrenamiento, lo que indica que el efecto del ejercicio sobre la TP perdura por lo menos 8 horas en la mayoría de zonas analizadas. La TI podría ser útil para cuantificar la asimilación y recuperación física después de una carga física de trabajo. Estos resultados podrían ser muy útiles para entender mejor el complejo sistema de termorregulación humano, y por lo tanto, para utilizar la TI de una manera más objetiva, precisa y profesional con visos a mejorar las nuevas aplicaciones termográficas en el sector de la actividad física y el deporte Infrared Thermography (IRT) is a safe, non-invasive and low-cost technique that allows the rapid and non-contact recording of the irradiated energy released from the body (Akimov & Son’kin, 2011; Merla et al., 2005; Ng et al., 2009; Costello et al., 2012; Hildebrandt et al., 2010). It has been used since the early 1960’s, but due to poor results as diagnostic tool and a lack of methodological standards and quality assurance (Head et al., 2002), it was rejected from the medical field. Nevertheless, the technological improvements of IRT in the last years have made possible a resurgence of this technique (Jiang et al., 2005; Vainer et al., 2005; Cheng et al., 2009; Spalding et al., 2011; Skala et al., 2012), paving the way to new applications not only focused on the diagnose usages. Among the new applications, we highlighted those in physical activity and sport fields, where it has been recently proven that a high resolution thermal images can provide us with interesting information about the complex thermoregulation system of the body (Hildebrandt et al., 2010), information than can be used as: training workload quantification (Čoh & Širok, 2007), fitness and performance conditions (Chudecka et al., 2010, 2012; Akimov et al., 2009, 2011; Merla et al., 2010; Arfaoui et al., 2012), prevention and monitoring of injuries (Hildebrandt et al., 2010, 2012; Badža et al., 2012, Gómez Carmona, 2012) and even detection of Delayed Onset Muscle Soreness – DOMS- (Al-Nakhli et al., 2012). Under this context, there is a relevant necessity to broaden the knowledge about factors influencing the application of IRT on humans, and to better explore and describe the thermal response of Skin Temperature (Tsk) in normal conditions, and under the influence of different types of exercise. Consequently, this study presents a literature review about factors affecting the application of IRT on human beings and a classification proposal about them. We analysed the reliability of the software Termotracker®, and also its reproducibility of Tsk on young, healthy and normal weight subjects. Finally, we examined the Tsk thermal response before an endurance, speed and strength training, immediately after and during an 8-hour recovery period. Concerning the literature review, we proposed a classification to organise the factors into three main groups: environmental, individual and technical factors. Thus, better exploring and describing these influence factors should represent the basis of further investigations in order to use IRT in the best and optimal conditions to improve its accuracy and results. Regarding the reproducibility results, the outcomes showed excellent values for consecutive images, but the reproducibility of Tsk slightly decreased with time, above all in the colder Regions of Interest (ROI) (i.e. distal and joint areas). The side-to-side differences (ΔT) (normally used to follow the evolution of some injured or overloaded ROI) also showed highly accurate results, but in this case with better values for joints and central ROI (i.e. Knee, Ankles, Dorsal and Pectoral) than the hottest muscle ROI (as Thigh or Hamstrings). The reliability results of the IRT software Termotracker® were excellent in all conditions and parameters. In the part of the study about the effects on Tsk of aerobic, speed and strength training, the results of Tsk demonstrated specific responses depending on the type of training, ROI, moment of the assessment and the function of the considered ROI. The results showed that most of muscular ROI maintained warmer significant Tsk 8 hours after the training, indicating that the effect of exercise on Tsk last at least 8 hours in most of ROI, as well as IRT could help to quantify the recovery status of the athlete as workload assimilation indicator. Those results could be very useful to better understand the complex skin thermoregulation behaviour, and therefore, to use IRT in a more objective, accurate and professional way to improve the new IRT applications for the physical activity and sport sector.
Resumo:
El presente proyecto trata de un estudio de las distintas técnicas de monitorización superficial para la caracterización de fugas en un análogo natural. Tiene como objetivo la extrapolación de los resultados a un sistema de almacenamiento geológico de CO2. Para ello, se realizaron medidas en el área del análogo y sus alrededores para analizar la capacidad de detección de fuga de cada instrumento. A partir de esas mediciones y de las propiedades técnicas y económicas de cada método de monitorización, se determinó cuáles son los más recomendables para utilizar en una campaña inicial, de investigación o de seguimiento de caracterización superficial de un futuro sistema de almacenamiento. ABSTRACT This project is about the study of the different types of superficial monitoring techniques for the leakage characterization in a natural analogue. It aims to extrapolate the results to a geological storage system of CO2. For that purpose, measurements were made in the surrounding area of the analogue to analyze the ability of each leak detection instrument. From these measurements and the technical-economics features of each monitoring method, we established what are the most suitable for use in an initial, research or follow-up campaign of surface characterization of a future storage system.
Resumo:
El proyecto que he realizado ha consistido en la creación de un sistema de información geográfica para el Campus Sur UPM, que puede servir de referencia para su implantación en cualquier otro campus universitario. Esta idea surge de la necesidad por parte de los usuarios de un campus de disponer de una herramienta que les permita consultar la información de los distintos lugares y servicios del campus, haciendo especial hincapié en su localización geográfica. Para ello ha sido necesario estudiar las tecnologías actuales que permiten implementar un sistema de información geográfica, dando lugar al sistema propuesto, que consiste en un conjunto de medios informáticos (hardware y software), que van a permitir al personal del campus obtener la información y localización de los elementos del campus desde su móvil. Tras realizar un análisis de los requisitos y funcionalidades que debía tener el sistema, el proyecto ha consistido en el diseño e implementación de dicho sistema. La información a consultar estará almacenada y disponible para su consulta en un equipo servidor accesible para el personal del campus. Para ello, durante la realización del proyecto, ha sido necesario crear un modelo de datos basado en el campus y cargar los datos geográficos de utilidad en una base de datos. Todo esto ha sido realizado mediante el producto software Smallword Core 4.2. Además, ha sido también necesario desplegar un software servidor que permita a los usuarios consultar dichos datos desde sus móviles vía WIFI o Internet, el producto utilizado para este fin ha sido Smallworld Geospatial Server 4.2. Para la realización de las consultas se han utilizado los servicios WMS(Web Map Service) y WFS(Web Feature Service) definidos por el OGC(Open Geospatial Consortium). Estos servicios están adaptados para la consulta de información geográfica. El sistema también está compuesto por una aplicación para dispositivos móviles con sistema operativo Android, que permite a los usuarios del sistema consultar y visualizar la información geográfica del campus. Dicha aplicación ha sido diseñada y programada a lo largo de la realización del proyecto. Para la realización de este proyecto también ha sido necesario un estudio del presupuesto que supondría una implantación real del sistema y el mantenimiento que implicaría tener el sistema actualizado. Por último, el proyecto incluye una breve descripción de las tecnologías futuras que podrían mejorar las funcionalidades del sistema: la realidad aumentada y el posicionamiento en el interior de edificios. ABSTRACT. The project I've done has been to create a geographic information system for the Campus Sur UPM, which can serve as a reference for implementation in any other college campus. This idea arises from the need for the campus users to have a tool that allows them to view information from different places and services, with particular emphasis on their geographical location. It has been necessary to study the current technologies that allow implementing a geographic information system, leading to the proposed system, which consists of a set of computer resources (hardware and software) that will allow campus users to obtain information and location of campus components from their mobile phones. Following an analysis of the requirements and functionalities that the system should have, the project involved the design and implementation of the system . The information will be stored and available on a computer server accessible to campus users. Accordingly, during the project, it was necessary to create a data model based on campus data and load this data in a database. All this has been done by Smallword Core 4.2 software product. In addition, it has also been necessary to deploy a server software that allows users to query the data from their phones via WIFI or Internet, the product used for this purpose has been Smallworld Geospatial Server 4.2 . To carry out the consultations have used the services WMS (Web Map Service) and WFS (Web Feature Service) defined by the OGC (Open Geospatial Consortium). These services are tailored to the geographic information retrieval. The system also consists of an application for mobile devices with Android operating system, which allows users to query and display geographic information related to the campus. This application has been designed and programmed over the project. For the realization of this project has also been necessary to study the budget that would be a real system implementation and the maintenance that would have the system updated. Finally, the project includes a brief description of future technologies that could improve the system's functionality: augmented reality and positioning inside the buildings.
Resumo:
Con la finalidad de ayudar a la creación y desarrollo de modelos de predicción y simulación que permitan al ciudadano/administraciones publicas gestionar el consumo energético de forma más eficiente y respetuosa con el medio ambiente, se ha implementado un sistema de gestión de datos de indicadores energéticos. En 2007 la UE creó una directiva conocida como "20/20/20" en la que la Unión Europea se compromete a ahorrar un 20% del consumo anual de energía primaria desde esa fecha a 2020. En 2009 la Comisión Europea ha llegado a la conclusión de que con las medidas propuestas en dicha directiva no se podría alcanzar el objetivo de reducción del 20% del consumo energético previsto para el 2020, quedándose en menos de la mitad. Para dar un nuevo impulso a la eficiencia energética se redacta una propuesta de directiva: 2011/0172(COD). En esta directiva se obliga a los estados miembros a potenciar y ampliar la información estadística agregada sobre sus clientes finales (los perfiles de carga, la segmentación de los clientes, su ubicación geográfica, etc ). La Unión Europea plantea que incrementar el volumen y la accesibilidad de los datos de consumo energético, ayudará de forma significativa a alcanzar los objetivos. En este marco, parece lógico afirmar que un banco de datos de indicadores energéticos universalmente accesible puede contribuir de un modo efectivo al aumento de la eficiencia energética. Como aplicativo de este PFC se ha desarrollado una aplicación que permite la definición y almacenamiento de indicadores energéticos, en la que los diferentes sistemas, propietarios o abiertos, pueden volcar y extraer datos de una forma poco costosa. Se ha pretendido realizar una aplicación lo más abierta posible, tanto desde el punto de vista de la funcionalidad, permitiendo la definición del propio indicador a través del sistema, como desde el punto de vista de la implementación, usando únicamente código abierto para el desarrollo de la misma. ABSTRACT. In order to assist in the creation and development of forecasting and simulation models that enable citizens / public authorities manage energy consumption more efficient and environmentally friendly, we have implemented a data management system of energy indicators. In 2007 the EU created a policy known as " 20/20/20 " in which the European Union is committed to saving 20 % of the annual primary energy consumption from that date to 2020 . In 2009 the European Commission has concluded that the measures proposed in the directive could not achieve the goal of 20% reduction in energy consumption expected for 2020 , staying in less than half. To give new impetus to energy efficiency is drawn up a draft directive : 2011/0172 ( COD ) . This directive obliges member states to strengthen and expand aggregate statistical information on their final customers ( load profiles , customer segmentation , geographic location, etc. ) . The European Union argues that increasing the volume and accessibility ofenergy data , will significantly help to achieve the objectives . In this context , it seems logical to say that a database of universally accessible energy indicators can contribute in an effective way to increase energy efficiency. As of this PFC application has developed an application that allows the definition and storage of energy indicators , in which different systems, proprietary or open, can tip and extract data from an inexpensive way. We have tried to make an application as open as possible , both from the point of view of functionality , allowing the definition of the indicator itself through the system , and from the point of view of implementation, using only open source development thereof.
Resumo:
Durante el transcurso de esta Tesis Doctoral se ha realizado un estudio de la problemática asociada al desarrollo de sistemas de interacción hombre-máquina sensibles al contexto. Este problema se enmarca dentro de dos áreas de investigación: los sistemas interactivos y las fuentes de información contextual. Tradicionalmente la integración entre ambos campos se desarrollaba a través de soluciones verticales específicas, que abstraen a los sistemas interactivos de conocer los procedimientos de bajo nivel de acceso a la información contextual, pero limitan su interoperabilidad con otras aplicaciones y fuentes de información. Para solventar esta limitación se hace imprescindible potenciar soluciones interoperables que permitan acceder a la información del mundo real a través de procedimientos homogéneos. Esta problemática coincide perfectamente con los escenarios de \Computación Ubicua" e \Internet de las Cosas", donde se apunta a un futuro en el que los objetos que nos rodean serán capaces de obtener información del entorno y comunicarla a otros objetos y personas. Los sistemas interactivos, al ser capaces de obtener información de su entorno a través de la interacción con el usuario, pueden tomar un papel especial en este escenario tanto como consumidores como productores de información. En esta Tesis se ha abordado la integración de ambos campos teniendo en cuenta este escenario tecnológico. Para ello, en primer lugar se ha realizado un an álisis de las iniciativas más importantes para la definición y diseño de sistemas interactivos, y de las principales infraestructuras de suministro de información. Mediante este estudio se ha propuesto utilizar el lenguaje SCXML del W3C para el diseño de los sistemas interactivos y el procesamiento de los datos proporcionados por fuentes de contexto. Así, se ha reflejado cómo las capacidades del lenguaje SCXML para combinar información de diferentes modalidades pueden también utilizarse para procesar e integrar información contextual de diferentes fuentes heterogéneas, y por consiguiente diseñar sistemas de interacción sensibles al contexto. Del mismo modo se presenta a la iniciativa Sensor Web, y a su extensión semántica Semantic Sensor Web, como una iniciativa idónea para permitir un acceso y suministro homogéneo de la información a los sistemas interactivos sensibles al contexto. Posteriormente se han analizado los retos que plantea la integración de ambos tipos de iniciativas. Como resultado se ha conseguido establecer una serie de funcionalidades que son necesarias implementar para llevar a cabo esta integración. Utilizando tecnologías que aportan una gran flexibilidad al proceso de implementación y que se apoyan en recomendaciones y estándares actuales, se implementaron una serie de desarrollos experimentales que integraban las funcionalidades identificadas anteriormente. Finalmente, con el fin de validar nuestra propuesta, se realizaron un conjunto de experimentos sobre un entorno de experimentación que simula el escenario de la conducción. En este escenario un sistema interactivo se comunica con una extensión semántica de una plataforma basada en los estándares de la Sensor Web para poder obtener información y publicar las observaciones que el usuario realizaba al sistema. Los resultados obtenidos han demostrado la viabilidad de utilizar el lenguaje SCXML para el diseño de sistemas interactivos sensibles al contexto que requieren acceder a plataformas avanzadas de información para consumir y publicar información a la vez que interaccionan con el usuario. Del mismo modo, se ha demostrado cómo la utilización de tecnologías semánticas en los procesos de consulta y publicación de información puede facilitar la reutilización de la información publicada en infraestructuras Sensor Web por cualquier tipo de aplicación, y de este modo contribuir al futuro escenario de Internet de las Cosas. ABSTRACT In this Thesis, we have addressed the difficulties related to the development of context-aware human-machine interaction systems. This issue is part of two research fields: interactive systems and contextual information sources. Traditionally both fields have been integrated through domain-specific vertical solutions that allow interactive systems to access contextual information without having to deal with low-level procedures, but restricting their interoperability with other applications and heterogeneous data sources. Thus, it is essential to boost the research on interoperable solutions that provide access to real world information through homogeneous procedures. This issue perfectly matches with the scenarios of \Ubiquitous Computing" and \Internet of Things", which point toward a future in which many objects around us will be able to acquire meaningful information about the environment and communicate it to other objects and to people. Since interactive systems are able to get information from their environment through interaction with the user, they can play an important role in this scenario as they can both consume real-world data and produce enriched information. This Thesis deals with the integration of both fields considering this technological scenario. In order to do this, we first carried out an analysis of the most important initiatives for the definition and design of interactive systems, and the main infrastructures for providing information. Through this study the use of the W3C SCXML language is proposed for both the design of interactive systems and the processing of data provided by different context sources. Thus, this work has shown how the SCXML capabilities for combining information from different modalities can also be used to process and integrate contextual information from different heterogeneous sensor sources, and therefore to develope context-aware interaction systems. Similarly, we present the Sensor Web initiative, and its semantic extension Semantic Sensor Web, as an appropriate initiative to allow uniform access and delivery of information to the context-aware interactive systems. Subsequently we have analyzed the challenges of integrating both types of initiatives: SCXML and (Semantic) Sensor Web. As a result, we state a number of functionalities that are necessary to implement in order to perform this integration. By using technologies that provide exibility to the implementation process and are based on current recommendations and standards, we implemented a series of experimental developments that integrate the identified functionalities. Finally, in order to validate our approach, we conducted different experiments with a testing environment simulating a driving scenario. In this framework an interactive system can access a semantic extension of a Telco plataform, based on the standards of the Sensor Web, to acquire contextual information and publish observations that the user performed to the system. The results showed the feasibility of using the SCXML language for designing context-aware interactive systems that require access to advanced sensor platforms for consuming and publishing information while interacting with the user. In the same way, it was shown how the use of semantic technologies in the processes of querying and publication sensor data can assist in reusing and sharing the information published by any application in Sensor Web infrastructures, and thus contribute to realize the future scenario of \Internet of Things".
Resumo:
La Gestión de Recursos Humanos a través de Internet es un problema latente y presente actualmente en cualquier sitio web dedicado a la búsqueda de empleo. Este problema también está presente en AFRICA BUILD Portal. AFRICA BUILD Portal es una emergente red socio-profesional nacida con el ánimo de crear comunidades virtuales que fomenten la educación e investigación en el área de la salud en países africanos. Uno de los métodos para fomentar la educación e investigación es mediante la movilidad de estudiantes e investigadores entre instituciones, apareciendo así, el citado problema de la gestión de recursos humanos. Por tanto, este trabajo se centra en solventar el problema de la gestión de recursos humanos en el entorno específico de AFRICA BUILD Portal. Para solventar este problema, el objetivo es desarrollar un sistema de recomendación que ayude en la gestión de recursos humanos en lo que concierne a la selección de las mejores ofertas y demandas de movilidad. Caracterizando al sistema de recomendación como un sistema semántico el cual ofrecerá las recomendaciones basándose en las reglas y restricciones impuestas por el dominio. La aproximación propuesta se basa en seguir el enfoque de los sistemas de Matchmaking semánticos. Siguiendo este enfoque, por un lado, se ha empleado un razonador de lógica descriptiva que ofrece inferencias útiles en el cálculo de las recomendaciones y por otro lado, herramientas de procesamiento de lenguaje natural para dar soporte al proceso de recomendación. Finalmente para la integración del sistema de recomendación con AFRICA BUILD Portal se han empleado diversas tecnologías web. Los resultados del sistema basados en la comparación de recomendaciones creadas por el sistema y por usuarios reales han mostrado un funcionamiento y rendimiento aceptable. Empleando medidas de evaluación de sistemas de recuperación de información se ha obtenido una precisión media del sistema de un 52%, cifra satisfactoria tratándose de un sistema semántico. Pudiendo concluir que con la solución implementada se ha construido un sistema estable y modular posibilitando: por un lado, una fácil evolución que debería ir encaminada a lograr un rendimiento mayor, incrementando su precisión y por otro lado, dejando abiertas nuevas vías de crecimiento orientadas a la explotación del potencial de AFRICA BUILD Portal mediante la Web 3.0. ---ABSTRACT---The Human Resource Management through Internet is currently a latent problem shown in any employment website. This problem has also appeared in AFRICA BUILD Portal. AFRICA BUILD Portal is an emerging socio-professional network with the objective of creating virtual communities to foster the capacity for health research and education in African countries. One way to foster this capacity of research and education is through the mobility of students and researches between institutions, thus appearing the Human Resource Management problem. Therefore, this dissertation focuses on solving the Human Resource Management problem in the specific environment of AFRICA BUILD Portal. To solve this problem, the objective is to develop a recommender system which assists the management of Human Resources with respect to the selection of the best mobility supplies and demands. The recommender system is a semantic system which will provide the recommendations according to the domain rules and restrictions. The proposed approach is based on semantic matchmaking solutions. So, this approach on the one hand uses a Description Logics reasoning engine which provides useful inferences to the recommendation process and on the other hand uses Natural Language Processing techniques to support the recommendation process. Finally, Web technologies are used in order to integrate the recommendation system into AFRICA BUILD Portal. The results of evaluating the system are based on the comparison between recommendations created by the system and by real users. These results have shown an acceptable behavior and performance. The average precision of the system has been obtained by evaluation measures for information retrieval systems, so the average precision of the system is at 52% which may be considered as a satisfactory result taking into account that the system is a semantic system. To conclude, it could be stated that the implemented system is stable and modular. This fact on the one hand allows an easy evolution that should aim to achieve a higher performance by increasing its average precision and on the other hand keeps open new ways to increase the functionality of the system oriented to exploit the potential of AFRICA BUILD Portal through Web 3.0.
Resumo:
Este proyecto ha tenido por objetivo el estudio de la viabilidad de instalar un sistema de almacenamiento subterráneo de aire comprimido enlazado con una central térmica en España. Dentro de las diversas posibilidades para emplazar el sistema CAES se ha seleccionado el domo salino, por ser la estructura geológica más favorable técnica y económicamente. Con el cometido de encontrar la ubicación más favorable se escogió el domo de Salinas de Añana, y por cercanía geográfica con éste se seleccionó la central térmica de Iberdrola C. T. Pasajes. Una vez elegidos el domo y la central se realizó un estudio de viabilidad técnica y económica de la instalación, empleando estudios geológicos, gravimétricos y económicos. Tras dichos estudios se concluyó que la instalación es posible técnicamente en el domo Salinas de Añana y que se recuperará la inversión a partir del octavo año. ABSTRACT This project has aimed to study the feasibility of installing a system of underground storage of compressed air linked to a thermal plant in Spain. Among the different possibilities to place the CAES system is selected salt dome, as the technically and economically most favorable geological structure. The better dome was Salinas de Añana for its location and Iberdrola C.T. Pasajes was the nearest thermal power plant. Before the dome and thermal power plant were chosen, was performed a technical and economic studies using geological, gravimetric and economic studies. These studies concluded that is possible execute a CAES system in Salinas de Añana dome. The initial investment will pay off the eighth year.
Resumo:
Los procesos relacionados con el almacenamiento y manipulación de productos petrolíferos, conllevan siempre determinados riesgos de incendio que dependen básicamente de las propiedades físicas y químicas de los productos, y hacen indispensable la adopción de importantes medidas de seguridad contra incendios. Esto es debido a que las consecuencias previsibles en caso de la producción y expansión del incendio son tan graves que aconsejan la instalación de medios más potentes de lucha contra incendios, que los simples extintores manuales. En base a ello, el presente proyecto pretende definir y desarrollar una propuesta de diseño del sistema de protección contra incendios en la zona de almacenamiento de una planta de almacenamiento de líquidos petrolíferos. La planta almacena Gasóleo, Gasolina y Queroseno de Aviación en ocho tanques atmosféricos de techo fijo situados en un único cubeto de retención. Se desarrolla un extenso estudio de los requisitos normativos para este tipo de casos, y en consecuencia, se calcula y clasifica el nivel de riesgo intrínseco de incendio en la zona estudiada, a partir de su carga de fuego ponderada y corregida. Además, se muestra la distribución de los tanques en el cubeto, basada en el cálculo de las distancias de seguridad entre cada uno de ellos y con el exterior. A partir de ello, el proyecto se centra en el cálculo de los valores de descarga de agua de refrigeración, requeridos en las boquillas de agua pulverizada e hidrantes exteriores de alrededor de la zona de riesgo; de espuma física para hidrocarburos, en las cámaras de espuma de la parte superior de la envolvente de los tanques, y en los monitores auxiliares de descarga de espuma, de la zona del cubeto de retención. Los objetivos, métodos y bases de cálculo se recogen en la memoria del proyecto. Además se incluye, la planificación temporal con MS Project, de la implementación del proyecto; la elección de los equipos que componen los sistemas, el presupuesto asociado y los planos de distribución de la planta y del flujo de tuberías propuesto. ABSTRACT Fire protection units and equipment are necessary on processes and operations related to storage and handling of petroleum products, because of their flammable and combustible properties. In case a hazard of fire from petroleum products is materialized, huge consequences are to be expected. To reduce losses, facilities should be equipped with appropriate protection. Based on that, this project seeks to define and develop the fire protection system design for a petroleum liquids storage installation. The plant stores Gasoil, Gasoline, and aviation Kerosene in eight fixed roof atmospheric tanks. A complete study of the fire protection regulations is carried out and, as a result, the studied area’s risk level is determined from its fire load density. The calculation of the minimum shell-to-shell spacing of adjacent aboveground storage tanks and external equipment, is also determined for a correct distribution of tanks in the bunded area. Assuming that, the design includes calculations of required discharge of water for spray nozzles and hydrants, and required discharge of foam from foam chambers and foam monitors. Objectives, methodology and calculation basis are presented on the project technical report; which also includes project scheduling with MS. Project software, the selection of system components and equipment, related budget and lay out of installation and piping.
Resumo:
En el día a día y mantenimiento de una empresa o negocio, pronto surge la necesidad de gestionar y almacenar la información, y según va creciendo la cantidad de información relativa al negocio, es más importante o primordial la adopción de soluciones y/o aplicaciones informáticas que nos faciliten dichas labores. Años atrás, antes de que las aplicaciones informáticas estuvieran al alcance de todo tipo de negocios, no quedaba otra solución que almacenar grandes cantidades de información impresa, lo cual implica un gran esfuerzo y trabajo, disponer del espacio necesario y correr ciertos riesgos ante posibles errores o fallos en su gestión. Actualmente las aplicaciones informáticas están prácticamente al alcance de cualquier pequeña y mediana empresa. Con dichas aplicaciones conseguimos un gran almacenamiento, control y gestión de la información, y además se disminuye el esfuerzo humano, la necesidad de amplios almacenes, y probabilidad de errores en la gestión de dicha información. Pero no todo serán ventajas. Dependiendo del tipo y complejidad de la aplicación, se necesitará un personal más o menos especializado informáticamente, o bien la aplicación de una formación informática específica a aquel personal que la necesitase para poder manejar la aplicación correctamente. Por otro lado habría que invertir en la maquinaria adecuada para poder ejecutar la aplicación sin problemas, lo cual conlleva un coste y un futuro mantenimiento. Y además hay que ser conscientes que a partir del momento en que se informatiza un negocio, la empresa y el funcionamiento de la misma pasan a depender en mayor medida del correcto funcionamiento de una “máquina”, pero para ello existen sistemas y copias de seguridad que mitigan dichos riesgos. Es obvio que existen grandes ventajas y también ciertos riesgos, pero parece claro que una vez que se informatiza un negocio, el almacenamiento y gestión de la información es mucho más sencillo y ágil. Una vez decidida la informatización del negocio, hay que decidir si se acude a algunas de las soluciones informáticas que ya existen implementadas en el mercado, o bien se elige la solución de implementar una aplicación a medida según las necesidades y características del negocio. En función del tipo de negocio y los gustos del empresario, se adoptará por una solución u otra, siendo cualquiera de ellas totalmente válida. En el caso que nos aborda, acometeremos la informatización de un gimnasio que además ofertará como opción un servicio de guardería para los bebés de los clientes, para que de esta manera los clientes puedan realizar sus ejercicios físicos con total tranquilidad y despreocupación respecto a sus bebés. Los objetivos que se persiguen al informatizar el negocio son: -Agilizar, simplificar y potenciar la gestión de la empresa. -Reducir la cantidad de información impresa que se maneja actualmente. -Tener mayor control global del negocio. -Ofrecer mayor transparencia y velocidad de respuesta en la información proporcionada a los clientes. -Facilitar las posibles futuras ampliaciones del negocio. Para cumplir dichos objetivos se implementará una aplicación estructurada en los diferentes módulos que componen nuestro negocio, y a la vez tendrá un aspecto y funcionamiento muy homogéneo para facilitar su utilización y explotación.
Resumo:
En este artículo se presenta un sistema automático de almacenamiento, análisis y visualización de información semántica extraída de mensajes de Twitter, diseñado para proporcionar a las administraciones públicas una herramienta para detectar y analizar de una manera sencilla y rápida los patrones de comportamiento de los ciudadanos, su opinión acerca de los servicios públicos, la percepción de la ciudad, los eventos de interés, etc. Además, puede ser usado como un sistema de alerta temprana, mejorando la eficiencia y rapidez de actuación de los sistemas de emergencia.