24 resultados para Encaje mínimo legal, efectividad, control monetario, cobertura.
em Universidad Politécnica de Madrid
Resumo:
La presente Tesis Doctoral establece, con criterios científico-técnicos y como primera aproximación, una metodología para evaluar la protección ante los riesgos naturales que proporciona la restauración hidrológico-forestal de las cuencas hidrográficas de montaña, a los habitantes en ellas y a los transeúntes por las mismas. La investigación se ha planificado dividida en tres secciones en las que se analizan: 1) la protección que proporcionan las cubiertas forestales, tanto si son de regeneración natural o si proceden de reforestación; 2) la que se consigue con las obras ejecutadas en las propias cuencas y sus cauces de drenaje, que en el ámbito de la restauración hidrológico-forestal se vinculan con las reforestaciones, por lo que se hace intervenir a éstas en su evaluación y 3) la que se obtiene con las sinergias que surgen a lo largo de la consolidación de las reforestaciones y de las obras ejecutadas en la cuenca, cumpliendo con el proyecto para su restauración hidrológico-forestal; que se estiman en función del grado de cumplimiento de los objetivos específicos del mismo. La incidencia de las cubiertas forestales en el control de los riesgos naturales en la montaña se ha evaluado: a) teniendo en cuenta las experiencias de las investigaciones sobre la materia desarrolladas en la última década en el área alpina y b) analizando las características dasocráticas de las cubiertas forestales objeto de la investigación y, en función de ellas, identificando los parámetros más representativos que intervienen en el control de los principales riesgos naturales en la montaña (crecidas torrenciales, aludes, deslizamientos del terreno y caídas de bloques). La protección aportada por las obras de corrección se ha evaluado, considerado a las cuencas en las que están ubicadas como unidades específicas de corrección y analizando su comportamiento ante el mayor número de eventos torrenciales posible (que se han definido a partir de todas las precipitaciones registradas en las estaciones meteorológicas de serie histórica más larga, situadas en la cuenca en cuestión o más próximas a ella) y verificando a continuación incidencias que hayan ocurrido en la cuenca y el estado en que han quedado las obras. Con la evaluación de las sinergias surgidas a lo largo de la consolidación del proyecto de restauración, se ha tratado de precisar el grado de cumplimiento de sus principales objetivos; teniendo en cuenta que los resultados del proyecto, por su propia dinámica, se experimentan a medio y largo plazo; intervalo en el que pueden surgir distintos imponderables. En cualquier caso, la restauración de las cuencas de montaña no implica la desaparición en ellas de todos de los riesgos; sino un control de éstos y la consiguiente reducción de sus efectos. Por lo que es necesario realizar trabajos de mantenimiento de las reforestaciones y de las obras ejecutadas en ellas, para que conserven las condiciones de protección inicialmente diseñadas. La metodología se ha aplicado en cinco escenarios del Pirineo Aragonés; tres en los que en el pasado se efectuaron trabajos y obras de restauración hidrológico-forestal (las cuencas vertientes a los torrentes de Arratiecho y de Arás y el paraje de Los Arañones) y otros dos que no fueron intervenidos (la ladera de la margen derecha vertiente al cauce de Canal Roya y la ladera de solana de la cabera de la cuenca de Fondo de Pineta) que sirvan de contraste con los anteriores. ABSTRACT The present Thesis establish a methodology in first approach with scientist and technical criteria to assess the protection of persons provided by the water and forest restoration before natural risks in the mountain watersheds. The research has been planned into three sections where it is analysed: 1) the protection provided by the forest cover itself, either it comes from natural regeneration or reforestation; 2) the protection provided by the works executed within the watersheds and in the drainage channels, which it is bound together with the reforestations of water and forest restorations, assessing both effects at a time; and 3) the protection provided by the synergy that arises along the consolidation of the reforestations and the woks executed in the watersheds as the water and forest restoration project considered. This is estimated according the degree of accomplishment of its specific objectives. The impact of the forest covers in the control of natural risks in the mountain has been assessed: a) having into account the experience in the research about the topic developed in the last decades in the alpine area, and b) analysing the dasocratic characteristics of the forest covers and identifying the more representative parameters that take part in the control of the main natural risks in the mountain (torrential rises, avalanches, landslides and rock falls). The protection supplied by the correction works has been assessed considering the watershed as the specific correction unit, as well as analysing their behaviour before the largest number of torrential events possible. Those were defined from the precipitation recorded in the meteorological stations placed within or the closest to the watershed with long historic data. Then the incidents presented in the watershed and the state of the works are verified. The grade of accomplishment of the main objectives has been specified with the evaluation of the synergies raised along the restoration project. It has to be taken into account that the project has its own dynamics and its results show in mid and long term during a period with events unexpected. In any case, the restoration of the mountain basins doesn't imply the disappearance of all risk, but a control of them and the reduction of their effects. Then, it is necessary maintenance of the reforestations and of the works executed to conserve the protection conditions originally designed. The methodology has been applied into five scenes in the Aragonese Pyrenees; three in which works and water and forest restorations were executed in the past (watershed of Arratiecho and Aras torrents, and the Arañones location), and other two without any intervention that make contrast (the right hill-slope of Canal Roya and the south hill-slope of the headwaters of Pineta valley).
Resumo:
La investigación se desarrolló en áreas de producción de la Empresa Azucarera Majibacoa de la provincia Las Tunas, para la evaluación de la efectividad de mezclas de herbicidas en el control de arvenses en plantaciones de caña de azúcar, variedad C 86-503, en caña planta de primavera, en aplicaciones pre-post-emergentes, en tres tipos de suelos: Fersialítico pardo rojizo, Pardo mullido y Vertisol crómico gléyco. En el área experimental se trazaron parcelas, según un diseño de bloques al azar con cuatro réplicas, la aplicación de las mezclas se realizó con asperjadora manual Super Agro-16 (MATABI), 20 días después de la plantación, cuando las yemas de las estacas de caña de azúcar habían brotado, con presencia de algunas arvenses. Se determinaron las especies de arvenses presentes en el área y las que aparecieron después de las aplicaciones, el porcentaje de cobertura de las mismas y la fitotoxicidad provocada por la mezcla de herbicidas, así como sus costos y la cantidad de días que se mantuvo limpio el campo. Se evaluaron seis mezclas: Ametrina + Diurón; Ametrina + 2,4-D y cuatro dosis Merlin + Ametrina + 2,4-D. Las mayores dosis de Merlin (Isoxaflutole): 0,150; 0,200 y 0,250 kg ha-1 resultaron las más efectivas en el control de arvenses, provocando una ligera fitotoxicidad en forma de pequeños puntos de color blanco en las hojas de la caña, los suelos más arcillosos (Vertisol y Pardo) requirieron las mayores dosis. Con estas dosis de Merlin se obtienen las mezclas más costosas; sin embargo, ellas mantuvieron un mayor período de tiempo limpio el campo de caña, lo que provocó que el costo por día limpio fuera menor
Resumo:
Hasta la fecha se han evaluado distintas técnicas de verificación y validación teórica y empíricamente. La mayoría de las evaluaciones empíricas se han llevado a cabo sin sujetos, abstrayendo el efecto del sujeto sobre la técnica a la hora de aplicarla. Hemos evaluado mediante un experimento con sujetos la efectividad de tres técnicas de verificación y validación de código: partición en clases de equivalencia, cobertura de decisión y lectura de código mediante abstracciones sucesivas, estudiando la capacidad de las técnicas para la detección de fallos en tres programas distintos. Hemos replicado el experimento ocho veces en cuatro entornos distintos. Los resultados arrojan diferencias entre las técnicas y señalan variables contextuales del proyecto software que deberían considerarse cuando se quiera elegir o aplicar una técnica de verificación y validación.
Resumo:
La crisis afecta a todos los sectores, es un terremoto en cadena que se inicio en el sector inmobiliario y se ha ido introduciendo en el resto. Todo esto ha dado lugar a una caída brusca de la demanda de los servicios relacionados con la construcción, con un posicionamiento en “espera” de los Promotores e Inversores, que aún tienen liquidez para invertir, buscando oportunidades que lógicamente se tienen que producir en un entorno escasamente fiable como el actual. Aquellos Inversores que vean oportunidades, se aseguraran de que los productos que van a realizar, tengan una demanda suficiente, sus costes estén en consonancia con el mercado, pero sin que aquello perjudique al resultado final, es decir manteniendo la calidad propuesta al inicio del proceso con los costes previstos, dando lugar a un control exhaustivo del producto a realizar, lo cual obligará a una gran profesionalidad por parte de los agentes implicados. Para todo esto habrá que contar con Empresas especializadas, que aporten garantías en este proceso y aseguren tanto al promotor como al Inversor en todo momento donde y en que se invierten sus recursos. La Dirección Integrada de Proyecto (“Project Management “) aplicada al proceso constructivo es una Técnica Metodológica que ayuda a organizar, controlar y gestionar los recursos de los promotores dentro del proceso edificatorio. Cuando los recursos están limitados (que normalmente es la mayoría de las situaciones) gestionarlos de una manera eficiente se convierte en algo muy importante. Bien, pues nos encontramos con que en esta situación actual, los recursos no solo están limitados, si no que son limitados, por lo que un control y un exhaustivo seguimiento de los mismos se convierte no solo en importante si no en fundamental.
Resumo:
El apartado <4.2 Altavoz> de la Norma Internacional UNE-EN ISO 140-5
Resumo:
Esta tesis está incluida dentro del campo del campo de Multiband Orthogonal Frequency Division Multiplexing Ultra Wideband (MB-OFDM UWB), el cual ha adquirido una gran importancia en las comunicaciones inalámbricas de alta tasa de datos en la última década. UWB surgió con el objetivo de satisfacer la creciente demanda de conexiones inalámbricas en interiores y de uso doméstico, con bajo coste y alta velocidad. La disponibilidad de un ancho de banda grande, el potencial para alta velocidad de transmisión, baja complejidad y bajo consumo de energía, unido al bajo coste de implementación, representa una oportunidad única para que UWB se convierta en una solución ampliamente utilizada en aplicaciones de Wireless Personal Area Network (WPAN). UWB está definido como cualquier transmisión que ocupa un ancho de banda de más de 20% de su frecuencia central, o más de 500 MHz. En 2002, la Comisión Federal de Comunicaciones (FCC) definió que el rango de frecuencias de transmisión de UWB legal es de 3.1 a 10.6 GHz, con una energía de transmisión de -41.3 dBm/Hz. Bajo las directrices de FCC, el uso de la tecnología UWB puede aportar una enorme capacidad en las comunicaciones de corto alcance. Considerando las ecuaciones de capacidad de Shannon, incrementar la capacidad del canal requiere un incremento lineal en el ancho de banda, mientras que un aumento similar de la capacidad de canal requiere un aumento exponencial en la energía de transmisión. En los últimos años, s diferentes desarrollos del UWB han sido extensamente estudiados en diferentes áreas, entre los cuales, el protocolo de comunicaciones inalámbricas MB-OFDM UWB está considerado como la mejor elección y ha sido adoptado como estándar ISO/IEC para los WPANs. Combinando la modulación OFDM y la transmisión de datos utilizando las técnicas de salto de frecuencia, el sistema MB-OFDM UWB es capaz de soportar tasas de datos con que pueden variar de los 55 a los 480 Mbps, alcanzando una distancia máxima de hasta 10 metros. Se esperara que la tecnología MB-OFDM tenga un consumo energético muy bajo copando un are muy reducida en silicio, proporcionando soluciones de bajo coste que satisfagan las demandas del mercado. Para cumplir con todas estas expectativas, el desarrollo y la investigación del MBOFDM UWB deben enfrentarse a varios retos, como son la sincronización de alta sensibilidad, las restricciones de baja complejidad, las estrictas limitaciones energéticas, la escalabilidad y la flexibilidad. Tales retos requieren un procesamiento digital de la señal de última generación, capaz de desarrollar sistemas que puedan aprovechar por completo las ventajas del espectro UWB y proporcionar futuras aplicaciones inalámbricas en interiores. Esta tesis se centra en la completa optimización de un sistema de transceptor de banda base MB-OFDM UWB digital, cuyo objetivo es investigar y diseñar un subsistema de comunicación inalámbrica para la aplicación de las Redes de Sensores Inalámbricas Visuales. La complejidad inherente de los procesadores FFT/IFFT y el sistema de sincronización así como la alta frecuencia de operación para todos los elementos de procesamiento, se convierten en el cuello de la botella para el diseño y la implementación del sistema de UWB digital en base de banda basado en MB-OFDM de baja energía. El objetivo del transceptor propuesto es conseguir baja energía y baja complejidad bajo la premisa de un alto rendimiento. Las optimizaciones están realizadas tanto a nivel algorítmico como a nivel arquitectural para todos los elementos del sistema. Una arquitectura hardware eficiente en consumo se propone en primer lugar para aquellos módulos correspondientes a núcleos de computación. Para el procesado de la Transformada Rápida de Fourier (FFT/IFFT), se propone un algoritmo mixed-radix, basado en una arquitectura con pipeline y se ha desarrollado un módulo de Decodificador de Viterbi (VD) equilibrado en coste-velocidad con el objetivo de reducir el consumo energético e incrementar la velocidad de procesamiento. También se ha implementado un correlador signo-bit simple basado en la sincronización del tiempo de símbolo es presentado. Este correlador es usado para detectar y sincronizar los paquetes de OFDM de forma robusta y precisa. Para el desarrollo de los subsitemas de procesamiento y realizar la integración del sistema completo se han empleado tecnologías de última generación. El dispositivo utilizado para el sistema propuesto es una FPGA Virtex 5 XC5VLX110T del fabricante Xilinx. La validación el propuesta para el sistema transceptor se ha implementado en dicha placa de FPGA. En este trabajo se presenta un algoritmo, y una arquitectura, diseñado con filosofía de co-diseño hardware/software para el desarrollo de sistemas de FPGA complejos. El objetivo principal de la estrategia propuesta es de encontrar una metodología eficiente para el diseño de un sistema de FPGA configurable optimizado con el empleo del mínimo esfuerzo posible en el sistema de procedimiento de verificación, por tanto acelerar el periodo de desarrollo del sistema. La metodología de co-diseño presentada tiene la ventaja de ser fácil de usar, contiene todos los pasos desde la propuesta del algoritmo hasta la verificación del hardware, y puede ser ampliamente extendida para casi todos los tipos de desarrollos de FPGAs. En este trabajo se ha desarrollado sólo el sistema de transceptor digital de banda base por lo que la comprobación de señales transmitidas a través del canal inalámbrico en los entornos reales de comunicación sigue requiriendo componentes RF y un front-end analógico. No obstante, utilizando la metodología de co-simulación hardware/software citada anteriormente, es posible comunicar el sistema de transmisor y el receptor digital utilizando los modelos de canales propuestos por IEEE 802.15.3a, implementados en MATLAB. Por tanto, simplemente ajustando las características de cada modelo de canal, por ejemplo, un incremento del retraso y de la frecuencia central, podemos estimar el comportamiento del sistema propuesto en diferentes escenarios y entornos. Las mayores contribuciones de esta tesis son: • Se ha propuesto un nuevo algoritmo 128-puntos base mixto FFT usando la arquitectura pipeline multi-ruta. Los complejos multiplicadores para cada etapa de procesamiento son diseñados usando la arquitectura modificada shiftadd. Los sistemas word length y twiddle word length son comparados y seleccionados basándose en la señal para cuantización del SQNR y el análisis de energías. • El desempeño del procesador IFFT es analizado bajo diferentes situaciones aritméticas de bloques de punto flotante (BFP) para el control de desbordamiento, por tanto, para encontrar la arquitectura perfecta del algoritmo IFFT basado en el procesador FFT propuesto. • Para el sistema de receptor MB-OFDM UWB se ha empleado una sincronización del tiempo innovadora, de baja complejidad y esquema de compensación, que consiste en funciones de Detector de Paquetes (PD) y Estimación del Offset del tiempo. Simplificando el cross-correlation y maximizar las funciones probables solo a sign-bit, la complejidad computacional se ve reducida significativamente. • Se ha propuesto un sistema de decodificadores Viterbi de 64 estados de decisión-débil usando velocidad base-4 de arquitectura suma-comparaselecciona. El algoritmo Two-pointer Even también es introducido en la unidad de rastreador de origen con el objetivo de conseguir la eficiencia en el hardware. • Se han integrado varias tecnologías de última generación en el completo sistema transceptor basebanda , con el objetivo de implementar un sistema de comunicación UWB altamente optimizado. • Un diseño de flujo mejorado es propuesto para el complejo sistema de implementación, el cual puede ser usado para diseños de Cadena de puertas de campo programable general (FPGA). El diseño mencionado no sólo reduce dramáticamente el tiempo para la verificación funcional, sino también provee un análisis automático como los errores del retraso del output para el sistema de hardware implementado. • Un ambiente de comunicación virtual es establecido para la validación del propuesto sistema de transceptores MB-OFDM. Este método es provisto para facilitar el uso y la conveniencia de analizar el sistema digital de basebanda sin parte frontera analógica bajo diferentes ambientes de comunicación. Esta tesis doctoral está organizada en seis capítulos. En el primer capítulo se encuentra una breve introducción al campo del UWB, tanto relacionado con el proyecto como la motivación del desarrollo del sistema de MB-OFDM. En el capítulo 2, se presenta la información general y los requisitos del protocolo de comunicación inalámbrica MBOFDM UWB. En el capítulo 3 se habla de la arquitectura del sistema de transceptor digital MB-OFDM de banda base . El diseño del algoritmo propuesto y la arquitectura para cada elemento del procesamiento está detallado en este capítulo. Los retos de diseño del sistema que involucra un compromiso de discusión entre la complejidad de diseño, el consumo de energía, el coste de hardware, el desempeño del sistema, y otros aspectos. En el capítulo 4, se ha descrito la co-diseñada metodología de hardware/software. Cada parte del flujo del diseño será detallado con algunos ejemplos que se ha hecho durante el desarrollo del sistema. Aprovechando esta estrategia de diseño, el procedimiento de comunicación virtual es llevado a cabo para probar y analizar la arquitectura del transceptor propuesto. Los resultados experimentales de la co-simulación y el informe sintético de la implementación del sistema FPGA son reflejados en el capítulo 5. Finalmente, en el capítulo 6 se incluye las conclusiones y los futuros proyectos, y también los resultados derivados de este proyecto de doctorado. ABSTRACT In recent years, the Wireless Visual Sensor Network (WVSN) has drawn great interest in wireless communication research area. They enable a wealth of new applications such as building security control, image sensing, and target localization. However, nowadays wireless communication protocols (ZigBee, Wi-Fi, and Bluetooth for example) cannot fully satisfy the demands of high data rate, low power consumption, short range, and high robustness requirements. New communication protocol is highly desired for such kind of applications. The Ultra Wideband (UWB) wireless communication protocol, which has increased in importance for high data rate wireless communication field, are emerging as an important topic for WVSN research. UWB has emerged as a technology that offers great promise to satisfy the growing demand for low-cost, high-speed digital wireless indoor and home networks. The large bandwidth available, the potential for high data rate transmission, and the potential for low complexity and low power consumption, along with low implementation cost, all present a unique opportunity for UWB to become a widely adopted radio solution for future Wireless Personal Area Network (WPAN) applications. UWB is defined as any transmission that occupies a bandwidth of more than 20% of its center frequency, or more than 500 MHz. In 2002, the Federal Communications Commission (FCC) has mandated that UWB radio transmission can legally operate in the range from 3.1 to 10.6 GHz at a transmitter power of -41.3 dBm/Hz. Under the FCC guidelines, the use of UWB technology can provide enormous capacity over short communication ranges. Considering Shannon’s capacity equations, increasing the channel capacity requires linear increasing in bandwidth, whereas similar channel capacity increases would require exponential increases in transmission power. In recent years, several different UWB developments has been widely studied in different area, among which, the MB-OFDM UWB wireless communication protocol is considered to be the leading choice and has recently been adopted in the ISO/IEC standard for WPANs. By combing the OFDM modulation and data transmission using frequency hopping techniques, the MB-OFDM UWB system is able to support various data rates, ranging from 55 to 480 Mbps, over distances up to 10 meters. The MB-OFDM technology is expected to consume very little power and silicon area, as well as provide low-cost solutions that can satisfy consumer market demands. To fulfill these expectations, MB-OFDM UWB research and development have to cope with several challenges, which consist of high-sensitivity synchronization, low- complexity constraints, strict power limitations, scalability, and flexibility. Such challenges require state-of-the-art digital signal processing expertise to develop systems that could fully take advantages of the UWB spectrum and support future indoor wireless applications. This thesis focuses on fully optimization for the MB-OFDM UWB digital baseband transceiver system, aiming at researching and designing a wireless communication subsystem for the Wireless Visual Sensor Networks (WVSNs) application. The inherent high complexity of the FFT/IFFT processor and synchronization system, and high operation frequency for all processing elements, becomes the bottleneck for low power MB-OFDM based UWB digital baseband system hardware design and implementation. The proposed transceiver system targets low power and low complexity under the premise of high performance. Optimizations are made at both algorithm and architecture level for each element of the transceiver system. The low-power hardwareefficient structures are firstly proposed for those core computation modules, i.e., the mixed-radix algorithm based pipelined architecture is proposed for the Fast Fourier Transform (FFT/IFFT) processor, and the cost-speed balanced Viterbi Decoder (VD) module is developed, in the aim of lowering the power consumption and increasing the processing speed. In addition, a low complexity sign-bit correlation based symbol timing synchronization scheme is presented so as to detect and synchronize the OFDM packets robustly and accurately. Moreover, several state-of-the-art technologies are used for developing other processing subsystems and an entire MB-OFDM digital baseband transceiver system is integrated. The target device for the proposed transceiver system is Xilinx Virtex 5 XC5VLX110T FPGA board. In order to validate the proposed transceiver system in the FPGA board, a unified algorithm-architecture-circuit hardware/software co-design environment for complex FPGA system development is presented in this work. The main objective of the proposed strategy is to find an efficient methodology for designing a configurable optimized FPGA system by using as few efforts as possible in system verification procedure, so as to speed up the system development period. The presented co-design methodology has the advantages of easy to use, covering all steps from algorithm proposal to hardware verification, and widely spread for almost all kinds of FPGA developments. Because only the digital baseband transceiver system is developed in this thesis, the validation of transmitting signals through wireless channel in real communication environments still requires the analog front-end and RF components. However, by using the aforementioned hardware/software co-simulation methodology, the transmitter and receiver digital baseband systems get the opportunity to communicate with each other through the channel models, which are proposed from the IEEE 802.15.3a research group, established in MATLAB. Thus, by simply adjust the characteristics of each channel model, e.g. mean excess delay and center frequency, we can estimate the transmission performance of the proposed transceiver system through different communication situations. The main contributions of this thesis are: • A novel mixed radix 128-point FFT algorithm by using multipath pipelined architecture is proposed. The complex multipliers for each processing stage are designed by using modified shift-add architectures. The system wordlength and twiddle word-length are compared and selected based on Signal to Quantization Noise Ratio (SQNR) and power analysis. • IFFT processor performance is analyzed under different Block Floating Point (BFP) arithmetic situations for overflow control, so as to find out the perfect architecture of IFFT algorithm based on the proposed FFT processor. • An innovative low complex timing synchronization and compensation scheme, which consists of Packet Detector (PD) and Timing Offset Estimation (TOE) functions, for MB-OFDM UWB receiver system is employed. By simplifying the cross-correlation and maximum likelihood functions to signbit only, the computational complexity is significantly reduced. • A 64 state soft-decision Viterbi Decoder system by using high speed radix-4 Add-Compare-Select architecture is proposed. Two-pointer Even algorithm is also introduced into the Trace Back unit in the aim of hardware-efficiency. • Several state-of-the-art technologies are integrated into the complete baseband transceiver system, in the aim of implementing a highly-optimized UWB communication system. • An improved design flow is proposed for complex system implementation which can be used for general Field-Programmable Gate Array (FPGA) designs. The design method not only dramatically reduces the time for functional verification, but also provides automatic analysis such as errors and output delays for the implemented hardware systems. • A virtual communication environment is established for validating the proposed MB-OFDM transceiver system. This methodology is proved to be easy for usage and convenient for analyzing the digital baseband system without analog frontend under different communication environments. This PhD thesis is organized in six chapters. In the chapter 1 a brief introduction to the UWB field, as well as the related work, is done, along with the motivation of MBOFDM system development. In the chapter 2, the general information and requirement of MB-OFDM UWB wireless communication protocol is presented. In the chapter 3, the architecture of the MB-OFDM digital baseband transceiver system is presented. The design of the proposed algorithm and architecture for each processing element is detailed in this chapter. Design challenges of such system involve trade-off discussions among design complexity, power consumption, hardware cost, system performance, and some other aspects. All these factors are analyzed and discussed. In the chapter 4, the hardware/software co-design methodology is proposed. Each step of this design flow will be detailed by taking some examples that we met during system development. Then, taking advantages of this design strategy, the Virtual Communication procedure is carried out so as to test and analyze the proposed transceiver architecture. Experimental results from the co-simulation and synthesis report of the implemented FPGA system are given in the chapter 5. The chapter 6 includes conclusions and future work, as well as the results derived from this PhD work.
Resumo:
El objetivo principal está recogido en el título de la Tesis. Ampliando éste para hacerlo más explícito, puede decirse que se trata de “desarrollar un sistema de control para que una instalación fotovoltaica de bombeo directo con una bomba centrífuga accionada por un motor de inducción trabaje de la forma más eficiente posible”. Para lograr ese propósito se establecieron los siguientes objetivos específicos: 1. Diseñar y construir un prototipo de instalación fotovoltaica de bombeo directo que utilice principalmente elementos de bajo coste y alta fiabilidad. Para cumplir esos requisitos la instalación consta de un generador fotovoltaico con módulos de silicio monocristalino, una bomba centrífuga accionada por un motor de inducción y un inversor que controla vectorialmente el motor. Los módulos de silicio monocristalino, el motor asíncrono y la bomba centrífuga son, en sus respectivas categorías, los elementos más robustos y fiables que existen, pudiendo ser adquiridos, instalados e incluso reparados (el motor y la bomba) por personas con una mínima formación técnica en casi cualquier lugar del mundo. El inversor no es tan fiable ni fácil de reparar. Ahora bien, para optimizar la potencia que entrega el generador y tener algún tipo de control sobre el motor se necesita al menos un convertidor electrónico. Por tanto, la inclusión del inversor en el sistema no reduce su fiabilidad ni supone un aumento del coste. La exigencia de que el inversor pueda realizar el control vectorial del motor responde a la necesidad de optimizar tanto la operación del conjunto motor-bomba como la del generador fotovoltaico. Como más adelante se indica, lograr esa optimización es otro de los objetivos que se plantea. 2. Reducir al mínimo el número de elementos de medida y control que necesita el sistema para su operación (sensorless control). Con ello se persigue aumentar la robustez y fiabilidad del sistema y reducir sus operaciones de mantenimiento, buscando que sea lo más económico posible. Para ello se deben evitar todas las medidas que pudieran ser redundantes, tomando datos sólo de las variables eléctricas que no pueden obtenerse de otra forma (tensión e intensidad en corriente continua y dos intensidades en corriente alterna) y estimando la velocidad del rotor (en vez de medirla con un encoder u otro dispositivo equivalente). 3. Estudiar posibles formas de mejorar el diseño y la eficiencia de estas instalaciones. Se trata de establecer criterios para seleccionar los dispositivos mas eficientes o con mejor respuesta, de buscar las condiciones para la operación óptima, de corregir problemas de desacoplo entre subsistemas, etc. Mediante el análisis de cada una de las partes de las que consta la instalación se plantearán estrategias para minimizar pérdidas, pautas que permitan identificar los elementos más óptimos y procedimientos de control para que la operación del sistema pueda alcanzar la mayor eficiente posible. 4. Implementar un modelo de simulación del sistema sobre el que ensayar las estrategias de control que sean susceptibles de llevar a la práctica. Para modelar el generador fotovoltaico se requiere un conjunto de parámetros que es necesario estimar previamente a partir de datos obtenidos de los catálogos de los módulos a utilizar o mediante ensayos. Igual sucede con los parámetros para modelar el motor. Como se pretende que el motor trabaje siempre con la máxima eficiencia será necesario realizar su control vectorial, por lo que el modelo que se implemente debe ser también vectorial. Ahora bien, en el modelo vectorial estándar que normalmente se utiliza en los esquemas de control se consideran nulas las pérdidas en el hierro, por lo que sólo se podrá utilizar ese modelo para evaluar la eficiencia del motor si previamente se modifica para que incluya el efecto de dichas pérdidas. 5. Desarrollar un procedimiento de control para que el inversor consiga que el motor trabaje con mínimas pérdidas y a la vez el generador entregue la máxima potencia. Tal como se ha mencionado en el primer objetivo, se trata de establecer un procedimiento de control que determine las señales de consigna más convenientes para que el inversor pueda imponer en cada momento al motor las corrientes de estator para las que sus pérdidas son mínimas. Al mismo tiempo el procedimiento de control debe ser capaz de variar las señales de consigna que recibe el inversor para que éste pueda hacer que el motor demande más o menos potencia al generador fotovoltaico. Actuando de esa forma se puede lograr que el generador fotovoltaico trabaje entregando la máxima potencia. El procedimiento de control desarrollado se implementará en un DSP encargado de generar las señales de referencia que el inversor debe imponer al motor para que trabaje con mínimas pérdidas y a la vez el generador fotovoltaico entregue la máxima potencia.
Resumo:
En este Trabajo Fin de Máster se ha realizado un estudio sobre un convertidor trifásico de doble puente activo con una red auxiliar, con objeto de conseguir ZVS. Como aportación, este trabajo diseña e implementa un control adaptativo para la red auxiliar ARCN, con el objetivo de disminuir las pérdidas a su valor mínimo.
Resumo:
La escasez del agua en las regiones áridas y semiáridas se debe a la escasez de precipitaciones y la distribución desigual en toda la temporada, lo que hace de la agricultura de secano una empresa precaria. Un enfoque para mejorar y estabilizar el agua disponible para la producción de cultivos en estas regiones es el uso de tecnologías de captación de agua de lluvia in situ y su conservación. La adopción de los sistemas de conservación de la humedad del suelo in situ, tales como la labranza de conservación, es una de las estrategias para mejorar la gestión de la agricultura en zonas áridas y semiáridas. El objetivo general de esta tesis ha sido desarrollar una metodología de aplicación de labranza de depósito e investigar los efectos a corto plazo sobre las propiedades físicas del suelo de las diferentes prácticas de cultivo que incluyen labranza de depósito: (reservoir tillage, RT), la laboreo mínimo: (minimum tillage, MT), la no laboreo: (zero tillage, ZT) y laboreo convencional: (conventional tillage, CT) Así como, la retención de agua del suelo y el control de la erosión del suelo en las zonas áridas y semiáridas. Como una primera aproximación, se ha realizado una revisión profunda del estado de la técnica, después de la cual, se encontró que la labranza de depósito es un sistema eficaz de cosecha del agua de lluvia y conservación del suelo, pero que no ha sido evaluada científicamente tanto como otros sistemas de labranza. Los trabajos experimentales cubrieron tres condiciones diferentes: experimentos en laboratorio, experimentos de campo en una región árida, y experimentos de campo en una región semiárida. Para investigar y cuantificar el almacenamiento de agua a temperatura ambiente y la forma en que podría adaptarse para mejorar la infiltración del agua de lluvia recolectada y reducir la erosión del suelo, se ha desarrollado un simulador de lluvia a escala de laboratorio. Las características de las lluvias, entre ellas la intensidad de las precipitaciones, la uniformidad espacial y tamaño de la gota de lluvia, confirmaron que las condiciones naturales de precipitación son simuladas con suficiente precisión. El simulador fue controlado automáticamente mediante una válvula de solenoide y tres boquillas de presión que se usaron para rociar agua correspondiente a diferentes intensidades de lluvia. Con el fin de evaluar el método de RT bajo diferentes pendientes de superficie, se utilizaron diferentes dispositivos de pala de suelo para sacar un volumen idéntico para hacer depresiones. Estas depresiones se compararon con una superficie de suelo control sin depresión, y los resultados mostraron que la RT fue capaz de reducir la erosión del suelo y la escorrentía superficial y aumentar significativamente la infiltración. Luego, basándonos en estos resultados, y después de identificar la forma adecuada de las depresiones, se ha diseñado una herramienta combinada (sistema integrado de labranza de depósito (RT)) compuesto por un arado de una sola línea de chisel, una sola línea de grada en diente de pico, sembradora modificada, y rodillo de púas. El equipo fue construido y se utiliza para comparación con MT y CT en un ambiente árido en Egipto. El estudio se realizó para evaluar el impacto de diferentes prácticas de labranza y sus parámetros de funcionamiento a diferentes profundidades de labranza y con distintas velocidades de avance sobre las propiedades físicas del suelo, así como, la pérdida de suelo, régimen de humedad, la eficiencia de recolección de agua, y la productividad de trigo de invierno. Los resultados indicaron que la RT aumentó drásticamente la infiltración, produciendo una tasa que era 47.51% más alta que MT y 64.56% mayor que la CT. Además, los resultados mostraron que los valores más bajos de la escorrentía y pérdidas de suelos 4.91 mm y 0.65 t ha-1, respectivamente, se registraron en la RT, mientras que los valores más altos, 11.36 mm y 1.66 t ha-1, respectivamente, se produjeron en el marco del CT. Además, otros dos experimentos de campo se llevaron a cabo en ambiente semiárido en Madrid con la cebada y el maíz como los principales cultivos. También ha sido estudiado el potencial de la tecnología inalámbrica de sensores para monitorizar el potencial de agua del suelo. Para el experimento en el que se cultivaba la cebada en secano, se realizaron dos prácticas de labranza (RT y MT). Los resultados mostraron que el potencial del agua del suelo aumentó de forma constante y fue consistentemente mayor en MT. Además, con independencia de todo el período de observación, RT redujo el potencial hídrico del suelo en un 43.6, 5.7 y 82.3% respectivamente en comparación con el MT a profundidades de suelo (10, 20 y 30 cm, respectivamente). También se observaron diferencias claras en los componentes del rendimiento de los cultivos y de rendimiento entre los dos sistemas de labranza, el rendimiento de grano (hasta 14%) y la producción de biomasa (hasta 8.8%) se incrementaron en RT. En el experimento donde se cultivó el maíz en regadío, se realizaron cuatro prácticas de labranza (RT, MT, ZT y CT). Los resultados revelaron que ZT y RT tenían el potencial de agua y temperatura del suelo más bajas. En comparación con el tratamiento con CT, ZT y RT disminuyó el potencial hídrico del suelo en un 72 y 23%, respectivamente, a la profundidad del suelo de 40 cm, y provocó la disminución de la temperatura del suelo en 1.1 y un 0.8 0C respectivamente, en la profundidad del suelo de 5 cm y, por otro lado, el ZT tenía la densidad aparente del suelo y resistencia a la penetración más altas, la cual retrasó el crecimiento del maíz y disminuyó el rendimiento de grano que fue del 15.4% menor que el tratamiento con CT. RT aumenta el rendimiento de grano de maíz cerca de 12.8% en comparación con la ZT. Por otra parte, no hubo diferencias significativas entre (RT, MT y CT) sobre el rendimiento del maíz. En resumen, según los resultados de estos experimentos, se puede decir que mediante el uso de la labranza de depósito, consistente en realizar depresiones después de la siembra, las superficies internas de estas depresiones se consolidan de tal manera que el agua se mantiene para filtrarse en el suelo y por lo tanto dan tiempo para aportar humedad a la zona de enraizamiento de las plantas durante un período prolongado de tiempo. La labranza del depósito podría ser utilizada como un método alternativo en regiones áridas y semiáridas dado que retiene la humedad in situ, a través de estructuras que reducen la escorrentía y por lo tanto puede resultar en la mejora de rendimiento de los cultivos. ABSTRACT Water shortage in arid and semi-arid regions stems from low rainfall and uneven distribution throughout the season, which makes rainfed agriculture a precarious enterprise. One approach to enhance and stabilize the water available for crop production in these regions is to use in-situ rainwater harvesting and conservation technologies. Adoption of in-situ soil moisture conservation systems, such as conservation tillage, is one of the strategies for upgrading agriculture management in arid and semi-arid environments. The general aim of this thesis is to develop a methodology to apply reservoir tillage to investigate the short-term effects of different tillage practices including reservoir tillage (RT), minimum tillage (MT), zero tillage (ZT), and conventional tillage (CT) on soil physical properties, as well as, soil water retention, and soil erosion control in arid and semi-arid areas. As a first approach, a review of the state of the art has been done. We found that reservoir tillage is an effective system of harvesting rainwater and conserving soil, but it has not been scientifically evaluated like other tillage systems. Experimental works covered three different conditions: laboratory experiments, field experiments in an arid region, and field experiments in a semi-arid region. To investigate and quantify water storage from RT and how it could be adapted to improve infiltration of harvested rainwater and reduce soil erosion, a laboratory-scale rainfall simulator was developed. Rainfall characteristics, including rainfall intensity, spatial uniformity and raindrop size, confirm that natural rainfall conditions are simulated with sufficient accuracy. The simulator was auto-controlled by a solenoid valve and three pressure nozzles were used to spray water corresponding to different rainfall intensities. In order to assess the RT method under different surface slopes, different soil scooping devices with identical volume were used to create depressions. The performance of the soil with these depressions was compared to a control soil surface (with no depression). Results show that RT was able to reduce soil erosion and surface runoff and significantly increase infiltration. Then, based on these results and after selecting the proper shape of depressions, a combination implement integrated reservoir tillage system (integrated RT) comprised of a single-row chisel plow, single-row spike tooth harrow, modified seeder, and spiked roller was developed and used to compared to MT and CT in an arid environment in Egypt. The field experiments were conducted to evaluate the impact of different tillage practices and their operating parameters at different tillage depths and different forward speeds on the soil physical properties, as well as on runoff, soil losses, moisture regime, water harvesting efficiency, and winter wheat productivity. Results indicated that the integrated RT drastically increased infiltration, producing a rate that was 47.51% higher than MT and 64.56% higher than CT. In addition, results showed that the lowest values of runoff and soil losses, 4.91 mm and 0.65 t ha-1 respectively, were recorded under the integrated RT, while the highest values, 11.36 mm and 1.66 t ha -1 respectively, occurred under the CT. In addition, two field experiments were carried out in semi-arid environment in Madrid with barley and maize as the main crops. For the rainfed barley experiment, two tillage practices (RT, and MT) were performed. Results showed that soil water potential increased quite steadily and were consistently greater in MT and, irrespective of the entire observation period, RT decreased soil water potential by 43.6, 5.7, and 82.3% compared to MT at soil depths (10, 20, and 30 cm, respectively). In addition, clear differences in crop yield and yield components were observed between the two tillage systems, grain yield (up to 14%) and biomass yield (up to 8.8%) were increased by RT. For the irrigated maize experiment, four tillage practices (RT, MT, ZT, and CT) were performed. Results showed that ZT and RT had the lowest soil water potential and soil temperature. Compared to CT treatment, ZT and RT decreased soil water potential by 72 and 23% respectively, at soil depth of 40 cm, and decreased soil temperature by 1.1 and 0.8 0C respectively, at soil depth of 5 cm. Also, ZT had the highest soil bulk density and penetration resistance, which delayed the maize growth and decreased the grain yield that was 15.4% lower than CT treatment. RT increased maize grain yield about 12.8% compared to ZT. On the other hand, no significant differences among (RT, MT, and CT) on maize yield were found. In summary, according to the results from these experiments using reservoir tillage to make depressions after seeding, these depression’s internal surfaces are consolidated in such a way that the water is held to percolate into the soil and thus allowing time to offer moisture to the plant rooting zone over an extended period of time. Reservoir tillage could be used as an alternative method in arid and semi-arid regions and it retains moisture in-situ, through structures that reduce runoff and thus can result in improved crop yields.
Resumo:
La gestión del tráfico aéreo (Air Traffic Management, ATM) está experimentando un cambio de paradigma hacia las denominadas operaciones basadas trayectoria. Bajo dicho paradigma se modifica el papel de los controladores de tráfico aéreo desde una operativa basada su intervención táctica continuada hacia una labor de supervisión a más largo plazo. Esto se apoya en la creciente confianza en las soluciones aportadas por las herramientas automatizadas de soporte a la decisión más modernas. Para dar soporte a este concepto, se precisa una importante inversión para el desarrollo, junto con la adquisición de nuevos equipos en tierra y embarcados, que permitan la sincronización precisa de la visión de la trayectoria, basada en el intercambio de información entre ambos actores. Durante los últimos 30 a 40 años las aerolíneas han generado uno de los menores retornos de la inversión de entre todas las industrias. Sin beneficios tangibles, la industria aérea tiene dificultades para atraer el capital requerido para su modernización, lo que retrasa la implantación de dichas mejoras. Esta tesis tiene como objetivo responder a la pregunta de si las capacidades actualmente instaladas en las aeronaves comerciales se pueden aplicar para lograr la sincronización de la trayectoria con el nivel de calidad requerido. Además, se analiza en ella si, conjuntamente con mejoras en las herramientas de predicción trayectorias instaladas en tierra en para facilitar la gestión de las arribadas, dichas capacidades permiten obtener los beneficios esperados en el marco de las operaciones basadas en trayectoria. Esto podría proporcionar un incentivo para futuras actualizaciones de la aviónica que podrían llevar a mejoras adicionales. El concepto operacional propuesto en esta tesis tiene como objetivo permitir que los aviones sean pilotados de una manera consistente con las técnicas actuales de vuelo optimizado. Se permite a las aeronaves que desciendan en el denominado “modo de ángulo de descenso gestionado” (path-managed mode), que es el preferido por la mayoría de las compañías aéreas, debido a que conlleva un reducido consumo de combustible. El problema de este modo es que en él no se controla de forma activa el tiempo de llegada al punto de interés. En nuestro concepto operacional, la incertidumbre temporal se gestiona en mediante de la medición del tiempo en puntos estratégicamente escogidos a lo largo de la trayectoria de la aeronave, y permitiendo la modificación por el control de tierra de la velocidad de la aeronave. Aunque la base del concepto es la gestión de las ordenes de velocidad que se proporcionan al piloto, para ser capaces de operar con los niveles de equipamiento típicos actualmente, dicho concepto también constituye un marco en el que la aviónica más avanzada (por ejemplo, que permita el control por el FMS del tiempo de llegada) puede integrarse de forma natural, una vez que esta tecnología este instalada. Además de gestionar la incertidumbre temporal a través de la medición en múltiples puntos, se intenta reducir dicha incertidumbre al mínimo mediante la mejora de las herramienta de predicción de la trayectoria en tierra. En esta tesis se presenta una novedosa descomposición del proceso de predicción de trayectorias en dos etapas. Dicha descomposición permite integrar adecuadamente los datos de la trayectoria de referencia calculada por el Flight Management System (FMS), disponibles usando Futuro Sistema de Navegación Aérea (FANS), en el sistema de predicción de trayectorias en tierra. FANS es un equipo presente en los aviones comerciales de fuselaje ancho actualmente en la producción, e incluso algunos aviones de fuselaje estrecho pueden tener instalada avionica FANS. Además de informar automáticamente de la posición de la aeronave, FANS permite proporcionar (parte de) la trayectoria de referencia en poder de los FMS, pero la explotación de esta capacidad para la mejora de la predicción de trayectorias no se ha estudiado en profundidad en el pasado. La predicción en dos etapas proporciona una solución adecuada al problema de sincronización de trayectorias aire-tierra dado que permite la sincronización de las dimensiones controladas por el sistema de guiado utilizando la información de la trayectoria de referencia proporcionada mediante FANS, y también facilita la mejora en la predicción de las dimensiones abiertas restantes usado un modelo del guiado que explota los modelos meteorológicos mejorados disponibles en tierra. Este proceso de predicción de la trayectoria de dos etapas se aplicó a una muestra de 438 vuelos reales que realizaron un descenso continuo (sin intervención del controlador) con destino Melbourne. Dichos vuelos son de aeronaves del modelo Boeing 737-800, si bien la metodología descrita es extrapolable a otros tipos de aeronave. El método propuesto de predicción de trayectorias permite una mejora en la desviación estándar del error de la estimación del tiempo de llegada al punto de interés, que es un 30% menor que la que obtiene el FMS. Dicha trayectoria prevista mejorada se puede utilizar para establecer la secuencia de arribadas y para la asignación de las franjas horarias para cada aterrizaje (slots). Sobre la base del slot asignado, se determina un perfil de velocidades que permita cumplir con dicho slot con un impacto mínimo en la eficiencia del vuelo. En la tesis se propone un nuevo algoritmo que determina las velocidades requeridas sin necesidad de un proceso iterativo de búsqueda sobre el sistema de predicción de trayectorias. El algoritmo se basa en una parametrización inteligente del proceso de predicción de la trayectoria, que permite relacionar el tiempo estimado de llegada con una función polinómica. Resolviendo dicho polinomio para el tiempo de llegada deseado, se obtiene de forma natural el perfil de velocidades optimo para cumplir con dicho tiempo de llegada sin comprometer la eficiencia. El diseño de los sistemas de gestión de arribadas propuesto en esta tesis aprovecha la aviónica y los sistemas de comunicación instalados de un modo mucho más eficiente, proporcionando valor añadido para la industria. Por tanto, la solución es compatible con la transición hacia los sistemas de aviónica avanzados que están desarrollándose actualmente. Los beneficios que se obtengan a lo largo de dicha transición son un incentivo para inversiones subsiguientes en la aviónica y en los sistemas de control de tráfico en tierra. ABSTRACT Air traffic management (ATM) is undergoing a paradigm shift towards trajectory based operations where the role of an air traffic controller evolves from that of continuous intervention towards supervision, as decision making is improved based on increased confidence in the solutions provided by advanced automation. To support this concept, significant investment for the development and acquisition of new equipment is required on the ground as well as in the air, to facilitate the high degree of trajectory synchronisation and information exchange required. Over the past 30-40 years the airline industry has generated one of the lowest returns on invested capital among all industries. Without tangible benefits realised, the airline industry may find it difficult to attract the required investment capital and delay acquiring equipment needed to realise the concept of trajectory based operations. In response to these challenges facing the modernisation of ATM, this thesis aims to answer the question whether existing aircraft capabilities can be applied to achieve sufficient trajectory synchronisation and improvements to ground-based trajectory prediction in support of the arrival management process, to realise some of the benefits envisioned under trajectory based operations, and to provide an incentive for further avionics upgrades. The proposed operational concept aims to permit aircraft to operate in a manner consistent with current optimal aircraft operating techniques. It allows aircraft to descend in the fuel efficient path managed mode as preferred by a majority of airlines, with arrival time not actively controlled by the airborne automation. The temporal uncertainty is managed through metering at strategically chosen points along the aircraft’s trajectory with primary use of speed advisories. While the focus is on speed advisories to support all aircraft and different levels of equipage, the concept also constitutes a framework in which advanced avionics as airborne time-of-arrival control can be integrated once this technology is widely available. In addition to managing temporal uncertainty through metering at multiple points, this temporal uncertainty is minimised by improving the supporting trajectory prediction capability. A novel two-stage trajectory prediction process is presented to adequately integrate aircraft trajectory data available through Future Air Navigation Systems (FANS) into the ground-based trajectory predictor. FANS is standard equipment on any wide-body aircraft in production today, and some single-aisle aircraft are easily capable of being fitted with FANS. In addition to automatic position reporting, FANS provides the ability to provide (part of) the reference trajectory held by the aircraft’s Flight Management System (FMS), but this capability has yet been widely overlooked. The two-stage process provides a ‘best of both world’s’ solution to the air-ground synchronisation problem by synchronising with the FMS reference trajectory those dimensions controlled by the guidance mode, and improving on the prediction of the remaining open dimensions by exploiting the high resolution meteorological forecast available to a ground-based system. The two-stage trajectory prediction process was applied to a sample of 438 FANS-equipped Boeing 737-800 flights into Melbourne conducting a continuous descent free from ATC intervention, and can be extrapolated to other types of aircraft. Trajectories predicted through the two-stage approach provided estimated time of arrivals with a 30% reduction in standard deviation of the error compared to estimated time of arrival calculated by the FMS. This improved predicted trajectory can subsequently be used to set the sequence and allocate landing slots. Based on the allocated landing slot, the proposed system calculates a speed schedule for the aircraft to meet this landing slot at minimal flight efficiency impact. A novel algorithm is presented that determines this speed schedule without requiring an iterative process in which multiple calls to a trajectory predictor need to be made. The algorithm is based on parameterisation of the trajectory prediction process, allowing the estimate time of arrival to be represented by a polynomial function of the speed schedule, providing an analytical solution to the speed schedule required to meet a set arrival time. The arrival management solution proposed in this thesis leverages the use of existing avionics and communications systems resulting in new value for industry for current investment. The solution therefore supports a transition concept from mixed equipage towards advanced avionics currently under development. Benefits realised under this transition may provide an incentive for ongoing investment in avionics.
Resumo:
Desde la aparición de Internet, hace ya más de 20 años ha existido por parte de diversos sectores de la sociedad, científicos, empresas, usuarios, etc. la inquietud por la aplicación de esta tecnología a lo que se ha dado en llamar “El Internet de las Cosas”, que no es más que el control a distancia de cualquier elemento útil o necesario para la vida cotidiana y la industria. Sin embargo el desarrollo masivo de aplicaciones orientadas a esto, no ha evolucionado hasta que no se han producido avances importantes en dos campos: por un lado, en las Redes Inalámbricas de Sensores (WSN), redes compuestas por un conjunto de pequeños dispositivos capaces de transmitir la información que recogen, haciéndola llegar desde su propia red inalámbrica, a otras de amplia cobertura y por otro con la miniaturización cada vez mayor de dispositivos capaces de tener una autonomía suficiente como para procesar datos e interconectarse entre sí. Al igual que en las redes de ordenadores convencionales, las WSN se pueden ver comprometidas en lo que a seguridad se refiere, ya que la masiva implementación de estas redes hará que millones de Terabytes de datos, muchas veces comprometidos o sometidos a estrictas Leyes de protección de los mismos, circulen en la sociedad de la información, de forma que lo que nace como una ventaja muy interesante para sus usuarios, puede convertirse en una pesadilla debido a la amenaza constante hacia los servicios mínimos de seguridad que las compañías desarrolladoras han de garantizar a los usuarios de sus aplicaciones. Éstas, y con el objetivo de proveer un ámbito de seguridad mínimo, deben de realizar un minucioso estudio de la aplicación en particular que se quiere ofrecer con una WSN y también de las características específicas de la red ya que, al estar formadas por dispositivos prácticamente diminutos, pueden tener ciertas limitaciones en cuanto al tamaño de la batería, capacidad de procesamiento, memoria, etc. El presente proyecto desarrolla una aplicación, única, ya que en la actualidad no existe un software con similares características y que aporta un avance importante en dos campos principalmente: por un lado ayudará a los usuarios que deseen desplegar una aplicación en una red WSN a determinar de forma automática cuales son los mecanismos y servicios específicos de seguridad que se han de implementar en dicha red para esa aplicación concreta y, por otro lado proporcionará un apoyo extra a expertos de seguridad que estén investigando en la materia ya que, servirá de plataforma de pruebas para centralizar la información sobre seguridad que se tengan en ese momento en una base de conocimientos única, proporcionando también un método útil de prueba para posibles escenarios virtuales. ABSTRACT. It has been more than 20 years since the Internet appeared and with it, scientists, companies, users, etc. have been wanted to apply this technology to their environment which means to control remotely devices, which are useful for the industry or aspects of the daily life. However, the huge development of these applications oriented to that use, has not evolve till some important researches has been occurred in two fields: on one hand, the field of the Wireless Sensor Networks (WSN) which are networks composed of little devices that are able to transmit the information that they gather making it to pass through from their wireless network to other wider networks and on the other hand with the increase of the miniaturization of the devices which are able to work in autonomous mode so that to process data and connect to each other. WSN could be compromised in the matter of security as well as the conventional computer networks, due to the massive implementation of this kind of networks will cause that millions of Terabytes of data will be going around in the information society, thus what it is thought at first as an interesting advantage for people, could turn to be a nightmare because of the continuous threat to the minimal security services that developing companies must guarantee their applications users. These companies, and with the aim to provide a minimal security realm, they have to do a strict research about the application that they want to implement in one WSN and the specific characteristics of the network as they are made by tiny devices so that they could have certain limitations related to the battery, throughput, memory, etc. This project develops a unique application since, nowadays, there is not any software with similar characteristics and it will be really helpful in mainly two areas: on one side, it will help users who want to deploy an application in one WSN to determine in an automatically way, which ones security services and mechanisms are those which is necessary to implement in that network for the concrete application and, on the other side, it will provide an extra help for the security experts who are researching in wireless sensor network security so that ti will an exceptional platform in order to centralize information about security in the Wireless Sensor Networks in an exclusive knowledge base, providing at the same time a useful method to test virtual scenarios.
Resumo:
En la actualidad, muchas son las iniciativas propuestas para mejorar la seguridad en el sector del transporte mediante el uso de Tecnologías de la Información. De manera particular, gracias al empleo de técnicas robustas basadas en Visión Artificial, es posible analizar de manera automática cualquier área de una infraestructura de transporte bajo videovigilancia que por su configuración requiera de mayor atención en las tareas de supervisión de los operadores en centros de control. Con esta motivación, dentro del proyecto HNPS (Redes Heterogéneas para la Seguridad Pública Europea) se ha desarrollado un sistema de vídeo analítico que permite identificar de manera individual cada persona que aparece en escena, registrar su trayectoria, así como llevar a cabo una clasificación de la misma en función de si porta o no determinados tipos de objetos. Además, para poder asociar un significado global al conjunto de eventos observados y definir la actividad llevada a cabo, se ha introducido una etapa más de procesamiento para detectar automáticamente eventos dinámicos en secuencias de vídeo, permitiendo al sistema comprender lo que está ocurriendo en la escena y lanzar una alarma si se detecta un comportamiento anómalo (acumulación de personas, riesgos de atraco o abandonos de objetos en zonas vulnerables). Igualmente interesante resulta la obtención de resultados en tiempo real, procesando directamente el flujo de vídeo de la cámara IP que da cobertura al área bajo videovigilancia. Además de la arquitectura del sistema y la funcionalidad completa ofrecida por el sistema, se demostrará la efectividad del mismo en la detección de los diferentes comportamientos definidos. Un entorno ideal para la experimentación de estos sistemas son los intercambiadores de Transporte que el Consorcio Regional de Transportes de Madrid ha puesto en servicio en estos últimos años. Así, respetando en todo momento la privacidad de los actores que son captados por las cámaras, resultados experimentales del sistema desarrollado sobre secuencias simuladas en el Intercambiador de Moncloa, demuestran la eficacia del sistema propuesto, permitiendo que la movilidad de los usuarios sea cada día más segura.
Resumo:
El objetivo de este documento es la descripción de una simulación de sistemas de vigilancia para la evaluación de herramientas de control de tráfico aéreo. Se pretende mostrar el desarrollo de un sistema radar en Modo S mediante una simulación por eventos discretos. Para ello, se ha desarrollado un software en lenguaje Java que incluye la simulación de trayectorias de aeronaves, métodos de obtención de posiciones, cambios entre los distintos sistemas de coordenadas, la simulación del barrido mecánico de un radar Modo S, así como modelos de cobertura y detección de aeronaves, creación de mensajes proporcionados mediante el enlace de datos Modo S (Downliked Airborne Parameters, DAP) que contienen información relevante para el control de tráfico aéreo, como pueden ser datos de velocidad o altura. Dentro del simulador del radar también se incluyen rutinas para la visualización en Matlab de los resultados obtenidos, lo que permite verificar las detecciones y ubicaciones de las aeronaves.
Resumo:
El objetivo fundamental del proyecto es el replanteo de la obra en las fases de implantación o encaje, cimentación, estructura (de hormigón y metálica), albañilería y urbanización. También se abordan ciertos trabajos de auscultación y control. Para ello se realizan una serie de trabajos topográficos en cada una de las fases de la obra, que serán detallados y explicados en esta memoria.
Resumo:
Siguiendo la orientación seguida por la industria aeronáutica de los Estados Unidos en las últimas décadas muchas industrias paralelas han venido a considerar la Operación y Mantenimiento (O&M) como uno de los aspectos más relevantes a la hora de conseguir alcanzar sus objetivos organizativos. La política a seguir en la fase mantenimiento se reconoce como algo fundamental para conseguir los niveles de eficacia operativa precisos, en particular la disponibilidad. La importancia que toman los costes acumulativos incurridos en el periodo de O&M en el total de los acumulados en el ciclo de vida es un hecho cada vez más reconocido. Este concepto ha sido muy analizado y comentado, y comienzan a surgir y a estar en vigor numerosas regulaciones sobre el tema. El coste del ciclo de vida (LCC) se usa cada vez más como uno de los criterios principales a la hora de diseñar o comprar, y así se requiere a los suministradores que aporten soluciones garantizando un bajo coste a lo largo del ciclo vital y que, a la par, mantengan los niveles de servicio requeridos, por unos atributos medibles como son la disponibilidad o la puntualidad. Esta dualidad supone un verdadero reto para los diseñadores cuando afrontan nuevos desarrollos: diseñar para lograr un elevado nivel de servicio a la par que manteniendo un coste bajo en la totalidad del ciclo de vida del nuevo diseño. Hoy en día es indispensable proceder al diseño de los productos y soluciones de forma que sean confiables, fáciles de parametrizar, de configurar y operar, y que además posean las mejores prestaciones para minimizar los esfuerzos para su mantenimiento, renovaciones y eliminación al fin de su vida útil. La política de mantenimiento, tal como se indica anteriormente, ya no es por tanto la preocupación del último momento, sino algo que se debe definir conjuntamente con el diseño, con la perspectiva integrada del soporte logístico preciso. En numerosas industrias las decisiones que se toman sobre el diseño influencian sobremanera los costes futuros del mantenimiento y, particularmente en estos casos, el análisis integral del coste del ciclo de vida se revela como una poderosa herramienta que habilita la toma de las decisiones críticas. Por desgracia el estado del arte de los análisis LCC en el campo ferroviario es casi nulo en comparación con la industria aeronáutica de defensa, o incluso con la tecnología aplicada a la construcción de carreteras. Un enfoque profesional sobre la optimización de los costes y la disponibilidad del sistema ferroviario global es algo inexistente hoy día. Un análisis sistemático de los costes e impactos sobre la disponibilidad a largo plazo es excepcional en las fases de diseño, incluso para los más sencillos componentes de señalización. Más aún, en el mercado de señalización ferroviaria el mantenimiento es el gran paradigma. Las líneas deben mantenerse en servicio comercial bajo cualquier circunstancia, llevando al mínimo cualquier perturbación y por supuesto preservando la seguridad que la sociedad demanda a los sistemas de transporte públicos de masas. Es por ello que la tendencia cada vez mayor es la de comparar, en el momento de la toma de decisión sobre la inversión, las distintas alternativas posibles para elegir la que garantice el menor coste esperable a lo largo del ciclo de vida exigible. El sector ferroviario, como industria que requiere elevadas inversiones de capital en soluciones de larga permanencia, requiere un enfoque que considere el coste del ciclo de vida. Para la infraestructura ferroviaria y la propia vía el ciclo de vida considerado tradicionalmente para la inversión inicial incluyendo el mantenimiento y algunas renovaciones parciales es de 75 a 100 años, para el material rodante son 30 a 35 años con una renovación significativa hacia la mitad del periodo y para los sistemas de señalización se suelen adoptar entre 25 y 30 años. Dados estos elevados plazos el coste debe ser evaluado para cada uno de los elementos constitutivos, considerando no solo los costes de adquisición, sino también a los que conducen las distintas alternativas de diseño y estrategias de mantenimiento, de forma que se minimicen los costes totales acumulados a lo largo del plazo vital sin perder de vista preservar la función deseada, la explotación comercial segura. Concebir las líneas y su mantenimiento bajo el prisma del concepto del coste del ciclo de vida LCC está revelándose como algo imperativo ya que garantiza que las decisiones sobre inversiones/explotación/mantenimiento sean las más efectivas en términos de coste para la sociedad. Pero por desgracia es muy raro encontrar en el sector ferroviario análisis LCC debidamente documentados. Todos los tecnólogos prefieren aportar argumentos de ventas, bonitas transparencias y folletos, entre ellos algunos detalles de LCC o reflexiones dialécticas al respecto, más que permitir obtener clara y francamente sus costes de adquisición de productos incluyendo los de ingeniería e instalación. Igual o similar opacidad hay al respecto de los costes de su mantenimiento (considerando los repuestos y las expectativas de evolución o roadmap del producto). A pesar de reconocerse el hecho de que las decisiones relativas al diseño y a las estrategias de mantenimiento deben apoyarse en análisis sobre los costes y la efectividad asociada debidamente evaluada, en la mayor parte de las veces la carencia de datos imposibilita la realización de estos estudios y se toman las decisiones por proximidad a otros casos similares o guiados por el consejo de una parte sesgada del mercado. Esta tesis demuestra, partiendo de la aplicación de la parte 3.3 de la norma internacional UNE-EN 60300:2004 “Cálculo del Coste del Ciclo de Vida”, que el sistema de señalización que se debe considerar a la hora de definir una nueva línea de Metro típica ha de ser la tecnología de control de tren basada en las telecomunicaciones (CBTC) aplicada en su modo de operación sin conductor (UTO), puesto que su coste de ciclo de vida (LCC) resulta ser sensiblemente inferior al del sistema tradicional de protección y operación automática de tren (ATP/ATO) más avanzado que puede ser usado como alternativa tecnológica, el distancia objetivo. El trabajo es netamente innovador, pues en el estado del arte documental sobre la materia, que se ha analizado en gran profundidad, tal y como demuestra la bibliografía reseñada, no consta ningún análisis de selección de alternativas de características similares hasta la fecha. Aunque se habla de manera extensiva en los foros y revistas ferroviarias sobre el tema de la rentabilidad que se obtiene por la selección del sistema CBTC como sistema de protección de tren sin embargo éste es un aspecto que nadie ha demostrado de manera analítica hasta el trabajo presente. La Tesis en sí misma es un trabajo original, pues contiene a lo largo de toda ella y en sus anejos, una descripción completa, y adecuadamente comprensible por todo tipo de lector, sobre el estado del arte de los sistemas de automatización ferroviaria. No existe actualmente en lengua castellana, inglesa, francesa o alemana un trabajo de alcance similar. La Tesis se estructura debidamente, proporcionando un hilo documental que permite incluso a los lectores profanos adquirir los conocimientos precisos para poder valorar de manera adecuada el análisis de alternativas que se plantea y su resultado, que resulta coincidente con la hipótesis formulada al inicio de la redacción de la Tesis. Se indican como colofón otras posibles futuras líneas de investigación que se han identificado. Los anejos a la Tesis la complementan con información adicional procesada durante su redacción: • Las tablas de los cálculos del modelo de costes de cada alternativa tecnológica analizada • La visión general del universo de los sistemas de conducción automática de metros globalmente conocidos bajo el acrónimo de CBTC (Communications-Based Train Control), con el detalle actual del mercado de este tipo de soluciones: qué Compañías fabrican, en base a qué solución tecnológica de transmisión, dónde los comercializan y qué entes ferroviarios los utilizan. • Las condiciones a tener en cuenta de cara a decidir la implantación de un sistema CBTC UTO. • El estudio en detalle del caso de reseñalización del Metro de Nueva York describiendo los métodos que se siguieron para elegir las compañías que intervinieron en su realización y lograr la interoperabilidad entre las mismas. • El estado del arte de la definición de estándares y actividades para la interoperabilidad en Europa y Estados Unidos (Proyecto Modurban y Normas del IEEC).