940 resultados para do it with others
Resumo:
El objetivo de la presente tesis doctoral es el desarrollo e implementación de un sistema para mejorar la metodología de extracción de la información geométrica necesaria asociada a los procesos de documentación de entidades de interés patrimonial, a partir de la información proporcionada por el empleo de sensores láser, tanto aéreos como terrestres. Para ello, inicialmente se realiza una presentación y justificación de los antecedentes y la problemática en el registro de información geométrica para el patrimonio, detallando todos aquellos sistemas de registro y análisis de la información geométrica utilizados en la actualidad. Este análisis permitirá realizar la comparación con los sistemas de registro basados en técnicas láser, aportando sugerencias de utilización para cada caso concreto. Posteriormente, se detallan los sistemas de registro basados en técnicas láser, comenzando por los sensores aerotransportados y concluyendo con el análisis pormenorizado de los sensores terrestres, tanto en su aplicación en modo estático como móvil. Se exponen las características técnicas y funcionamiento de cada uno de ellos, así como los ámbitos de aplicación y productos generados. Se analizan las fuentes de error que determinan la precisión que puede alcanzar el sistema. Tras la exposición de las características de los sistemas LiDAR, se detallan los procesos a realizar con los datos extraídos para poder generar la información necesaria para los diferentes tipos de objetos analizados. En esta exposición, se hace hincapié en los posibles riesgos que pueden ocurrir en algunas fases delicadas y se analizarán los diferentes algoritmos de filtrado y clasificación de los puntos, fundamentales en el procesamiento de la información LiDAR. Seguidamente, se propone una alternativa para optimizar los modelos de procesamiento existentes, basándose en el desarrollo de algoritmos nuevos y herramientas informáticas que mejoran el rendimiento en la gestión de la información LiDAR. En la implementación, se han tenido en cuenta características y necesidades particulares de la documentación de entidades de interés patrimonial, así como los diferentes ámbitos de utilización del LiDAR, tanto aéreo como terrestre. El resultado es un organigrama de las tareas a realizar desde la nube de puntos LiDAR hasta el cálculo de los modelos digitales del terreno y de superficies. Para llevar a cabo esta propuesta, se han desarrollado hasta 19 algoritmos diferentes que comprenden implementaciones para el modelado en 2.5D y 3D, visualización, edición, filtrado y clasificación de datos LiDAR, incorporación de información de sensores pasivos y cálculo de mapas derivados, tanto raster como vectoriales, como pueden ser mapas de curvas de nivel y ortofotos. Finalmente, para dar validez y consistencia a los desarrollos propuestos, se han realizado ensayos en diferentes escenarios posibles en un proceso de documentación del patrimonio y que abarcan desde proyectos con sensores aerotransportados, proyectos con sensores terrestres estáticos a media y corta distancia, así como un proyecto con un sensor terrestre móvil. Estos ensayos han permitido definir los diferentes parámetros necesarios para el adecuado funcionamiento de los algoritmos propuestos. Asimismo, se han realizado pruebas objetivas expuestas por la ISPRS para la evaluación y comparación del funcionamiento de algoritmos de clasificación LiDAR. Estas pruebas han permitido extraer datos de rendimiento y efectividad del algoritmo de clasificación presentado, permitiendo su comparación con otros algoritmos de prestigio existentes. Los resultados obtenidos han constatado el funcionamiento satisfactorio de la herramienta. Esta tesis está enmarcada dentro del proyecto Consolider-Ingenio 2010: “Programa de investigación en tecnologías para la valoración y conservación del patrimonio cultural” (ref. CSD2007-00058) realizado por el Consejo Superior de Investigaciones Científicas y la Universidad Politécnica de Madrid. ABSTRACT: The goal of this thesis is the design, development and implementation of a system to improve the extraction of useful geometric information in Heritage documentation processes. This system is based on information provided by laser sensors, both aerial and terrestrial. Firstly, a presentation of recording geometric information for Heritage processes is done. Then, a justification of the background and problems is done too. Here, current systems for recording and analyzing the geometric information are studied. This analysis will perform the comparison with the laser system techniques, providing suggestions of use for each specific case. Next, recording systems based on laser techniques are detailed. This study starts with airborne sensors and ends with terrestrial ones, both in static and mobile application. The technical characteristics and operation of each of them are described, as well as the areas of application and generated products. Error sources are also analyzed in order to know the precision this technology can achieve. Following the presentation of the LiDAR system characteristics, the processes to generate the required information for different types of scanned objects are described; the emphasis is on the potential risks that some steps can produce. Moreover different filtering and classification algorithms are analyzed, because of their main role in LiDAR processing. Then, an alternative to optimize existing processing models is proposed. It is based on the development of new algorithms and tools that improve the performance in LiDAR data management. In this implementation, characteristics and needs of the documentation of Heritage entities have been taken into account. Besides, different areas of use of LiDAR are considered, both air and terrestrial. The result is a flowchart of tasks from the LiDAR point cloud to the calculation of digital terrain models and digital surface models. Up to 19 different algorithms have been developed to implement this proposal. These algorithms include implementations for 2.5D and 3D modeling, viewing, editing, filtering and classification of LiDAR data, incorporating information from passive sensors and calculation of derived maps, both raster and vector, such as contour maps and orthophotos. Finally, in order to validate and give consistency to the proposed developments, tests in different cases have been executed. These tests have been selected to cover different possible scenarios in the Heritage documentation process. They include from projects with airborne sensors, static terrestrial sensors (medium and short distances) to mobile terrestrial sensor projects. These tests have helped to define the different parameters necessary for the appropriate functioning of the proposed algorithms. Furthermore, proposed tests from ISPRS have been tested. These tests have allowed evaluating the LiDAR classification algorithm performance and comparing it to others. Therefore, they have made feasible to obtain performance data and effectiveness of the developed classification algorithm. The results have confirmed the reliability of the tool. This investigation is framed within Consolider-Ingenio 2010 project titled “Programa de investigación en tecnologías para la valoración y conservación del patrimonio cultural” (ref. CSD2007-00058) by Consejo Superior de Investigaciones Científicas and Universidad Politécnica de Madrid.
Resumo:
The relationship between forms of delimitation and expropriation of the commons through the management of the "public" have led to a world of enclosures and exact division lines. But this is not how the individual perceives and experiences space, this is how bureaucracy builds it. The body’s individual spatiality is understood as the complex topological extension configured by the sensible world at every turn, reflecting while allowing the crossings, junctions, intensities, densities, proximities, etc., which weave together the experiential fabric wherein he lives. This individual spatiality, when it resonates with others, produces a form of common spatiality, the understanding of which can and should act as a new frame of reference for intervention strategies and spatial politics in the contemporary world. The roofscape, as a space not fitting within the canonical division of public/private, is a unique study case to frame these new concepts.
Resumo:
Esta tesis realiza una contribución metodológica al problema de la gestión óptima de embalses hidroeléctricos durante eventos de avenidas, considerando un enfoque estocástico y multiobjetivo. Para ello se propone una metodología de evaluación de estrategias de laminación en un contexto probabilístico y multiobjetivo. Además se desarrolla un entorno dinámico de laminación en tiempo real con pronósticos que combina un modelo de optimización y algoritmos de simulación. Estas herramientas asisten a los gestores de las presas en la toma de decisión respecto de cuál es la operación más adecuada del embalse. Luego de una detallada revisión de la bibliografía, se observó que los trabajos en el ámbito de la gestión óptima de embalses en avenidas utilizan, en general, un número reducido de series de caudales o hidrogramas para caracterizar los posibles escenarios. Limitando el funcionamiento satisfactorio de un modelo determinado a situaciones hidrológicas similares. Por otra parte, la mayoría de estudios disponibles en este ámbito abordan el problema de la laminación en embalses multipropósito durante la temporada de avenidas, con varios meses de duración. Estas características difieren de la realidad de la gestión de embalses en España. Con los avances computacionales en materia de gestión de información en tiempo real, se observó una tendencia a la implementación de herramientas de operación en tiempo real con pronósticos para determinar la operación a corto plazo (involucrando el control de avenidas). La metodología de evaluación de estrategias propuesta en esta tesis se basa en determinar el comportamiento de éstas frente a un espectro de avenidas características de la solicitación hidrológica. Con ese fin, se combina un sistema de evaluación mediante indicadores y un entorno de generación estocástica de avenidas, obteniéndose un sistema implícitamente estocástico. El sistema de evaluación consta de tres etapas: caracterización, síntesis y comparación, a fin de poder manejar la compleja estructura de datos resultante y realizar la evaluación. En la primera etapa se definen variables de caracterización, vinculadas a los aspectos que se quieren evaluar (seguridad de la presa, control de inundaciones, generación de energía, etc.). Estas variables caracterizan el comportamiento del modelo para un aspecto y evento determinado. En la segunda etapa, la información de estas variables se sintetiza en un conjunto de indicadores, lo más reducido posible. Finalmente, la comparación se lleva a cabo a partir de la comparación de esos indicadores, bien sea mediante la agregación de dichos objetivos en un indicador único, o bien mediante la aplicación del criterio de dominancia de Pareto obteniéndose un conjunto de soluciones aptas. Esta metodología se aplicó para calibrar los parámetros de un modelo de optimización de embalse en laminación y su comparación con otra regla de operación, mediante el enfoque por agregación. Luego se amplió la metodología para evaluar y comparar reglas de operación existentes para el control de avenidas en embalses hidroeléctricos, utilizando el criterio de dominancia. La versatilidad de la metodología permite otras aplicaciones, tales como la determinación de niveles o volúmenes de seguridad, o la selección de las dimensiones del aliviadero entre varias alternativas. Por su parte, el entorno dinámico de laminación al presentar un enfoque combinado de optimización-simulación, permite aprovechar las ventajas de ambos tipos de modelos, facilitando la interacción con los operadores de las presas. Se mejoran los resultados respecto de los obtenidos con una regla de operación reactiva, aun cuando los pronósticos se desvían considerablemente del hidrograma real. Esto contribuye a reducir la tan mencionada brecha entre el desarrollo teórico y la aplicación práctica asociada a los modelos de gestión óptima de embalses. This thesis presents a methodological contribution to address the problem about how to operate a hydropower reservoir during floods in order to achieve an optimal management considering a multiobjective and stochastic approach. A methodology is proposed to assess the flood control strategies in a multiobjective and probabilistic framework. Additionally, a dynamic flood control environ was developed for real-time operation, including forecasts. This dynamic platform combines simulation and optimization models. These tools may assist to dam managers in the decision making process, regarding the most appropriate reservoir operation to be implemented. After a detailed review of the bibliography, it was observed that most of the existing studies in the sphere of flood control reservoir operation consider a reduce number of hydrographs to characterize the reservoir inflows. Consequently, the adequate functioning of a certain strategy may be limited to similar hydrologic scenarios. In the other hand, most of the works in this context tackle the problem of multipurpose flood control operation considering the entire flood season, lasting some months. These considerations differ from the real necessity in the Spanish context. The implementation of real-time reservoir operation is gaining popularity due to computational advances and improvements in real-time data management. The methodology proposed in this thesis for assessing the strategies is based on determining their behavior for a wide range of floods, which are representative of the hydrological forcing of the dam. An evaluation algorithm is combined with a stochastic flood generation system to obtain an implicit stochastic analysis framework. The evaluation system consists in three stages: characterizing, synthesizing and comparing, in order to handle the complex structure of results and, finally, conduct the evaluation process. In the first stage some characterization variables are defined. These variables should be related to the different aspects to be evaluated (such as dam safety, flood protection, hydropower, etc.). Each of these variables characterizes the behavior of a certain operating strategy for a given aspect and event. In the second stage this information is synthesized obtaining a reduced group of indicators or objective functions. Finally, the indicators are compared by means of an aggregated approach or by a dominance criterion approach. In the first case, a single optimum solution may be achieved. However in the second case, a set of good solutions is obtained. This methodology was applied for calibrating the parameters of a flood control model and to compare it with other operating policy, using an aggregated method. After that, the methodology was extent to assess and compared some existing hydropower reservoir flood control operation, considering the Pareto approach. The versatility of the method allows many other applications, such as determining the safety levels, defining the spillways characteristics, among others. The dynamic framework for flood control combines optimization and simulation models, exploiting the advantages of both techniques. This facilitates the interaction between dam operators and the model. Improvements are obtained applying this system when compared with a reactive operating policy, even if the forecasts deviate significantly from the observed hydrograph. This approach contributes to reduce the gap between the theoretical development in the field of reservoir management and its practical applications.
Resumo:
Se presenta un estudio de algoritmos que ofrecen resultados óptimos en cuanto a lo que a la generalización vectorial de entidades lineales se refiere. Este estudio se encuentra dentro del marco del proyecto CENIT España Virtual para la investigación de nuevos algoritmos de procesado cartográfico. La generalización constituye uno de los procesos cartográficos más complejos, cobrando su mayor importancia a la hora de confeccionar mapas derivados a partir de otros a mayores escalas. La necesidad de una generalización se hace patente ante la imposibilidad de representar la realidad en su totalidad, teniendo ésta que ser limitada o reducida para la posterior elaboración del mapa, manteniendo, eso sí, las características esenciales del espacio geográfico cartografiado. La finalidad, por tanto, es obtener una imagen simplificada pero representativa de la realidad. Debido a que casi el ochenta por ciento de la cartografía vectorial está compuesta por elementos lineales, la investigación se centra en aquellos algoritmos capaces de procesar y actuar sobre éstos, demostrando además que su aplicación puede extenderse al tratamiento de elementos superficiales ya que son tratados a partir de la línea cerrada que los define. El estudio, además, profundiza en los procesos englobados dentro de la exageración lineal que pretenden destacar o enfatizar aquellos rasgos de entidades lineales sin los que la representatividad de nuestro mapa se vería mermada. Estas herramientas, acompañadas de otras más conocidas como la simplificación y el suavizado de líneas, pueden ofrecer resultados satisfactorios dentro de un proceso de generalización. Abstract: A study of algorithms that provide optimal results in vector generalization is presented. This study is within the CENIT project framework of the España Virtual for research of new cartographic processing algorithms. The generalization is one of the more complex mapping processes, taking its greatest importance when preparing maps derived from other at larger scales. The need for generalization is evident given the impossibility of representing whole real world, taking it to be limited or reduced for the subsequent preparation of the map, keeping main features of the geographical space. Therefore, the goal is to obtain a simplified but representative image of the reality. Due to nearly eighty percent of the mapping vector is composed of linear elements, the research focuses on those algorithms that can process them, proving that its application can also be extended to the treatment of surface elements as they are treated from the closed line that defines them. Moreover, the study focussed into the processes involved within the linear exaggeration intended to highlight or emphasize those features of linear entities that increase the representativeness of our map. These tools, together with others known as the simplification and smoothing of lines, can provide satisfactory results in a process of generalization.
Resumo:
The main problem of pedestrian dead-reckoning (PDR) using only a body-attached inertial measurement unit is the accumulation of heading errors. The heading provided by magnetometers in indoor buildings is in general not reliable and therefore it is commonly not used. Recently, a new method was proposed called heuristic drift elimination (HDE) that minimises the heading error when navigating in buildings. It assumes that the majority of buildings have their corridors parallel to each other, or they intersect at right angles, and consequently most of the time the person walks along a straight path with a heading constrained to one of the four possible directions. In this article we study the performance of HDE-based methods in complex buildings, i.e. with pathways also oriented at 45°, long curved corridors, and wide areas where non-oriented motion is possible. We explain how the performance of the original HDE method can be deteriorated in complex buildings, and also, how severe errors can appear in the case of false matches with the building's dominant directions. Although magnetic compassing indoors has a chaotic behaviour, in this article we analyse large data-sets in order to study the potential use that magnetic compassing has to estimate the absolute yaw angle of a walking person. Apart from these analysis, this article also proposes an improved HDE method called Magnetically-aided Improved Heuristic Drift Elimination (MiHDE), that is implemented over a PDR framework that uses foot-mounted inertial navigation with an extended Kalman filter (EKF). The EKF is fed with the MiHDE-estimated orientation error, gyro bias corrections, as well as the confidence over that corrections. We experimentally evaluated the performance of the proposed MiHDE-based PDR method, comparing it with the original HDE implementation. Results show that both methods perform very well in ideal orthogonal narrow-corridor buildings, and MiHDE outperforms HDE for non-ideal trajectories (e.g. curved paths) and also makes it robust against potential false dominant direction matchings.
Resumo:
Esta Tesis plantea la pregunta de si el uso de morteros con parafinas microencapsuladas combinado con colectores solares térmicos puede reducir el consumo de energías convencionales, en un sistema tradicional de suelo radiante. Se pretende contribuir al conocimiento acerca del efecto que produce en el edificio, el calor latente acumulado en suelos radiantes, utilizando morteros de cemento Portland con material de cambio de fase (PCM), en conjunto con la energía solar. Para cumplir con este propósito, la investigación se desarrolla considerando diversos aspectos. En primer lugar, se revisa y analiza la documentación disponible en la actualidad, de almacenamiento de energía mediante calor latente en la construcción, y en particular la aplicación de microcápsulas de PCM en morteros y suelos radiantes. También se revisa la documentación relacionada con la aplicación de la energía solar térmica y en suelo radiante. Se analiza la normativa vigente respecto al material, a los colectores solares y al suelo radiante. Se verifica que no hay normativa relacionada con mortero-PCM, debido a esto se aplica en la investigación una adaptación de la existente. La fase experimental desarrollada esta principalmente dirigida a la cuantificación, caracterización y evaluación de las propiedades físicas, mecánicas y térmicas del mortero de cemento Portland con parafinas microencapsuladas. Los resultados obtenidos y su análisis, permiten conocer el comportamiento de este tipo de morteros, con las diferentes variables aplicadas en la investigación. Además, permite disponer de la información necesaria, para crear una metodología para el diseño de morteros con parafina microencapsulada, tanto del punto de vista de su resistencia a la compresión y contenido de PCM, como de su comportamiento térmico como acumulador de calor. Esto se logra procesando la información obtenida y generando modelos matemáticos, para dosificar mezclas, y predecir la acumulación de calor en función de su composición. Se determinan los tipos y cantidades de PCM, y el cemento más adecuado. Se obtienen importantes conclusiones respecto a los aspectos constructivos a considerar en la aplicación de morteros con PCM, en suelo radiante. Se analiza y evalúa la demanda térmica que se puede cubrir con el suelo radiante, utilizando morteros con parafina microencapsulada, a través de la acumulación de energía solar producida por colectores solares, para condiciones climáticas, técnicas y tipologías constructivas específicas. Se determina que cuando los paneles cubren más de 60 % de la demanda por calefacción, se puede almacenar en los morteros con PCM, el excedente generado durante el día. Se puede cubrir la demanda de acumulación de energía con los morteros con PCM, en la mayoría de los casos analizados. Con esto, se determina que el uso de morteros con PCM, aporta a la eficiencia energética de los edificios, disminuyendo el consumo de energías convencionales, reemplazándola por energía solar térmica. En esta investigación, el énfasis está en las propiedades del material mortero de cemento-PCM y en poder generar metodologías que faciliten su uso. Se aborda el uso de la energía solar, para verificar que es posible su acumulación en morteros con PCM aplicados en suelo radiante, posibilitando el reemplazo de energías convencionales. Quedan algunos aspectos de la aplicación de energía solar a suelo radiante con morteros con PCM, que no han sido tratados con la profundidad que requieren, y que resultan interesantes de evaluar en este tipo de aplicaciones constructivas, como entre otros, los relacionados con la cuantificación de los ahorros de energía en las diferentes estaciones del año, de la estabilización de temperaturas internas, su análisis de costo y la optimización de este tipo de sistemas para utilización en verano, los que dan pie para otras Tesis o proyectos de investigación. ABSTRACT This Thesis proposes the question of whether the use of mortars with microencapsulated paraffin combined with solar thermal collectors can reduce conventional energy consumption in a traditional heating floor system. It aims to contribute to knowledge about the effect that it has on the building, the latent heat accumulated in heating floor, using Portland cement mortars with phase change material (PCM), in conjunction with solar energy. To fulfill this purpose, the research develops it considering various aspects. First, it reviews and analyzes the documentation available today, about energy storage by latent heat in the building, and in particular the application of PCM microcapsules in mortars and heating floors. It also reviews the documentation related to the application of solar thermal energy and heating floor. Additionally, it analyzes the current regulations regarding to material, solar collectors and heating floors. It verifies that there aren’t regulations related to PCM mortar, due to this, it applies an adaptation in the investigation. The experimental phase is aimed to the quantification, mainly, characterization and evaluation of physical, mechanical and thermal properties of Portland cement mortar with microencapsulated paraffin. The results and analysis, which allow us to know the behavior of this type of mortars with different variables applied in research. It also allows having the information necessary to create a methodology for designing mortars with microencapsulated paraffin, both from the standpoint of its resistance to compression and PCM content, and its thermal performance as a heat accumulator. This accomplishes by processing the information obtained, and generating mathematical models for dosing mixtures, and predicting heat accumulation depending on their composition. The research determines the kinds and amounts of PCM, and the most suitable cement. Relevant conclusions obtain it regarding constructive aspects to consider in the implementation of PCM mortars in heating floor. Also, it analyzes and evaluates the thermal demand that it can be covered in heating floor using microencapsulated paraffin mortars, through the accumulation of solar energy produced by solar collectors to weather conditions, technical and specific building typologies. It determines that if the panels cover more than 60% of the demand for heating, the surplus generated during the day can be stored in PCM mortars. It meets the demand of energy storage with PCM mortars, in most of the cases analyzed. With this, it determines that the use of PCM mortars contributes to building energy efficiency, reducing consumption of conventional energy, replacing it with solar thermal energy. In this research approaches the use of solar energy to determine that it’s possible to verify its accumulation in PCM mortars applied in heating floor, enabling the replacement of conventional energy. The emphasis is on material properties of PCM mortar and, in order to generate methodologies to facilitate their use. There are some aspects of solar energy application in PCM mortars in heating floor, which have not been discussed with the depth required, and that they are relevant to evaluate in this kind of construction applications, including among others: the applications related to the energy savings quantification in different seasons of the year, the stabilizing internal temperatures, its cost analysis and optimization of these systems for use in summer, which can give ideas for other thesis or research projects.
Resumo:
This study purports to investigate whether a conductive tether left uninsulated and electrically floating in LEO could serve as an effective e-beam source to produce artificial auroras. An electrically floating tether comes out biased highly negative over most of its length. Ambient ions impacting it with KeV energies liberate secondary electrons, which are locally accelerated through the 2D tether voltage-bias, race down magnetic lines, and result in peak auroral emissions at about 120-160 km altitude. Since no current flows at either tether end, a bare-tether e-beam is fully free of spacecraft charging problems. Beam propagation and beam-atmosphere interactions need be modelled in a simple but quantitative way so as to allow a satisfactory discussion of observational options and their feasibility. The evolution in the energy spectrum of secondary electrons, their pitch distribution, and beam broadening due to collisions with neutrals, which would result in a broader but weaker tether footprint in the E-layer, need be modelled. Relations between particle/energy flux values, and ionization and accompanying emission rates, are considered.
Interpretación constructiva de la fábrica de tapia de tierra del castillo de Serón de Nágima (Soria)
Resumo:
The article analyzes the particular construction history of the Castle of Serón de Nágima (Soria, Spain). Its constructive technique is the rammed-earth and it has not any singular or stylistic element which could be taken as chronological: for this reason the castle has been traditionally understood as a hispanic-muslim building. However, the analysis and constructive lecture and interpretation of the rammed-earth walls, putting them in comparison with others contemporaries and the study of the documentation can be used as a method to know the date of construction. The town of Serón is mentioned several times during the frontier wars between the Crowns of Castile and Aragon, but the castle is only mentioned in written documents since the 15th Century. The constructive characteristics of the rammed-earth walls are very different to the hispanic-muslim rammed-earth whereas similar to those of the Late Middle Age castles. The article also shows the constructive process of these rammed-earth walls through graphical methods.
Resumo:
Una de las maneras más efectivas para asentar conocimientos se produce cuando, además de realizar un aprendizaje práctico, se intentan transmitir a otra persona. De hecho, los alumnos muchas veces prestan más atención a sus compañeros que al profesor. En la E.T.S.I. Minas de Madrid se ha llevado a cabo un programa de innovación educativa en asignaturas relacionadas con la Geología mediante nuevas tecnologías para mejorar el aprendizaje basado en el trabajo práctico personal del alumno, con la realización de vídeos en el medio físico (campo) en los que explican los aspectos geológicos visibles a diferentes escalas. Estos vídeos se han subido a las plataformas “moodle”, “facebook” y canal “youtube” donde compañeros, alumnos de otras Universidades y personas interesadas pueden consultarlos. De esta manera se pretende que, además de adquirir conocimientos geológicos, los alumnos adquieren el hábito de expresarse en público con un lenguaje técnico. Los alumnos manifestaron su satisfacción por esta actividad, aunque idea del rodaje de vídeos no resultó inicialmente muy popular. Se ha observado una mejora en las calificaciones, así como un incremento de la motivación. De hecho, los estudiantes manifestaron haber adquirido, además de los conceptos geológicos, seguridad a la hora de expresarse en público. Palabras clave: innovación educativa, nuevas tecnologías (TIC), Geología Abstract- Knowledge is gained by practice, but one of the most effective ways is when one tries to transmit it to others. Likewise, students pay more attention to their classmates than to teachers. In the Geological Engineering Department of the Madrid School of Mines, we have run an educational innovation program in courses related to Geology using new technologies (ITC) in order to increase the acquisition of geological knowledge. This program is designed mainly on the basis of individual and group work with video recordings in the field in which students explain geological concepts at various scales. These videos have been uploaded to the “Moodle”, “Facebook” and “YouTube” channel of the Madrid School of Mines, where other students from the same university or elsewhere can view them. Students acquire geological knowledge and the ability to address the general public using technical language. The realization of these videos has been warmly welcomed by students. Notably, they show increased motivation, accompanied by an improvement in grades, although at the beginning this program was not very popular because of student insecurity. Students have expressed that they learnt geological concepts but also gained confidence in public speaking using technical language
Resumo:
Transportation modes produce many external costs such as congestion, accidents, and environmental impacts (pollution, noise and so on). From the microeconomic theory it is well known that in order to maximize social welfare, transportation modes should internalize the marginal costs they produce. Allocative efficiency is achieved when all transportation modes are priced at their social marginal cost. The objective of this research is to evaluate to what extent different passenger transport modes internalize their social marginal costs. This analysis is important since it affects the competitiveness of the different transport modes for a given OD pair. The case study analyzed is the corridor Madrid-Barcelona in Spain and the different transport modes have been considered (cars, buses, high-speed train and air). The research calculates the marginal social cost per user for each transportation mode, and it compares it with the average fare—allowing for the effect of discriminatory taxes—currently paid by the users. The external costs are calculated according to the guidelines established by the European Union. The gap between the marginal social cost and the price paid by users will provide the extra cost per passenger that each transport mode should have to pay for internalizing the external cost it produces. The research shows that external costs already produced by road and air transport modes are much higher than those produced by rail. However, the results show that road transport already internalizes every external costs it produces because users pay high fuel taxes. In other words, although rail transportation produces lower external costs, road transportation pays more than it should on the basis of the social marginal costs. The results of this work might be of help for Europ ean policy actions to be undertaken in the future.
Resumo:
El Hogar Digital Accesible (HDA) de la ETSIST nace con el propósito de acercar las nuevas Tecnologías de la Información a las personas que precisan de necesidades concretas de accesibilidad y usabilidad, dotándoles de herramientas que les permitan aumentar su calidad de vida, confort, seguridad y autonomía. El entorno del HDA consta de elementos de control para puertas, persianas, iluminación, agua o gas, sensores de temperatura, incendios, gas, sistemas de climatización, sistemas de entretenimiento y sistemas de seguridad tales como detectores de presencia y alarmas. Todo ello apoyado sobre una arquitectura de red que proporciona una pasarela residencial y un acceso a banda ancha. El objetivo principal de este PFG ha sido el desarrollo de un sistema de autenticación para el Hogar Digital Accesible de bajo coste. La idea de integrar un sistema de autenticación en el HDA, surge de la necesidad de proteger de accesos no deseados determinados servicios disponibles dentro de un ámbito privado. Algunos de estos servicios pueden ser tales como el acceso a la lectura de los mensajes disponibles en el contestador automático, el uso de equipos multimedia, la desconexión de alarmas de seguridad o simplemente la configuración de ambientes según el usuario que esté autenticado (intensidad de luz, temperatura de la sala, etc.). En el desarrollo han primado los principios de accesibilidad, usabilidad y seguridad necesarios para la creación de un entorno no invasivo, que permitiera acreditar la identidad del usuario frente al sistema HDA. Se ha planteado como posible solución, un sistema basado en el reconocimiento de un trazo realizado por el usuario. Este trazo se usará como clave de cara a validar a los usuarios. El usuario deberá repetir el trazado que registró en el sistema para autenticarse. Durante la ejecución del presente PFG, se justificará la elección de este mecanismo de autenticación frente a otras alternativas disponibles en el mercado. Para probar la aplicación, se ha podido contar con dos periféricos de distintas gamas, el uDraw creado para la PS3 que se compone de una tableta digitalizadora y un lápiz que permite recoger los trazos realizados por el usuario de forma inalámbrica y la tableta digitalizadora Bamboo de Wacom. La herramienta desarrollada permite a su vez, la posibilidad de ser usada por otro tipo de dispositivos como es el caso del reloj con acelerómetro de 3 ejes de Texas Instruments Chronos eZ430 capaz de trasladar los movimientos del usuario al puntero de un ratón. El PFG se encuentra dividido en tres grandes bloques de flujo de trabajo. El primero se centra en el análisis del sistema y las tecnologías que lo componen, incluyendo los distintos algoritmos disponibles para realizar la autenticación basada en reconocimiento de patrones aplicados a imágenes que mejor se adaptan a las necesidades del usuario. En el segundo bloque se recoge una versión de prueba basada en el análisis y el diseño UML realizado previamente, sobre la que se efectuaron pruebas de concepto y se comprobó la viabilidad del proyecto. El último bloque incluye la verificación y validación del sistema mediante pruebas que certifican que se han alcanzado los niveles de calidad necesarios para la consecución de los objetivos planteados, generando finalmente la documentación necesaria. Como resultado del trabajo realizado, se ha obtenido un sistema que plantea una arquitectura fácilmente ampliable lograda a través del uso de técnicas como la introspección, que permiten separar la lógica de la capa de negocio del código que la implementa, pudiendo de forma simple e intuitiva sustituir código mediante ficheros de configuración, lo que hace que el sistema sea flexible y escalable. Tras la realización del PFG, se puede concluir que el producto final obtenido ha respondido de forma satisfactoria alcanzando los niveles de calidad requeridos, siendo capaz de proporcionar un sistema de autenticación alternativo a los convencionales, manteniendo unas cotas de seguridad elevadas y haciendo de la accesibilidad y el precio sus características más reseñables. ABSTRACT. Accessible Digital Home (HDA) of the ETSIST was created with the aim of bringing the latest information and communications technologies closer to the people who has special needs of accessibility and usability increasing their quality of life, comfort, security and autonomy. The HDA environment has different control elements for doors, blinds, lighting, water or gas, temperature sensors, fire protection systems, gas flashover, air conditioning systems, entertainments systems and security systems such as intruders detectors and alarms. Everything supported by an architecture net which provides a broadband residential services gateway. The main goal of this PFG was the development of a low-cost authentication system for the Accessible Digital Home. The idea of integrating an authentication system on the HDA, stems from the need to safeguard certain private key network resources from unauthorized access. Some of said resources are the access to the answering machine messages, the use of multimedia devices, the alarms deactivation or the parameter settings for each environment as programmed by the authenticated user (light intensity, room temperature, etc.). During the development priority was given to concepts like accessibility, usability and security. All of them necessary to create a non invasive environment that allows the users to certify their identity. A system based on stroke pattern recognition, was considered as a possible solution. This stroke is used as a key to validate users. The user must repeat the stroke that was saved on the system to validate access. The selection of this authentication mechanism among the others available options will be justified during this PFG. Two peripherals with different ranges were used to test the application. One of them was uDraw design for the PS3. It is wireless and is formed by a pen and a drawing tablet that allow us to register the different strokes drawn by the user. The other one was the Wacom Bamboo tablet, that supports the same functionality but with better accuracy. The developed tool allows another kind of peripherals like the 3-axes accelerometer digital wristwatch Texas Instruments Chronos eZ430 capable of transfering user movements to the mouse cursor. The PFG is divided by three big blocks that represent different workflows. The first block is focused on the system analysis and the technologies related to it, including algorithms for image pattern recognition that fits the user's needs. The second block describes how the beta version was developed based on the UML analysis and design previously done. It was tested and the viability of the project was verified. The last block contains the system verification and validation. These processes certify that the requirements have been fulfilled as well as the quality levels needed to reach the planned goals. Finally all the documentation has been produced. As a result of the work, an expandable system has been created, due to the introspection that provides the opportunity to separate the business logic from the code that implements it. With this technique, the code could be replaced throughout configuration files which makes the system flexible and highly scalable. Once the PFG has finished, it must therefore be concluded that the final product has been a success and high levels of quality have been achieved. This authentication tool gives us a low-cost alternative to the conventional ones. The new authentication system remains security levels reasonably high giving particular emphasis to the accessibility and the price.
Resumo:
La astronomía de rayos γ estudia las partículas más energéticas que llegan a la Tierra desde el espacio. Estos rayos γ no se generan mediante procesos térmicos en simples estrellas, sino mediante mecanismos de aceleración de partículas en objetos celestes como núcleos de galaxias activos, púlsares, supernovas, o posibles procesos de aniquilación de materia oscura. Los rayos γ procedentes de estos objetos y sus características proporcionan una valiosa información con la que los científicos tratan de comprender los procesos físicos que ocurren en ellos y desarrollar modelos teóricos que describan su funcionamiento con fidelidad. El problema de observar rayos γ es que son absorbidos por las capas altas de la atmósfera y no llegan a la superficie (de lo contrario, la Tierra será inhabitable). De este modo, sólo hay dos formas de observar rayos γ embarcar detectores en satélites, u observar los efectos secundarios que los rayos γ producen en la atmósfera. Cuando un rayo γ llega a la atmósfera, interacciona con las partículas del aire y genera un par electrón - positrón, con mucha energía. Estas partículas secundarias generan a su vez más partículas secundarias cada vez menos energéticas. Estas partículas, mientras aún tienen energía suficiente para viajar más rápido que la velocidad de la luz en el aire, producen una radiación luminosa azulada conocida como radiación Cherenkov durante unos pocos nanosegundos. Desde la superficie de la Tierra, algunos telescopios especiales, conocidos como telescopios Cherenkov o IACTs (Imaging Atmospheric Cherenkov Telescopes), son capaces de detectar la radiación Cherenkov e incluso de tomar imágenes de la forma de la cascada Cherenkov. A partir de estas imágenes es posible conocer las principales características del rayo γ original, y con suficientes rayos se pueden deducir características importantes del objeto que los emitió, a cientos de años luz de distancia. Sin embargo, detectar cascadas Cherenkov procedentes de rayos γ no es nada fácil. Las cascadas generadas por fotones γ de bajas energías emiten pocos fotones, y durante pocos nanosegundos, y las correspondientes a rayos γ de alta energía, si bien producen más electrones y duran más, son más improbables conforme mayor es su energía. Esto produce dos líneas de desarrollo de telescopios Cherenkov: Para observar cascadas de bajas energías son necesarios grandes reflectores que recuperen muchos fotones de los pocos que tienen estas cascadas. Por el contrario, las cascadas de altas energías se pueden detectar con telescopios pequeños, pero conviene cubrir con ellos una superficie grande en el suelo para aumentar el número de eventos detectados. Con el objetivo de mejorar la sensibilidad de los telescopios Cherenkov actuales, en el rango de energía alto (> 10 TeV), medio (100 GeV - 10 TeV) y bajo (10 GeV - 100 GeV), nació el proyecto CTA (Cherenkov Telescope Array). Este proyecto en el que participan más de 27 países, pretende construir un observatorio en cada hemisferio, cada uno de los cuales contará con 4 telescopios grandes (LSTs), unos 30 medianos (MSTs) y hasta 70 pequeños (SSTs). Con un array así, se conseguirán dos objetivos. En primer lugar, al aumentar drásticamente el área de colección respecto a los IACTs actuales, se detectarán más rayos γ en todos los rangos de energía. En segundo lugar, cuando una misma cascada Cherenkov es observada por varios telescopios a la vez, es posible analizarla con mucha más precisión gracias a las técnicas estereoscópicas. La presente tesis recoge varios desarrollos técnicos realizados como aportación a los telescopios medianos y grandes de CTA, concretamente al sistema de trigger. Al ser las cascadas Cherenkov tan breves, los sistemas que digitalizan y leen los datos de cada píxel tienen que funcionar a frecuencias muy altas (≈1 GHz), lo que hace inviable que funcionen de forma continua, ya que la cantidad de datos guardada será inmanejable. En su lugar, las señales analógicas se muestrean, guardando las muestras analógicas en un buffer circular de unos pocos µs. Mientras las señales se mantienen en el buffer, el sistema de trigger hace un análisis rápido de las señales recibidas, y decide si la imagen que hay en el buér corresponde a una cascada Cherenkov y merece ser guardada, o por el contrario puede ignorarse permitiendo que el buffer se sobreescriba. La decisión de si la imagen merece ser guardada o no, se basa en que las cascadas Cherenkov producen detecciones de fotones en píxeles cercanos y en tiempos muy próximos, a diferencia de los fotones de NSB (night sky background), que llegan aleatoriamente. Para detectar cascadas grandes es suficiente con comprobar que más de un cierto número de píxeles en una región hayan detectado más de un cierto número de fotones en una ventana de tiempo de algunos nanosegundos. Sin embargo, para detectar cascadas pequeñas es más conveniente tener en cuenta cuántos fotones han sido detectados en cada píxel (técnica conocida como sumtrigger). El sistema de trigger desarrollado en esta tesis pretende optimizar la sensibilidad a bajas energías, por lo que suma analógicamente las señales recibidas en cada píxel en una región de trigger y compara el resultado con un umbral directamente expresable en fotones detectados (fotoelectrones). El sistema diseñado permite utilizar regiones de trigger de tamaño seleccionable entre 14, 21 o 28 píxeles (2, 3, o 4 clusters de 7 píxeles cada uno), y con un alto grado de solapamiento entre ellas. De este modo, cualquier exceso de luz en una región compacta de 14, 21 o 28 píxeles es detectado y genera un pulso de trigger. En la versión más básica del sistema de trigger, este pulso se distribuye por toda la cámara de forma que todos los clusters sean leídos al mismo tiempo, independientemente de su posición en la cámara, a través de un delicado sistema de distribución. De este modo, el sistema de trigger guarda una imagen completa de la cámara cada vez que se supera el número de fotones establecido como umbral en una región de trigger. Sin embargo, esta forma de operar tiene dos inconvenientes principales. En primer lugar, la cascada casi siempre ocupa sólo una pequeña zona de la cámara, por lo que se guardan muchos píxeles sin información alguna. Cuando se tienen muchos telescopios como será el caso de CTA, la cantidad de información inútil almacenada por este motivo puede ser muy considerable. Por otro lado, cada trigger supone guardar unos pocos nanosegundos alrededor del instante de disparo. Sin embargo, en el caso de cascadas grandes la duración de las mismas puede ser bastante mayor, perdiéndose parte de la información debido al truncamiento temporal. Para resolver ambos problemas se ha propuesto un esquema de trigger y lectura basado en dos umbrales. El umbral alto decide si hay un evento en la cámara y, en caso positivo, sólo las regiones de trigger que superan el nivel bajo son leídas, durante un tiempo más largo. De este modo se evita guardar información de píxeles vacíos y las imágenes fijas de las cascadas se pueden convertir en pequeños \vídeos" que representen el desarrollo temporal de la cascada. Este nuevo esquema recibe el nombre de COLIBRI (Concept for an Optimized Local Image Building and Readout Infrastructure), y se ha descrito detalladamente en el capítulo 5. Un problema importante que afecta a los esquemas de sumtrigger como el que se presenta en esta tesis es que para sumar adecuadamente las señales provenientes de cada píxel, estas deben tardar lo mismo en llegar al sumador. Los fotomultiplicadores utilizados en cada píxel introducen diferentes retardos que deben compensarse para realizar las sumas adecuadamente. El efecto de estos retardos ha sido estudiado, y se ha desarrollado un sistema para compensarlos. Por último, el siguiente nivel de los sistemas de trigger para distinguir efectivamente las cascadas Cherenkov del NSB consiste en buscar triggers simultáneos (o en tiempos muy próximos) en telescopios vecinos. Con esta función, junto con otras de interfaz entre sistemas, se ha desarrollado un sistema denominado Trigger Interface Board (TIB). Este sistema consta de un módulo que irá montado en la cámara de cada LST o MST, y que estará conectado mediante fibras ópticas a los telescopios vecinos. Cuando un telescopio tiene un trigger local, este se envía a todos los vecinos conectados y viceversa, de modo que cada telescopio sabe si sus vecinos han dado trigger. Una vez compensadas las diferencias de retardo debidas a la propagación en las fibras ópticas y de los propios fotones Cherenkov en el aire dependiendo de la dirección de apuntamiento, se buscan coincidencias, y en el caso de que la condición de trigger se cumpla, se lee la cámara en cuestión, de forma sincronizada con el trigger local. Aunque todo el sistema de trigger es fruto de la colaboración entre varios grupos, fundamentalmente IFAE, CIEMAT, ICC-UB y UCM en España, con la ayuda de grupos franceses y japoneses, el núcleo de esta tesis son el Level 1 y la Trigger Interface Board, que son los dos sistemas en los que que el autor ha sido el ingeniero principal. Por este motivo, en la presente tesis se ha incluido abundante información técnica relativa a estos sistemas. Existen actualmente importantes líneas de desarrollo futuras relativas tanto al trigger de la cámara (implementación en ASICs), como al trigger entre telescopios (trigger topológico), que darán lugar a interesantes mejoras sobre los diseños actuales durante los próximos años, y que con suerte serán de provecho para toda la comunidad científica participante en CTA. ABSTRACT -ray astronomy studies the most energetic particles arriving to the Earth from outer space. This -rays are not generated by thermal processes in mere stars, but by means of particle acceleration mechanisms in astronomical objects such as active galactic nuclei, pulsars, supernovas or as a result of dark matter annihilation processes. The γ rays coming from these objects and their characteristics provide with valuable information to the scientist which try to understand the underlying physical fundamentals of these objects, as well as to develop theoretical models able to describe them accurately. The problem when observing rays is that they are absorbed in the highest layers of the atmosphere, so they don't reach the Earth surface (otherwise the planet would be uninhabitable). Therefore, there are only two possible ways to observe γ rays: by using detectors on-board of satellites, or by observing their secondary effects in the atmosphere. When a γ ray reaches the atmosphere, it interacts with the particles in the air generating a highly energetic electron-positron pair. These secondary particles generate in turn more particles, with less energy each time. While these particles are still energetic enough to travel faster than the speed of light in the air, they produce a bluish radiation known as Cherenkov light during a few nanoseconds. From the Earth surface, some special telescopes known as Cherenkov telescopes or IACTs (Imaging Atmospheric Cherenkov Telescopes), are able to detect the Cherenkov light and even to take images of the Cherenkov showers. From these images it is possible to know the main parameters of the original -ray, and with some -rays it is possible to deduce important characteristics of the emitting object, hundreds of light-years away. However, detecting Cherenkov showers generated by γ rays is not a simple task. The showers generated by low energy -rays contain few photons and last few nanoseconds, while the ones corresponding to high energy -rays, having more photons and lasting more time, are much more unlikely. This results in two clearly differentiated development lines for IACTs: In order to detect low energy showers, big reflectors are required to collect as much photons as possible from the few ones that these showers have. On the contrary, small telescopes are able to detect high energy showers, but a large area in the ground should be covered to increase the number of detected events. With the aim to improve the sensitivity of current Cherenkov showers in the high (> 10 TeV), medium (100 GeV - 10 TeV) and low (10 GeV - 100 GeV) energy ranges, the CTA (Cherenkov Telescope Array) project was created. This project, with more than 27 participating countries, intends to build an observatory in each hemisphere, each one equipped with 4 large size telescopes (LSTs), around 30 middle size telescopes (MSTs) and up to 70 small size telescopes (SSTs). With such an array, two targets would be achieved. First, the drastic increment in the collection area with respect to current IACTs will lead to detect more -rays in all the energy ranges. Secondly, when a Cherenkov shower is observed by several telescopes at the same time, it is possible to analyze it much more accurately thanks to the stereoscopic techniques. The present thesis gathers several technical developments for the trigger system of the medium and large size telescopes of CTA. As the Cherenkov showers are so short, the digitization and readout systems corresponding to each pixel must work at very high frequencies (_ 1 GHz). This makes unfeasible to read data continuously, because the amount of data would be unmanageable. Instead, the analog signals are sampled, storing the analog samples in a temporal ring buffer able to store up to a few _s. While the signals remain in the buffer, the trigger system performs a fast analysis of the signals and decides if the image in the buffer corresponds to a Cherenkov shower and deserves to be stored, or on the contrary it can be ignored allowing the buffer to be overwritten. The decision of saving the image or not, is based on the fact that Cherenkov showers produce photon detections in close pixels during near times, in contrast to the random arrival of the NSB phtotons. Checking if more than a certain number of pixels in a trigger region have detected more than a certain number of photons during a certain time window is enough to detect large showers. However, taking also into account how many photons have been detected in each pixel (sumtrigger technique) is more convenient to optimize the sensitivity to low energy showers. The developed trigger system presented in this thesis intends to optimize the sensitivity to low energy showers, so it performs the analog addition of the signals received in each pixel in the trigger region and compares the sum with a threshold which can be directly expressed as a number of detected photons (photoelectrons). The trigger system allows to select trigger regions of 14, 21, or 28 pixels (2, 3 or 4 clusters with 7 pixels each), and with extensive overlapping. In this way, every light increment inside a compact region of 14, 21 or 28 pixels is detected, and a trigger pulse is generated. In the most basic version of the trigger system, this pulse is just distributed throughout the camera in such a way that all the clusters are read at the same time, independently from their position in the camera, by means of a complex distribution system. Thus, the readout saves a complete camera image whenever the number of photoelectrons set as threshold is exceeded in a trigger region. However, this way of operating has two important drawbacks. First, the shower usually covers only a little part of the camera, so many pixels without relevant information are stored. When there are many telescopes as will be the case of CTA, the amount of useless stored information can be very high. On the other hand, with every trigger only some nanoseconds of information around the trigger time are stored. In the case of large showers, the duration of the shower can be quite larger, loosing information due to the temporal cut. With the aim to solve both limitations, a trigger and readout scheme based on two thresholds has been proposed. The high threshold decides if there is a relevant event in the camera, and in the positive case, only the trigger regions exceeding the low threshold are read, during a longer time. In this way, the information from empty pixels is not stored and the fixed images of the showers become to little \`videos" containing the temporal development of the shower. This new scheme is named COLIBRI (Concept for an Optimized Local Image Building and Readout Infrastructure), and it has been described in depth in chapter 5. An important problem affecting sumtrigger schemes like the one presented in this thesis is that in order to add the signals from each pixel properly, they must arrive at the same time. The photomultipliers used in each pixel introduce different delays which must be compensated to perform the additions properly. The effect of these delays has been analyzed, and a delay compensation system has been developed. The next trigger level consists of looking for simultaneous (or very near in time) triggers in neighbour telescopes. These function, together with others relating to interfacing different systems, have been developed in a system named Trigger Interface Board (TIB). This system is comprised of one module which will be placed inside the LSTs and MSTs cameras, and which will be connected to the neighbour telescopes through optical fibers. When a telescope receives a local trigger, it is resent to all the connected neighbours and vice-versa, so every telescope knows if its neighbours have been triggered. Once compensated the delay differences due to propagation in the optical fibers and in the air depending on the pointing direction, the TIB looks for coincidences, and in the case that the trigger condition is accomplished, the camera is read a fixed time after the local trigger arrived. Despite all the trigger system is the result of the cooperation of several groups, specially IFAE, Ciemat, ICC-UB and UCM in Spain, with some help from french and japanese groups, the Level 1 and the Trigger Interface Board constitute the core of this thesis, as they have been the two systems designed by the author of the thesis. For this reason, a large amount of technical information about these systems has been included. There are important future development lines regarding both the camera trigger (implementation in ASICS) and the stereo trigger (topological trigger), which will produce interesting improvements for the current designs during the following years, being useful for all the scientific community participating in CTA.
Resumo:
La evidencia empírica aplicada a países de cierto tamaño y desarrollo económico, muestra que existe una relación directa y positiva entre la intensidad de la industria manufacturera, medida como porcentaje de su PIB, y ciertas variables económicas como, el crecimiento, el desempleo y la balanza exterior de bienes y servicios. En el caso de esta última, se verifica empíricamente, que los países con una proporción de actividad manufacturera inferior al 20%, tienen una marcada tendencia a presentar déficits crónicos de balanza de bienes y servicios, lo que conduce a persistentes déficits por cuenta corriente, al ser el primer déficit el principal componente del segundo. Esto trae consigo un continuado incremento del endeudamiento externo que no cesa, y que terminará en algún momento por desequilibrar el conjunto de la economía de los países con esos déficits crónicos. Las anteriores conclusiones, abren una vía de orientación de la política económica, que tiene como objetivo la promoción de la industria manufacturera de cada país. Y esto es un hecho ya en 2014. Países relevantes, como Alemania o Francia en la UE, incluso los EEUU y últimamente el Reino Unido, y por supuesto países del área asiática como Japón, Corea del Sur y China, llevan años promoviendo su industria manufacturera. Resulta significativo, que el debate ideológico sobre la bondad de la aplicación política industrial por parte de los gobiernos, frente a las teorías liberales de mantener a los poderes públicos lejos de ese tipo de actividades, haya dado paso a un modelo generalizado de corte más bien horizontal, donde los países casi sin excepciones apoyan el desarrollo de sus empresas con numerosos instrumentos, que van bastante más lejos de los habituales de I+D. Se valora por tanto, la industria manufacturera como algo vital para el equilibrio económico. Incluso la UE, defensora durante décadas de la no intervención de los diferentes Estados miembros en actividades de promoción industrial más allá del apoyo a las actividades de I+D, realiza un giro copernicano, que termina en 2012 proclamando que la industria manufacturera es vital para el equilibrio económico de la UE, que hay que promoverla, e incluso marca un objetivo, precisamente del 20%, como contribución manufacturera a su PIB. Es decir, se da por asumido que los servicios no son un sustituto indefinido de la industria y que por tanto tienen un límite, lo que se contrapone frontalmente contra la anterior creencia de que el aumento de la participación de los servicios en la economía, no solo era bueno, sino un síntoma de desarrollo. Esta premisa ya ha dejado de ser cierta para esos y otros países. En cambio, en España nada de esto sucede en las dos últimas décadas, sino que la industria manufacturera no recibe especial atención de los poderes públicos y se desliza en una pendiente de disminución de su contribución al PIB, que incluso se acelera con la crisis económica que comienza en 2007, hasta alcanzar cifras del orden del 12% del PIB en 2013. La política económica que se aplica es la de la deflación de costes, con los efectos consecuentes sobre los salarios y sobre la capacidad de la economía de generar riqueza. Se apuesta por un modelo de mano de obra barata, que recuerda al de los años 60. Como indicador relevante de esta situación, lo que exporta la industria manufacturera española, no ha ganado en contenido tecnológico en los últimos quince años. Esta situación se ve empeorada por un hecho significativo adicional, y es que casi el 40% de las ventas de la industria manufacturera española provienen de empresas de propiedad extranjera, con lo que eso supone por una parte de dependencia tecnológica del exterior como en el caso del automóvil, y de incertidumbre sobre su futuro, al estar basadas en el mantenimiento en el futuro de una mano de obra barata, que frenará que los españoles que trabajan en esas empresas, progresen económicamente. La propuesta de esta Tesis, es en cambio apostar por un modelo de crecimiento para España que tenga como uno de sus pilares el desarrollo de una industria manufacturera sólida y con cada vez mayor contenido tecnológico. Para ello, se propone un Plan de política industrial, donde se incluye la creación de actores impulsores de este plan, que deben ser del máximo nivel político. Si los diferentes gobiernos no entienden y asumen esta necesidad de apoyo a la industria a largo plazo e independiente de los cambios políticos, no será posible llevar a cabo este Plan. Para su puesta en marcha, se propone la creación o refuerzo de numerosos instrumentos de apoyo a la industria manufacturera de carácter fundamentalmente horizontal que van mucho más allá de los habituales del I+D, y que en varios casos, tienen una clara semejanza con otros existentes ya en otros países desarrollados desde hace años. La promoción de la industria manufacturera necesita nuevos instrumentos, como una financiación a largo plazo para las empresas, una promoción ordenada y eficaz de la actividad internacional de las empresas exportadoras, la mayoría de las cuales exportan productos manufacturados, una educación y formación profesional que esté alineada con estos objetivos, unos instrumentos que apoyen en especial el desarrollo la industria manufacturera, o la participación minoritaria pero significativa, del Estado en empresas españolas pertenecientes a sectores estratégicos entre otros. En resumen, esta Tesis propone una alternativa de política económica radicalmente diferente a la de dejar la industria manufacturera española a su suerte, y basar el futuro económico de España en una mano de obra barata. ABSTRACT The empirical evidence, applied to countries of certain size and economic development, shows that there exists a direct and positive relationship between industrial manufacturing activity, measured as a percentage of GDP, and certain economic variables, such as growth, unemployment and the foreign balance of trade. In the case of the latter, it is verified empirically that the countries with a percentage of manufacturing activity below 20% have a marked tendency for chronic deficits of the balance of trade, leading to persistent deficits in the current account, being that the former deficit is the main component of the latter. This brings about a continued increase in foreign debt that does not cease, and that will end at some point by disrupting the economy of the countries with these chronic deficits. The previous conclusions open the way to a new direction for economic policy, which promotes industrial manufacturing in each country. This is already a fact in 2014. Relevant countries, such as Germany or France in the EU, even the US and ultimately the UK, and of course countries of East Asia such as Japan, South Korea and China, have been promoting their industrial manufacturing for years. It becomes significant that the ideological debate about the goodwill of the application of industrial policy by governments, against liberal theories that maintain public powers far from these kinds of activities, has taken a step towards a horizontal-cut generalized model, where countries, with almost no exception, rely on various instruments to develop their companies that go much further than the usual R&D. Industrial manufacture is therefore valued as vital for economic stability. Even the EU, proponent for decades of non-intervention policy that goes beyond R&D, has gone full circle, ending in 2012 by proclaiming that industrial manufacture is vital for the economic stability of the EU, that it must be promoted. They even mark precisely 20% as an objective for manufacturing as a percentage of GDP. In other words, it is a given that services are not an indefinite substitute for industry, and that therefore it has a limit as such. This rejects the notion that the increase in services at the cost of manufacture is not only healthy, but is also a symptom of development. This premise is no longer true for these and other countries. On the other hand, none of this happens in Spain, where industrial manufacture receives no special attention from the public authorities, and it slides on a downward slope of percentage contribution to GDP, which accelerates the economic crisis that begins in 2007, until manufacture reaches values of around 12% of GDP in 2013. The economic policy applied is that of cost deflation, with consequential effects on wages and the capacity of the economy to generate wealth. A model is proposed for cheaper labor, akin to that of the 1960s. As a relevant indicator of this situation, manufacturing exports from Spain have not grown technologically in the last 15 years. The situation is made worse by another significant fact: almost 40% of sales of the manufacturing industry originate from companies of foreign origin, which supposes on one hand a technological dependence on foreign countries, such as in the case of the automotive industry, and on the other hand uncertainty in its future, being that they are based on maintaining cheap labor in the future, which will slow economic progress of Spaniards working in these companies. The proposition of this Thesis is to bet on a growth model for Spain that has as one of its pillars the development of a solid manufacturing industry, with increasing technological content. For this, an industrial policy plan is proposed, which includes the creation of driving agents for this plan, which must be of maximum political level. If the various governments don’t understand and assume this necessity for support of industry in the long term, independent of political change, this plan will not be accomplished. To start it, the creation or reinforcement of numerous instruments to promote the manufacturing activities are proposed, with a fundamentally horizontal nature that goes far beyond the usual R&D, and that, in several cases, have a clear similarity with others existing in other countries, having been developed for years. The promotion of the manufacturing industry needs new instruments, such as the long-term financing of companies, an orderly and efficient promotion of international activity of exporting companies, the most of which export manufactured goods, education and professional training which is in tune with these objectives, some instruments which support in particular the development of the manufacturing industry, or the minor yet significant participation of the State in Spanish companies belonging to strategic sectors, among others. In summary, this Thesis proposes an different alternative to the economic policy of leaving the manufacturing industry of Spain to its chances, and to base the economic future of Spain on a cheaper labor force.
Resumo:
En la era actual de la tecnología en la que nos encontramos se han experimentado una infinidad de avances. En concreto el interés por las comunicaciones por satélite y los, cada vez más exigentes, terminales móviles han provocado que se inicie líneas de investigación en el campo de las telecomunicaciones. En concreto el estudio de las Antenas de Bocina utilizadas como alimentadores en sistemas de satélite han generado gran interés por la comunidad académica y empresarial. En este Proyecto Fin de Carrera se realiza el estudio del Método de Análisis Modal, método por el cual podemos realizar el estudio del comportamiento de los campos en recintos cerrados y con discontinuidades. El tipo de discontinuidades que se estudia son geometrías cilíndricas en las que se practica un incremento abrupto en el radio de salida. El estudio para el caso inverso, es decir geometrías cilíndricas con radios de salida menores, también lo abordamos, es por esto que es posible la formación de corrugaciones. El proyecto es una continuación de otro anterior que se centra en la optimización de bocinas cónicas lisas. Aunque el método se puede aplicar a cualquier tipo de geometría en este proyecto lo aplicaremos sólo a geometrías cilíndricas dado que diseñaremos un alimentador de bocina cilíndrica con paredes corrugadas. Para el estudio y la implementación de las distintas formulaciones matemáticas haremos uso de la herramienta de cálculo MatLab, es así que podremos generar resultados como el diagrama de radiación de la antena diseñada. Dichos resultados serían contrastados con otro programa de análisis comercial. Se observaría que finalmente el método del análisis modal es una herramienta de cálculo robusta y consistente, que nos permite ahorrar tiempos de cálculo y nos presenta resultados similares a otras herramientas comerciales de análisis electromagnético. ABSTRACT. Technologies sector has made great progress . Specifically, in the area of the satellite communications and mobile communications . These have begun investigation lines in telecommunication areas. Particularly, the study about horn antennas use how feeders in satellite communications have generated high interest at University community and the space companies. The Final Project study is focused in the Method of Modal Analysis, this method allows to study the performance of Electromagnetic fields in closed places with discontinuities. This Project continues other project, where studied the optimization for smoothwall conical horns. In this work we will use this study for implemented a antenna cylindrical corrugated. For the study and implementation of special mathematical equations is necessary to use a calculus mathematical tool like MatLab, this software allows to draw the radiation pattern for antennas design. It should be emphasized that all results will be compare with others commercial softwares for Electromagnetic studies. Finally, we take a look at the method of modal analysis is a robust and consistent mathematical tool that save simulation time and show us similar results to other commercial softwares.
Resumo:
The multi-dimensional classification problem is a generalisation of the recently-popularised task of multi-label classification, where each data instance is associated with multiple class variables. There has been relatively little research carried out specific to multi-dimensional classification and, although one of the core goals is similar (modelling dependencies among classes), there are important differences; namely a higher number of possible classifications. In this paper we present method for multi-dimensional classification, drawing from the most relevant multi-label research, and combining it with important novel developments. Using a fast method to model the conditional dependence between class variables, we form super-class partitions and use them to build multi-dimensional learners, learning each super-class as an ordinary class, and thus explicitly modelling class dependencies. Additionally, we present a mechanism to deal with the many class values inherent to super-classes, and thus make learning efficient. To investigate the effectiveness of this approach we carry out an empirical evaluation on a range of multi-dimensional datasets, under different evaluation metrics, and in comparison with high-performing existing multi-dimensional approaches from the literature. Analysis of results shows that our approach offers important performance gains over competing methods, while also exhibiting tractable running time.