123 resultados para Sucesiones y series

em Universidad Politécnica de Madrid


Relevância:

100.00% 100.00%

Publicador:

Resumo:

En este Proyecto Fin de Máster se realiza un estudio de la diversidad en la Provincia de Almería, analizando los suelos y las series de vegetación en relación con los pisos bioclimáticos de la zona de estudio Objetivos: 1. Definir una metodología que permita obtener un análisis de la diversidad de suelos y series de vegetación en la provincia de Almería, en base a los pisos bioclimáticos presentes como unidades espaciales con vistas a su análisis estadístico. Esta metodología se basa en la creación de modelos y herramientas de geoprocesamiento implementadas con un Sistema de Información Geográfica. 2. Estudio de la vegetación potencial y su correspondencia/correlación con los distintos tipos de suelos presentes en el área de estudio. 3. Análisis cartográfico y geomático de los objetivos precedentes mediante herramientas SIG/GIS (Sistemas de Información Geográfica/Geographic Information Systems, basándose en la creación de modelos y herramientas de geoprocesamiento, para visualizar y comunicar los aspectos más importantes de los estudios realizados. De tal manera, se busca una mayor profundización y experiencia en las tecnologías SIG/GIS.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En el campo del análisis multirresolución de señales, bien sean señales unidimensionales o imágenes, la transformada wavelet (u ondícula) es una de las herramientas más atractivas y potentes debido a su capacidad de análisis de las estructuras y singularidades presentes en una señal cuando esta es analizada en distintas escalas. Este trabajo parte de la investigación de cómo la modificación directa de los coeficientes wavelets permite añadir información en forma de marcas de agua a una imagen o también como con las mismas técnicas se pueden realizar esquemas relativamente sencillos de eliminación de ruido en imágenes. Estas aplicaciones son el primer paso para entender qué información capturan los coeficientes wavelet obtenidos mediante las distintas versiones existentes de transformada wavelet Siguiendo la relación entre el módulo de los coeficientes wavelets resultantes en distintas escalas llegamos a poder caracterizar las singularidades presentes en señales o imágenes con aplicaciones prácticas en campos como el análisis de imágenes mamográficas. Esta relación no es más que el primer paso para enlazar la teoría wavelet con el formalismo multifractal, relación definida en primera instancia a partir de la transforma wavelet de módulo máximo. El análisis entre señal, transformada wavelet de módulo máximo e información local de cada coeficiente wavelet da origen a la contribución principal de este trabajo de tesis que consiste en la estimación directa de distintos parámetros multifractales a partir del cálculo de coeficientes derivados de manera local para cada muestra de una señal o pixel de una imagen. La metodología propuesta se aplica en primer lugar a señales de una dimensión de gran complejidad o irregularidad como son las series financieras y específicamente los valores que componen el índice Dow Jones. El resultado permite la cuantificación de la volatilidad o riesgo asociado a cada uno de esas series. En segundo lugar y como principal aplicación de la metodología de análisis multiescala propuesta, el trabajo de investigación se centra en cómo calcular parámetros multifractales en imágenes que reflejan la estructura de suelos agrícolas. Estas imágenes son obtenidas bien aplicando un tinte especial o mediante modernas técnicas de tomografía axial computarizada. En ambos casos, el objetivo es completar la caracterización estadística de la geometría de los flujos preferenciales de agua y otras sustancias, aspectos claves para el correcto tratamiento de suelos agrícolas. Para validar e interpretar cada uno de los algoritmos desarrollados se utilizan señales multifractales sintetizadas y se comparan los resultados obtenidos en las distintas aplicaciones respecto de algoritmos ya consolidados en cada caso.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este libro, Problemas de Matemáticas, junto con otros dos, Problemas de Geometría y Problemas de Geometría Analítica y Diferencial, están dedicados a la presentación y resolución de problemas que se planteaban hace unas décadas, en la preparación para ingreso en las carreras de ingeniería técnica superior. Incluye 1578 problemas, de los que 848 se refieren al Álgebra (operaciones algebraicas, divisibilidad, combinatoria, determinantes, ecuaciones e inecuaciones, fracciones continuas, números complejos, límites, sucesiones y series, y algunos sobre vectores y mecánica), 175 a la Trigonometría (plana y esférica), 282 al Cálculo diferencial (funciones de una variable, y de dos o más variables), 246 al Cálculo integral (integrales, integrales definidas, integrales en el campo de dos o más variables y ecuaciones diferenciales) y 27 a la Estadística. Esta tercera edición de Problemas de Matemáticas tiene por objeto su puesta a disposición de la Escuela de Ingenieros de Minas de la Universidad Politécnica de Madrid.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Durante la actividad diaria, la sociedad actual interactúa constantemente por medio de dispositivos electrónicos y servicios de telecomunicaciones, tales como el teléfono, correo electrónico, transacciones bancarias o redes sociales de Internet. Sin saberlo, masivamente dejamos rastros de nuestra actividad en las bases de datos de empresas proveedoras de servicios. Estas nuevas fuentes de datos tienen las dimensiones necesarias para que se puedan observar patrones de comportamiento humano a grandes escalas. Como resultado, ha surgido una reciente explosión sin precedentes de estudios de sistemas sociales, dirigidos por el análisis de datos y procesos computacionales. En esta tesis desarrollamos métodos computacionales y matemáticos para analizar sistemas sociales por medio del estudio combinado de datos derivados de la actividad humana y la teoría de redes complejas. Nuestro objetivo es caracterizar y entender los sistemas emergentes de interacciones sociales en los nuevos espacios tecnológicos, tales como la red social Twitter y la telefonía móvil. Analizamos los sistemas por medio de la construcción de redes complejas y series temporales, estudiando su estructura, funcionamiento y evolución en el tiempo. También, investigamos la naturaleza de los patrones observados por medio de los mecanismos que rigen las interacciones entre individuos, así como medimos el impacto de eventos críticos en el comportamiento del sistema. Para ello, hemos propuesto modelos que explican las estructuras globales y la dinámica emergente con que fluye la información en el sistema. Para los estudios de la red social Twitter, hemos basado nuestros análisis en conversaciones puntuales, tales como protestas políticas, grandes acontecimientos o procesos electorales. A partir de los mensajes de las conversaciones, identificamos a los usuarios que participan y construimos redes de interacciones entre los mismos. Específicamente, construimos una red para representar quién recibe los mensajes de quién y otra red para representar quién propaga los mensajes de quién. En general, hemos encontrado que estas estructuras tienen propiedades complejas, tales como crecimiento explosivo y distribuciones de grado libres de escala. En base a la topología de estas redes, hemos indentificado tres tipos de usuarios que determinan el flujo de información según su actividad e influencia. Para medir la influencia de los usuarios en las conversaciones, hemos introducido una nueva medida llamada eficiencia de usuario. La eficiencia se define como el número de retransmisiones obtenidas por mensaje enviado, y mide los efectos que tienen los esfuerzos individuales sobre la reacción colectiva. Hemos observado que la distribución de esta propiedad es ubicua en varias conversaciones de Twitter, sin importar sus dimensiones ni contextos. Con lo cual, sugerimos que existe universalidad en la relación entre esfuerzos individuales y reacciones colectivas en Twitter. Para explicar los factores que determinan la emergencia de la distribución de eficiencia, hemos desarrollado un modelo computacional que simula la propagación de mensajes en la red social de Twitter, basado en el mecanismo de cascadas independientes. Este modelo nos permite medir el efecto que tienen sobre la distribución de eficiencia, tanto la topología de la red social subyacente, como la forma en que los usuarios envían mensajes. Los resultados indican que la emergencia de un grupo selecto de usuarios altamente eficientes depende de la heterogeneidad de la red subyacente y no del comportamiento individual. Por otro lado, hemos desarrollado técnicas para inferir el grado de polarización política en redes sociales. Proponemos una metodología para estimar opiniones en redes sociales y medir el grado de polarización en las opiniones obtenidas. Hemos diseñado un modelo donde estudiamos el efecto que tiene la opinión de un pequeño grupo de usuarios influyentes, llamado élite, sobre las opiniones de la mayoría de usuarios. El modelo da como resultado una distribución de opiniones sobre la cual medimos el grado de polarización. Aplicamos nuestra metodología para medir la polarización en redes de difusión de mensajes, durante una conversación en Twitter de una sociedad políticamente polarizada. Los resultados obtenidos presentan una alta correspondencia con los datos offline. Con este estudio, hemos demostrado que la metodología propuesta es capaz de determinar diferentes grados de polarización dependiendo de la estructura de la red. Finalmente, hemos estudiado el comportamiento humano a partir de datos de telefonía móvil. Por una parte, hemos caracterizado el impacto que tienen desastres naturales, como innundaciones, sobre el comportamiento colectivo. Encontramos que los patrones de comunicación se alteran de forma abrupta en las áreas afectadas por la catástofre. Con lo cual, demostramos que se podría medir el impacto en la región casi en tiempo real y sin necesidad de desplegar esfuerzos en el terreno. Por otra parte, hemos estudiado los patrones de actividad y movilidad humana para caracterizar las interacciones entre regiones de un país en desarrollo. Encontramos que las redes de llamadas y trayectorias humanas tienen estructuras de comunidades asociadas a regiones y centros urbanos. En resumen, hemos mostrado que es posible entender procesos sociales complejos por medio del análisis de datos de actividad humana y la teoría de redes complejas. A lo largo de la tesis, hemos comprobado que fenómenos sociales como la influencia, polarización política o reacción a eventos críticos quedan reflejados en los patrones estructurales y dinámicos que presentan la redes construidas a partir de datos de conversaciones en redes sociales de Internet o telefonía móvil. ABSTRACT During daily routines, we are constantly interacting with electronic devices and telecommunication services. Unconsciously, we are massively leaving traces of our activity in the service providers’ databases. These new data sources have the dimensions required to enable the observation of human behavioral patterns at large scales. As a result, there has been an unprecedented explosion of data-driven social research. In this thesis, we develop computational and mathematical methods to analyze social systems by means of the combined study of human activity data and the theory of complex networks. Our goal is to characterize and understand the emergent systems from human interactions on the new technological spaces, such as the online social network Twitter and mobile phones. We analyze systems by means of the construction of complex networks and temporal series, studying their structure, functioning and temporal evolution. We also investigate on the nature of the observed patterns, by means of the mechanisms that rule the interactions among individuals, as well as on the impact of critical events on the system’s behavior. For this purpose, we have proposed models that explain the global structures and the emergent dynamics of information flow in the system. In the studies of the online social network Twitter, we have based our analysis on specific conversations, such as political protests, important announcements and electoral processes. From the messages related to the conversations, we identify the participant users and build networks of interactions with them. We specifically build one network to represent whoreceives- whose-messages and another to represent who-propagates-whose-messages. In general, we have found that these structures have complex properties, such as explosive growth and scale-free degree distributions. Based on the topological properties of these networks, we have identified three types of user behavior that determine the information flow dynamics due to their influence. In order to measure the users’ influence on the conversations, we have introduced a new measure called user efficiency. It is defined as the number of retransmissions obtained by message posted, and it measures the effects of the individual activity on the collective reacixtions. We have observed that the probability distribution of this property is ubiquitous across several Twitter conversation, regardlessly of their dimension or social context. Therefore, we suggest that there is a universal behavior in the relationship between individual efforts and collective reactions on Twitter. In order to explain the different factors that determine the user efficiency distribution, we have developed a computational model to simulate the diffusion of messages on Twitter, based on the mechanism of independent cascades. This model, allows us to measure the impact on the emergent efficiency distribution of the underlying network topology, as well as the way that users post messages. The results indicate that the emergence of an exclusive group of highly efficient users depends upon the heterogeneity of the underlying network instead of the individual behavior. Moreover, we have also developed techniques to infer the degree of polarization in social networks. We propose a methodology to estimate opinions in social networks and to measure the degree of polarization in the obtained opinions. We have designed a model to study the effects of the opinions of a small group of influential users, called elite, on the opinions of the majority of users. The model results in an opinions distribution to which we measure the degree of polarization. We apply our methodology to measure the polarization on graphs from the messages diffusion process, during a conversation on Twitter from a polarized society. The results are in very good agreement with offline and contextual data. With this study, we have shown that our methodology is capable of detecting several degrees of polarization depending on the structure of the networks. Finally, we have also inferred the human behavior from mobile phones’ data. On the one hand, we have characterized the impact of natural disasters, like flooding, on the collective behavior. We found that the communication patterns are abruptly altered in the areas affected by the catastrophe. Therefore, we demonstrate that we could measure the impact of the disaster on the region, almost in real-time and without needing to deploy further efforts. On the other hand, we have studied human activity and mobility patterns in order to characterize regional interactions on a developing country. We found that the calls and trajectories networks present community structure associated to regional and urban areas. In summary, we have shown that it is possible to understand complex social processes by means of analyzing human activity data and the theory of complex networks. Along the thesis, we have demonstrated that social phenomena, like influence, polarization and reaction to critical events, are reflected in the structural and dynamical patterns of the networks constructed from data regarding conversations on online social networks and mobile phones.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La Turbera de Padul, en la Provincia de Granada, ofrece unas posibilidades de estudio muy atractivas desde el punto de vista de la reconstrucción paleoambiental. Se trata de una fosa tectónica subsidente de naturaleza detrítica, a cuyo techo aparecen alternantes niveles de turba. El sondeo, de 107 metros, se realizó en un punto donde los estratos de turba aparecen a mayor profundidad, lo que permite obtener un registro geoquímico orgánico con mucho detalle con una antigüedad de hasta 1Ma. Se tomaron muestras cada 20 cm para el análisis de biomarcadores. Estos biomarcadores se obtuvieron mediante extracción Soxhlet, posterior separación de fracciones de diferente polaridad mediante Cromatografía en Columna, con Gel de Sílice y Alúmina, y posteriormente el análisis e identificación por Cromatografía de Gases - Espectrometría de masas, con confirmación de los compuestos químicos identificados por comparación con Bibliotecas de Espectros de Masas. La datación del sondeo se realizó utilizando distintos métodos como datación por 14C, U/Th, y datación por racemización de aminoácidos. Los resultados dataron el muro del sondeo con una antigüedad de 1 millón de años. El estudio de los biomarcadores ha permitido identificar episodios con distintas características en un escenario complejo, como es la Turbera de Padul, donde el aporte de agua por fusión nival complica la interpretación paleoambiental, y es la responsable de la existencia de la lámina de agua en la turbera en periodos secos con temperaturas elevadas. Se han identificado series de n-alcanos, de n-metilcetonas y series de nalcanoles, que han permitido identificar la aportación de materia orgánica de distintas fuentes al sedimento y por tanto la interpretación paleoambiental. La identificación de diterpenoides fenólicos (cis-Totatol, trans-Totarol y Ferruginol) han permitido identificar episodios de clima templado y húmedo con proliferación de cupresáceas, y precipitaciones abundantes. Por otro lado, se han identificado triterpenoides como el Friedelan-3-ona (Friedelin) y el A-norfriedel-8en-10-ona, cuya relación como precursor (Friedelin) y producto (A-norfriedel-8en-10-ona) ha permitido identificar episodios con fluctuaciones del espesor de la lámina de agua y aporte de material vegetal. ABSTRACT The Bog of Padul, in the province of Granada, offers very attractive possibilities for the study of paleoenvironmental reconstruction. It is a subsiding graben of detrital nature, whose upper part appear alternating peat levels. The core of 107 meters, obtained from a borehole drilled in a place where the layers of peat appear deeper, allowing to obtain organic geochemist information along the last 1 million years. Every 20 cm samples for biomarkers analysis were taken. These biomarkers were obtained by Soxhlet extraction, subsequent separation of fractions of different polarity by column chromatography with silica gel and alumina, and then analyzed and identified by gas chromatography - mass spectrometry, with confirmation of the chemicals identified by comparison to mass spectral libraries. The dating of the core was conducted using different methods such as 14C dating, U/Th, and amino acid racemization dating. The results dated the base of the core to be 1 million years old. The study has identified biomarkers episodes with different characteristics in a complex scenario, such as the Bog of Padul, where the contribution of snowmelt water complicates the paleoenvironmental interpretation, and is responsible for the existence of a sheet of water in dry periods with high temperatures. There have been identified series of n-alkanes, n-methyl ketones and series of n-alkanols that have shown the contribution of different organic matter sources to the sediment and therefore allowed to paleo interpretation. The identification of phenolic diterpenoids (cis-Totatol, trans-Totarol and Ferruginol) have identified episodes of mild and humid climate with proliferation of Cupressaceae, and abundant rainfall. In addition, triterpenoids have been identified, as the friedelan-3-one (friedelin) and the A-norfriedel-8en-10-one, whose relationship as precursor (friedelin) and product (A-norfriedel-8en-10-one) has identified episodes with fluctuations on the thickness of the sheet of water and supply of plant material debris.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Prueba de campo de tractores series 800 y 900 de Fendt

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Deutz-Fahr presenta sus nuevas series 6 y 7 de tractores de alta potencia. Los días 26, 27 y 28 de agosto tuvo lugar en Berlín la presentación internacional de ls nuevas series 6 y 7 de tractores Deutz-Fahr, tanto a clientes (el primer día) como a la prensa internacional (los dos últimos). Acudieron alrededor de 1.200 personas, 140 de las cuales procedían de la Península Ibérica (España y Portugal), mayoritariamente clientes.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El proyecto ''Atlas y Libro Rojo de la Flora Vascular Amenazada de España" (proyecto AFA) se ha desarrollado a iniciativa del Ministerio de Medio Ambiente, en el que han participado de forma coordinada más de 200 personas organizadas en una treintena de equipos de trabajo procedentes de universidades, centros de investigación y otras instituciones vinculadas a la conservación de plantas. Su objetivo principal es el inventariado basado en la cartografía, censo y catalogación de la flora vascular amenazada española. Este proyecto se encuentra enmarcado dentro en un extenso programa nacional de caracterización de la biodiversidad, denominado Inventario Nacional de Biodiversidad, que tiene como finalidad la creación y el mantenimiento a largo plazo de un inventario de la biodiversidad española, organizado en una serie de Atlas estructurados por grupos taxonómicos (http://www.mma.es/portal! secciones/biodiversidad / inventarios / inb/) . En el caso de la flora vascular, un total de 466 especies prioritarias, en su mayoría pertenecientes a las categorías "en peligro crítico" (CR) y "en peligro" (EN) se encuentran informatizadas en una base de datos del Ministerio de Medio Ambiente, I cuyos campos describen su corología en cuadrículas de 500 x 500 m, el tamaño de cada una de sus poblaciones, los factores de amenaza, el grado de protección territorial, las actuaciones emprendidas y las propuestas futuras de conservación. Una síntesis de dicha información fue publicada en 2003 (reeditada en 2004 y 2007) bajo el título ''Atlas y Libro Rojo de la Flora Vascular Amenazada de España" (Bañares el al., 2004). En un proceso continuo de ampliación se han sumado al proyecto otras series de 35 y 53 especies (mayoritariamente "vulnerables", VU), publicadas como adendas al Atlas y Libro Rojo en años sucesivos (Bañares el al., 2007, 2009). En el inicio de las labores organizativas del proyecto AFA, y con antelación a los trabajos de campo, se constituyó un grupo de trabajo con el objetivo de preparar un manual metodológico de obtención de datos aplicable a todos los taxones de flora vascular considerados y en todo el territorio. Este manual de metodología, que fue presentado a los equipos de trabajo en una reunión técnica celebrada en Miraflores de la Sierra (Madrid) en febrero de 2001 y que se publica con la presente edición, recopila las pautas dadas a los equipos de trabajo que participaron en la obtención de los datos de campo. Con la publicación de este Manual de Metodología aplicado en la ejecución del proyecto AFA se intenta lograr un doble objetivo: por un lado, divulgar la metodología empleada a un público más amplio al objeto de que pueda servir de base para la ejecución de otros estudios de la misma naturaleza en éste u otros entornos geográficos; en segundo lugar, dar máxima difusión a esta información para facilitar la posibilidad de que, en un futuro, cuando se emprendan acciones de naturaleza semejante sobre las plantas vasculares amenazadas de España, resulte posible comparar los resultados obtenidos en tal estudio con los publicados en el Atlas y Libro Rojo de la Flora Vascular Amenazada de España. La experiencia adquirida tras la aplicación de esta metodología a los más de 500 taxones estudiados durante estos años, más una serie de avances, fundamentalmente el acceso a ciertas herramientas como los Sistemas Globales de Navegación por Satélite (GNSS) (p.ej. GPS), los Sistemas de Información Geográfica (SIG), la fotografía digital y también el desarrollo de ciertas bases de datos fácilmente consultables, nos ha permitido ahora incluir un apartado adicional que recopila nuevas recomendaciones metodológicas a incorporar en futuros estudios de esta naturaleza.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

This Doctoral Thesis entitled Contribution to the analysis, design and assessment of compact antenna test ranges at millimeter wavelengths aims to deepen the knowledge of a particular antenna measurement system: the compact range, operating in the frequency bands of millimeter wavelengths. The thesis has been developed at Radiation Group (GR), an antenna laboratory which belongs to the Signals, Systems and Radiocommunications department (SSR), from Technical University of Madrid (UPM). The Radiation Group owns an extensive experience on antenna measurements, running at present four facilities which operate in different configurations: Gregorian compact antenna test range, spherical near field, planar near field and semianechoic arch system. The research work performed in line with this thesis contributes the knowledge of the first measurement configuration at higher frequencies, beyond the microwaves region where Radiation Group features customer-level performance. To reach this high level purpose, a set of scientific tasks were sequentially carried out. Those are succinctly described in the subsequent paragraphs. A first step dealed with the State of Art review. The study of scientific literature dealed with the analysis of measurement practices in compact antenna test ranges in addition with the particularities of millimeter wavelength technologies. Joint study of both fields of knowledge converged, when this measurement facilities are of interest, in a series of technological challenges which become serious bottlenecks at different stages: analysis, design and assessment. Thirdly after the overview study, focus was set on Electromagnetic analysis algorithms. These formulations allow to approach certain electromagnetic features of interest, such as field distribution phase or stray signal analysis of particular structures when they interact with electromagnetic waves sources. Properly operated, a CATR facility features electromagnetic waves collimation optics which are large, in terms of wavelengths. Accordingly, the electromagnetic analysis tasks introduce an extense number of mathematic unknowns which grow with frequency, following different polynomic order laws depending on the used algorithmia. In particular, the optics configuration which was of our interest consisted on the reflection type serrated edge collimator. The analysis of these devices requires a flexible handling of almost arbitrary scattering geometries, becoming this flexibility the nucleus of the algorithmia’s ability to perform the subsequent design tasks. This thesis’ contribution to this field of knowledge consisted on reaching a formulation which was powerful at the same time when dealing with various analysis geometries and computationally speaking. Two algorithmia were developed. While based on the same principle of hybridization, they reached different order Physics performance at the cost of the computational efficiency. Inter-comparison of their CATR design capabilities was performed, reaching both qualitative as well as quantitative conclusions on their scope. In third place, interest was shifted from analysis - design tasks towards range assessment. Millimetre wavelengths imply strict mechanical tolerances and fine setup adjustment. In addition, the large number of unknowns issue already faced in the analysis stage appears as well in the on chamber field probing stage. Natural decrease of dynamic range available by semiconductor millimeter waves sources requires in addition larger integration times at each probing point. These peculiarities increase exponentially the difficulty of performing assessment processes in CATR facilities beyond microwaves. The bottleneck becomes so tight that it compromises the range characterization beyond a certain limit frequency which typically lies on the lowest segment of millimeter wavelength frequencies. However the value of range assessment moves, on the contrary, towards the highest segment. This thesis contributes this technological scenario developing quiet zone probing techniques which achieves substantial data reduction ratii. Collaterally, it increases the robustness of the results to noise, which is a virtual rise of the setup’s available dynamic range. In fourth place, the environmental sensitivity of millimeter wavelengths issue was approached. It is well known the drifts of electromagnetic experiments due to the dependance of the re sults with respect to the surrounding environment. This feature relegates many industrial practices of microwave frequencies to the experimental stage, at millimeter wavelengths. In particular, evolution of the atmosphere within acceptable conditioning bounds redounds in drift phenomena which completely mask the experimental results. The contribution of this thesis on this aspect consists on modeling electrically the indoor atmosphere existing in a CATR, as a function of environmental variables which affect the range’s performance. A simple model was developed, being able to handle high level phenomena, such as feed - probe phase drift as a function of low level magnitudes easy to be sampled: relative humidity and temperature. With this model, environmental compensation can be performed and chamber conditioning is automatically extended towards higher frequencies. Therefore, the purpose of this thesis is to go further into the knowledge of millimetre wavelengths involving compact antenna test ranges. This knowledge is dosified through the sequential stages of a CATR conception, form early low level electromagnetic analysis towards the assessment of an operative facility, stages for each one of which nowadays bottleneck phenomena exist and seriously compromise the antenna measurement practices at millimeter wavelengths.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La fisuración iniciada en la superficie de los pavimentos asfálticos constituye uno de los más frecuentes e importantes modos de deterioro que tienen lugar en los firmes bituminosos, como han demostrado los estudios teóricos y experimentales llevados a cabo en la última década. Sin embargo, este mecanismo de fallo no ha sido considerado por los métodos tradicionales de diseño de estos firmes. El concepto de firmes de larga duración se fundamenta en un adecuado seguimiento del proceso de avance en profundidad de estos deterioros y la intervención en el momento más apropiado para conseguir mantenerlos confinados como fisuras de profundidad parcial en la capa superficial más fácilmente accesible y reparable, de manera que pueda prolongarse la durabilidad y funcionalidad del firme y reducir los costes generalizados de su ciclo de vida. Por lo tanto, para la selección de la estrategia óptima de conservación de los firmes resulta esencial disponer de metodologías que posibiliten la identificación precisa in situ de la fisuración descendente, su seguimiento y control, y que además permitan una determinación fiable y con alto rendimiento de su profundidad y extensión. En esta Tesis Doctoral se presentan los resultados obtenidos mediante la investigación sistemática de laboratorio e in situ llevada a cabo para la obtención de datos sobre fisuración descendente en firmes asfálticos y para el estudio de procedimientos de evaluación de la profundidad de este tipo de fisuras empleando técnicas de ultrasonidos. Dichos resultados han permitido comprobar que la metodología no destructiva propuesta, de rápida ejecución, bajo coste y sencilla implementación (principalmente empleada hasta el momento en estructuras metálicas y de hormigón, debido a las dificultades que introduce la naturaleza viscoelástica de los materiales bituminosos) puede ser aplicada con suficiente fiabilidad y repetibilidad sobre firmes asfálticos. Las medidas resultan asimismo independientes del espesor total del firme. Además, permite resolver algunos de los inconvenientes frecuentes que presentan otros métodos de diagnóstico de las fisuras de pavimentos, tales como la extracción de testigos (sistema destructivo, de alto coste y prolongados tiempos de interrupción del tráfico) o algunas otras técnicas no destructivas como las basadas en medidas de deflexiones o el georradar, las cuales no resultan suficientemente precisas para la investigación de fisuras superficiales. Para ello se han realizado varias campañas de ensayos sobre probetas de laboratorio en las que se han estudiado diferentes condiciones empíricas como, por ejemplo, distintos tipos de mezclas bituminosas en caliente (AC, SMA y PA), espesores de firme y adherencias entre capas, temperaturas, texturas superficiales, materiales de relleno y agua en el interior de las grietas, posición de los sensores y un amplio rango de posibles profundidades de fisura. Los métodos empleados se basan en la realización de varias medidas de velocidad o de tiempo de transmisión del pulso ultrasónico sobre una única cara o superficie accesible del material, de manera que resulte posible obtener un coeficiente de transmisión de la señal (mediciones relativas o autocompensadas). Las mediciones se han realizado a bajas frecuencias de excitación mediante dos equipos de ultrasonidos diferentes dotados, en un caso, de transductores de contacto puntual seco (DPC) y siendo en el otro instrumento de contacto plano a través de un material especialmente seleccionado para el acoplamiento (CPC). Ello ha permitido superar algunos de los tradicionales inconvenientes que presenta el uso de los transductores convencionales y no precisar preparación previa de las superficies. La técnica de autocalibración empleada elimina los errores sistemáticos y la necesidad de una calibración local previa, demostrando el potencial de esta tecnología. Los resultados experimentales han sido comparados con modelos teóricos simplificados que simulan la propagación de las ondas ultrasónicas en estos materiales bituminosos fisurados, los cuales han sido deducidos previamente mediante un planteamiento analítico y han permitido la correcta interpretación de dichos datos empíricos. Posteriormente, estos modelos se han calibrado mediante los resultados de laboratorio, proporcionándose sus expresiones matemáticas generalizadas y gráficas para su uso rutinario en las aplicaciones prácticas. Mediante los ensayos con ultrasonidos efectuados en campañas llevadas a cabo in situ, acompañados de la extracción de testigos del firme, se han podido evaluar los modelos propuestos. El máximo error relativo promedio en la estimación de la profundidad de las fisuras al aplicar dichos modelos no ha superado el 13%, con un nivel de confianza del 95%, en el conjunto de todos los ensayos realizados. La comprobación in situ de los modelos ha permitido establecer los criterios y las necesarias recomendaciones para su utilización sobre firmes en servicio. La experiencia obtenida posibilita la integración de esta metodología entre las técnicas de auscultación para la gestión de su conservación. Abstract Surface-initiated cracking of asphalt pavements constitutes one of the most frequent and important types of distress that occur in flexible bituminous pavements, as clearly has been demonstrated in the technical and experimental studies done over the past decade. However, this failure mechanism has not been taken into consideration for traditional methods of flexible pavement design. The concept of long-lasting pavements is based on adequate monitoring of the depth and extent of these deteriorations and on intervention at the most appropriate moment so as to contain them in the surface layer in the form of easily-accessible and repairable partial-depth topdown cracks, thereby prolonging the durability and serviceability of the pavement and reducing the overall cost of its life cycle. Therefore, to select the optimal maintenance strategy for perpetual pavements, it becomes essential to have access to methodologies that enable precise on-site identification, monitoring and control of top-down propagated cracks and that also permit a reliable, high-performance determination of the extent and depth of cracking. This PhD Thesis presents the results of systematic laboratory and in situ research carried out to obtain information about top-down cracking in asphalt pavements and to study methods of depth evaluation of this type of cracking using ultrasonic techniques. These results have demonstrated that the proposed non-destructive methodology –cost-effective, fast and easy-to-implement– (mainly used to date for concrete and metal structures, due to the difficulties caused by the viscoelastic nature of bituminous materials) can be applied with sufficient reliability and repeatability to asphalt pavements. Measurements are also independent of the asphalt thickness. Furthermore, it resolves some of the common inconveniences presented by other methods used to evaluate pavement cracking, such as core extraction (a destructive and expensive procedure that requires prolonged traffic interruptions) and other non-destructive techniques, such as those based on deflection measurements or ground-penetrating radar, which are not sufficiently precise to measure surface cracks. To obtain these results, extensive tests were performed on laboratory specimens. Different empirical conditions were studied, such as various types of hot bituminous mixtures (AC, SMA and PA), differing thicknesses of asphalt and adhesions between layers, varied temperatures, surface textures, filling materials and water within the crack, different sensor positions, as well as an ample range of possible crack depths. The methods employed in the study are based on a series of measurements of ultrasonic pulse velocities or transmission times over a single accessible side or surface of the material that make it possible to obtain a signal transmission coefficient (relative or auto-calibrated readings). Measurements were taken at low frequencies by two short-pulse ultrasonic devices: one equipped with dry point contact transducers (DPC) and the other with flat contact transducers that require a specially-selected coupling material (CPC). In this way, some of the traditional inconveniences presented by the use of conventional transducers were overcome and a prior preparation of the surfaces was not required. The auto-compensating technique eliminated systematic errors and the need for previous local calibration, demonstrating the potential for this technology. The experimental results have been compared with simplified theoretical models that simulate ultrasonic wave propagation in cracked bituminous materials, which had been previously deduced using an analytical approach and have permitted the correct interpretation of the aforementioned empirical results. These models were subsequently calibrated using the laboratory results, providing generalized mathematical expressions and graphics for routine use in practical applications. Through a series of on-site ultrasound test campaigns, accompanied by asphalt core extraction, it was possible to evaluate the proposed models, with differences between predicted crack depths and those measured in situ lower than 13% (with a confidence level of 95%). Thereby, the criteria and the necessary recommendations for their implementation on in-service asphalt pavements have been established. The experience obtained through this study makes it possible to integrate this methodology into the evaluation techniques for pavement management systems.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The solaR package includes a set of functions to calculate the solar radiation incident on a photovoltaic generator and simulate the performance of several applications of the photovoltaic energy. This package performs the whole calculation procedure from both daily and intradaily global horizontal irradiation to the final productivity of grid connected PV systems and water pumping PV systems. The package stands on a set of S4 classes. The core of each class is a group of slots with yearly, monthly, daily and intradaily multivariate time series (with the zoo package ). The classes share a variety of methods to access the information (for example, as.zooD provides a zoo object with the daily multivariate time series of the corresponding object) and several visualisation methods based on the lattice andlatticeExtra packages.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

En los últimos tiempos, el estudio japonés SANAA ha realizado una serie de obras que le han puesto en el punto de mira de la arquitectura internacional, y que se ha visto reflejado en la concesión en el año 2010 del premio Pritzker a Kazuyo Sejima y Ryue Nishizawa por toda una carrera de trabajo ininterrumpido. SANAA ha construido una serie de edificios que han supuesto una gran influencia en el contexto de la arquitectura mundial y que está contribuyendo al trabajo de muchísimos arquitectos jóvenes, tanto en Japón como fuera de él, y su trabajo se estudia y analiza en las escuelas de arquitectura de medio mundo. La tesis doctoral, estudia el parque de SANAA desde las diversas formas en las que éste se presenta, parques por continuidad, o parques por acumulación, como una excusa para el estudio de los diferentes mecanismos arquitectónicos en los que se basa su modo de proyectar. Dichos mecanismos forman parte ya de una forma de proyectar contemporánea y su estudio permite la comprensión de algunos de los fenómenos arquitectónicos más interesantes que se están produciendo en la arquitectura de nuestro tiempo. La revelación de estos mecanismos supone el sacar a la luz gran parte de los procesos y desarrollos de proyecto, que por la lacónica manera de dibujar de SANAA, quedan ocultos la mayoría de las veces y, tan solo es percibido en una visita lenta y pausada por el edificio. El documento aquí presentado se convierte entonces, en una investigación, en la que el doctorando, como un detective, rastrea los proyectos de SANAA buscando aquellos mecanismos que permiten discernir el verdadero significado de conceptos como laberinto, jerarquía, orden, atmósfera o experiencia a lo largo de los principales proyectos de espacio horizontal de Sejima y Nishizawa. La tesis intenta por tanto dar forma a las principales referencias que constituyen el universo imaginario del estudio japonés y que, ya son parte de la cultura arquitectónica contemporánea. ABSTRACT In recent times, the Japanese Studio SANAA has produced a number of works that have taken it to the front sight of international architecture. This has led Kazuyo Sejima and Ryue Nishizawa to receiving the 2010 Pritzer award for an uninterrupted career. SANAA has built a series of buildings that have greatly influenced global architecture. Moreover, it is contributing to the work of many young architects, both in Japan and outside Japan. Its work is studied and assessed by architecture schools all over the world. This Doctoral thesis analyses the SANAA Park from all the perspectives it shows, parks by continuity or parks by accumulation, as an excuse to study different architectural mechanisms in which its way of projecting is based. Such mechanisms already are part of a contemporaneous way of projecting. In addition, its analysis allows for the further understanding of some of the most interesting architectural phenomena that are being produced nowadays. The release of these mechanisms entails shedding a light to most of the proceedings and courses of the project that, because of the SANAA’s laconic way of designing, remain hidden most of the times and are often noticed through a slow and thorough look at the building. This document becomes then a work of research, where the Doctorate, as a detective, tracks SANAA’s projects, searching for those mechanisms that allow for truly defining the meaning of concepts such as maze, hierarchy, order, atmosphere and experience throughout Sejima’s and Nishizawa’s main horizontal space projects. Therefore, this thesis aims at shaping key references that constitute the imaginary universe of the Japanese study and that already are part of the contemporaneous architectural culture.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La estrategia i2010 de la UE tiene como objetivo garantizar el liderazgo europeo en materia de TIC y poner los beneficios de la Sociedad de la Información al servicio de la economía, la sociedad y la calidad de vida personal, teniendo presente que los éxitos de Europa hasta la fecha se han basado en favorecer la competencia leal en los mercados de las telecomunicaciones y crear un mercado sin fronteras para contenidos y medios de comunicación digitales. En esta línea, la Comisión Europea ha establecido que los distintos estados miembros deben contribuir activamente al desarrollo y uso seguro de los servicios telemáticos entre sus ciudadanos. Más concretamente, atribuye a las Administraciones Públicas, tanto a nivel nacional, regional como local, un papel dinamizador de la Sociedad de la Información que les obliga a ofrecer paulatinamente todos los actos administrativos a los ciudadanos a través de Internet. Como primer paso para el uso seguro de los servicios telemáticos que ofrecen las instituciones públicas se hace preciso dotar a los ciudadanos de una identidad digital que les permita identificarse ante un Proveedor de Servicio o ante otros ciudadanos de manera inequívoca. Por esta razón, la mayoría de países europeos – y otros en el resto del mundo – están promoviendo, sistemas fiables de gestión de identidad electrónica (eIDM), de tal manera que los ciudadanos, las empresas y departamentos gubernamentales (incluso en Estados miembros diferentes) pueden identificar y certificar sus operaciones con precisión, rapidez y sencillez. Sin embargo, la gestión de esta identidad por las Administraciones Públicas supone un importante desafío, acentuado cuando se hace necesaria la interoperabilidad entre Administraciones de diferentes países, puesto que personas y entidades tienen credenciales de identificación diferentes en función de su propio marco jurídico nacional. Consciente del problema, en la Unión Europea se han puesto en marcha una serie de proyectos con el objetivo de conseguir la interoperabilidad de los eIDMs entre las instituciones públicas de diferentes Estados miembros. A pesar de ello, las soluciones adoptadas hasta la fecha son insuficientes porque no prevén todos los posibles casos de interacción del usuario con las instituciones. En concreto, no tienen en cuenta un aspecto muy importante que se ofrece en los distintos sistemas jurídicos nacionales, a saber, la delegación de la identidad, mediante la cual un ciudadano puede autorizar a otro para que actúe en su nombre para acceder a determinados servicios prestados por las instituciones públicas. En esta tesis se realizan un conjunto de aportaciones que dan solución a distintos aspectos de los problemas planteados y que, de forma conjunta, permiten la interoperabilidad y la delegación de identidad en determinados Sistemas de Gestión de Identidad aplicados al entorno de las Administraciones Públicas. En el caso de la delegación, se ha definido un sistema de delegación dinámica de identidad entre dos entidades genéricas que permite solucionar el problema del acceso delegado a los servicios telemáticos ofrecidos por las Administraciones Públicas. La solución propuesta se basa en la generación de un token de delegación, constituido a partir de un Certificado Proxy, que permite a la entidad que delega establecer la delegación de identidad en otra entidad en base a un subconjunto de sus atributos como delegador, estableciendo además, en el propio token de delegación, restricciones en el conjunto de servicios accesibles a la entidad delegada y el tiempo de validez de la delegación. Adicionalmente, se presentan los mecanismos necesarios tanto para poder revocar un token de delegación como para comprobar sin un token de delegación ha sido o no revocado. Para ello se propone una solución para la identificación unívoca de tokens de delegación y la creación de una nueva entidad denominada Autoridad de Revocación de Tokens de Delegación. Entre las características del sistema de delegación propuesto destaca el que es lo suficientemente seguro como para ser utilizado en el entorno de la Administración Pública, que no requiere el uso de mecanismos off‐line para la generación de la delegación y que se puede realizar la delegación de forma instantánea y sin la necesidad de trámites complejos o la participación de un elevado número de entidades. Adicionalmente, el token de delegación propuesto es perfectamente integrable en las infraestructura de clave pública actual lo que hace que, dado que gran parte de las Administraciones Públicas europeas basan sus sistemas de identidad digital en el uso de la PKI y certificados de identidad X.509, la solución pueda ser puesta en marcha en un entorno real sin necesidad de grandes cambios o modificaciones de comportamiento. En lo referente a la interoperabilidad, se realiza un análisis exhaustivo y la correspondiente evaluación de las principales propuestas de Sistemas de Gestión de Identidad orientados a conseguir la interoperabilidad realizadas hasta la fecha en el marco de la Unión Europea y se propone, a alto nivel, una arquitectura de interoperabilidad para la gestión de identidad en las Administraciones Públicas. Dicha arquitectura es lo suficientemente genérica como para poder ser aplicada tanto en el entorno pan‐Europeo como en los entornos nacionales, autonómicos y locales, de tal forma que la interoperabilidad en la gestión de la identidad esté garantizada en todos los niveles de la Administración Pública. Por último, mediante la integración de la solución de delegación dinámica de identidad y la arquitectura de interoperabilidad propuestas se presenta una solución al problema de la delegación en un escenario pan‐Europeo de gestión de identidad, dando lugar a una arquitectura global de interoperabilidad pan‐Europea con soporte a la delegación de identidad. SUMMARY The i2010 European Union Plan aims to ensure European leadership in ICT and to promote the positive contribution that information and communication technologies can make to the economic, social and personal quality of life, bearing in mind that, to date, success in Europe has been based on promoting fair competition in telecommunications markets and on creating a borderless market for contents and digital media. In this line, the European Commission has established that the different member states should contribute actively to the development and secure use of telematic services among their citizens. More specifically, it is attributed to national, regional and local Public Administrations to have a supportive role of the Information Society, requiring them to gradually provide the citizens with Internet‐based access to all administrative procedures acts. As a first step for the secure use of telematic services offered by public institutions, it is necessary to provide the citizens with a digital identity to enable them to identify themselves unequivocally to a Service Provider or to other citizens. For this reason, most European countries ‐ and others in the rest of the world ‐ are promoting reliable systems for managing electronic identity (eIDM), so that citizens, businesses and government departments (even in different Member States) can identify and certify their operations with precision, speed and simplicity. However, the identity management by Public Administrations is a major challenge that becomes more difficult when interoperability between administrations of different countries is needed, due to the fact that individuals and entities have different identification credentials according to their own national legal framework. Aware of the problem, the European Union has launched a series of projects with the aim of achieving interoperability of eIDMs between public institutions of different Member States. However, the solutions adopted to date are insufficient because they do not foresee all possible cases of user interaction with the institutions. In particular, solutions do not take into account a very important aspect that is offered in different national legal systems, namely, the delegation of identity, by which a citizen can authorize another to act on his/her behalf to access certain services provided by public institutions. In this thesis a collection of contributions that provide solution to different aspects of the aforementioned problems are carried out. The solutions, in global, enable interoperability and identity delegation in some of the Identity Management Systems applied to Public Administration environment. In the case of delegation, a dynamic identity delegation system between generic entities is defined. This system makes it possible to solve the problem of delegated access to telematic services offered by Public Administrations. The proposed solution is based on the generation of a piece of information called delegation token. This delegation token, derived from a Proxy Certificate, allows the establishment of identity delegation by an entity that delegates (delegator) in other entity (delegatee) making use of a subset of delegator attributes. It also establishes restrictions on services that can be used by the delegated entity and the expiry date of delegation. In addition to this, the mechanisms necessary to revoke and check the revocation status of a delegation token are presented. To do this, a solution to univocally identify delegation tokens and the creation of a completely new entity, called Token Delegation Revocation Authority, are proposed. The most remarkable characteristics of the proposed delegation system are its security, enough for it to be used in the Public Administration environment, the fact that it does not require off‐line processes in order to generate the delegation, and the possibility of performing the delegation instantaneously and without neither complex processes nor the intervention of a large number of entities. The proposed delegation token can be completely incorporated into current Public Key Infrastructure (PKI). Thus, since most of the European Public Administrations base their digital identity systems on PKI and X.509 identity certificates, the solution can be adopted in a real environment without great changes or performance modifications. Regarding interoperability, an exhaustive analysis and evaluation of most significant proposals on Identity Management Systems that aim to achieve interoperability carried out in the European Union framework until now are performed. A high level identity management interoperability architecture for Public Administrations is also proposed. This architecture is sufficiently generic to be applied to both pan‐European environment and national, regional or local environments, thus interoperability in identity management at all Public Administration levels is guaranteed. Finally, through the integration of the proposed dynamic identity delegation solution and the high level interoperability architecture, a solution to the problem of identity delegation in a pan‐European identity management environment is suggested, leading to a pan‐European global interoperability architecture with identity delegation support.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

En este trabajo se presenta un análisis de las series sísmicas registradas durante los meses de julio y noviembre de 2010 en el sector noreste del mar de Alborán, cerca de Almería. La primera serie consta de, al menos, 180 terremotos registrados entre el 4 de julio y el 15 de Noviembre de 2010, con un terremoto principal de Mw =4.3 ocurrido el 5 de Julio y sentido en Almería con intensidad EMS IV. Esta serie está caracterizada por tener una fuerte alineación con dirección NW, que contrasta con la de los grandes sistemas de fallas de la zona (falla de Carboneras). La segunda serie consta de más de 27 terremotos y se extiende del 2 al 15 de Noviembre, con un sismo principal de magnitud Mw =4.1 ocurrido el día 4 de ese mes. Esta segunda serie se sitúa a unos 35 km al Este de la primera, siendo menos numerosa que ésta pero mucho más próxima a las poblaciones del Poniente Almeriense y alcanzando mayores intensidades (intensidad máxima EMS = V). El objetivo de este estudio es analizar en detalle ambas series sísmicas, examinado la distribución geográfica de los sismos que las componen, su distribución temporal y su posible interrelación con series sísmicas pasadas. Finalmente se tratará de identificar, con los conocimientos de la tectónica de la zona, la posible fuente sísmica generadora, así como analizar posibles efectos de disparo entre eventos por medio de modelizaciones de esfuerzos de Coulomb.