25 resultados para Interferencia estilística

em Universidad Politécnica de Madrid


Relevância:

20.00% 20.00%

Publicador:

Resumo:

El análisis del comportamiento de los modos de interferencia tiene una aplicación cada vez mas amplia, especialmente en el campo de los biosensores opticos. En este tipo de sensores se observa el desplazamiento Δν de los modos de interferencia de la señal de transducción al reconocer un determinado agente biologico. Para medir ese desplazamiento se debe detectar la posición de un máximo o minimo de la senal antes y después de dicho desplazamiento. En este tipo de biosensores un parámetro de gran importancia es el periodo Pν de la senal el cual es inversamente proporcional al espesor óptico h0 del sensor en ausencia de agente biologico. El aumento de dicho periodo mejora la sensibilidad del sensor pero parece dificultar la detección del minimo o maximo. Por tanto, su efecto sobre la incetidumbre del resultado de la medida presentados efectos contrapuestos: la mejora de la sensibilidad frente a la dificultad creciente en la detección del minimo o maximo. En este trabajo, los autores analizan la propagación de incertidumbres en estos sensores utilizando herramientas de ajuste por MM.CC. para la detección de los minimos o máximos de la senal y técnicas de propagación de incertidumbres descritas en los suplementos 2 de la Guia ISO-GUM. El resultado del análisis permite dar una respuesta, justificada desde el punto de vista metrologico, de en que condiciones es conveniente o no aumentar el periodo Pν de la senal.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The analysis of the interference modes has an increasing application, especially in the field of optical biosensors. In this type of sensors, the displacement Δν of the interference modes of the transduction signal is observed when a particular biological agent is placed over the biosensor. In order to measure this displacement, the position of a maximum (or a minimum) of the signal must be detected before and after placing the agent over the sensor. A parameter of great importance for this kind of sensors is the period Pν of the signal, which is inversely proportional to the optical thickness h0 of the sensor in the absence of the biological agent. The increase of this period improves the sensitivity of the sensor but it worsens the detection of the maximum. In this paper, authors analyze the propagation of uncertainties in these sensors when using least squares techniques for the detection of the maxima (or minima) of the signal. Techniques described in supplement 2 of the ISO-GUM Guide are used. The result of the analysis allows a metrological educated answer to the question of which is the optimal period Pν of the signal. El análisis del comportamiento de los modos de interferencia tiene una aplicación cada vez más amplia, especialmente en el campo de los biosensores ópticos. En este tipo de sensores se observa el desplazamiento Δν de los modos de interferencia de la señal de transducción al reconocer un de-terminado agente biológico. Para medir ese desplazamiento se debe detectar la posición de un máximo o mínimo de la señal antes y después de dicho desplazamiento. En este tipo de biosensores un parámetro de gran importancia es el periodo Pν de la señal el cual es inversamente proporcional al espesor óptico h0 del sensor en ausencia de agente biológico. El aumento de dicho periodo mejora la sensibilidad del sensor pero parece dificultar la detección del mínimo o máximo. Por tanto, su efecto sobre la incertidumbre del resultado de la medida presenta dos efectos contrapuestos: la mejora de la sensibilidad frente a la dificultad creciente en la detección del mínimo ó máximo. En este trabajo, los autores analizan la propagación de incertidumbres en estos sensores utilizando herramientas de ajuste por MM.CC. para la detección de los mínimos o máximos de la señal y técnicas de propagación de incertidumbres descritas en el suplemento 2 de la Guía ISO-GUM. El resultado del análisis permite dar una respuesta, justificada desde el punto de vista metrológico, de en que condiciones es conveniente o no aumentar el periodo Pν de la señal.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Presentación del curso Transmisión Digital, tema Detección con Interferencia entre Símbolos

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La desintegración estilística de la arquitectura contemporánea

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta tesis presenta un estudio de la resistencia de interferencia en multicascos, término que engloba las variaciones en la resistencia al avance debidas a la interacción entre cascos. Su característica más notable es que puede ser tanto positiva como negativa, contribuyendo favorablemente en este último caso a la reducción de la resistencia total. Su análisis permanece como un área activa dentro de la comunidad hidrodinámica, si bien se ha detectado una significativa falta de información experimental sobre el flujo entre cascos. En primer lugar se incluye una caracterización de los fenómenos de interferencia, evaluando su impacto en las diferentes componentes de la resistencia al avance. Al igual que la resistencia total, su predicción requiere el uso de técnicas experimentales o numéricas al ser inviable su solución analítica. Ambos procedimientos han sido considerados en esta tesis. El análisis experimental de la resistencia de interferencia supone el núcleo central del trabajo realizado. Se han ensayado dos geometrías diferentes, un catamarán de servicio comercial PESBO junto con un catamarán compuesto por dos Serie 60 (S60) en paralelo. Los ensayos se han llevado a cabo en dos canales de experiencias, CEHINAV y CEHIPAR, midiéndose resistencia al avance, asiento y trimados dinámicos, y cortes de olas en la zona entre cascos. Mención especial a estos últimos, dado que a pesar de ser en la zona central donde ocurren los principales efectos de interferencia, no se encontró información previa publicada en la literatura. Su medición requirió la fabricación de un sistema de soporte especifico para las probetas de medición. Por otro lado, aunque el Serie 60 es una geometría bien conocida en la comunidad hidrodinámica, a conocimiento del autor su comportamiento como multicasco no había sido aun caracterizado experimentalmente. Los bastidores de unión se fabricaron de forma que permitieran variar la separación entre cascos. Además, los multicascos son en general embarcaciones de alta velocidad mostrando asientos y trimados dinámicos significativos. Para cuantificar su efecto en la resistencia total y de interferencia se construyo un sistema de fijación del modelo al carro que los restringiera, posibilitando comparar los resultados en esta condición con los del modelo libre. Como resultado, se han obtenido resultados experimentales de las dos geometrías estudiadas con múltiples separaciones, incluyendo un solo casco, y con modelo fijo y libre. Una de las principales utilidades de los resultados experimentales es servir como referencia para validar modelos de predicción. Como primera aplicación, los datos experimentales obtenidos con el catamarán S60 se han contrastado con las predicciones numéricas de Yeung et al. (2004). El análisis numérico de la resistencia de interferencia se completa con la realización de simulaciones numéricas utilizando dos códigos substancialmente diferentes: Tdynlin y CD--‐Adapco Star--‐CCM+. Los cortes de olas obtenidos en las simulaciones se comparan con los valores experimentales, mostrándose además los campos de presiones y velocidades calculados sobre el casco. La principal aportación de esta tesis es una extensa caracterización experimental de los fenómenos de interferencia, con la intención de servir de referencia para futuros estudios con multicascos. El análisis de los resultados permite comprender mejor el impacto que la interacción entre cascos, así como las variaciones dinámicas de las condiciones de navegación, tienen en las diferentes componentes de la resistencia. Por otro lado, permite apreciar la dependencia de la resistencia de interferencia con la velocidad y separación entre cascos, de cara a su utilización como parámetro de diseño. ABSTRACT This thesis presents a study of the interference resistance in multihulls, which comprises all the variations in the ship resistance due to the interaction between hulls. Its most remarkable characteristic is that it can be positive or negative, contributing in the second case to the reduction of the total ship resistance. Its study remains an active area in the hydrodynamic community, although there is a significant lack of published experimental data regarding the flow between hulls. First of all, the interference phenomena are characterized, evaluating the impact in the different components of the ship resistance. Similar to the total resistance, their prediction requires experimental or numerical techniques, as no analytic solutions are known. Both procedures have been considered in this thesis. The experimental analysis of the interference resistance is the core of the work done. Two different geometries have been tested, a commercial catamaran PESBO and a catamaran composed by two parallel Series 60 (S60). The tests have been carried out in two towing tanks, CEHINAV and CEHIPAR, measuring ship resistance, dynamic sinkage and trim, and wave cuts in--‐between the hulls. Special mention to the wave cuts, as no previous published information was found regarding this zone, even if it is where the main interference effects happen. Their measurement required building a support tripod for the probes, specifically designed for this experimental campaign. In addition, although the Series 60 is a well known hull for experimental and computational analyses, to the author’s knowledge its behavior as a multihull had not yet been experimentally described. The connection frames between the hulls were built so they allowed adjusting the hull spacing. Furthermore, multihulls are usually high--‐speed vessels, acquiring significant dynamic sinkage and trim. To quantify the effect of these dynamic variations of the interference resistance, a clamping system was developed to fixed the model and compare the results with the free model condition. Thus, experimental results have been obtained for various hull separations with the two geometries analyzed, including a single hull, and with free and fixed model. One of the main applications of experimental results is to serve as a reference to validate prediction models. As a first step, the obtained experimental data with the catamaran S60 have been compared with the numerical predictions of Yeung et al. (2004). The numerical analysis of the interference resistance is completed with the inclusion of numerical simulations using two codes substantially different: Tdynlin and CD--‐Adapco Star--‐CCM+. The wave cuts obtained from the simulations are compared with the experimental ones, showing also the pressure and velocity fields over the hulls. The main contribution of this thesis is an extensive experimental characterization of the interference phenomena, aiming to serve as reference for future studies about multihulls. The analysis of the results provides insights into the impact that the interaction between hulls, as well as the dynamic variations of the sailing conditions, have in the different components of the ship resistance. Moreover, it allows us to observe the dependence of the interference resistance on the velocity and hull spacing, useful towards its use as a design parameter.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El desarrollo económico y social, a veces excesivamente rápido, que se ha producido en las últimas décadas ha generado una serie de problemas medioambientales generalmente más acuciantes en el entorno de las grandes ciudades. Dentro de este contexto y debido a este desarrollo exponencial de las actividades humanas, la contaminación acústica se ha convertido en uno de los problemas de peor solución, tanto a nivel de reducción como de atenuación, por lo que el diseño de pantallas acústicas está siendo uno de los objetivos prioritarios en la lucha contra la contaminación sonora. La expresión más extendida para designar a las barreras acústicas es la de pantallas acústicas, entendiéndose por éstas, muros de espesor relativamente pequeño concebidos como barreras acústicas. Hasta la fecha los avances en el diseño de estas pantallas han sido notables y ya se cuentan por cientos los kilómetros de las mismas que han sido construidas e instaladas, sobre todo en la periferia de las grandes ciudades cerca de las llamadas vías de tráfico rápido. Estos avances se han centrado sobre todo en el diseño de materiales de gran poder de absorción de las ondas, como método principal de atenuación, o bien en la forma geométrica de la superficie expuesta al tráfico, formas que por medio de reflexiones son capaces de anular o mitigar parte de la energía transportada por las ondas sonoras. A la vista de estos resultados las actuales pantallas acústicas reducen el nivel sonoro por atenuación, pero no son capaces de anular la onda incidente. Por otro lado, los últimos estudios de la tecnología japonesa en estos temas es el análisis del problema de borde, ya que este fenómeno de difracción es uno de los causantes principales del nivel sonoro en el trasdós de la pantalla. Pese a que es imposible anular este efecto de borde los estudios se han encauzado a intentar obtener una forma de la sección de la pantalla en su parte superior que sea capaz de mitigar este efecto, bien por interferencia entre las ondas incidentes o bien por superposición de diversos fenómenos de difracciones. En este orden de cosas entra a escena el concepto de pantalla tubular, como una nueva pantalla perforada que anula ondas sonoras basándose en el efecto físico de los tubos de Kundt. Su funcionamiento es debido a la propiedad de las ondas sonoras de producir resonancias al transmitirse dentro de cavidades de diferentes secciones tipo. Este tipo de pantallas se olvida del concepto clásico de pantalla acústica y su forma de atenuar el sonido y pasa al cálculo de la atenuación por eliminación de frecuencias. Esta tesis ofrece una nueva visión de este tipo de pantallas tubulares, optimizando su funcionamiento en función de la longitud de las cavidades tubulares, que han de ser diseñadas no de forma rectilínea, sino según directrices de curvas conocidas. El método operativo consistirá en aplicar las propiedades morfológicas de estas curvas a la propagación de ondas dentro de cavidades curvilíneas, obteniendo una serie de funciones de onda transmitidas y otras anuladas, lo que permite evaluar el porcentaje de energía que es capaz de anular cada tipo de curva para un espesor prefijado de pantalla. Este planteamiento nos permite elaborar un método de diseño y optimización por consideraciones exclusivamente geométricas, en función de un número muy reducido de parámetros, entre los que destaca la frecuencia que se presenta con mayor asiduidad, que es la principal causante del nivel sonoro. Asimismo, el método está apoyado en gran manera en un soporte gráfico, lo que le hace de sencilla aplicación incluso entre técnicos no excesivamente acostumbrados a trabajar con ondas sonoras. Como resumen final, las aportaciones más relevantes que incorpora esta tesis son las siguientes: Desarrollo práctico de la teoría global de pantallas acústicas tubulares ; Aplicación de la geometría clásica, en el concepto de longitudes de curvas tipo, a las técnicas de ingeniería del medio ambiente lo que representa un avance cualitativo notable ya que hasta la fecha no se había planteado la interacción de dos disciplinas en apariencia tan dispares y de conceptos tan heterogéneos ; Desarrollo de un método secuencial que es capaz de engarzar el análisis acústico de un cierto flujo de tráfico vehicular con el análisis geométrico de curvas tipo y dotar así al futuro diseñador de pantallas acústicas de una poderosa herramienta que le permita variar la tipología y forma de la pantalla en función de parámetros que pueden variar de manera aleatoria.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En la práctica habitual, para la elaboración de morteros se recomienda la utilización de granulometrías continuas. El requisito de continuidad y que los tamaños de partícula se encuentren dentro de los límites establecidos por “husos granulométricos” surge de las teorías clásicas de Fuller – Thompson y se apoya en la necesidad de obtener mezclas con adecuada docilidad en el estado fresco. Sin embargo, las distribuciones continuas de árido no representan las únicas alternativas para obtener mezclas que tengan una adecuada docilidad en estado fresco y mediante nuevos criterios de interferencia de partículas es posible demostrar que las distribuciones discontinuas aun siendo más compactas y con menor requerimientos de volumen de pasta pueden ser igual de dóciles en estado fresco. Aunque el volumen mínimo de pasta está condicionado por su fluidez y viscosidad estos parámetros pueden modificarse mediante la incorporación de filler de distinta naturaleza y aditivos químicos de reciente desarrollo. En consecuencia, se propone analizar la posibilidad de minimizar el contenido de pasta de morteros de base cemento, manteniendo las prestaciones en el estado fresco, con el objetivo de obtener una mejor estabilidad volumétrica, posibilitando mejor control de la retracción y de la fisuración. Para ello se emplearán criterios de interferencia de partículas, combinados con el uso de filler de distinta naturaleza La reducción del contenido de pasta conducirá también a mejorar el perfil sostenible de los morteros. El proceso de optimización tiene una base racional y, por lo tanto, será aplicable a distintos tipos de mortero, y las proporciones óptimas podrán adecuarse según las prestaciones requeridas para el material. SUMMARY In common practice, continuous sand gradings are recommended to produce ordinary mortars. This requirement, along with grading limits are based on classical theories, such as Fuller, aimed at achieving a reasonable packing density without compromising workability at the fresh state. Nevertheless, there are other alternatives, such as discontinuous curves based on particle interference criteria, which are capable of having even higher packing density. The less the content of voids in the granular skeleton, the less the amount of cement paste required to fill in these voids and coating the particles. Yet, the minimum volume of paste in a mortar is determined by requirements associated to the fresh state and thus, fluidity and viscosity of the paste play a significant role on the matter. These two properties can be modified by the use of suitable fillers and by the use of last-generation chemical admixtures. As a result, it is proposed to analyse the possibility of combining current particle interference criteria with the use of different types of filler and chemical admixtures to optimise cement-based mortar formulations. This optimisation is aimed at reducing the paste content while maintaining a suitable performance at the fresh state. The reduction in paste content would lead to a better dimensional stability, with better control of shrinkage and cracking behaviour. The foreseen optimisation process will have a strong rational basis and thus, it should be potentially useful to optimise mortar proportions according to a performance-based approach.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En el presente trabajo se desarrolla un método de cálculo del empuje que produce sobre un muro una carga situada sobre un terreno adyacente a dicho muro. Por medio de hipótesis físicas sencillas, se llega a resultados que parecen diferir de los obtenidos experimentalmente en márgenes tolerables, dentro de la aproximación normalmente usada en los cálculos. Se incluye una generalización para dos muros iguales y paralelos, fundada en un artificio análogo al empleado en Aerodinamica, para estudiar la interferencia entre las paredes y el modelo en los ensayos en tunel aerodinámico. Finalmente se presenta una familia de curvas adimensionales que dan el empuje para sobrecargas geométricamente semejantes, situadas a diferentes distancias del muro. Familias de este tipo pueden ser de gran utilidad, ya que se ha comprobado que, para los pesos y presiones de inflado usuales, las huellas de las ruedas de diferentes aviones son geometricamente semejantes. Estas familias podrian servir para un ulterior intento de obtención de fórmulas aproximadas de más fácil aplicación.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Abstract The proliferation of wireless sensor networks and the variety of envisioned applications associated with them has motivated the development of distributed algorithms for collaborative processing over networked systems. One of the applications that has attracted the attention of the researchers is that of target localization where the nodes of the network try to estimate the position of an unknown target that lies within its coverage area. Particularly challenging is the problem of estimating the target’s position when we use received signal strength indicator (RSSI) due to the nonlinear relationship between the measured signal and the true position of the target. Many of the existing approaches suffer either from high computational complexity (e.g., particle filters) or lack of accuracy. Further, many of the proposed solutions are centralized which make their application to a sensor network questionable. Depending on the application at hand and, from a practical perspective it could be convenient to find a balance between localization accuracy and complexity. Into this direction we approach the maximum likelihood location estimation problem by solving a suboptimal (and more tractable) problem. One of the main advantages of the proposed scheme is that it allows for a decentralized implementation using distributed processing tools (e.g., consensus and convex optimization) and therefore, it is very suitable to be implemented in real sensor networks. If further accuracy is needed an additional refinement step could be performed around the found solution. Under the assumption of independent noise among the nodes such local search can be done in a fully distributed way using a distributed version of the Gauss-Newton method based on consensus. Regardless of the underlying application or function of the sensor network it is al¬ways necessary to have a mechanism for data reporting. While some approaches use a special kind of nodes (called sink nodes) for data harvesting and forwarding to the outside world, there are however some scenarios where such an approach is impractical or even impossible to deploy. Further, such sink nodes become a bottleneck in terms of traffic flow and power consumption. To overcome these issues instead of using sink nodes for data reporting one could use collaborative beamforming techniques to forward directly the generated data to a base station or gateway to the outside world. In a dis-tributed environment like a sensor network nodes cooperate in order to form a virtual antenna array that can exploit the benefits of multi-antenna communications. In col-laborative beamforming nodes synchronize their phases in order to add constructively at the receiver. Some of the inconveniences associated with collaborative beamforming techniques is that there is no control over the radiation pattern since it is treated as a random quantity. This may cause interference to other coexisting systems and fast bat-tery depletion at the nodes. Since energy-efficiency is a major design issue we consider the development of a distributed collaborative beamforming scheme that maximizes the network lifetime while meeting some quality of service (QoS) requirement at the re¬ceiver side. Using local information about battery status and channel conditions we find distributed algorithms that converge to the optimal centralized beamformer. While in the first part we consider only battery depletion due to communications beamforming, we extend the model to account for more realistic scenarios by the introduction of an additional random energy consumption. It is shown how the new problem generalizes the original one and under which conditions it is easily solvable. By formulating the problem under the energy-efficiency perspective the network’s lifetime is significantly improved. Resumen La proliferación de las redes inalámbricas de sensores junto con la gran variedad de posi¬bles aplicaciones relacionadas, han motivado el desarrollo de herramientas y algoritmos necesarios para el procesado cooperativo en sistemas distribuidos. Una de las aplicaciones que suscitado mayor interés entre la comunidad científica es la de localization, donde el conjunto de nodos de la red intenta estimar la posición de un blanco localizado dentro de su área de cobertura. El problema de la localization es especialmente desafiante cuando se usan niveles de energía de la seal recibida (RSSI por sus siglas en inglés) como medida para la localization. El principal inconveniente reside en el hecho que el nivel de señal recibida no sigue una relación lineal con la posición del blanco. Muchas de las soluciones actuales al problema de localization usando RSSI se basan en complejos esquemas centralizados como filtros de partículas, mientas que en otras se basan en esquemas mucho más simples pero con menor precisión. Además, en muchos casos las estrategias son centralizadas lo que resulta poco prácticos para su implementación en redes de sensores. Desde un punto de vista práctico y de implementation, es conveniente, para ciertos escenarios y aplicaciones, el desarrollo de alternativas que ofrezcan un compromiso entre complejidad y precisión. En esta línea, en lugar de abordar directamente el problema de la estimación de la posición del blanco bajo el criterio de máxima verosimilitud, proponemos usar una formulación subóptima del problema más manejable analíticamente y que ofrece la ventaja de permitir en¬contrar la solución al problema de localization de una forma totalmente distribuida, convirtiéndola así en una solución atractiva dentro del contexto de redes inalámbricas de sensores. Para ello, se usan herramientas de procesado distribuido como los algorit¬mos de consenso y de optimización convexa en sistemas distribuidos. Para aplicaciones donde se requiera de un mayor grado de precisión se propone una estrategia que con¬siste en la optimización local de la función de verosimilitud entorno a la estimación inicialmente obtenida. Esta optimización se puede realizar de forma descentralizada usando una versión basada en consenso del método de Gauss-Newton siempre y cuando asumamos independencia de los ruidos de medida en los diferentes nodos. Independientemente de la aplicación subyacente de la red de sensores, es necesario tener un mecanismo que permita recopilar los datos provenientes de la red de sensores. Una forma de hacerlo es mediante el uso de uno o varios nodos especiales, llamados nodos “sumidero”, (sink en inglés) que actúen como centros recolectores de información y que estarán equipados con hardware adicional que les permita la interacción con el exterior de la red. La principal desventaja de esta estrategia es que dichos nodos se convierten en cuellos de botella en cuanto a tráfico y capacidad de cálculo. Como alter¬nativa se pueden usar técnicas cooperativas de conformación de haz (beamforming en inglés) de manera que el conjunto de la red puede verse como un único sistema virtual de múltiples antenas y, por tanto, que exploten los beneficios que ofrecen las comu¬nicaciones con múltiples antenas. Para ello, los distintos nodos de la red sincronizan sus transmisiones de manera que se produce una interferencia constructiva en el recep¬tor. No obstante, las actuales técnicas se basan en resultados promedios y asintóticos, cuando el número de nodos es muy grande. Para una configuración específica se pierde el control sobre el diagrama de radiación causando posibles interferencias sobre sis¬temas coexistentes o gastando más potencia de la requerida. La eficiencia energética es una cuestión capital en las redes inalámbricas de sensores ya que los nodos están equipados con baterías. Es por tanto muy importante preservar la batería evitando cambios innecesarios y el consecuente aumento de costes. Bajo estas consideraciones, se propone un esquema de conformación de haz que maximice el tiempo de vida útil de la red, entendiendo como tal el máximo tiempo que la red puede estar operativa garantizando unos requisitos de calidad de servicio (QoS por sus siglas en inglés) que permitan una decodificación fiable de la señal recibida en la estación base. Se proponen además algoritmos distribuidos que convergen a la solución centralizada. Inicialmente se considera que la única causa de consumo energético se debe a las comunicaciones con la estación base. Este modelo de consumo energético es modificado para tener en cuenta otras formas de consumo de energía derivadas de procesos inherentes al funcionamiento de la red como la adquisición y procesado de datos, las comunicaciones locales entre nodos, etc. Dicho consumo adicional de energía se modela como una variable aleatoria en cada nodo. Se cambia por tanto, a un escenario probabilístico que generaliza el caso determinista y se proporcionan condiciones bajo las cuales el problema se puede resolver de forma eficiente. Se demuestra que el tiempo de vida de la red mejora de forma significativa usando el criterio propuesto de eficiencia energética.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En este proyecto realizaremos un estudio del efecto de las interferencias procedentes de las redes públicas y veremos cómo afectan el rendimiento de las comunicaciones GSM-R que están en la banda de frecuencias adyacente, por un lado, definiremos las características de las redes públicas y como afectan los niveles de potencia y los anchos de banda de redes de banda ancha, especialmente LTE que dispone de un ancho de banda adaptativo que puede llegar hasta 20 MHZ, y por otro lado definiremos las características y las exigencias de las comunicaciones GSM-R que es una red privada que se utiliza actualmente para comunicaciones ferroviales. Con el objetivo de determinar el origen y los motivos de estas interferencias vamos a explicar cómo se produzcan las emisiones no deseadas de las redes públicas que son fruto de la intermodulación que se produzca por las características no lineales de los amplificadores, entre las emisiones no deseadas se puede diferenciar entre el dominio de los espurios y el dominio de las emisiones fuera de banda, para determinar el nivel de las emisiones fuera de banda definiremos la relación de fugas del canal adyacente, ACLR, que determina la diferencia entre el pico de la señal deseada y el nivel de señal interferente en la banda de paso. Veremos cómo afectan estas emisiones no deseadas a las comunicaciones GSMR en el caso de interferencias procedentes de señales de banda estrecha, como es el caso de GSM, y como afectan en el caso de emisiones de banda ancha con los protocolos UMTS y LTE, también estudiaremos como varia el rendimiento de la comunicación GSM-R frente a señales LTE de diferentes anchos de banda. Para reducir el impacto de las interferencias sobre los receptores GSM-R, analizaremos el efecto de los filtros de entrada de los receptores GSM-R y veremos cómo varia la BER y la ACLR. Además, con el objetivo de evaluar el rendimiento del receptor GSM-R ante diferentes tipos de interferencias, simularemos dos escenarios donde la red GSM-R se verá afectada por las interferencias procedente de una estación base de red pública, en el primer escenario la distancia entre la BS y MS GSM-R será de 4.6 KM, mientras en el segundo escenario simularemos una situación típica cuando un tren está a una distancia corta (25 m) de la BS de red pública. Finalmente presentaremos los resultados en forma de graficas de BER y ACLR, y tablas indicando los diferentes niveles de interferencias y la diferencia entre la potencia a la que obtenemos un valor óptimo de BER, 10-3, sin interferencia y la potencia a la que obtenemos el mismo valor con interferencias. ABSTRACT In this project we will study the interference effect from public networks and how they affect the performance of GSM-R communications that are in the adjacent frequency band, furthermore, we will define the characteristics of public networks and will explain how the power levels and bandwidth broadband networks are affected as a result, especially LTE with adaptive bandwidth that can reach 20 MHZ. Lastly, we will define the characteristics and requirements of the GSM-R communications, a private network that is currently used for railways communications. In order to determine the origin and motives of these interferences, we will explain what causes unwanted emissions of public networks that occur as a result. The intermodulation, which is caused by the nonlinear characteristics of amplifiers. Unwanted emissions from the transmitter are divided into OOB (out-of-band) emission and spurious emissions. The OOB emissions are defined by an Adjacent Channel Leakage Ratio (ACLR) requirement. We'll analyze the effect of the OOB emission on the GSM-R communication in the case of interference from narrowband signals such as GSM, and how they affect emissions in the case of broadband such as UMTS and LTE; also we will study how performance varies with GSM-R versus LTE signals of different bandwidths. To reduce the impact of interference on the GSM-R receiver, we analyze the effect of input filters GSM-R receivers to see how it affects the BER (Bits Error Rate) and ACLR. To analyze the GSM-R receiver performance in this project, we will simulate two scenarios when the GSM-R will be affected by interference from a base station (BS). In the first case the distance between the public network BS and MS GSM-R is 4.6 KM, while the second case simulates a typical situation when a train is within a short distance, 25 m, of a public network BS. Finally, we will present the results as BER and ACLR graphs, and tables showing different levels of interference and the differences between the power to obtain an optimal value of BER, 10-3, without interference, and the power that gets the same value with interference.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En este proyecto se estudiarán las interferencias en el canal adyacente de los sistemas celulares, ubicados en las bandas de 900 y 1800 MHz. Para esto, se analizarán medidas de interferencia entre LTE y otros sistemas de comunicación celular. En el primer capítulo, se dará una breve descripción de los principales parámetros empleados en los distintos estándares de comunicaciones móviles, que operan en las bandas de frecuencia de interés. En el segundo, se van a explicar los distintos tipos de interferencias existentes entre sistemas celulares. También se verán las diferentes técnicas para reducir dichas interferencias, como por ejemplo, la de control de potencia y la de coordinación de interferencia entre celdas. Además, se explicarán los parámetros para determinar la interferencia en el canal adyacente, como son el ACLR, ACS y ACIR. Para finalizar se resumirán las principales características de los sistemas LTE y WiMAX. En el tercer capítulo, se estudiarán las interferencias que genera principalmente LTE a los otros sistemas celulares, mediante los parámetros que miden la interferencia en el canal adyacente explicados en el capítulo dos. Además, se determinará la separación en frecuencia que debe existir entre los canales para que los sistemas puedan coexistir. El capítulo cuatro se basa en la simulación de tres escenarios de interferencia entre dichos sistemas. Para esto, se utilizará el software de simulación de propagación radio, denominado Radio Plan. Con estas simulaciones se cuantificarán las pérdidas de rendimiento que sufren los sistemas interferidos. Por último, en el capítulo cinco se resumirán las conclusiones a las que se llegaron después de simular los diferentes escenarios de interferencia. SUMMARY In this project an adjacent channel interference study for cellular systems, allocated within 900 MHz and 1800 MHz bands will be performed. For this aim a set of measurements will be analyzed. In the first chapter, a brief explanation of the main parameters used in different mobile communications standards that operate in the frequency bands of interest, will be given. In the second chapter, different types of interference between cellular systems will be explained, as well as different techniques to reduce such interference. For example, power control and interference coordination between cells, will be shown. Furthermore, the parameters to determine the adjacent-channel interference, such as the ACLR, ACS and ACIR will be overviewed. Finally, the main features of LTE and WiMAX systems will be summarized. In the third chapter, the interference generated by the other mainly LTE cellular systems via parameters that measure the adjacent channel interference explained in chapter two will be studied. Also, the frequency separation that must exist between the channels so that the systems can coexist will be determined. The fourth chapter is based on the simulation of three scenarios of interference between these systems. For this purpose, a radio propagation simulation software package Radio Plan will be used. These simulations will quantify performance losses suffered by systems that interfered. Finally, in chapter five the conclusions about the results of simulations of interference in different scenarios will be presented.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Los años cincuenta y sesenta son los años de la incorporación definitiva de la arquitectura española al panorama internacional. Entre los arquitectos que protagonizan ese salto sin retorno, se encuentra el grupo de aquellos que unos años más tarde serán denominados por Juan Daniel Fullaondo como Escuela de Madrid. Carlos Flores, en su libro Arquitectura Española Contemporánea 1880-1950, se refiere a esos arquitectos como aquellos que se aplicaban a la difícil tarea de restablecer en España un tipo de arquitectura que conectaba con las teorías, soluciones y lenguajes establecidos por Europa durante las primeras décadas del siglo XX. Sigfried Giedion plantea en Espacio, Tiempo y Arquitectura el origen de una nueva tradición, surgida a partir de la revolución óptica de principios de siglo. Con tradición se refiere a una nueva cultura, que abarca la interrelación de las diferentes actividades del hombre: la similitud de los métodos que se usan en la arquitectura, la construcción, la pintura, el urbanismo o la ciencia. Esa novedad, fundamentada en su independencia y desvinculación con el periodo anterior, se inscribe dentro del esquema evolutivo que Thomas Kuhn plantea en su texto La Estructura de la Revoluciones Científicas, conforme a periodos no acumulativos. Kuhn habla del surgimiento de anomalías en cada periodo, origen de las crisis de pensamiento cuya explicación precisará un necesario cambio paradigmático. En la ciencia, en el campo de la óptica Thomas Young demuestra a principios del siglo XIX la naturaleza ondulatoria de la luz con su experimento de doble rendija; en el electromagnetismo se produce el salto conceptual que supone la postulación de la existencia del campo eléctrico por parte de Michael Faraday, y en termodinámica la consideración apuntada por Planck de que la radiación de la energía de produce de forma discreta, a través de cuantos. En las artes plásticas, paralelamente, Gleizes y Metzinger, en su recopilación de logros cubistas recogida en Sobre el Cubismo, hablan de la evolución sufrida durante el siglo XIX por la pintura: desde el idealismo de principios de siglo, para pasando por el realismo y la representación impresionista de la realidad, concluir prescindiendo de la perspectiva clásica. También la matemática, una vez desarrolladas por Gauss o Lobachevsky y Bolyai geometrías coherentes que incumplen el quinto postulado de Euclides, terminará dando validez a través de Riemann a los espacios ambiente en los que habitan dichas geometrías, desvinculando la relación directa entre espacio geométrico –el espacio ambiente al que da lugar un tipo de geometría- y el espacio físico. Capi Corrales refleja en su libro Contando el Espacio, cómo hasta la teoría de la relatividad y el cubismo, las geometrías no euclídeas no se hicieron notorias también fuera del campo de las matemáticas. El origen de la nueva tradición con la que Giedion se refiere a la nueva cultura de la modernidad coincide con los saltos paradigmáticos que suponen la teoría de la relatividad en las ciencias y el cubismo en las artes plásticas. Ambas se prolongan durante las primeras décadas hasta la teoría cuántica y la abstracción absoluta, barreras que los dos principales precursores de la relatividad y el cubismo, Einstein y Picasso, nunca llegan a franquear. En ese sentido Giedion habla también, además del origen, de su desarrollo, e incorpora las aportaciones periféricas en la arquitectura de Brasil, Japón o Finlandia, incluyendo por tanto la revisión orgánica propugnada por Zevi como parte de esa nueva tradición, quedando abierta a la incorporación tardía de nuevas aportaciones al desarrollo de esa cultura de la modernidad. Eliminado el concepto de la estética trascendental de Kant del tiempo como una referencia absoluta, y asumido el valor constante de la velocidad de la luz, para la teoría de la relatividad no existe una simultaneidad auténtica. Queda así fijada la velocidad de la luz como uno de los límites del universo, y la equivalencia entre masa y energía. En el cubismo la simultaneidad espacial viene motivada por la eliminación del punto de vista preferente, cuyo resultado es la multiplicidad descriptiva de la realidad, que se visualiza en la descomposición en planos, tanto del objeto como del espacio, y la consecuente continuidad entre fondo y figura que en arquitectura se refleja en la continuidad entre edificio y territorio. Sin la consideración de un punto de vista absoluto, no existe una forma auténtica. El cubismo, y su posterior desarrollo por las vanguardias plásticas, hacen uso de la geometría como mecanismo de recomposición de la figura y el espacio, adoptando mecanismos de penetración, superposición y transparencia. Gyorgy Kepes indica en El Lenguaje de la Visión que la descomposición cubista del objeto implica la sucesiva autonomía de los planos, hasta convertirse en elementos constituyentes. Algo que refleja las axonometrías arquitectónicas de Van Doesburg y que culmina con los espacios propuestos por Mies van der Rohe en sus primeros proyectos europeos. Estos mecanismos, encuentran eco en los primeros planteamientos de Javier Carvajal: en la ampliación del Panteón de españoles del cementerio de Campo Verano, un recinto virtual reconstruido mentalmente a partir del uso de tres únicos planos; o en el Pabellón de Nueva York, que organiza su planta baja desde el recorrido, introduciendo el parámetro temporal como una dimensión más. Al uso diferenciado del plano como elemento constituyente, Carvajal incorpora su plegado y su disposición conformando envolventes como mecanismo de cualificación espacial y formal, potenciando la prolongación entre arquitectura y territorio. Una continuidad que quedará culminada en las dos viviendas unifamiliares construidas en Somosaguas. La descomposición volumétrica conduce a unos niveles de abstracción que hace precisa la incorporación de elementos de la memoria -fuentes, patios, celosías…- a modo de red de señales, como las que Picasso y Braque introducen en sus cuadros para permitir su interpretación. Braque insiste en el interés por el espacio que rodea a los objetos. Una búsqueda de la tactilidad del espacio contraria a la perspectiva que aleja el objeto del observador, y que en los jardines de las viviendas de Somosaguas parece emanar de su propia materialidad. Un espacio táctil alejado del espacio geométrico y que Braque identifica con el espacio representativo en el que Poincaré, en La Ciencia y la Hipótesis, ubica nuestras sensaciones. Desdibujar los límites del objeto prolonga el espacio indefinidamente. Con el paso en el arte griego del mito al logos, se abre paso a la matemática como herramienta de comprensión de la naturaleza hasta el siglo XIX. Leon Lederman, en Simetría y la Belleza del Universo, apunta a que una de las mayores contribuciones de la teoría de Einstein es hacer cambiar el modo de pensar la naturaleza, orientándolo hacia la búsqueda de los principios de simetría que subyacen bajo las leyes físicas. Considerando que la simetría es la invariancia de un objeto o un sistema frente a una transformación y que las leyes físicas son las mismas en cualquier punto del espacio, el espacio de nuestro universo posee una simetría traslacional continua. En la ocupación del espacio de las primeras propuestas de Corrales y Molezún aparecen estructuras subyacentes que responden a enlosetados: paralelogramos sometidos a transformaciones continuas, que la naturaleza identifica tridimensionalmente con los grupos cristalográficos. Las plantas del museo de Arte Contemporáneo de la Castellana, la residencia de Miraflores, el pabellón de Bruselas o la torre Peugeot pertenecen a este grupo. La arquitectura como proceso de ocupación continua del territorio y de su trasposición al plano de cubierta, se materializa en líneas estructurales coincidentes con la estructura matemática de sus simetrías de traslación cuya posibilidad de prolongación infinita queda potenciada por el uso de la envolvente transparente. Junto a esta transparencia literal, inherente al material, Colin Rowe y Robert Slutzky nos alertan sobre otra transparencia inherente a la estructura: la transparencia fenomenal, ilustrada por los cuadros de Juan Gris, y cuya intuición aparece reflejada en la casa Huarte en Puerta de Hierro de Madrid. Corrales y Molezún insisten en una lectura de su volumetría alejada de la frontalidad, en la que los contornos de sus cubiertas inclinadas y las visuales tangenciales sugeridas por la organización de sus recorridos introducen una estructura diagonal que se superpone al entendimiento ortogonal de su planta, dibujando una intrincada red de líneas quebradas que permiten al espacio fluctuar entre las secuencia volumétrica propuesta. Los datos relativos al contenido energético de la luz y el concepto de átomo parten de la consideración de la emisión de energía en cuantos realizada por Planck, y concluyen con una circunstancia paradójica: la doble naturaleza de la luz -demostrada por la explicación de Einstein del efecto fotoeléctrico- y la doble naturaleza de la materia -asumida por Bohr y demostrada por el efecto Compton-. Schrödinger y Heisenberg formularán finalmente la ecuación universal del movimiento que rige en las ondas de materia, y cuya representación matemática es lo que se conoce como función de onda. El objeto es así identificado con su función de onda. Su ondulatoriedad expresará la probabilidad de encontrarse en un lugar determinado. Gyorgy Kepes subraya la necesidad de simplificar el lenguaje para pasar de la objetividad que aún permanece en la pintura cubista a la abstracción total del espacio. Y es así como los artistas plásticos reducen los objetos a simples formas geométricas, haciendo aflorar a la vez, las fuerzas plásticas que los tensionan o equilibran, en un proceso que acaba por eliminar cualquier atisbo de materia. Robert Rosenblum en La Pintura Moderna y la Tradición del Romanticismo Nórdico habla de cómo ese rechazo de la materia en favor de un vacío casi impalpable, campos luminosos de color denso que difunden un sereno resplandor y parecen engendrar las energías elementales de la luz natural, está directamente vinculado a la relación con la naturaleza que establece el romanticismo nórdico. La expresión de la energía de la naturaleza concentrada en un vacío que ya había sido motivo de reflexión para Michael Faraday en su postulación del concepto de campo eléctrico. Sáenz de Oíza incide en la expresión de la condición material de la energía en su propuesta junto a José Luis Romany para la capilla en el Camino de Santiago. La evocación de diferentes fuerzas electromagnéticas, las únicas junto a las gravitatorias susceptibles de ser experimentadas por el hombre, aparecerán visualizadas también en el carácter emergente de algunas de sus obras: el Santuario de Aránzazu o Torres Blancas; pero también en la naturaleza fluyente de sus contornos, la dispersión perimetral de los espacios -el umbral como centro del universoo la configuración del límite como respuesta a las tensiones germinales de la naturaleza. Miguel Fisac, a la vuelta de su viaje a los países nórdicos, aborda una simplificación lingüística orientada hacia la adecuación funcional de los espacios. En el Instituto de Daimiel, el Instituto de formación del profesorado o los complejos para los Padres Dominicos en Valladolid o Alcobendas, organiza progresivamente la arquitectura en diferentes volúmenes funcionales, incidiendo de un modo paralelo en la manifestación de los vínculos que se establecen entre dichos volúmenes como una visualización de las fuerzas que los tensionan y equilibran. En ellos la prolongación de la realidad física más allá de los límites de la envolvente ya es algo más que una simple intuición. Un proceso en el que el tratamiento de la luz como un material de construcción más, tendrá un especial protagonismo. En la iglesia de la Coronación, la iluminación del muro curvo escenifica la condición ondulatoria de la luz, manifestándose como si de un patrón de interferencia se tratara. Frente a la disolución de lo material, el espacio se manifiesta aquí como un medio denso, alejado de la tradicional noción de vacío. Una doble naturaleza, onda y partícula, que será intuido también por Fisac en la materia a través de su uso comprometido del hormigón como único material de construcción. Richard Feynmann nos alerta de la ocupación del espacio por multitud de fuerzas electromagnéticas que, al igual que la luz, precisan de receptores específicos para captar su presencia. Sus célebres diagramas suponen además la visualización definitiva de los procesos subatómicos. Al igual que la abstracción absoluta en las artes plásticas, esas representaciones diagramáticas no son asimilables a imágenes obtenidas de nuestra experiencia. Una intuición plasmada en el uso del diagrama, que irán adquiriendo progresivamente los dibujos de Alejandro de la Sota. La sección del gimnasio Maravillas recoge los trazos de sus principales elementos constructivos: estructura, cerramientos, compartimentaciones…, pero también, y con la misma intensidad, los de las fuerzas que generan su espacio, considerando así su condición de elementos constituyentes. El vacío, nos deja claro Sota, es el lugar donde habitan dichas tensiones. La posterior simplificación de las formas acompañadas de la obsesión por su aligeramiento, la casi desaparición de la envolvente, incide en aquella idea con la que Paul Klee define la actividad del artista en su Teoría del Arte Moderno, y en la que se transmite el distanciamiento hacia lo aparente: No se trata de reproducir lo visible, se trata de volver visible. Así, en Bankunión y Aviaco, como en tantos otros proyectos, frente al objetivo de la forma, Sota plantea el límite como la acotación de un ámbito de actuación. Su propia representación aséptica y diagramática transmite la renuncia a una especificidad espacial. Gilles Deleuze expresa ese posicionamiento en Pintura, el Concepto de Diagrama: el diagrama como la posibilidad de cuadros infinitos, o la posibilidad infinita de cuadros. Aparece así una concepción probabilística del espacio en la que frente a la renuncia por la forma, la tendencia al aligeramiento, y lo difuso de su definición – ideas claras, definición borrosa, en palabras de Llinás referidas al modo de operar de Sota-, la insistente atención a algunos elementos como escaleras, protecciones o miradores parece trasmitir la idea de que la arquitectura queda condensada en aquellos acontecimientos que delatan su condición dinámica, transitoria. Primando la relación frente al objeto, el vínculo frente a lo tangible. English summary. The fifties and sixties were the years of the final incorporation of Spanish architecture to the international scene. Among the architects who star that no return leap, is the group of those who a few years later will be named by Juan Daniel Fullaondo as Escuela de Madrid. Carlos Flores, in his book Arquitectura Española Contemporánea 1880-1950, refers to those architects as those that applied to the difficult task of restoring in Spain an architecture that connected with theories, solutions and established languages in Europe during the first decades of the twentieth century. Sigfried Giedion proposes in Space, Time and Architecture, the origin of a new tradition, arising from the optical revolution at the beginning of the century. With tradition he refers to a new culture, covering the interplay of different human activities: the similarity of the methods used in architecture, building, painting, urban planning or science. This new feature, based on its independence and detachment from the previous period, is part of the evolutionary scheme that Thomas Kuhn proposes in his text The Structure of Scientific Revolutions, according to non-accumulative periods. Kuhn talks about the emergence of anomalies in each period, origin of thought crisis whose explanation will require a paradigm shift needed. In science, in the field of optical Thomas Young demonstrates at the early nineteenth century the wave nature of light with its double-slit experiment , in electromagnetism the postulation of the existence of the electric field by Michael Faraday involves a conceptual leap, and in thermodynamic, the consideration pointed by Planck about quantum energy radiation. In the arts, in a parallel process, Gleizes and Metzinger , in his collection of cubism achievements on their book Du Cubisme, speak of evolution occurring during the nineteenth century by the painting: from the idealism of beginning of the century, going for realism and impressionist representation of reality, and finishing regardless of the classical perspective . Mathematics also, once developed by Gauss and Lobachevsky and Bolyai consistent geometries that violate Euclid's fifth postulate , will end validating Riemann’s ambient spaces in which these geometries inhabit, decoupling the direct relationship between geometric space -the space environment that results in a type of geometry- , and physical space. Capi Corrales reflectes in his book Contando el Espacio, that non-Euclidean geometries were not noticeable outside the field of mathematics until the theory of relativity and cubism. The origin of the new tradition that Giedion relates to the new culture of modernity coincides with paradigmatic leaps pointed by the theory of relativity in science and Cubism in the visual arts. Both are extended during the first decades until quantum theory and absolute abstraction, barriers that the two main precursors of relativity and cubism, Einstein and Picasso never overcome. In that sense Giedion speaks about the origin, but also the development, and incorporates peripheral inputs from Brazil, Japan and Finland architecture, thus including organic revision advocated by Zevi as part of this new tradition, being open to the late addition of new contributions to the development of that culture of modernity. Removed the concept of Kant's transcendental aesthetics, of time as an absolute reference, and assumed the constant value of the speed of light, theory of relativity says there is no authentic concurrency. It is thus fixed the speed of light as one of the limits of the universe, and the equivalence of mass and energy. In cubism, spatial simultaneity results from the elimination of preferential points of view, resulting in the multiplicity descriptive of reality, which is displayed in decomposition levels, both the object and the space, and the resulting continuity between figure and background that architecture is reflected in the continuity between building and land. Without the consideration of an absolute point of view, there isn’t an authentic shape. Cubism, and its subsequent development by the vanguard arts, make use of geometry as a means of rebuilding the figure and space, taking penetration mechanisms, overlapping and transparency. Gyorgy Kepes suggest in Languaje of Vision, that cubist decomposition of the object involves successive planes autonomy, to become constituent elements. Something that reflects the Van Doesburg’s architectural axonometrics and culminates with the spaces proposed by Mies van der Rohe in his first European projects. These mechanisms are reflected in the first approaches by Javier Carvajal: the extension of Spanish Pantheon in Campo Verano Cemetery, virtual enclosure mentally reconstructed from 24 the use of only three planes, or in the Spanish Pavilion of New York, which organizes its ground floor from the tour, introducing the time parameter as an additional dimension. Carvajal adds to the differential use of the plane as a constituent, Carvajal incorporates its folding and forming enclosures available as a mechanism for spatial and formal qualification, promoting the extension between architecture and territory. A continuity that will be completed in the two houses built in Somosaguas. Volumetric decomposition, as the fragmentation achieved in the last cubist experiences, needs the incorporation of elements of memory - fountains, patios, shutters...- as a network of signals, such as those introduced by Picasso and Braque in their paintings to allow their interpretation. Braque insists in his interest in the space surrounding the objects. A search of the tactility of space contrary to the perspective, which moves the observer away from the object, and that in the gardens of Somosaguas seems to emanate from its own materiality. A tactile space away from the geometric space and Braque identified with the representative space in which Poincaré in La Science et l´hypothèse, located our feelings. To blur those boundaries of the object extends the space indefinitely. With the passage in Greek art from myth to logos, it opens up to mathematics as a tool for understanding the nature until the nineteenth century. Leon Lederman, in Symmetry and beautiful Universe, suggests that one of the greatest contributions of Einstein's theory is to change the mindset of nature, namely the search for symmetry principles that underlie physical laws. Considering that symmetry is the invariance of an object or system from a transformation and that physical laws are the same at any point in space, the space of our universe has a continuous translational symmetry. In the space occupation of the first proposals by Corrales and Molezún underlying structures appear that match enlosetados: parallelograms under continuous transformations, which nature identifies tridimensionally with the crystallographic groups. Plants in the Contemporary Art Museum in La Castellana, the residence in Miraflores, the Brussels pavilion or the Peugeot tower belong to this group. The architecture as a process of continuous occupation of the territory and of its transposition to the deck, embodied in structural lines coincide with the mathematical structure of the translational symmetry and infinite extension whose possibility is enhanced by the use of the transparent cover. Alongside this literal transparency inherent to the material, Colin Rowe and Robert Slutzky alert us another transparency inherent in the structure: phenomenal transparency, illustrated by the Juan Gris’ works, and whose intuition is reflected in the Huarte’s house in Puerta de Hierro in Madrid. Corrales and Molezún insist on a reading of its volume away from the frontal, in which the outline of their inclined roofs and tangential visual suggested by the organization of his circulations introduce a diagonal structure which overlaps the orthogonal understanding of its plant, drawing an intricate web of broken lines that allow the space fluctuate between the volumetric sequence proposal. Information concerning to the energy mean of light and the concept of atom start from the consideration by Plank about the energy emission, and conclude with a paradoxical situation: the dual nature of light - demonstrated by the explanation of Einstein's photoelectric effect-, and the dual nature of matter -assumed by Bohr and demonstrated by the Compton effect-. Finally, Schrödinger and Heisenberg will formulate the universal movement equation governing in undulatory matter, whose mathematical representation is what is known as a wave function. The object is thus identified with its wave function. Its undulatory expression speaks about the probability of being found in a certain place. Gyorgy Kepes emphasizess the need to simplify the language to move from the objectivity that still remains in the cubist painting to the total abstraction of the space. And this is how artists reduced the objects to simple geometric shapes, making emerge at a time, the plastic forces that tense or balance them, in a process that eventually eliminate any trace of matter. Robert Rosenblum in Modern Painting and the Northern Romantic Tradition. Friedrich to Rothko talks about how this rejection of matter in an almost impalpable vacuum: dense color light fields that broadcast a serene glow and seem to generate the elemental energies of natural light is directly linked to the relationship with nature that sets the northern romanticism. An expression of the power of nature concentrated in a vacuum which had been reason for thought by Michael Faraday in his application of the concept of electric field. Saenz de Oíza touches upon the material expression of the energy in its proposal with Jose Luis Romany to the chapel on the Camino de Santiago. The presence of electromagnetic forces, the only ones with the gravitational one capable of being experienced by the man will also visualize in the emerging nature of some of his works: the sanctuary of Aránzazu or Torres Blancas, but also in the flowing nature of its contours, and the inclusion of interest in the realization of space fluctuating boundary: the threshold as the center of the universe. Miguel Fisac, back from his trip to the Northern Countries, starts on a linguistic simplification oriented to the functional adequacy of spaces. In the Daimiel Institute, in the Institute to Teacher Formation or in the complex to the Dominican Fathers in Valladolid or Alcobendas, progressively organized into different functional volumes architecture, focusing in a parallel way in the manifestation of the links established between these volumes as a visualization of the forces that tense and balance them. The prolongation of the physical reality beyond the limits of the envelope is already something more than a simple intuition. A process in which the treatment of light as a construction material, have a special role. In the Coronation church, curved wall lighting dramatizes the undulatory condition of the light, manifesting as if an interference pattern is involved. Versus the dissolution of the material, the space is expressed here as a dense atmosphere, away from the traditional notion of the vacuum. A dual nature, wave and particle, which is also sensed by Fisac in his committed use of concrete as a unique construction material. Richard Feynman alerts us to the occupation of space by many electromagnetic forces, which like the light, require specific receptors to capture their presence. His famous diagrams also involve the final visualization of atomic processes. As absolute abstraction in the visual arts, these representations are not assimilated to images obtained from our experience. A diagrammatic nature, abstracted from figuration, which will obtein the pictures of Alejandro de la Sota. The section of Maravillas gym collects traces of its main building blocks: structure, enclosures... but also, and with the same intensity, of the forces that generate their space as constituent elements. Sota makes it clear: the vacuum is where inhabit these tensions. The subsequent simplification of forms, accompanied by the obsession with his lightening, the near disappearance of the envelope, touches upon that idea which Paul Klee defines the activity of the artist in his Modern Art Theory, the spacing out to the apparent: it is not to reproduce the visible, it is to turn visible. Thus, in Bankunión and Aviaco, as in many other projects, against the shape, raises the limit as the dimension of a scope. His own aseptic and diagrammatic representation transmits waiver to a spatial specificity that Gilles Deleuze clearly expressed in Painting. The Concept Diagram: The diagram as the possibility of infinite pictures, or infinite possibility of the picture. Thus appears the probabilistic concept of space in which, opposite to the diffuse of its definition -clear ideas, diffuse definition, as Llinas said- the insistent attention to some elements like stairs, guards or lookouts seems to concentrate the architecture in its dynamic condition, transitional. The relationship opposite the object, the link opposite the tangible.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Los virus de plantas pueden causar enfermedades severas que conllevan serias pérdidas económicas a nivel mundial. Además, en la naturaleza son comunes las infecciones simultáneas con distintos virus que conducen a la exacerbación de los síntomas de enfermedad, fenómeno al que se conoce como sinergismo viral. Una de las sintomatologías más severas causadas por los virus en plantas susceptibles es la necrosis sistémica (NS), que incluso puede conducir a la muerte del huésped. Este fenotipo ha sido comparado en ocasiones con la respuesta de resistencia de tipo HR, permitiendo establecer una serie de paralelismos entre ambos tipos de respuesta que sugieren que la NS producida en interacciones compatibles sería el resultado de una respuesta hipersensible sistémica (SHR). Sin embargo, los mecanismos moleculares implicados en el desarrollo de la NS, su relación con procesos de defensa antiviral o su relevancia biológica aún no son bien entendidos, al igual que tampoco han sido estudiados los cambios producidos en la planta a escala genómica en infecciones múltiples que muestran sinergismo en patología. En esta tesis doctoral se han empleado distintas aproximaciones de análisis de expresión génica, junto con otras técnicas genéticas y bioquímicas, en el sistema modelo de Nicotiana benthamiana para estudiar la NS producida por la infección sinérgica entre el Virus X de la patata (PVX) y diversos potyvirus. Se han comparado los cambios producidos en el huésped a nivel genómico y fisiológico entre la infección doble con PVX y el Virus Y de la patata (PVY), y las infecciones simples con PVX o PVY. Además, los cambios transcriptómicos y hormonales asociados a la infección con la quimera viral PVX/HC‐Pro, que reproduce los síntomas del sinergismo entre PVX‐potyvirus, se han comparado con aquellos producidos por otros dos tipos de muerte celular, la PCD ligada a una interacción incompatible y la PCD producida por la disfunción del proteasoma. Por último, técnicas de genética reversa han permitido conocer la implicación de factores del huésped, como las oxilipinas, en el desarrollo de la NS asociada al sinergismo entre PVXpotyvirus. Los resultados revelan que, respecto a las infecciones con solo uno de los virus, la infección doble con PVX‐PVY produce en el huésped diferencias cualitativas además de cuantitativas en el perfil transcriptómico relacionado con el metabolismo primario. Otros cambios en la expresión génica, que reflejan la activación de mecanismos de defensa, correlacionan con un fuerte estrés oxidativo en las plantas doblemente infectadas que no se detecta en las infecciones simples. Además, medidas en la acumulación de determinados miRNAs implicados en diversos procesos celulares muestran como la infección doble altera de manera diferencial tanto la acumulación de estos miRNAs como su funcionalidad, lo cual podría estar relacionado con los cambios en el transcriptoma, así como con la sintomatología de la infección. La comparación a nivel transcriptómico y hormonal entre la NS producida por PVX/HC‐Pro y la interacción incompatible del Virus del mosaico del tabaco en plantas que expresan el gen N de resistencia (SHR), muestra que la respuesta en la interacción compatible es similar a la que se produce durante la SHR, si bien se presenta de manera retardada en el tiempo. Sin embargo, los perfiles de expresión de genes de defensa y de respuesta a hormonas, así como la acumulación relativa de ácido salicílico (SA), ácido jasmonico (JA) y ácido abscísico, en la interacción compatible son más semejantes a la respuesta PCD producida por la disfunción del proteasoma que a la interacción incompatible. Estos datos sugieren una contribución de la interferencia sobre la funcionalidad del proteasoma en el incremento de la patogenicidad, observado en el sinergismo PVX‐potyvirus. Por último, los resultados obtenidos al disminuir la expresión de 9‐LOX, α‐DOX1 y COI1, relacionados con la síntesis o con la señalización de oxilipinas, y mediante la aplicación exógena de JA y SA, muestran la implicación del metabolismo de las oxilipinas en el desarrollo de la NS producida por la infección sinérgica entre PVXpotyvirus en N. benthamiana. Además, estos resultados indican que la PCD asociada a esta infección, al igual que ocurre en interacciones incompatibles, no contiene necesariamente la acumulación viral, lo cual indica que necrosis e inhibición de la multiplicación viral son procesos independientes. ABSTRACT Plant viruses cause severe diseases that lead to serious economic losses worldwide. Moreover, simultaneous infections with several viruses are common in nature leading to exacerbation of the disease symptoms. This phenomenon is known as viral synergism. Systemic necrosis (SN) is one of the most severe symptoms caused by plant viruses in susceptible plants, even leading to death of the host. This phenotype has been compared with the hypersensitive response (HR) displayed by resistant plants, and some parallelisms have been found between both responses, which suggest that SN induced by compatible interactions could be the result of a systemic hypersensitive response (SHR). However, the molecular mechanisms involved in the development of SN, its relationship with antiviral defence processes and its biological relevance are still unknown. Furthermore, the changes produced in plants by mixed infections that cause synergistic pathological effects have not been studied in a genome‐wide scale. In this doctoral thesis different approaches have been used to analyse gene expression, together with other genetic and biochemical techniques, in the model plant Nicotiana benthamiana, in order to study the SN produced by the synergistic infection of Potato virus X (PVX) with several potyviruses. Genomic and physiological changes produced in the host by double infection with PVX and Potato virus Y (PVY), and by single infection with PVX or PVY have been compared. In addition, transcriptional and hormonal changes associated with infection by the chimeric virus PVX/HC‐Pro, which produces synergistic symptoms similar to those caused by PVX‐potyvirus, have been compared with those produced by other types of cell death. These types of cell death are: PCD associated with an incompatible interaction, and PCD produced by proteasome disruption. Finally, reverse genetic techniques have revealed the involvement of host factors, such as oxylipins, in the development of SN associated with PVX‐potyvirus synergism. The results revealed that compared with single infections, double infection with PVX‐PVY produced qualitative and quantitative differences in the transcriptome profile, mainly related to primary metabolism. Other changes in gene expression, which reflected the activation of defence mechanisms, correlated with a severe oxidative stress in doubly infected plants that was undetected in single infections. Additionally, accumulation levels of several miRNAs involved in different cellular processes were measured, and the results showed that double infection not only produced the greatest variations in miRNA accumulation levels but also in miRNA functionality. These variations could be related with transcriptomic changes and the symptomatology of the infection. Transcriptome and hormone level comparisons between SN induced by PVX/HCPro and the incompatible interaction produced by Tobacco mosaic virus in plants expressing the N resistance gene (SHR), showed some similarities between both responses, even though the compatible interaction appeared retarded in time. Nevertheless, the expression profiles of both defence‐related genes and hormoneresponsive genes, as well as the relative accumulation of salicylic acid (SA), jasmonic acid (JA) and abscisic acid in the compatible interaction are more similar to the PCD response produced by proteasome disruption. These data suggest that interference with proteasome functionality contributes to the increase in pathogenicity associated with PVX‐potyvirus synergism. Finally, the results obtained by reducing the expression of 9‐LOX, α‐DOX1 and COI1, related with synthesis or signalling of oxylipins, and by applying exogenously JA and SA, revealed that oxylipin metabolism is involved in the development of SN induced by PVX‐potyvirus synergistic infections in N. benthamiana. Moreover, these results also indicated that PVX‐potyvirus associated PCD does not necessarily restrict viral accumulation, as is also the case in incompatible interactions. This indicates that both necrosis and inhibition of viral multiplication are independent processes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La fauna saproxílica ha cobrado mucha relevancia en los últimos años. Por una parte, debido a los múltiples papeles que juega en la ecología de los bosques y por otra, por encontrarse muchas especies de ese grupo amenazadas como consecuencia de la intensificación de las actividades forestales. Se supone que los bosques de Europa meridional albergan una fauna saproxílica rica y variada. Sin embargo apenas se han realizado estudios que permitan conocer la composición de las biocenosis saproxílicas, así como el estatus y grado de amenaza a que está sometida cada especie. En esta tesis se han muestreado de forma sistemática las comunidades de coleópteros saproxílicos de cuatro montes del norte de la Comunidad de Madrid, muy diferentes a pesar de su cercanía: Dehesa Bonita de Somosierra, Hayedo de Montejo, Dehesa de Madarcos y Pinar de La Maleza. Para llevar a cabo la recogida de muestras se definió una estación de muestreo tipo, compuesta por cuatro trampas aéreas con cebo oloroso, dos trampas de ventana y una trampa de embudos. En los dos primeros montes mencionados se desplegaron seis estaciones de muestreo, por sólo tres en los otros dos. El primer objetivo de esta tesis fue conocer las especies de coleópteros que constituyen la fauna de los cuatro montes estudiados. Los muestreos sistemáticos reportaron la presencia de un total de 357 especies de coleópteros saproxílicos, siendo el Hayedo de Montejo el bosque con la diversidad más alta, 220 especies; le siguen la Dehesa de Madarcos con 116; el pinar de La Maleza con 115; y la Dehesa de Somosierra con 109, si bien la fauna de este ultimo bosque podría ser mucho más variada dado que la interferencia del ganado con algunos dispositivos de captura hizo que se perdiera parte del material allí recolectado. Se han encontrado nueve especies nuevas para la fauna de la Península Ibérica, y otras muchas desconocidas previamente en el centro peninsular. Un total de 50 especies se encuentran incluidas en la Lista Roja Europea de coleópteros saproxílicos. El segundo objetivo fue estimar la riqueza de fauna de coleópteros saproxílicos en cada bosque. Partiendo de los datos de los respectivo muestreos se calcularon diferentes estimadores, paramétricos y no paramétricos, y se elaboraron las curvas de rarefacción para cada bosque y para el conjunto. El bosque con más biodiversidad ha resultado ser el Hayedo de Montejo, que albergaría entre 254 y 332 especies. En el Pinar de la Maleza se encontrarían de 132 a 223; de 128 a 205 en la Dehesa de Somosierra; y entre 134 y 188 en la Dehesa de Madarcos. Para el conjunto del área se estimó la presencia de entre 411 y 512 especies. El tercer objetivo fue evaluar la influencia de algunos factores como la especie arbórea dominante y la cantidad de madera muerta en la riqueza y diversidad de coleópteros saproxílicos. El estudio se realizó en el Hayedo de Montejo, encontrando una alta correlación positiva entre cantidad y calidad de madera muerta, y diversidad y riqueza de especies de coleópteros saproxílicos. El cuarto objetivo fue evaluar la eficacia y complementariedad de los diferentes tipos de dispositivos de captura empleados en los muestreos. El más eficaz resultó ser la trampa de ventana, seguido por la trampa aérea con cebo oloroso, y finalmente la trampa de embudos. La mayor complementariedad se encontró entre trampas de ventana y aéreas con cebo oloroso. No obstante, si se quiere optimizar la exhaustividad del inventario no se debe prescindir de ninguno de los sistemas. En cualquier caso, puede afirmarse que la efectividad de los tres tipos de dispositivos de captura utilizados en los muestreos fue baja, pues para la gran mayoría de especies presentes se capturó un número de ejemplares realmente bajo. El bajo rendimiento de captura implica un bajo impacto sobre las poblaciones de las especies muestreadas, y esto supone una importante ventaja desde el punto de vista de la conservación. Finalmente, se dejan algunas recomendaciones de manejo a aplicar en cada uno de los montes con el fin de preservar o mejorar los hábitats utilizables por la fauna saproxílica que garanticen el mantenimiento y mejora de dichas comunidades. ABSTRACT The saproxylic fauna has become increasingly important in recent years. It has been due, on the one hand, to the multiple roles they play in the forest ecosystems and, on the other, because of the large proportion of endangered saproxylic species as a result of the intensification of forestry. It is generally assumed that southern Europe forests are home to a rich and diverse saproxylic fauna. However, there are hardly any studies leading to reveal the composition of saproxylic biocenosis, or the stage and extent of the threat each species is suffering. For the purpose of this thesis the communities of saproxylic beetles of four mountain forests in northern Comunidad de Madrid have been systematically sampled: Dehesa Bonita de Somosierra, Hayedo de Montejo, Dehesa de Madarcos and Pinar de La Maleza. They are very different from each other in spite of not being too far apart. In order to carry out sample collection, a standard sampling station was defined as follows: four smelly bait aerial traps, two window traps and one funnel trap. Six sampling stations were deployed in each of the first two forests mentioned above; put only three in each of the other two. The first aim of this thesis was to determine the composition of saproxylic beetles fauna inhabiting each of the four forests studied. Systematic sampling reported the presence of a total of 357 species of saproxylic beetles. Hayedo de Montejo, with 220 species, is the forest with the highest diversity, followed by Dehesa de Madarcos, 116; Pinar de La Maleza, 115, and Dehesa de Somosierra, 109. The fauna of the latter forest, however, could be much more varied, since cattle interference with some capture devices caused the loss of part of the material collected there. Nine new species in the fauna of the Iberian Peninsula were found, and many others previously unknown in the center of the Peninsula. A total of 41 of those species are included in the European Red List of saproxylic beetles. The second aim was to estimate the richness of saproxylic (beetle) fauna in each forest. From the data of the respective sampling, different parametric and nonparametric estimators were calculated, and rarefaction curves for each forest, as well as for the four of them together, were drawn. The most biodiverse forest turned out to be Hayedo de Montejo, which houses between 254 and 332 species. In Pinar de La Maleza, between 132 and 223 species were found; between 128 and 205 in Dehesa de Somosierra, and between 134 and 188 in Dehesa de Madarcos. The estimated diversity of species for the whole area ranges from 411 to 512. The third aim was to evaluate the influence of such factors as the dominant tree species and the amount of dead wood in the richness and diversity of saproxylic beetles. The study was conducted at Hayedo de Montejo, finding a high positive correlation between quantity and quality of coarse woody debris and diversity and richness of saproxylic beetle species. The fourth aim was to evaluate the effectiveness and complementarity of the different sampling methods used in this research work. The most effective proved to be the window trap, followed by the smelly bait aerial trap and the funnel trap, in that order. The greater complementarity was found between window and aerial traps. However, in order to optimize the completeness of the inventory, neither of the systems should be discarded. Nevertheless, the effectiveness of the three types of capture devices used in this piece of research was on the whole rather low, since for the vast majority of species, a significant low number of specimens were captured. Poor trapping performance implies a low impact on the populations of the sampled species, and this is an important advantage in terms of conservation. Finally, this thesis gives some recommendations with regard to the management of each of those four forests, leading to preserve and improve the habitats of the saproxylic wildlife and so ensure the maintenance and growth of their communities.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Las técnicas de speckle tienen un gran interés científico e ingenieril, ya que son métodos de ejecución rápida y no destructiva, con base en el análisis de las fluctuaciones de intensidad de la radiación producida cuando la luz coherente de un haz láser es esparcida por un material dado. En este caso se produce un patrón aleatorio de interferencia y difracción donde la suma de las componentes desfasadas dará lugar a máximos y mínimos de intensidad en distintos puntos del espacio. Éste, pese a tratarse de un ruido nocivo en multitud de áreas tales como la transmisión de señales o la holografía, tiene importantes propiedades físicas que lo caracterizan y lo hacen útil como medio para analizar sistemas reales de muy diversa índole. En el presente estudio, se ha llevado a cabo un análisis polarimétrico de la radiación aleatoria esparcida por una serie de muestras metálicas y dieléctricas con el objetivo de establecer una base comparativa que nos permita poder distinguir unas de otras. Para este fin se han comparado los parámetros de polarización de Stokes, el grado de polarización de la luz, las distribuciones de intensidad y el tamaño medio del speckle registrado en los distintos patrones de intensidad. Además, se analizará la dependencia de la rugosidad en el grado de polarización de la luz para los distintos medios sometidos a estudio. Abstract Speckle techniques have a great scientific and engineering interest as they are methods of rapid and non-destructive execution, based on the analysis of the fluctuations of intensity of the radiation produced when coherent light of a laser beam is scattered by a material given. In this case, a random pattern of interference and diffraction occurs where the sum of phase shifted components will result in maximum or minimum of intensity at different points in space. This, despite being a harmful noise in many areas such as signal transmission or holography, has important physical properties that characterize it and make it useful as a means to analyze real systems of various kinds. In the present study, we have conducted a polarimetric analysis of the random radiation scattered by a series of metal and dielectric samples in order to establish a comparative basis to allow us to distinguish one from another. To this end we have compared, the stokes polarization parameters, the degree of polarization (DOP), the intensity distributions and the average size of the speckle registered in the different intensity patterns. Furthermore, dependence of roughness in the DOP of light for the different means under study will be analyzed.