42 resultados para Interferencia electromagnética
em Universidad Politécnica de Madrid
Resumo:
Colección de monografías sobre temas avanzados en el área de los sistemas de guiado de ondas. El contenido es adecuado para estudiantes que, habiendo seguido un curso básico, sientan especial predilección por el tema, para aquellos que inician su formación de postgrado en el área de electromagnetismo, y para titulados con experiencia que precisen, en un momento dado, una información más completa acerca de ciertos problemas ajenos a su actividad previa.
Resumo:
El análisis del comportamiento de los modos de interferencia tiene una aplicación cada vez mas amplia, especialmente en el campo de los biosensores opticos. En este tipo de sensores se observa el desplazamiento Δν de los modos de interferencia de la señal de transducción al reconocer un determinado agente biologico. Para medir ese desplazamiento se debe detectar la posición de un máximo o minimo de la senal antes y después de dicho desplazamiento. En este tipo de biosensores un parámetro de gran importancia es el periodo Pν de la senal el cual es inversamente proporcional al espesor óptico h0 del sensor en ausencia de agente biologico. El aumento de dicho periodo mejora la sensibilidad del sensor pero parece dificultar la detección del minimo o maximo. Por tanto, su efecto sobre la incetidumbre del resultado de la medida presentados efectos contrapuestos: la mejora de la sensibilidad frente a la dificultad creciente en la detección del minimo o maximo. En este trabajo, los autores analizan la propagación de incertidumbres en estos sensores utilizando herramientas de ajuste por MM.CC. para la detección de los minimos o máximos de la senal y técnicas de propagación de incertidumbres descritas en los suplementos 2 de la Guia ISO-GUM. El resultado del análisis permite dar una respuesta, justificada desde el punto de vista metrologico, de en que condiciones es conveniente o no aumentar el periodo Pν de la senal.
Resumo:
The analysis of the interference modes has an increasing application, especially in the field of optical biosensors. In this type of sensors, the displacement Δν of the interference modes of the transduction signal is observed when a particular biological agent is placed over the biosensor. In order to measure this displacement, the position of a maximum (or a minimum) of the signal must be detected before and after placing the agent over the sensor. A parameter of great importance for this kind of sensors is the period Pν of the signal, which is inversely proportional to the optical thickness h0 of the sensor in the absence of the biological agent. The increase of this period improves the sensitivity of the sensor but it worsens the detection of the maximum. In this paper, authors analyze the propagation of uncertainties in these sensors when using least squares techniques for the detection of the maxima (or minima) of the signal. Techniques described in supplement 2 of the ISO-GUM Guide are used. The result of the analysis allows a metrological educated answer to the question of which is the optimal period Pν of the signal. El análisis del comportamiento de los modos de interferencia tiene una aplicación cada vez más amplia, especialmente en el campo de los biosensores ópticos. En este tipo de sensores se observa el desplazamiento Δν de los modos de interferencia de la señal de transducción al reconocer un de-terminado agente biológico. Para medir ese desplazamiento se debe detectar la posición de un máximo o mínimo de la señal antes y después de dicho desplazamiento. En este tipo de biosensores un parámetro de gran importancia es el periodo Pν de la señal el cual es inversamente proporcional al espesor óptico h0 del sensor en ausencia de agente biológico. El aumento de dicho periodo mejora la sensibilidad del sensor pero parece dificultar la detección del mínimo o máximo. Por tanto, su efecto sobre la incertidumbre del resultado de la medida presenta dos efectos contrapuestos: la mejora de la sensibilidad frente a la dificultad creciente en la detección del mínimo ó máximo. En este trabajo, los autores analizan la propagación de incertidumbres en estos sensores utilizando herramientas de ajuste por MM.CC. para la detección de los mínimos o máximos de la señal y técnicas de propagación de incertidumbres descritas en el suplemento 2 de la Guía ISO-GUM. El resultado del análisis permite dar una respuesta, justificada desde el punto de vista metrológico, de en que condiciones es conveniente o no aumentar el periodo Pν de la señal.
Resumo:
La presente tesis aborda el estudio de los distintos regímenes de neutro de las instalaciones de baja tensión, comúnmente llamados sistemas de puesta a tierra, desde un doble punto de vista, con el objetivo final de establecer un estándar justificado para un posterior desarrollo normativo, y de diseño que facilite la operación y funcionamiento de la instalación eléctrica y de comunicaciones en los sistemas hospitalarios. En una primera parte de la tesis se detallará que aunque hay muchos estudios teórico-prácticos sobre la elección del régimen de neutro en base a criterios operativos y puramente eléctricos, criterios como seguridad frente a accidentes eléctricos, o en términos de disponibilidad, mantenimiento o fiabilidad, esas recomendaciones no se han trasladado de manera directa a la legislación española salvo en el caso de Salas de Intervención donde se obliga a un sistema IT. Por eso se justificará como una primera técnica correctora de un inadecuado funcionamiento electromagnético en Hospitales el establecer una propuesta de marco normativo donde se fijen los tipos de puesta a tierra en función del uso y tipología del edificio desde un punto de vista eléctrico Por otra parte, la influencia de los distintos regímenes de neutro en la transmisión de señales (compatibilidad magnética) no ha sido estudiada en toda su profundidad, no existiendo ni marco normativo obligado ni estudios en profundidad sobre estas afecciones. Por tanto y en una segunda parte de la tesis se propondrá como medida correctora para mejorar el funcionamiento electromagnético de un hospital qué el régimen de neutro TN-S es más respetuoso con el funcionamiento de los equipos de electromedicina que alberga en su interior, estableciendo así mismo una propuesta de norma que regule este diseño. En definitiva se justifica que es posible generar por diseño inicial de la red eléctrica, mediante un régimen de neutro TN-S, un contexto electromagnético óptimo para el funcionamiento del sistema hospitalario que no se logra con otras opciones contempladas en la normativa española. ABSTRACT This thesis deals with the study of various ground grid systems of low voltage installations, commonly called grounding systems, from two points of view, with the ultimate goal of establishing a standard justified from a policy perspective and design to facilitate the operation and functioning of the electrical system and hospital communications systems. In the first part of the thesis will be detailed that although there are many theoretical and practical studies on the choice of the neutral system based on operational criteria and purely electric, criteria such as safety against electrical accidents, or in terms of availability, maintenance and reliability, these recommendations have not been transferred directly to the Spanish legislation except in Intervention Rooms where a IT system is required. So be justified as a first corrective technique improper operation electromagnetic Hospitals proposal to establish a regulatory framework where ground types depending on the use and type of building are set from an electrical point of view . Moreover, the influence of the different regimes neutral signaling (magnetic compatibility) has not been studied in any depth, there being neither forced nor depth studies on these conditions regulatory framework. Thus in a second part of the thesis will be justified as a corrective measure to improve the electromagnetic performance of a hospital which the neutral TN-S is more respectful of the performance of medical electrical equipment housed in its interior, thus establishing same a proposed rule governing this design. Ultimately it is possible to generate justified by initial design of the grid, using a neutral system TN-S, electromagnetic optimal context for the operation of the hospital system is not achieved with other legal options in Spain.
Resumo:
Presentación del curso Transmisión Digital, tema Detección con Interferencia entre Símbolos
Resumo:
En la presente Tesis Doctoral se propone una posible solución al problema de la radiación electromagnética. Este es un problema científico estudiado desde hace mucho tiempo y que hasta el presente no se ha podido resolver de manera exacta. Aquí se redefine nuevamente el problema y se plantea el mismo partiendo un modelo de radiador formado por dos placas planas circulares paralelas, que por sus reducidas dimensiones eléctricas, se considerará para el estudio como un dipolo simétrico corto. Se obtienen las soluciones de las ecuaciones de Maxwell para la radiación electromagnética emitida por dicho sistema y se propone lo que sería el principio de formación de las ondas electromagnéticas. Con ayuda de este se ofrece una posible interpretación de las soluciones obtenidas. Luego a dicho sistema se le realizan correcciones en sus dimensiones a fin de ajustar las soluciones obtenidas al caso real de un dipolo simétrico de media onda. Además se analiza de una manera sencilla la naturaleza material del campo electromagnético y su estructura, lo que hace posible proponer una manera original de comprender las ecuaciones de Maxwell. Finalmente se propone un modelo sencillo mediante el cual se puede demostrar la Ley de Planck para la distribución espectral de la energía electromagnética radiada por los cuerpos calientes, pero desde las soluciones de las ecuaciones de Maxwell para la radiación de las antenas. Con esto podría ser aceptado que la solución del problema de la radiación electromagnética es única tanto para las antenas como para los cuerpos calientes en la naturaleza. ABSTRACT In this PhD thesis a possible solution to the problem of electromagnetic radiation is proposed. This is a scientific problem which has been studied for a long time and to this day has still not exactly been solved. The problem is redefined here again and it is stated using a model formed by two flat parallel circular plates as the radiator system, which due to its reduced electrical dimensions will be considered for the study as a short symmetrical dipole. The solutions of the Maxwell equations for emitted electromagnetic radiation are obtained by said system, and that which could be the principle formation of electromagnetic waves is proposed. Using this principle, a possible interpretation of the solutions obtained is presented. Then the system will perform corrections in size to adjust the solutions obtained to the real case of a symmetrical half-wave dipole. The material nature of the electromagnetic field and its structure is also analyzed in a simple way, making it possible to present an original way to understand the Maxwell equations. Finally, a simple model which can be used to prove Planck's law of spectral distribution of the electromagnetic energy radiated by hot bodies is proposed, but parting from the solutions of the Maxwell equations for the antennas radiation. With this it could be accepted that the solution to the problem of electromagnetic radiation is unique to both antennas and hot bodies on nature.
Resumo:
Esta tesis presenta un estudio de la resistencia de interferencia en multicascos, término que engloba las variaciones en la resistencia al avance debidas a la interacción entre cascos. Su característica más notable es que puede ser tanto positiva como negativa, contribuyendo favorablemente en este último caso a la reducción de la resistencia total. Su análisis permanece como un área activa dentro de la comunidad hidrodinámica, si bien se ha detectado una significativa falta de información experimental sobre el flujo entre cascos. En primer lugar se incluye una caracterización de los fenómenos de interferencia, evaluando su impacto en las diferentes componentes de la resistencia al avance. Al igual que la resistencia total, su predicción requiere el uso de técnicas experimentales o numéricas al ser inviable su solución analítica. Ambos procedimientos han sido considerados en esta tesis. El análisis experimental de la resistencia de interferencia supone el núcleo central del trabajo realizado. Se han ensayado dos geometrías diferentes, un catamarán de servicio comercial PESBO junto con un catamarán compuesto por dos Serie 60 (S60) en paralelo. Los ensayos se han llevado a cabo en dos canales de experiencias, CEHINAV y CEHIPAR, midiéndose resistencia al avance, asiento y trimados dinámicos, y cortes de olas en la zona entre cascos. Mención especial a estos últimos, dado que a pesar de ser en la zona central donde ocurren los principales efectos de interferencia, no se encontró información previa publicada en la literatura. Su medición requirió la fabricación de un sistema de soporte especifico para las probetas de medición. Por otro lado, aunque el Serie 60 es una geometría bien conocida en la comunidad hidrodinámica, a conocimiento del autor su comportamiento como multicasco no había sido aun caracterizado experimentalmente. Los bastidores de unión se fabricaron de forma que permitieran variar la separación entre cascos. Además, los multicascos son en general embarcaciones de alta velocidad mostrando asientos y trimados dinámicos significativos. Para cuantificar su efecto en la resistencia total y de interferencia se construyo un sistema de fijación del modelo al carro que los restringiera, posibilitando comparar los resultados en esta condición con los del modelo libre. Como resultado, se han obtenido resultados experimentales de las dos geometrías estudiadas con múltiples separaciones, incluyendo un solo casco, y con modelo fijo y libre. Una de las principales utilidades de los resultados experimentales es servir como referencia para validar modelos de predicción. Como primera aplicación, los datos experimentales obtenidos con el catamarán S60 se han contrastado con las predicciones numéricas de Yeung et al. (2004). El análisis numérico de la resistencia de interferencia se completa con la realización de simulaciones numéricas utilizando dos códigos substancialmente diferentes: Tdynlin y CD--‐Adapco Star--‐CCM+. Los cortes de olas obtenidos en las simulaciones se comparan con los valores experimentales, mostrándose además los campos de presiones y velocidades calculados sobre el casco. La principal aportación de esta tesis es una extensa caracterización experimental de los fenómenos de interferencia, con la intención de servir de referencia para futuros estudios con multicascos. El análisis de los resultados permite comprender mejor el impacto que la interacción entre cascos, así como las variaciones dinámicas de las condiciones de navegación, tienen en las diferentes componentes de la resistencia. Por otro lado, permite apreciar la dependencia de la resistencia de interferencia con la velocidad y separación entre cascos, de cara a su utilización como parámetro de diseño. ABSTRACT This thesis presents a study of the interference resistance in multihulls, which comprises all the variations in the ship resistance due to the interaction between hulls. Its most remarkable characteristic is that it can be positive or negative, contributing in the second case to the reduction of the total ship resistance. Its study remains an active area in the hydrodynamic community, although there is a significant lack of published experimental data regarding the flow between hulls. First of all, the interference phenomena are characterized, evaluating the impact in the different components of the ship resistance. Similar to the total resistance, their prediction requires experimental or numerical techniques, as no analytic solutions are known. Both procedures have been considered in this thesis. The experimental analysis of the interference resistance is the core of the work done. Two different geometries have been tested, a commercial catamaran PESBO and a catamaran composed by two parallel Series 60 (S60). The tests have been carried out in two towing tanks, CEHINAV and CEHIPAR, measuring ship resistance, dynamic sinkage and trim, and wave cuts in--‐between the hulls. Special mention to the wave cuts, as no previous published information was found regarding this zone, even if it is where the main interference effects happen. Their measurement required building a support tripod for the probes, specifically designed for this experimental campaign. In addition, although the Series 60 is a well known hull for experimental and computational analyses, to the author’s knowledge its behavior as a multihull had not yet been experimentally described. The connection frames between the hulls were built so they allowed adjusting the hull spacing. Furthermore, multihulls are usually high--‐speed vessels, acquiring significant dynamic sinkage and trim. To quantify the effect of these dynamic variations of the interference resistance, a clamping system was developed to fixed the model and compare the results with the free model condition. Thus, experimental results have been obtained for various hull separations with the two geometries analyzed, including a single hull, and with free and fixed model. One of the main applications of experimental results is to serve as a reference to validate prediction models. As a first step, the obtained experimental data with the catamaran S60 have been compared with the numerical predictions of Yeung et al. (2004). The numerical analysis of the interference resistance is completed with the inclusion of numerical simulations using two codes substantially different: Tdynlin and CD--‐Adapco Star--‐CCM+. The wave cuts obtained from the simulations are compared with the experimental ones, showing also the pressure and velocity fields over the hulls. The main contribution of this thesis is an extensive experimental characterization of the interference phenomena, aiming to serve as reference for future studies about multihulls. The analysis of the results provides insights into the impact that the interaction between hulls, as well as the dynamic variations of the sailing conditions, have in the different components of the ship resistance. Moreover, it allows us to observe the dependence of the interference resistance on the velocity and hull spacing, useful towards its use as a design parameter.
Resumo:
La perspectiva del arquitecto en calidad ambiental, y salud en un contexto sostenible, se amplía al considerar las radiaciones electromagnéticas no ionizantes en el diseño arquitectónico. En ese sentido, además del confort higrotérmico, acústico, lumínico y de la calidad del aire, se podría considerar el confort electromagnético de un lugar. Dado que existe gran controversia en cuales han de ser los límites de exposición a radiaciones electromagnéticas no ionizantes, establezco como punto de referencia los valores límite más restrictivos, que son los recomendados por la norma SBM-2008, desarrollada por el Institut für Baubiologie & Oekologie Neubeuern (IBN)1. Se plantean como hipótesis que podemos modificar el entorno electromagnético con materiales de construcción y geometría; y que determinados trazados geométricos tienen la capacidad de reducir el impacto de los campos electromagnéticos sobre los organismos vivos. El objetivo consiste en demostrar experimentalmente que podemos trabajar sobre la calidad ambiental electromagnética de un espacio, a través de la elección de materiales de construcción y trazados geométricos, intentando demostrar que existe una relación causa - efecto entre ambos. La metodología plantea tres aproximaciones experimentales, cada una con un tipo de radiación electromagnética, pues se pretende abarcar las situaciones que comúnmente se pueden presentar en un entorno habitado, ya sea urbano o rural. La primera aproximación trata sobre las alteraciones del campo geomagnético natural (nT / m) provocadas por los materiales de construcción. Utilizo el geomagnetómetro BPM 2010, para realizar un ensayo con cuatro tipos de materiales de distinta procedencia: origen vegetal muy poco procesado (corcho aglomerado negro) y más procesado (OSB), origen derivado del petróleo (tablero rígido de poliuretano) y de origen mineral metálico (chapa minionda). De la lectura de los datos se observa relación causa-efecto entre los materiales de construcción estudiados y las modificaciones que pueden ejercer sobre el campo magnético de un lugar. A continuación se estudia el entorno de radiación electromagnética artificial a baja frecuencia (3 Hz a 3 kHz) y a alta frecuencia, (800 MHz a 10 GHz) en vivienda y en oficina utilizando unas geometrías concretas: las tarjetas de corrección de radiaciones. Estas tarjetas se ubican en paramentos verticales y horizontales de un espacio sometido a radiación propia de un entorno urbano. Se concluye que en una habitación inciden múltiples variables simultáneas muy difíciles de trabajar por separado y que aparentemente no se pueden identificar cambios significativos en las mediciones con y sin las tarjetas de corrección de radiaciones. A continuación estudio el entorno de radiación electromagnética artificial a baja frecuencia asociada a la red de distribución eléctrica. Para poder ver cómo este entorno electromagnético lo podemos modificar, utilizo las tarjetas de corrección de radiaciones ubicadas en relación directa con organismos vivos, por un lado germinados de semillas de haba mungo sometidas a campos electromagnéticos complejos a alta y baja frecuencia, propios de una oficina; y por otro lado germinados de semillas de haba mungo, sometidas a campos electromagnéticos puros a 50 Hz, sin influencias de radiación a alta frecuencia. Se concluye que se observa relación causa - efecto entre los trazados geométricos estudiados y su capacidad para reducir el impacto de los campos electromagnéticos a altas y bajas frecuencias sobre las semillas de haba mungo. También utilizo las tarjetas de corrección de radiaciones en un ensayo normalizado en el laboratorio de bioelectromagnetismo del Hospital Universitario Ramón y Cajal, con células de neuroblastoma humano. Se concluye que se observa relación causa - efecto entre los trazados geométricos estudiados y su capacidad para reducir el impacto de los campos electromagnéticos de 50 Hz Y 100 μT sobre células de neuroblastoma humano y además disminuyen la velocidad de proliferación celular respecto del grupo de células de control. Finalmente se estudia el entorno de radiación electromagnética artificial a alta frecuencia, asociado a comunicaciones inalámbricas. Para ello realizo simulaciones con el software CST Studio, sobre las tarjetas de corrección de radiaciones a alta frecuencia. A la luz de los datos se observa relación causa - efecto entre el trazado geométrico estudiado y su capacidad para reducir radiaciones electromagnéticas de alta frecuencia. Se comprueba además que, las tarjetas de corrección de radiaciones disminuyen la intensidad de la radiación acercándose a los límites de exposición establecidos por el instituto de la biología de la construcción alemán, que podrían estar señalando los estándares de biocompatibilidad. ABSTRACT The perspective of the architect in environmental quality, and health in a sustainable context is extended to consider non-ionizing electromagnetic radiation in architectural design. In that sense, besides the hygrothermal, acoustic, lighting and air quality comfort, the electromagnetic comfort of an indoor space could be considered. There is still great controversy about which should be the limits of exposure to nonionizing electromagnetic radiation, as a benchmark, the more restrictive limits are considered, by the SBM- 2008 standard, developed by the Institut für Baubiologie & Oekologie Neubeuern (IBN). The hypotheses that arise are the following: the electromagnetic environment can be modified by using certain construction materials and geometry; and certain geometric design have the ability to reduce the impact of electromagnetic fields on living organisms. The aim is to demonstrate experimentally that we can work on electromagnetic environmental quality of a indoor space, by using certain construction materials and geometric design, trying to demonstrate a cause - effect relationship between them. The methodology raises three experimental approaches, each with a type of radiation, it is intend to cover situations commonly may occur in an inhabited environment, whether urban or rural. The first approach discusses the alteration of the natural magnetic field (nT / m) caused by the building materials. Geomagnetometre BPM 2010 is used for conducting a test with four types of materials from different sources: vegetable origin less processing (black agglomerate cork) and vegetable origin more processed (OSB), petroleum origin (rigid polyurethane board) and metallic origin (miniwave plate). It is observed across the data information that exist cause-effect relationship between the construction materials studied and the modifications that they can exercise on the magnetic field of a place. Then I study the environment of artificial electromagnetic radiation at low frequency (3 Hz to 3 kHz) and high frequency (800 MHz to 10 GHz) in housing and office, using some specific geometries: correcting radiation cards. These cards are placed in vertical and horizontal surfaces of an indoor space concerned by radiation. I conclude that an indoor space is affected by multiple simultaneous variables difficult to work separately and apparently it is not possible identify significant changes in measurements with and without correcting radiation cards. Then the artificial electromagnetic environment of low-frequency radiation associated with the electricity distribution network is studied. To see how the electromagnetic environment can be changed, correcting radiation cards are placed directly related to living organisms. On one hand, mung bean seeds subject to complex electromagnetic fields at low and high frequency, typical of an office; and on the other hand mung bean seeds, subjected to pure electromagnetic fields at 50 Hz, no influenced by high frequency radiation. It is observed that exist cause-effect relationship between the geometric design and their ability to reduce the impact of electromagnetic fields at high and low frequencies that arrives on on mung bean seeds. The correcting radiation cards were also used in a standard test in the bioelectromagnetics laboratory of Ramón y Cajal University Hospital, on human neuroblastoma cells. It is observed that exist cause-effect relationship between the geometric design and their ability to reduce the impact of electromagnetic fields at 50 Hz and 100 μT on human neuroblastoma cells and also decrease the rate of cell proliferation compared to the group of cells control. Finally the artificial electromagnetic radiation environment at high frequency associated with wireless communications was studied. Simulations with CST Study software were made to determine the behavior of correcting radiation cards in high-frequency. It is observed across the data information that exist causeeffect relationship between the geometric design and the ability to reduce the levels of high-frequency electromagnetic radiation. It also checks that radiation correcting cards decrease the intensity of radiation approaching exposure limits established by Institut für Baubiologie & Oekologie Neubeuern (IBN), which could be signaling biocompatibility standards.
Resumo:
El desarrollo económico y social, a veces excesivamente rápido, que se ha producido en las últimas décadas ha generado una serie de problemas medioambientales generalmente más acuciantes en el entorno de las grandes ciudades. Dentro de este contexto y debido a este desarrollo exponencial de las actividades humanas, la contaminación acústica se ha convertido en uno de los problemas de peor solución, tanto a nivel de reducción como de atenuación, por lo que el diseño de pantallas acústicas está siendo uno de los objetivos prioritarios en la lucha contra la contaminación sonora. La expresión más extendida para designar a las barreras acústicas es la de pantallas acústicas, entendiéndose por éstas, muros de espesor relativamente pequeño concebidos como barreras acústicas. Hasta la fecha los avances en el diseño de estas pantallas han sido notables y ya se cuentan por cientos los kilómetros de las mismas que han sido construidas e instaladas, sobre todo en la periferia de las grandes ciudades cerca de las llamadas vías de tráfico rápido. Estos avances se han centrado sobre todo en el diseño de materiales de gran poder de absorción de las ondas, como método principal de atenuación, o bien en la forma geométrica de la superficie expuesta al tráfico, formas que por medio de reflexiones son capaces de anular o mitigar parte de la energía transportada por las ondas sonoras. A la vista de estos resultados las actuales pantallas acústicas reducen el nivel sonoro por atenuación, pero no son capaces de anular la onda incidente. Por otro lado, los últimos estudios de la tecnología japonesa en estos temas es el análisis del problema de borde, ya que este fenómeno de difracción es uno de los causantes principales del nivel sonoro en el trasdós de la pantalla. Pese a que es imposible anular este efecto de borde los estudios se han encauzado a intentar obtener una forma de la sección de la pantalla en su parte superior que sea capaz de mitigar este efecto, bien por interferencia entre las ondas incidentes o bien por superposición de diversos fenómenos de difracciones. En este orden de cosas entra a escena el concepto de pantalla tubular, como una nueva pantalla perforada que anula ondas sonoras basándose en el efecto físico de los tubos de Kundt. Su funcionamiento es debido a la propiedad de las ondas sonoras de producir resonancias al transmitirse dentro de cavidades de diferentes secciones tipo. Este tipo de pantallas se olvida del concepto clásico de pantalla acústica y su forma de atenuar el sonido y pasa al cálculo de la atenuación por eliminación de frecuencias. Esta tesis ofrece una nueva visión de este tipo de pantallas tubulares, optimizando su funcionamiento en función de la longitud de las cavidades tubulares, que han de ser diseñadas no de forma rectilínea, sino según directrices de curvas conocidas. El método operativo consistirá en aplicar las propiedades morfológicas de estas curvas a la propagación de ondas dentro de cavidades curvilíneas, obteniendo una serie de funciones de onda transmitidas y otras anuladas, lo que permite evaluar el porcentaje de energía que es capaz de anular cada tipo de curva para un espesor prefijado de pantalla. Este planteamiento nos permite elaborar un método de diseño y optimización por consideraciones exclusivamente geométricas, en función de un número muy reducido de parámetros, entre los que destaca la frecuencia que se presenta con mayor asiduidad, que es la principal causante del nivel sonoro. Asimismo, el método está apoyado en gran manera en un soporte gráfico, lo que le hace de sencilla aplicación incluso entre técnicos no excesivamente acostumbrados a trabajar con ondas sonoras. Como resumen final, las aportaciones más relevantes que incorpora esta tesis son las siguientes: Desarrollo práctico de la teoría global de pantallas acústicas tubulares ; Aplicación de la geometría clásica, en el concepto de longitudes de curvas tipo, a las técnicas de ingeniería del medio ambiente lo que representa un avance cualitativo notable ya que hasta la fecha no se había planteado la interacción de dos disciplinas en apariencia tan dispares y de conceptos tan heterogéneos ; Desarrollo de un método secuencial que es capaz de engarzar el análisis acústico de un cierto flujo de tráfico vehicular con el análisis geométrico de curvas tipo y dotar así al futuro diseñador de pantallas acústicas de una poderosa herramienta que le permita variar la tipología y forma de la pantalla en función de parámetros que pueden variar de manera aleatoria.
Resumo:
En la práctica habitual, para la elaboración de morteros se recomienda la utilización de granulometrías continuas. El requisito de continuidad y que los tamaños de partícula se encuentren dentro de los límites establecidos por “husos granulométricos” surge de las teorías clásicas de Fuller – Thompson y se apoya en la necesidad de obtener mezclas con adecuada docilidad en el estado fresco. Sin embargo, las distribuciones continuas de árido no representan las únicas alternativas para obtener mezclas que tengan una adecuada docilidad en estado fresco y mediante nuevos criterios de interferencia de partículas es posible demostrar que las distribuciones discontinuas aun siendo más compactas y con menor requerimientos de volumen de pasta pueden ser igual de dóciles en estado fresco. Aunque el volumen mínimo de pasta está condicionado por su fluidez y viscosidad estos parámetros pueden modificarse mediante la incorporación de filler de distinta naturaleza y aditivos químicos de reciente desarrollo. En consecuencia, se propone analizar la posibilidad de minimizar el contenido de pasta de morteros de base cemento, manteniendo las prestaciones en el estado fresco, con el objetivo de obtener una mejor estabilidad volumétrica, posibilitando mejor control de la retracción y de la fisuración. Para ello se emplearán criterios de interferencia de partículas, combinados con el uso de filler de distinta naturaleza La reducción del contenido de pasta conducirá también a mejorar el perfil sostenible de los morteros. El proceso de optimización tiene una base racional y, por lo tanto, será aplicable a distintos tipos de mortero, y las proporciones óptimas podrán adecuarse según las prestaciones requeridas para el material. SUMMARY In common practice, continuous sand gradings are recommended to produce ordinary mortars. This requirement, along with grading limits are based on classical theories, such as Fuller, aimed at achieving a reasonable packing density without compromising workability at the fresh state. Nevertheless, there are other alternatives, such as discontinuous curves based on particle interference criteria, which are capable of having even higher packing density. The less the content of voids in the granular skeleton, the less the amount of cement paste required to fill in these voids and coating the particles. Yet, the minimum volume of paste in a mortar is determined by requirements associated to the fresh state and thus, fluidity and viscosity of the paste play a significant role on the matter. These two properties can be modified by the use of suitable fillers and by the use of last-generation chemical admixtures. As a result, it is proposed to analyse the possibility of combining current particle interference criteria with the use of different types of filler and chemical admixtures to optimise cement-based mortar formulations. This optimisation is aimed at reducing the paste content while maintaining a suitable performance at the fresh state. The reduction in paste content would lead to a better dimensional stability, with better control of shrinkage and cracking behaviour. The foreseen optimisation process will have a strong rational basis and thus, it should be potentially useful to optimise mortar proportions according to a performance-based approach.
Resumo:
En el presente trabajo se desarrolla un método de cálculo del empuje que produce sobre un muro una carga situada sobre un terreno adyacente a dicho muro. Por medio de hipótesis físicas sencillas, se llega a resultados que parecen diferir de los obtenidos experimentalmente en márgenes tolerables, dentro de la aproximación normalmente usada en los cálculos. Se incluye una generalización para dos muros iguales y paralelos, fundada en un artificio análogo al empleado en Aerodinamica, para estudiar la interferencia entre las paredes y el modelo en los ensayos en tunel aerodinámico. Finalmente se presenta una familia de curvas adimensionales que dan el empuje para sobrecargas geométricamente semejantes, situadas a diferentes distancias del muro. Familias de este tipo pueden ser de gran utilidad, ya que se ha comprobado que, para los pesos y presiones de inflado usuales, las huellas de las ruedas de diferentes aviones son geometricamente semejantes. Estas familias podrian servir para un ulterior intento de obtención de fórmulas aproximadas de más fácil aplicación.
Resumo:
Abstract The proliferation of wireless sensor networks and the variety of envisioned applications associated with them has motivated the development of distributed algorithms for collaborative processing over networked systems. One of the applications that has attracted the attention of the researchers is that of target localization where the nodes of the network try to estimate the position of an unknown target that lies within its coverage area. Particularly challenging is the problem of estimating the target’s position when we use received signal strength indicator (RSSI) due to the nonlinear relationship between the measured signal and the true position of the target. Many of the existing approaches suffer either from high computational complexity (e.g., particle filters) or lack of accuracy. Further, many of the proposed solutions are centralized which make their application to a sensor network questionable. Depending on the application at hand and, from a practical perspective it could be convenient to find a balance between localization accuracy and complexity. Into this direction we approach the maximum likelihood location estimation problem by solving a suboptimal (and more tractable) problem. One of the main advantages of the proposed scheme is that it allows for a decentralized implementation using distributed processing tools (e.g., consensus and convex optimization) and therefore, it is very suitable to be implemented in real sensor networks. If further accuracy is needed an additional refinement step could be performed around the found solution. Under the assumption of independent noise among the nodes such local search can be done in a fully distributed way using a distributed version of the Gauss-Newton method based on consensus. Regardless of the underlying application or function of the sensor network it is al¬ways necessary to have a mechanism for data reporting. While some approaches use a special kind of nodes (called sink nodes) for data harvesting and forwarding to the outside world, there are however some scenarios where such an approach is impractical or even impossible to deploy. Further, such sink nodes become a bottleneck in terms of traffic flow and power consumption. To overcome these issues instead of using sink nodes for data reporting one could use collaborative beamforming techniques to forward directly the generated data to a base station or gateway to the outside world. In a dis-tributed environment like a sensor network nodes cooperate in order to form a virtual antenna array that can exploit the benefits of multi-antenna communications. In col-laborative beamforming nodes synchronize their phases in order to add constructively at the receiver. Some of the inconveniences associated with collaborative beamforming techniques is that there is no control over the radiation pattern since it is treated as a random quantity. This may cause interference to other coexisting systems and fast bat-tery depletion at the nodes. Since energy-efficiency is a major design issue we consider the development of a distributed collaborative beamforming scheme that maximizes the network lifetime while meeting some quality of service (QoS) requirement at the re¬ceiver side. Using local information about battery status and channel conditions we find distributed algorithms that converge to the optimal centralized beamformer. While in the first part we consider only battery depletion due to communications beamforming, we extend the model to account for more realistic scenarios by the introduction of an additional random energy consumption. It is shown how the new problem generalizes the original one and under which conditions it is easily solvable. By formulating the problem under the energy-efficiency perspective the network’s lifetime is significantly improved. Resumen La proliferación de las redes inalámbricas de sensores junto con la gran variedad de posi¬bles aplicaciones relacionadas, han motivado el desarrollo de herramientas y algoritmos necesarios para el procesado cooperativo en sistemas distribuidos. Una de las aplicaciones que suscitado mayor interés entre la comunidad científica es la de localization, donde el conjunto de nodos de la red intenta estimar la posición de un blanco localizado dentro de su área de cobertura. El problema de la localization es especialmente desafiante cuando se usan niveles de energía de la seal recibida (RSSI por sus siglas en inglés) como medida para la localization. El principal inconveniente reside en el hecho que el nivel de señal recibida no sigue una relación lineal con la posición del blanco. Muchas de las soluciones actuales al problema de localization usando RSSI se basan en complejos esquemas centralizados como filtros de partículas, mientas que en otras se basan en esquemas mucho más simples pero con menor precisión. Además, en muchos casos las estrategias son centralizadas lo que resulta poco prácticos para su implementación en redes de sensores. Desde un punto de vista práctico y de implementation, es conveniente, para ciertos escenarios y aplicaciones, el desarrollo de alternativas que ofrezcan un compromiso entre complejidad y precisión. En esta línea, en lugar de abordar directamente el problema de la estimación de la posición del blanco bajo el criterio de máxima verosimilitud, proponemos usar una formulación subóptima del problema más manejable analíticamente y que ofrece la ventaja de permitir en¬contrar la solución al problema de localization de una forma totalmente distribuida, convirtiéndola así en una solución atractiva dentro del contexto de redes inalámbricas de sensores. Para ello, se usan herramientas de procesado distribuido como los algorit¬mos de consenso y de optimización convexa en sistemas distribuidos. Para aplicaciones donde se requiera de un mayor grado de precisión se propone una estrategia que con¬siste en la optimización local de la función de verosimilitud entorno a la estimación inicialmente obtenida. Esta optimización se puede realizar de forma descentralizada usando una versión basada en consenso del método de Gauss-Newton siempre y cuando asumamos independencia de los ruidos de medida en los diferentes nodos. Independientemente de la aplicación subyacente de la red de sensores, es necesario tener un mecanismo que permita recopilar los datos provenientes de la red de sensores. Una forma de hacerlo es mediante el uso de uno o varios nodos especiales, llamados nodos “sumidero”, (sink en inglés) que actúen como centros recolectores de información y que estarán equipados con hardware adicional que les permita la interacción con el exterior de la red. La principal desventaja de esta estrategia es que dichos nodos se convierten en cuellos de botella en cuanto a tráfico y capacidad de cálculo. Como alter¬nativa se pueden usar técnicas cooperativas de conformación de haz (beamforming en inglés) de manera que el conjunto de la red puede verse como un único sistema virtual de múltiples antenas y, por tanto, que exploten los beneficios que ofrecen las comu¬nicaciones con múltiples antenas. Para ello, los distintos nodos de la red sincronizan sus transmisiones de manera que se produce una interferencia constructiva en el recep¬tor. No obstante, las actuales técnicas se basan en resultados promedios y asintóticos, cuando el número de nodos es muy grande. Para una configuración específica se pierde el control sobre el diagrama de radiación causando posibles interferencias sobre sis¬temas coexistentes o gastando más potencia de la requerida. La eficiencia energética es una cuestión capital en las redes inalámbricas de sensores ya que los nodos están equipados con baterías. Es por tanto muy importante preservar la batería evitando cambios innecesarios y el consecuente aumento de costes. Bajo estas consideraciones, se propone un esquema de conformación de haz que maximice el tiempo de vida útil de la red, entendiendo como tal el máximo tiempo que la red puede estar operativa garantizando unos requisitos de calidad de servicio (QoS por sus siglas en inglés) que permitan una decodificación fiable de la señal recibida en la estación base. Se proponen además algoritmos distribuidos que convergen a la solución centralizada. Inicialmente se considera que la única causa de consumo energético se debe a las comunicaciones con la estación base. Este modelo de consumo energético es modificado para tener en cuenta otras formas de consumo de energía derivadas de procesos inherentes al funcionamiento de la red como la adquisición y procesado de datos, las comunicaciones locales entre nodos, etc. Dicho consumo adicional de energía se modela como una variable aleatoria en cada nodo. Se cambia por tanto, a un escenario probabilístico que generaliza el caso determinista y se proporcionan condiciones bajo las cuales el problema se puede resolver de forma eficiente. Se demuestra que el tiempo de vida de la red mejora de forma significativa usando el criterio propuesto de eficiencia energética.
Resumo:
El proyecto trata del estudio de la tasa de absorción específica (SAR). En él se estudia la SAR que desprenden distintos dispositivos de comunicaciones inalámbricos. Se ha llevado a cabo en las instalaciones de la SETSI, en el laboratorio de radiofrecuencia situado en El Casar, Guadalajara, que pertenece al Ministerio de Industria Comercio y Turismo. La SAR es una relación entre la energía electromagnética acumulada en una masa de un material o tejido concreto. Por tanto, lo primero es definir la SAR, en la que se exponen sus parámetros. Además, se recogen los límites de exposición fijados por las normas internacionales IEC 62209-1 e IEC 62209-2 en relación a SAR. Posteriormente, acorde con las normas, se realiza una definición detallada de un banco de medidas de SAR, en donde se explica cada uno de los componentes del banco de manera detallada así como los sistemas que intervienen previamente a la realización de la medida, tipos de los sistemas para realizar las verificaciones pertinentes, y también las incertidumbres de ciertos parámetros. También se realiza un proceso completo de medida de SAR en el laboratorio de la SETSI, donde se realizan las comprobaciones necesarias para la realización de una serie de medidas sobre dispositivos de comunicaciones móviles. Éstas medidas se realizan primero sobre un teléfono móvil en las frecuencias de GSM, UMTS y WIFI, en las configuraciones estipuladas por la norma; “tocando” e “inclinada 15°” comparando los valores obtenidos con los límites marcados por las normas internacionales. Por último, en este apartado se realizan ciertas medidas con otras configuraciones que no están recogidas en la norma para intentar obtener los máximos valores de SAR posibles. Después se realiza una comparación entre dos dispositivos tipo “tablet”, para ello se realizan medidas en la banda de WIFI y se comentan los resultados obtenidos, relacionado con el diseño de cada uno de ellos. Posteriormente se realiza un presupuesto de un banco de SAR, donde se detallan todos los componentes que intervienen en la realización de las medidas de SAR, pero no se incluyen en él, los costes de mantenimiento o los costes relacionados con su uso. Por último se explican las conclusiones finales desprendidas de la realización de este proyecto de fin de carrera así como la bibliografía utilizada. ABTRACT This project consists on the study of the specific absorption rate (SAR).It studies the different SAR of several wireless communications devices. It has been held in SETSI’S facilities, in its radio frecuency laboratory located in El Casar, Guadalajara, which belongs to the Ministy of Industry, Trade and Tourism. The SAR is a ratio between the electromagnetic energy accumulated in a mass of concrete material or tissue. Therefore, the SAR is defined first, which sets its parameters. Also lists the exposure limits set by international standards IEC 62209-1 and IEC 62209-2 regarding SAR. Subsequently, according to the guidelines, performing a detailed definition of a SAR measures bench, which explains each of the components in detail of the bench and involved systems prior to the realization of the extent and types of systems to perform the necessary checks, and certain parameters uncertainties. Also performed a complete process for SAR in the SETSI laboratory, located in El Casar, Guadalajara, where the necessary checks are made to carry out a serie of measures on mobile communications devices. These will be carried out first on a mobile phone at frequencies of GSM, UMTS and WiFi, in the configurations set by the standard, "touch" and "tilt 15 °" comparing the values obtained with the limits set by international standards. Finally, this section will perform certain actions with other configurations that are not included in the standard to try to get the maximum possible SAR values. Then a comparison is made between two devices, such as "tablet", this will make measurements in the band WIFI and discussed the results, related to the design of each. Subsequently, a budget of a SAR bench, detailing all components involved in SAR measures, but not included in it, maintenance costs or the costs associated with its use. Finally conclusions are explained detached from the realization of this project as well as the bibliography used on it.
Resumo:
El proceso de soldadura por láser desarrollado en los últimos años ha puesto de manifiesto las posibilidades de aplicación de esta tecnología en diferentes sectores productivos, principalmente en la industria automovilística, en la cual se han demostrado sus ventajas en términos de productividad, eficiencia y calidad. El uso de la tecnología láser, ya sea híbrida o pura, reduce el input térmico al limitar la zona afectada por el calor, sin crear deformaciones y, por tanto, disminuye los re-trabajos post-soldadura necesarios para eliminarlas. Asimismo, se aumenta la velocidad de soldadura, incrementando la productividad y calidad de las uniones. En la última década, el uso de láseres híbridos, (láser + arco) de gran potencia de Neodimio YAG, (Nd: YAG) ha sido cada vez más importante. La instalación de este tipo de fuentes de láser sólido de gran potencia ha sido posible en construcción naval debido a sus ventajas con respecto a las instalaciones de láser de C02 existentes en los astilleros que actualmente utilizan esta tecnología. Los láseres de C02 están caracterizados por su gran potencia y la transmisión del haz a través de espejos. En el caso de las fuentes de Nd:YAG, debido a la longitud de onda a la cual se genera el haz láser, su transmisión pueden ser realizada a través de fibra óptica , haciendo posible la utilización del cabezal láser a gran distancia de la fuente, aparte de la alternativa de integrar el cabezal en unidades robotizadas. El proceso láser distribuye el calor aportado de manera uniforme. Las características mecánicas de dichas uniones ponen de manifiesto la adecuación de la soldadura por láser para su uso en construcción naval, cumpliendo los requerimientos exigidos por las Sociedades de Clasificación. La eficiencia energética de los láseres de C02, con porcentajes superiores al 20%, aparte de las ya estudiadas técnicas de su instalación constituyen las razones por las cuales este tipo de láser es el más usado en el ámbito industrial. El láser de gran potencia de Nd: YAG está presente en el mercado desde hace poco tiempo, y por tanto, su precio es relativamente mayor que el de C02, siendo sus costes de mantenimiento, tanto de lámparas como de diodos necesarios para el bombeo del sólido, igualmente mayores que en el caso del C02. En cambio, el efecto de absorción de parte de la energía en el plasma generado durante el proceso no se produce en el caso del láser de Nd: YAG, utilizando parte de esa energía en estabilizar el arco, siendo necesaria menos potencia de la fuente, reduciendo el coste de la inversión. En función de la aplicación industrial, se deberá realizar el análisis de viabilidad económica correspondiente. Dependiendo de la potencia de la fuente y del tipo de láser utilizado, y por tanto de la longitud de onda a la que se propaga la radiación electromagnética, pueden existen riesgos para la salud. El láser de neodimio se propaga en una longitud de onda, relativamente cercana al rango visible, en la cual se pueden producir daños en los ojos de los operadores. Se deberán establecer las medidas preventivas para evitar los riesgos a los que están expuestos dichos operadores en la utilización de este tipo de energía. La utilización del láser de neodimio: YAG ofrece posibilidades de utilización en construcción naval económicamente rentables, debido su productividad y las buenas características mecánicas de las uniones. Abstract The laser welding process development of the last years shows broad application possibilities in many sectors of industry, mostly in automobile production. The advantages of the laser beam process produce higher productivity, increasing the quality and thermal efficiency. Laser technology, arc-hybrid or pure laser welding, reduces thermal input and thus a smaller heat-affected zone at the work piece. This means less weldment distortion which reduces the amount of subsequent post-weld straightening work that needs to be done. A higher welding speed is achieved by use of the arc and the laser beam, increasing productivity and quality of the joining process. In the last decade use of hybrid technology (laser-GMA hybrid method) with high power sources Nd:YAG lasers, gained in importance. The installation of this type of higher power solid state laser is possible in shipbuilding industrial applications due to its advantages compare with the C02 laser sources installed in the shipyards which use this technology. C02 lasers are characterised by high power output and its beam guidance is via inelastic system of mirrors. In the case of Nd:YAG laser, due to its wavelength, the laser beam can be led by means of a flexible optical fibre even across large distances, which allows three dimensional welding jobs by using of robots. Laser beam welding is a process during which the heat is transferred to the welded material uniformly and the features of the process fulfilled the requirements by Classification Societies. So that, its application to the shipbuilding industry should be possible. The high quantum efficiency of C02 laser, which enabled efficiency factors up to 20%, and relative simple technical possibilities of implementation are the reasons for the fact that it is the most important laser in industrial material machining. High power Nd: YAG laser is established on the market since short time, so that its price is relatively high compared with the C02 laser source and its maintenance cost, lamp or diode pumped solid state laser, is also higher than in the case of C02 lasers. Nevertheless effect of plasma shielding does not exist with Nd:YAG lasers, so that for the gas-shielding welding process the optimal gases can be used regarding arc stability, thus power source are saved and the costs can be optimised. Each industrial application carried out needs its cost efficiency analysis. Depending on the power output and laser type, the dangerousness of reflected irradiation, which even in some meters distance, affects for the healthy operators. For the YAG laser process safety arrangements must be set up in order to avoid the laser radiation being absorbed by the human eye. Due to its wavelength of radiation, being relatively close to the visible range, severe damage to the retina of the eye is possible if sufficient precautions are not taken. Safety aspects are of vital importance to be able to shield the operator as well as other personal. The use of Nd:YAG lasers offers interesting and economically attractive applications in shipbuilding industry. Higher joining rates are possible, and very good mechanical/technological parameters can be achieved.
Resumo:
En este proyecto realizaremos un estudio del efecto de las interferencias procedentes de las redes públicas y veremos cómo afectan el rendimiento de las comunicaciones GSM-R que están en la banda de frecuencias adyacente, por un lado, definiremos las características de las redes públicas y como afectan los niveles de potencia y los anchos de banda de redes de banda ancha, especialmente LTE que dispone de un ancho de banda adaptativo que puede llegar hasta 20 MHZ, y por otro lado definiremos las características y las exigencias de las comunicaciones GSM-R que es una red privada que se utiliza actualmente para comunicaciones ferroviales. Con el objetivo de determinar el origen y los motivos de estas interferencias vamos a explicar cómo se produzcan las emisiones no deseadas de las redes públicas que son fruto de la intermodulación que se produzca por las características no lineales de los amplificadores, entre las emisiones no deseadas se puede diferenciar entre el dominio de los espurios y el dominio de las emisiones fuera de banda, para determinar el nivel de las emisiones fuera de banda definiremos la relación de fugas del canal adyacente, ACLR, que determina la diferencia entre el pico de la señal deseada y el nivel de señal interferente en la banda de paso. Veremos cómo afectan estas emisiones no deseadas a las comunicaciones GSMR en el caso de interferencias procedentes de señales de banda estrecha, como es el caso de GSM, y como afectan en el caso de emisiones de banda ancha con los protocolos UMTS y LTE, también estudiaremos como varia el rendimiento de la comunicación GSM-R frente a señales LTE de diferentes anchos de banda. Para reducir el impacto de las interferencias sobre los receptores GSM-R, analizaremos el efecto de los filtros de entrada de los receptores GSM-R y veremos cómo varia la BER y la ACLR. Además, con el objetivo de evaluar el rendimiento del receptor GSM-R ante diferentes tipos de interferencias, simularemos dos escenarios donde la red GSM-R se verá afectada por las interferencias procedente de una estación base de red pública, en el primer escenario la distancia entre la BS y MS GSM-R será de 4.6 KM, mientras en el segundo escenario simularemos una situación típica cuando un tren está a una distancia corta (25 m) de la BS de red pública. Finalmente presentaremos los resultados en forma de graficas de BER y ACLR, y tablas indicando los diferentes niveles de interferencias y la diferencia entre la potencia a la que obtenemos un valor óptimo de BER, 10-3, sin interferencia y la potencia a la que obtenemos el mismo valor con interferencias. ABSTRACT In this project we will study the interference effect from public networks and how they affect the performance of GSM-R communications that are in the adjacent frequency band, furthermore, we will define the characteristics of public networks and will explain how the power levels and bandwidth broadband networks are affected as a result, especially LTE with adaptive bandwidth that can reach 20 MHZ. Lastly, we will define the characteristics and requirements of the GSM-R communications, a private network that is currently used for railways communications. In order to determine the origin and motives of these interferences, we will explain what causes unwanted emissions of public networks that occur as a result. The intermodulation, which is caused by the nonlinear characteristics of amplifiers. Unwanted emissions from the transmitter are divided into OOB (out-of-band) emission and spurious emissions. The OOB emissions are defined by an Adjacent Channel Leakage Ratio (ACLR) requirement. We'll analyze the effect of the OOB emission on the GSM-R communication in the case of interference from narrowband signals such as GSM, and how they affect emissions in the case of broadband such as UMTS and LTE; also we will study how performance varies with GSM-R versus LTE signals of different bandwidths. To reduce the impact of interference on the GSM-R receiver, we analyze the effect of input filters GSM-R receivers to see how it affects the BER (Bits Error Rate) and ACLR. To analyze the GSM-R receiver performance in this project, we will simulate two scenarios when the GSM-R will be affected by interference from a base station (BS). In the first case the distance between the public network BS and MS GSM-R is 4.6 KM, while the second case simulates a typical situation when a train is within a short distance, 25 m, of a public network BS. Finally, we will present the results as BER and ACLR graphs, and tables showing different levels of interference and the differences between the power to obtain an optimal value of BER, 10-3, without interference, and the power that gets the same value with interference.