148 resultados para histogramas de frecuencias


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Se ha caracterizado la infiltración de un suelo colocado en una columna de suelo de metacrilato, de base hexagonal de diagonal 1 m y 0,6 m de alto, con una densidad aparente de 1,5 g/cm3. El procedimiento utilizado ha sido la fibra óptica y el método denominado “Active Heating pulse method with Fiber Optic temperature sensing” AHFO method, que consiste en emitir un pulso óptico con láser y medir en el tiempo la señal reflejada, de baja intensidad, en diferentes puntos de la fibra óptica. Del espectro de luz reflejada solamente un rango de frecuencias específico, determinado por análisis de frecuencia, se correlaciona con la temperatura. La precisión en la medida es de ± 0,1ºC en una distancia de ± 12,5 cm. En el interior de la columna se colocó el cable de fibra óptica formando tres hélices concéntricas separadas 20 cm , 40 cm y 60 cm del centro. Asimismo, se cubrió la superficie del suelo con una altura media de agua que osciló entre 1,5 a 2,5 cm a lo largo de los 140 min que duró el proceso de calentamiento del cable. El incremento de temperatura antes y después del calentamiento se utilizó para determinar la infiltración instantánea a partir de la expresión de Perzlmaeir et al (2004) y de los números adimensional de Nusselt y Prandtl. Considerando los errores inherentes al procedimiento de cálculo, los resultados muestran que el AHFO method es una herramienta útil en el estudio de la variabilidad espacial de la infiltración en el suelo que permite, además, determinar su valor. Asimismo, muestra su potencial para incluir dichas estimaciones en la calibración de modelos relacionados con la gestión de recursos hídricos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Se estudia la peligrosidad sísmica en la Península Ibérica con una metodología no paramétrica basada en estimadores de densidad kernel; la tasa de actividad se deduce del catálogo, tanto en cuanto a su dependencia espacial (prescindiendo de zonificación) como en relación con la magnitud (obviando la ley de Gutenberg-Richter). El catálogo es el del Instituto Geográfico Nacional, complementado con otros en zonas periféricas, homogeneizado en su cuantificación de los terremotos y eliminando eventos espacial o temporalmente interrelacionados para mantener un modelo temporal de Poisson. La tasa de actividad sísmica viene determinada por la función kernel, el ancho de banda y los períodos efectivos. La tasa resultante se compara con la obtenida usando estadísticas de Gutenberg-Richter y una metodología zonificada. Se han empleado tres leyes de atenuación: una para terremotos profundos y dos para terremotos superficiales, dependiendo de que su magnitud fuera superior o inferior a 5. Los resultados se presentan en forma de mapas de peligrosidad para diversas frecuencias espectrales y períodos de retorno de 475 y 2475 años, lo que permite construir espectros de peligrosidad uniforme

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El proyecto, “Aplicaciones de filtrado adaptativo LMS para mejorar la respuesta de acelerómetros”, se realizó con el objetivo de eliminar señales no deseadas de la señal de información procedentes de los acelerómetros para aplicaciones automovilísticas, mediante los algoritmos de los filtros adaptativos LMS. Dicho proyecto, está comprendido en tres áreas para su realización y ejecución, los cuales fueron ejecutados desde el inicio hasta el último día de trabajo. En la primera área de aplicación, diseñamos filtros paso bajo, paso alto, paso banda y paso banda eliminada, en lo que son los filtros de butterworth, filtros Chebyshev, de tipo uno como de tipo dos y filtros elípticos. Con esta primera parte, lo que se quiere es conocer, o en nuestro caso, recordar el entorno de Matlab, en sus distintas ecuaciones prediseñadas que nos ofrece el mencionado entorno, como también nos permite conocer un poco las características de estos filtros. Para posteriormente probar dichos filtros en el DSP. En la segunda etapa, y tras recordar un poco el entorno de Matlab, nos centramos en la elaboración y/o diseño de nuestro filtro adaptativo LMS; experimentado primero con Matlab, para como ya se dijo, entender y comprender el comportamiento del mismo. Cuando ya teníamos claro esta parte, procedimos a “cargar” el código en el DSP, compilarlo y depurarlo, realizando estas últimas acciones gracias al Visual DSP. Resaltaremos que durante esta segunda etapa se empezó a excitar las entradas del sistema, con señales provenientes del Cool Edit Pro, y además para saber cómo se comportaba el filtro adaptativo LMS, se utilizó señales provenientes de un generador de funciones, para obtener de esta manera un desfase entre las dos señales de entrada; aunque también se utilizó el propio Cool Edit Pro para obtener señales desfasadas, pero debido que la fase tres no podíamos usar el mencionado software, realizamos pruebas con el generador de funciones. Finalmente, en la tercera etapa, y tras comprobar el funcionamiento deseado de nuestro filtro adaptativo DSP con señales de entrada simuladas, pasamos a un laboratorio, en donde se utilizó señales provenientes del acelerómetro 4000A, y por supuesto, del generador de funciones; el cual sirvió para la formación de nuestra señal de referencia, que permitirá la eliminación de una de las frecuencias que se emitirá del acelerómetro. Por último, cabe resaltar que pudimos obtener un comportamiento del filtro adaptativo LMS adecuado, y como se esperaba. Realizamos pruebas, con señales de entrada desfasadas, y obtuvimos curiosas respuestas a la salida del sistema, como son que la frecuencia a eliminar, mientras más desfasado estén estas señales, mas se notaba. Solucionando este punto al aumentar el orden del filtro. Finalmente podemos concluir que pese a que los filtros digitales probados en la primera etapa son útiles, para tener una respuesta lo más ideal posible hay que tener en cuenta el orden del filtro, el cual debe ser muy alto para que las frecuencias próximas a la frecuencia de corte, no se atenúen. En cambio, en los filtros adaptativos LMS, si queremos por ejemplo, eliminar una señal de entre tres señales, sólo basta con introducir la frecuencia a eliminar, por una de las entradas del filtro, en concreto la señal de referencia. De esta manera, podemos eliminar una señal de entre estas tres, de manera que las otras dos, no se vean afectadas por el procedimiento. Abstract The project, "LMS adaptive filtering applications to improve the response of accelerometers" was conducted in order to remove unwanted signals from the information signal from the accelerometers for automotive applications using algorithms LMS adaptive filters. The project is comprised of three areas for implementation and execution, which were executed from the beginning until the last day. In the first area of application, we design low pass filters, high pass, band pass and band-stop, as the filters are Butterworth, Chebyshev filters, type one and type two and elliptic filters. In this first part, what we want is to know, or in our case, remember the Matlab environment, art in its various equations offered by the mentioned environment, as well as allows us to understand some of the characteristics of these filters. To further test these filters in the DSP. In the second stage, and recalling some Matlab environment, we focus on the development and design of our LMS adaptive filter; experimented first with Matlab, for as noted above, understand the behavior of the same. When it was clear this part, proceeded to "load" the code in the DSP, compile and debug, making these latest actions by the Visual DSP. Will highlight that during this second stage began to excite the system inputs, with signals from the Cool Edit Pro, and also for how he behaved the LMS adaptive filter was used signals from a function generator, to thereby obtain a gap between the two input signals, but also used Cool Edit Pro himself for phase signals, but due to phase three could not use such software, we test the function generator. Finally, in the third stage, and after checking the desired performance of our DSP adaptive filter with simulated input signals, we went to a laboratory, where we used signals from the accelerometer 4000A, and of course, the function generator, which was used for the formation of our reference signal, enabling the elimination of one of the frequencies to be emitted from the accelerometer. Note that they were able to obtain a behavior of the LMS adaptive filter suitable as expected. We test with outdated input signals, and got curious response to the output of the system, such as the frequency to remove, the more outdated are these signs, but noticeable. Solving this point with increasing the filter order. We can conclude that although proven digital filters in the first stage are useful, to have a perfect answer as possible must be taken into account the order of the filter, which should be very high for frequencies near the frequency cutting, not weakened. In contrast, in the LMS adaptive filters if we for example, remove a signal from among three signals, only enough to eliminate the frequency input on one of the inputs of the filter, namely the reference signal. Thus, we can remove a signal between these three, so that the other two, not affected by the procedure.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La realización de este proyecto se basa en simular un sistema de recepción de baja velocidad para lo cual se opta por un modelo en el que primero se hará un filtrado a la entrada, después una traslación en frecuencia de la señal seguido de otro filtrado esta vez más selectivo y con una caída más abrupta y finalmente se implementarán los algoritmos de decodificación que se elijan. Finalmente se contermpla la opción de pasar esa simulación a lenguaje C y programar un DSP. La realización del proyecto constará de dos partes: - La primera parte consistirá en el estudio y características necesarias para cada uno de los elementos que se han definido para el sistema de recepción, eligiendo adecuadamente los tipos de filtro que se implementarán (FIR o IIR) en base al estudio de las características de cada uno de ellos, frecuencias de entrada y ancho de banda que se traten, métodos de filtrado, algoritmos de decodificación, etc. Se realizará una descripción teórica sobre los métodos de filtrado overlap add y overlap save así como del algoritmo cordic, explicando sus características y ventajas con respecto a los métodos clásicos. - La segunda parte será la de realizar una simulación de cada uno de esos elementos para ayudar a la comprensión del estudio realizado y comprobar que las características y decisiones adoptadas cumplan con lo requerido para el sistema de recepción estudiado. Los medios para realizar a cabo este desarrollo serán un programa de simulación basado en métodos numéricos como puede ser Matlab. Para la simulación de transmisión no se diseñarán funciones de modulación (QAM, FM AM, PSK)utilizando para ello las definidas en Matlab ya que no es objetivo de este proyecto realizar una simulación de transmisión. Tras generar la señal aleatoria se procede a su modulación y muestreo (para simular una transmisión a alta frecuencia en la que cada símbolo se repetirá durante varios ciclos de la portadora). Observando los resultados de las simulaciones del receptor comprobaremos cómo es posible evitar el uso de funciones trigonométricas u otros métodos de alto coste para varios tipos de modulaciones, demostrando que el resultado es similar al obtenido empleando métodos clásicos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Registro de topónimos proclives al tejo(Taxus Baccata L) en todas y cada una de las 1111 hojas del Mapa Topográfico de España MTN50. Frecuencias de las distintas formas lingüísticas en cada Comunidad Autónoma. Referencia especial a la provincia de Guadalajara.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La constante evolución de dispositivos portátiles multimedia que se ha producido en la última década ha provocado que hoy en día se disponga de una amplia variedad de dispositivos con capacidad para reproducir contenidos multimedia. En consecuencia, la reproducción de esos contenidos en dichos terminales lleva asociada disponer de procesadores que soporten una alta carga computacional, ya que las tareas de descodificación y presentación de video así lo requieren. Sin embargo, un procesador potente trabajando a elevadas frecuencias provoca un elevado consumo de la batería, y dado que se pretende trabajar con dispositivos portátiles, la vida útil de la batería se convierte en un asunto de especial importancia. La problemática que se plantea se ha convertido en una de las principales líneas de investigación del Grupo de Investigación GDEM (Grupo de Diseño Electrónico y Microelectrónico). En esta línea de trabajo, se persigue cómo optimizar el consumo de energía en terminales portables desde el punto de vista de la reducción de la calidad de experiencia del usuario a cambio de una mayor autonomía del terminal. Por tanto, para lograr esa reducción de la calidad de experiencia mencionada, se requiere un estándar de codificación dedeo que así lo permita. El Grupo de Investigación GDEM cuenta con experiencia en el estándar dedeo escalable H.264/SVC, el cual permite degradar la calidad de experiencia en función de las necesidades/características del dispositivo. Más concretamente, un video escalable contiene embebidas distintas versiones del video original que pueden ser descodificadas en diferentes resoluciones, tasas de cuadro y calidades (escalabilidades espacial, temporal y de calidad respectivamente), permitiendo una adaptación rápida y muy flexible. Seleccionado el estándar H.264/SVC para las tareas dedeo, se propone trabajar con Mplayer, un reproductor dedeos de código abierto (open source), al cual se le ha integrado un descodificador para vídeo escalable denominado OpenSVC. Por último, como dispositivo portable se trabajará con la plataforma de desarrollo BeagleBoard, un sistema embebido basado en el procesador OMAP3530 que permite modificar la frecuencia de reloj y la tensión de alimentación dinámicamente reduciendo de este modo el consumo del terminal. Este procesador a su vez contiene integrados un procesador de propósito general (ARM Cortex-A8) y un procesador digital de señal (DSP TMS320C64+TM). Debido a la alta carga computacional de la descodificación dedeos escalables y la escasa optimización del ARM para procesamiento de datos, se propone llevar a cabo la ejecución de Mplayer en el ARM y encargar la tarea de descodificación al DSP, con la finalidad de reducir el consumo y por tanto aumentar la vida útil del sistema embebido sobre el cual se ejecutará la aplicación desarrollada. Una vez realizada esa integración, se llevará a cabo una caracterización del descodificador alojado en el DSP a través de una serie de medidas de rendimiento y se compararán los resultados con los obtenidos en el proceso de descodificación realizado únicamente en el ARM. ABSTRACT During the last years, the multimedia portable terminals have gradually evolved causing that nowadays a several range of devices with the ability of playing multimedia contents are easily available for everyone. Consequently, those multimedia terminals must have high-performance processors to play those contents because the coding and decoding tasks demand high computational load. However, a powerful processor performing to high frequencies implies higher battery consumption, and this issue has become one of the most important problems in the development cycle of a portable terminal. The power/energy consumption optimization on multimedia terminals has become in one the most significant work lines in the Electronic and Microelectronic Research Group of the Universidad Politécnica de Madrid. In particular, the group is researching how to reduce the user‟s Quality of Experience (QoE) quality in exchange for increased battery life. In order to reduce the Quality of Experience (QoE), a standard video coding that allows this operation is required. The H.264/SVC allows reducing the QoE according to the needs/characteristics of the terminal. Specifically, a scalable video contains different versions of original video embedded in an only one video stream, and each one of them can be decoded in different resolutions, frame rates and qualities (spatial, temporal and quality scalabilities respectively). Once the standard video coding is selected, a multimedia player with support for scalable video is needed. Mplayer has been proposed as a multimedia player, whose characteristics (open-source, enormous flexibility and scalable video decoder called OpenSVC) are the most suitable for the aims of this Master Thesis. Lastly, the embedded system BeagleBoard, based on the multi-core processor OMAP3530, will be the development platform used in this project. The multimedia terminal architecture is based on a commercial chip having a General Purpose Processor (GPP – ARM Cortex A8) and a Digital Signal Processor (DSP, TMS320C64+™). Moreover, the processor OMAP3530 has the ability to modify the operating frequency and the supply voltage in a dynamic way in order to reduce the power consumption of the embedded system. So, the main goal of this Master Thesis is the integration of the multimedia player, MPlayer, executed at the GPP, and scalable video decoder, OpenSVC, executed at the DSP in order to distribute the computational load associated with the scalable video decoding task and to reduce the power consumption of the terminal. Once the integration is accomplished, the performance of the OpenSVC decoder executed at the DSP will be measured using different combinations of scalability values. The obtained results will be compared with the scalable video decoding performed at the GPP in order to show the low optimization of this kind of architecture for decoding tasks in contrast to DSP architecture.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Una de mis muchas preocupaciones en el campo de la enseñanza, es y será, el sistema o procedimiento de evaluación a utilizar. Las observaciones efectuadas en mi localidad (Salamanca) me llevaron a la conclusión de que en un alto porcentaje de centros escolares, los profesores, guiados por unos criterios siempre personales, calificaban a sus alumnos con métodos totalmente subjetivos. Continuando con las observaciones a nivel provincial, los hechos son más evidentes, estamos acostumbrados a administrar programas y actividades, cuya evaluación se basa en la asistencia, la victoria o la derrota, etc. En octubre de 1977, el Consejo Superior de Deportes a través de su Delegación Provincial en Salamanca, inició un Plan Experimental de Promoción Físico-Deportiva Escolar, con la participación de más de medio centenar de centros de E.G.B. correspondiente a la capital y 11 localidades de la provincia. Se me propuso la dirección del mismo y con la colaboración de otros compañeros, comenzamos a elaborar su administración. Fué entonces, cuando al abordar nuevamente el problema de la evaluación, nos propusimos en un primer intento, que fuera lo más objetiva posible, para lo cual determinamos las medidas que teníamos que efectuar de cara a la consecución de los objetivos prefijados. La falta de personas especializadas y las dudas en cuanto a la autenticidad y objetividad en la recogida de los datos, nos obligó a desestimar las muestras recogidas y a plantearnos nuevamente el problema. En septiembre de 1979, después de estudiados todos los aspectos que más nos interesaban para la buena marcha del trabajo, nos dedicamos fundamentalmente a la formación y preparación del grupo de jueces (ocho personas especializadas), al objeto de conseguir una uniformidad de criterios a la hora de la aplicación de las pruebas. La finalidad del trabajo es establecer "standars" de la población escolar de los colegios nacionales de Educación General Básica de la localidad de Salamanca, en las edades comprendidas entre los 11 y 14 años, en forma de tablas de percentiles, basados en la edad y sexo, de forma que en el futuro nos sirvan: a) Como baremo calificador, ya que - hay que establecer con justeza los niveles a alcanzar. - nos podemos fiar de la justa interpretación que se dé a las respuestas del examinando, ya que son elementos de la máxima objetividad -el cronómetro y el metro-, los que interpretan y valoran dichas respuestas. b) Como elemento básico, para las futuras planificaciones del mencionado Plan Experimental. Al valorar el conjunto de una serie de pruebas motoras, los profesores, tendrán un índice determinador, que les servirá como fundamento de trabajo a desarrollar en el futuro. c) Como estudio comparativo entre otras poblaciones. En el Capitulo I, expongo brevemente, los fundamentos teóricos sobre el estudio de la medida y evaluación de la aptitud física, pues lo considero imprescindible para un buen enfoque del trabajo en general. El Capitulo II, se refiere a la metodología empleada: determinación de la muestra, justificación de la batería de pruebas empleada, instrumentos de medida y técnicas de aplicación. Los resultados de las medidas obtenidas, los hemos elaborado estadísticamente con los siguientes criterios: 1) trabajar con datos agrupados. 2) la tabulación, la hemos realizado formando el mayor número de intervalos posible, al objeto de únicamente confeccionar una tabla de frecuencias para cada prueba en las cuatro edades. Las medidas estadísticas que hemos obtenido han sido: Medidas de tendencia central (media); Medidas de dispersión (desviación típica); Al objeto de que los resultados estén más claros, hemos realizado las gráficas de distribución de frecuencias, para cada prueba y edad. En el Capitulo IV, hacemos un análisis de los resultados obtenidos por prueba y edad, al mismo tiempo que los compara con datos correspondientes a niños de las mismas edades de muestras obtenidas en otros países.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La presente Tesis Doctoral fue desarrollada en el marco del proyecto Consolider-Ingenio 2010 CSD2008-00068 (TeraSense), financiado por el Ministerio de Ciencia e Innovación de España. Dentro este contexto, el grupo GTIC-Radiocomunicaciones de la Universidad Politécnica de Madrid (UPM), ha llevado a cabo una serie de estudios, los cuales se centran específicamente en propagación atmosférica bajo condiciones de ausencia de lluvia en 100 y 300 GHz. Durante la primera etapa de esta investigación se ha llevado a cabo la caracterización y estimación de la atenuación total atmosférica y temperatura de brillo en ambas frecuencias, usando para ello perfiles atmosféricos. Con este propósito, se han obtenido datos de sondeos realizados en la estación de Madrid/Barajas, correspondientes a un periodo de 5 años. A partir de esta base de datos, así como de modelos de estimación, y asumiendo la validez de la aproximación de Rayleigh hasta 300 GHz, se han calculado las distribuciones acumuladas anuales de gases, nubes, y atenuación total, además de los correspondientes niveles de temperatura de brillo. Los principales resultados muestran que, a medida que aumenta la frecuencia, el vapor de agua tiene una fuerte influencia negativa, la cual es claramente dominante en 300 GHz. Así mismo, los estadísticos anuales de temperatura de brillo en 100 GHz han mostrado que la estimación de la atenuación total, a partir de medidas radiométricas, podría realizarse durante la mayor parte del tiempo, salvo en condiciones de lluvia. En 300 GHz, esta estimación sería difícil de realizar a partir de esta técnica, siendo posible únicamente durante periodos caracterizados por bajas concentraciones de vapor de agua en la atmósfera y ausencia de precipitaciones. Se ha introducido en esta investigación un método para identificar la presencia de condiciones de lluvia durante la realización de un sondeo, con el objetivo de descartar estos eventos de los estadísticos anuales de atenuación en ambas frecuencias. Este tipo de escenarios son generalmente evitados durante la realización de medidas radiométricas o cálculos basados en datos de sondeos. El procedimiento de detección se basa en el análisis de un conjunto de parámetros, algunos de ellos extraídos de observaciones sinópticas de superficie, además de la definición de un umbral de contenido integrado de agua líquida, ILWC. El funcionamiento del método ha sido evaluado bajo diferentes condiciones climatológicas, correspondientes a tres estaciones diferentes en España, donde se verificó también la existencia de datos pluviométricos. El uso del método ha demostrado que, en ausencia de registros de intensidad de lluvia, puede ser una herramienta útil de detección, cuyo comportamiento es conservador, debido a que el número de eventos que descarta es siempre mayor que el observado por un pluviómetro. Los resultados que se obtienen son buenos cuando se comparan las distribuciones acumuladas anuales de atenuación total obtenidas excluyendo los eventos detectados por el método y por los registros pluviométricos. En colaboración con el Grupo de Microondas y Radar de la UPM, se ha realizado una campaña de medidas radiométricas en 99 GHz, entre el 11 y el 24 de abril de 2012, con el fin de estimar la atenuación total a lo largo de un trayecto inclinado. Las series temporales obtenidas son consistentes con lo que se esperaba de este tipo de medidas: un nivel de referencia de baja atenuación en ausencia de nubes o lluvia, y aparentemente una buena compensación de las variaciones en la ganancia del receptor gracias a un procedimiento manual de calibraciones con carga caliente. Así mismo, se han observado claramente los efectos de la presencia de nubes sobre los resultados, hecho que confirma la mayor sensibilidad de las medidas en esta frecuencia a la presencia de agua líquida, en comparación con medidas simultáneas realizadas por un radiómetro en 19.7 GHz. Finalmente, se han observado un buen nivel de correspondencia entre los valores de atenuación estimados por el radiómetro en 99 GHz y aquellos estimados mediante sondeos meteorológicos, lo cual constituye una conclusión valiosa de cara a futuras campañas de medidas de mayor duración.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El estudio de vibraciones tiene por objetivo fijar una banda de seguridad para proteger la nueva línea ferroviaria de alta velocidad Madrid – Vitoria – San Sebastián (tramo Andoain – Urnieta).Las tomas de datos han permitido el cálculo de unas leyes de amortiguación de la propagación de las ondas de vibración que permiten predecir cuál será la magnitud de vibración generada a una cierta distancia de la explotación cuando se detona una carga de explosivo determinada. Así mismo, se lleva a cabo un análisis de las concentraciones de energía (vibraciones) que podrían producirse durante una voladura tipo de producción atendiendo a diferentes secuencias de disparo. Con este método, basado en el disparo de un “barreno semilla” de similares condiciones de carga y arranque que un barreno típico de producción, se pretende resaltar la importancia que tiene el rango de las frecuencias en el proceso de generación y transmisión de vibraciones en el terreno, y consecuentemente en los criterios de protección de estructuras frente a tales vibraciones. ABSTRACT The aim of the vibration study is to set a security band to protect the Spanish high speed train (AVE) which goes Madrid-Vitoria-San Sebastian (section Andoain- Urnieta). The data gathered has made possible the calculation of absorption laws of propagation of vibrating waves, that allow the prediction of the magnitude created at a certain distance of the detonation of a known explosive. In addition, an analysis of the energy concentrations that could appear during a blasting in different sequences is made. With this method based on the firing of a seed drill with similar load and boot conditions of a common production drill, is intended to highlight the importance of the frequency range in the process of vibrations transmission and generation in the field, and consequently the importance in the structures protection criteria against these vibrations.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En el presente trabajo de tesis se afronta el problema de la optimización de la superficie de grandes antenas reflectoras. Es sabido que los grandes reflectores, formados por una superficie panelada, sufren deformaciones debidas al impacto del viento, a los cambios de temperatura y a los efectos gravitacionales derivados del gran peso de la estructura. Estos efectos hacen que los reflectores pierdan su forma ideal, generalmente de paraboloide, y se reduzca su eficiencia de apertura y, por tanto, se limite la máxima frecuencia de uso de los mismos. Es necesario, por tanto, disponer de técnicas que permitan medir el estado de la superficie de grandes reflectores, y derivar los ajustes necesarios a aplicar sobre los tornillos de soporte de cada uno de los paneles que conforman dicha superficie. De esta manera, se devolvería al reflector su forma óptima y aumentaría la eficiencia de apertura y el rango de frecuencias de uso. Hay que resaltar que el aumento de la eficiencia de un radiotelescopio supone una reducción en el tiempo de integración necesario para la detección de las debilísimas señales generadas por las radiofuentes naturales, ahorrando así valioso tiempo de observación. Además, el incremento en el rango de frecuencias permite la detección de nuevas líneas o especies moleculares en dichas radiofuentes. Tras un primer capítulo introductorio, se presenta, en el capítulo segundo, la geometría de estos grandes reflectores y la influencia de los distintos factores que afectan a la calidad de la superficie de los mismos, como la gravedad, el viento y la temperatura, particularizando para el caso del radiotelescopio de 40 metros del Centro Astronómico de Yebes. En el tercer capítulo, se presentan las diferentes técnicas metrológicas empleadas actualmente para abordar la determinación de estos ajustes, mostrándose las ventajas e inconvenientes de cada una de ellas. Actualmente, la técnica metrológica más precisa y rápida para llevar a cabo esta tarea de caracterización de la superficie de un gran reflector, es la radio-holografía de microondas presentada en el capítulo cuarto. A partir de las medidas proporcionadas por esta técnica, realizadas con la ayuda de un transmisor, y mediante transformaciones de campo, se calculan los errores de la superficie del reflector, respecto al paraboloide ideal, y se derivan los ajustes necesarios. En los capítulos quinto y sexto se presentan los resultados de la aplicación de esta técnica a dos radiotelescopios: el de 30 metros de IRAM en Pico de Veleta (Granada) y los prototipos de 12 metros de las antenas del proyecto ALMA. Por su parte, el capítulo séptimo contiene el núcleo fundamental de esta tesis y presenta el desarrollo de la técnica de radio-holografía de microondas para optimizar la superficie del radiotelescopio de 40 metros del Centro Astronómico de Yebes. Para ello, ha sido necesario diseñar, construir e instalar un receptor de doble canal en banda Ku en foco primario, y la instrumentación asociada para hacer las medidas de amplitud y fase del diagrama de radiación. Además, ha sido necesario desarrollar el software para llevar a cabo las transformaciones de campo y derivar los ajustes de los paneles. De las medidas holográficas iniciales resultó un error de la superficie del radiotelescopio de 485 μm WRMS, respecto al paraboloide ideal en dirección normal. Tras varias iteraciones del proceso de medida y ajuste, se consiguió reducir dicho error a 194 μm WRMS. Esta notable mejora de la calidad de la superficie ha supuesto aumentar la eficiencia de apertura desde 2,6% al 38,2% a 86 GHz, para un receptor a esta frecuencia situado en el foco primario que produjese la misma iluminación que el receptor de holografía. In this thesis the problem of large reflector antenna surface optimization is faced. It is well known that large reflectors, which are made of a panelled surface, suffer from deformations due to the impact of wind, temperature gradients and gravity loads coming from the high weigth of the structure. These effects distort the ideal reflector shape, which is a paraboloid in most cases, hence reducing the aperture efficiency of the reflector and limiting the maximum frequency of operation. Therefore, it is necessary to have some techniques to measure the status of large reflector surfaces and to derive the adjustment values to be applied to the screws that connect the surface panels to the reflector back-up structure. In this way, the reflector would recover its optimum shape and the aperture efficiency and frequency range would increase. It has to be stated that an increment in the radiotelescope aperture efficiency would imply a reduction in the integration time needed to detect such weak signals coming from natural radiosources in space and, hence, an important saving in observation time. In addition, the increase in the frequency range of operation would allow the detection of new molecular lines in those radiosources. After the introduction, the second chapter shows the geometry of large reflector antennas and the impact on its surface quality of different factors like gravity, wind and temperature, particularly for the case of the Centro Astronómico de Yebes 40 meter radiotelescope. The third chapter deals with the different metrology techniques used to determine the panel adjustments, including the advantages and drawbacks of each one Currently, the most accurate and fast metrologic technique to carry out the characterization of large reflector surfaces is microwave radio-holography2, which is shown in chapter four. From the measurements provided by microwave radio-holography, performed with the help of a transmitter, and with the use of field transformations, the reflector surface errors are computed and the panel adjustments are derived. Chapters five and six show the results of holographic measurements applied to two first class radiotelescopes: the IRAM 30 meter radiotelescope and the 12 meter prototype antennas for the ALMA project. Chapter seven contains the main work of this thesis. It presents the development of the microwave radio-holography technique for the optimization of the Centro Astronómico de Yebes 40m radiotelescope. The work implied the design, construction and instalation of a prime focus Ku-band dual channel receiver, together with the associated instrumentation to measure the amplitude and phase of the radiotelescope radiation pattern. In addition, the software to carry out field transformations and screw settings computations was developed too. Initial holography measurements came up with an surface error of 485 μmWRMS in normal direction with respect to the best-fit paraboloid. After a few iterations of the measurementadjustment cycle, the surface error was reduced to 194 μm WRMS. This remarkable improvement in surface quality means an increment in aperture efficiency from 2,6% to 38,2% at 86 GHz, assuming a receiver at this frequency in prime focus position which produces the same illumination as the holography receiver.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This thesis investigates the acoustic properties of microperforated panels as an alternative to passive noise control. The first chapters are devoted to the review of analytical models to obtain the acoustic impedance and absorption coefficient of perforated panels. The use of panels perforated with circular holes or with slits is discussed. The theoretical models are presented and some modifications are proposed to improve the modeling of the physical phenomena occurring at the perforations of the panels. The absorption band is widened through the use of multiple layer microperforated panels and/or the combination of a millimetric panel with a porous layer that can be a fibrous material or a nylon mesh. A commercial micrometric mesh downstream a millimetric panel is proposed as a very efficient and low cost solution for controlling noise in reduced spaces. The simulated annealing algorithm is used in order to optimize the panel construction to provide a maximum of absorption in a determined wide band frequency range. Experiments are carried out at normal sound incidence and plane waves. One example is shown for a double layer microperforated panel subjected to grazing flow. A good agreement is achieved between the theory and the experiments. RESUMEN En esta tesis se investigan las propiedades acústicas de paneles micro perforados como una alternativa al control pasivo del ruido. Los primeros capítulos están dedicados a la revisión de los modelos de análisis para obtener la impedancia acústica y el coeficiente de absorción de los paneles perforados. El uso de paneles perforados con agujeros circulares o con ranuras es discutido. Se presentan diferentes modelos y se proponen algunas modificaciones para mejorar la modelización de los fenómenos físicos que ocurren en las perforaciones. La banda de absorción se ensancha a través del uso de capas múltiples de paneles micro perforados y/o la combinación de un panel de perforaciones milimétricas combinado con una capa porosa que puede ser un material fibroso o una malla de nylon. Se propone el uso de una malla micrométrica detrás de un panel milimétrico como una solución económica y eficiente para el control del ruido en espacios reducidos. El algoritmo de recocido simulado se utiliza con el fin de optimizar la construcción de paneles micro perforados para proporcionar un máximo de absorción en una banda determinada frecuencias. Los experimentos se llevan a cabo en la incidencia normal de sonido y ondas planas. Se muestra un ejemplo de panel micro perforado de doble capa sometido a flujo rasante. Se consigue un buen acuerdo entre la teoría y los experimentos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El estudio teórico-práctico del coeficiente de impacto ha permitido obtener una fórmula de gran generalidad - en cuanto a material y tipos estructurales - para puentes de ferrocarril. Se presenta dicha fórmula en forma de gráfico de alineación doble, y se indican procedimientos para determinar las frecuencias propias en los casos más corrientes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En esta Tesis se cuantifica la variación cromática que producen los barnices en el color de los diferentes tipos de maderas de construcción, obteniendo un modelo matemático de predicción de color de la madera. Se analizan las prestaciones de dieciséis barnices, supuestamente incoloros, aplicados sobre veinte tipos de maderas, angiospermas y gimnospermas, de distintas densidades y latitudes. Ambos materiales son de uso frecuente en el ámbito de la construcción y de fácil localización en las tiendas y almacenes de ambos sectores. Se utilizan técnicas de descomposición cromática, mediante el empleo de microscopio óptico de reflexión, para poder obtener un abanico gráfico de histogramas con valores numéricos de luminosidad y composición cromática, y de esta forma comprobar que los supuestos barnices que se venden como incoloros, no son totalmente incoloros sino que muestran tendencias a virar hacia alguno de los colores básicos. En el proceso experimental de la Tesis, se aplican 16 barnices sobre 20 tipos de maderas, obteniéndose los histogramas de las campañas de fotografías realizadas con cinco años de diferencia, obteniéndose no solo la variación de color que producen los barnices sobre el original de la madera, sino además la influencia de un envejecimiento a los cinco años. La Tesis relaciona el tipo de barniz idóneo para cada tipo de madera, de modo que produzca la menor variación cromática. La Tesis además obtiene un modelo matemático que permite predecir el color final de la madera tratada en función del color inicial de la madera sin barnizar. Se propone en esta Tesis una recomendación de los productos a utilizar en cada uno de los tipos de madera en base a su color inicial. This Thesis quantifies the chromatic variation caused by varnishes in the colour of different types of timbers, obtaining a mathematical model for predicting the timber’s colour. The performance of sixteen varnishes, supposedly colourless, is analysed, applied on twenty types of timber, angiosperms and gymnosperms, of different densities and latitudes. Both materials are of frequent use in the construction field and easily located in the stores and warehouses of both sectors. Chromatic decomposition techniques are used, through the utilization of a reflection optical microscope, in order to obtain a graphic range of histograms with numerical values of luminosity and chromatic composition, and this way confirm that the alleged varnishes sold as colourless are not completely colourless but are prone to shift towards one of the basic colours. During the Thesis’ experimental procedure 16 varnishes are applied on 20 types of timber, obtaining the colour histograms of the photography campaigns carried out with a five years difference, resulting in not only the colour variation caused by the varnishes on the original timber, but also the influence of its ageing five years later. The Thesis links the right type of varnish for each kind of timber, so that as little chromatic variation as possible occurs. The Thesis obtains as well a mathematical model, which makes it possible to predict the final colour of the treated timber depending on the original colour of the timber with no varnish. This Thesis proposes a recommendation of the products to use on each type of timber on the basis of its original colour.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En la actual norma ministerial para la determinación de las acciones en puentes de ferrocarril se presta una gran importancia a la fijación de las características dinámicas de la estructura, a partir de las cuales se determina el coeficiente de impacto. Entre los casos peor estudiados se encuentra el de los puentes de vía doble, para los que se recomiennda una frecuencia de cálculo igual a la de un puente de la misma luz y vía simple. En el artículo se pretende analizar esta norma mediante el estudio de las frecuencias de vibración del sistema.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Los arrays de ranuras son sistemas de antennas conocidos desde los años 40, principalmente destinados a formar parte de sistemas rádar de navíos de combate y grandes estaciones terrenas donde el tamaño y el peso no eran altamente restrictivos. Con el paso de los años y debido sobre todo a importantes avances en materiales y métodos de fabricación, el rango de aplicaciones de este tipo de sistemas radiantes creció en gran medida. Desde nuevas tecnologías biomédicas, sistemas anticolisión en automóviles y navegación en aviones, enlaces de comunicaciones de alta tasa binaria y corta distancia e incluso sistemas embarcados en satélites para la transmisión de señal de televisión. Dentro de esta familia de antennas, existen dos grupos que destacan por ser los más utilizados: las antennas de placas paralelas con las ranuras distribuidas de forma circular o espiral y las agrupaciones de arrays lineales construidos sobre guia de onda. Continuando con las tareas de investigación desarrolladas durante los últimos años en el Instituto de Tecnología de Tokyo y en el Grupo de Radiación de la Universidad Politécnica de Madrid, la totalidad de esta tesis se centra en este último grupo, aunque como se verá se separa en gran medida de las técnicas de diseño y metodologías convencionales. Los arrays de ranuras rectas y paralelas al eje de la guía rectangular que las alimenta son, sin ninguna duda, los modelos más empleados debido a la fiabilidad que presentan a altas frecuencias, su capacidad para gestionar grandes cantidades de potencia y la sencillez de su diseño y fabricación. Sin embargo, también presentan desventajas como estrecho ancho de banda en pérdidas de retorno y rápida degradación del diagrama de radiación con la frecuencia. Éstas son debidas a la naturaleza resonante de sus elementos radiantes: al perder la resonancia, el sistema global se desajusta y sus prestaciones degeneran. En arrays bidimensionales de slots rectos, el campo eléctrico queda polarizado sobre el plano transversal a las ranuras, correspondiéndose con el plano de altos lóbulos secundarios. Esta tesis tiene como objetivo el desarrollo de un método sistemático de diseño de arrays de ranuras inclinadas y desplazadas del centro (en lo sucesivo “ranuras compuestas”), definido en 1971 como uno de los desafíos a superar dentro del mundo del diseño de antennas. La técnica empleada se basa en el Método de los Momentos, la Teoría de Circuitos y la Teoría de Conexión Aleatoria de Matrices de Dispersión. Al tratarse de un método circuital, la primera parte de la tesis se corresponde con el estudio de la aplicabilidad de las redes equivalentes fundamentales, su capacidad para recrear fenómenos físicos de la ranura, las limitaciones y ventajas que presentan para caracterizar las diferentes configuraciones de slot compuesto. Se profundiza en las diferencias entre las redes en T y en ! y se condiciona la selección de una u otra dependiendo del tipo de elemento radiante. Una vez seleccionado el tipo de red a emplear en el diseño del sistema, se ha desarrollado un algoritmo de cascadeo progresivo desde el puerto alimentador hacia el cortocircuito que termina el modelo. Este algoritmo es independiente del número de elementos, la frecuencia central de funcionamiento, del ángulo de inclinación de las ranuras y de la red equivalente seleccionada (en T o en !). Se basa en definir el diseño del array como un Problema de Satisfacción de Condiciones (en inglés, Constraint Satisfaction Problem) que se resuelve por un método de Búsqueda en Retroceso (Backtracking algorithm). Como resultado devuelve un circuito equivalente del array completo adaptado a su entrada y cuyos elementos consumen una potencia acorde a una distribución de amplitud dada para el array. En toda agrupación de antennas, el acoplo mutuo entre elementos a través del campo radiado representa uno de los principales problemas para el ingeniero y sus efectos perjudican a las prestaciones globales del sistema, tanto en adaptación como en capacidad de radiación. El empleo de circuito equivalente se descartó por la dificultad que suponía la caracterización de estos efectos y su inclusión en la etapa de diseño. En esta tesis doctoral el acoplo también se ha modelado como una red equivalente cuyos elementos son transformadores ideales y admitancias, conectada al conjunto de redes equivalentes que representa el array. Al comparar los resultados estimados en términos de pérdidas de retorno y radiación con aquellos obtenidos a partir de programas comerciales populares como CST Microwave Studio se confirma la validez del método aquí propuesto, el primer método de diseño sistemático de arrays de ranuras compuestos alimentados por guía de onda rectangular. Al tratarse de ranuras no resonantes, el ancho de banda en pérdidas de retorno es mucho mas amplio que el que presentan arrays de slots rectos. Para arrays bidimensionales, el ángulo de inclinación puede ajustarse de manera que el campo quede polarizado en los planos de bajos lóbulos secundarios. Además de simulaciones se han diseñado, construido y medido dos prototipos centrados en la frecuencia de 12GHz, de seis y diez elementos. Las medidas de pérdidas de retorno y diagrama de radiación revelan excelentes resultados, certificando la bondad del método genuino Method of Moments - Forward Matching Procedure desarrollado a lo largo de esta tésis. Abstract The slot antenna arrays are well known systems from the decade of 40s, mainly intended to be part of radar systems of large warships and terrestrial stations where size and weight were not highly restrictive. Over the years, mainly due to significant advances in materials and manufacturing methods, the range of applications of this type of radiating systems grew significantly. From new biomedical technologies, collision avoidance systems in cars and aircraft navigation, short communication links with high bit transfer rate and even embedded systems in satellites for television broadcast. Within this family of antennas, two groups stand out as being the most frequent in the literature: parallel plate antennas with slots placed in a circular or spiral distribution and clusters of waveguide linear arrays. To continue the vast research work carried out during the last decades in the Tokyo Institute of Technology and in the Radiation Group at the Universidad Politécnica de Madrid, this thesis focuses on the latter group, although it represents a technique that drastically breaks with traditional design methodologies. The arrays of slots straight and parallel to the axis of the feeding rectangular waveguide are without a doubt the most used models because of the reliability that they present at high frequencies, its ability to handle large amounts of power and their simplicity of design and manufacturing. However, there also exist disadvantages as narrow bandwidth in return loss and rapid degradation of the radiation pattern with frequency. These are due to the resonant nature of radiating elements: away from the resonance status, the overall system performance and radiation pattern diminish. For two-dimensional arrays of straight slots, the electric field is polarized transverse to the radiators, corresponding to the plane of high side-lobe level. This thesis aims to develop a systematic method of designing arrays of angled and displaced slots (hereinafter "compound slots"), defined in 1971 as one of the challenges to overcome in the world of antenna design. The used technique is based on the Method of Moments, Circuit Theory and the Theory of Scattering Matrices Connection. Being a circuitry-based method, the first part of this dissertation corresponds to the study of the applicability of the basic equivalent networks, their ability to recreate the slot physical phenomena, their limitations and advantages presented to characterize different compound slot configurations. It delves into the differences of T and ! and determines the selection of the most suitable one depending on the type of radiating element. Once the type of network to be used in the system design is selected, a progressive algorithm called Forward Matching Procedure has been developed to connect the proper equivalent networks from the feeder port to shorted ending. This algorithm is independent of the number of elements, the central operating frequency, the angle of inclination of the slots and selected equivalent network (T or ! networks). It is based on the definition of the array design as a Constraint Satisfaction Problem, solved by means of a Backtracking Algorithm. As a result, the method returns an equivalent circuit of the whole array which is matched at its input port and whose elements consume a power according to a given amplitude distribution for the array. In any group of antennas, the mutual coupling between elements through the radiated field represents one of the biggest problems that the engineer faces and its effects are detrimental to the overall performance of the system, both in radiation capabilities and return loss. The employment of an equivalent circuit for the array design was discarded by some authors because of the difficulty involved in the characterization of the coupling effects and their inclusion in the design stage. In this thesis the coupling has also been modeled as an equivalent network whose elements are ideal transformers and admittances connected to the set of equivalent networks that represent the antennas of the array. By comparing the estimated results in terms of return loss and radiation with those obtained from popular commercial software as CST Microwave Studio, the validity of the proposed method is fully confirmed, representing the first method of systematic design of compound-slot arrays fed by rectangular waveguide. Since these slots do not work under the resonant status, the bandwidth in return loss is much wider than the longitudinal-slot arrays. For the case of two-dimensional arrays, the angle of inclination can be adjusted so that the field is polarized at the low side-lobe level plane. Besides the performed full-wave simulations two prototypes of six and ten elements for the X-band have been designed, built and measured, revealing excellent results and agreement with the expected results. These facts certify that the genuine technique Method of Moments - Matching Forward Procedure developed along this thesis is valid and trustable.