238 resultados para Señales acústicas


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabajo analiza la implementacion software en un sistema de imagen ultrasónica del Total Focusing Method para la compensación dinámica en tiempo real de los tiempos de vuelo para emisión y recepción de todos los puntos de la imagen. Para ello, haciendo uso de técnicas GPGPU, se analizan dos diferentes alternativas de implementacion, mostrando como una planificación adecuada de acceso a los datos permite mejorar los tiempos de ejecución del algoritmo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Se presenta un estudio de la resistencia mecánica del yeso, basado en su refuerzo mediante la adición de polímeros sintéticos, en forma de fibras y dispersiones acuosas. Se pretende mejorar las características mecánicas del yeso, entre cuyas cualidades se pueden enumerar las siguientes: abundancia en España, bajo coste energético, manejabilidad y propiedades de habitabilidad (acústicas, higrotérmicas, etc.). El aumento de las características mecánicas del yeso permite su utilización como elemento prefabricado laminar, con aplicación, en divisiones interiores, cielorrasos, etc. La tesis plantea el refuerzo del yeso mediante la utilización de polímeras sintéticos, debido a que ambos materiales presentan un análogo sistema de cohesión en su nivel estructural, por medio de fuerzas de Van der Waals. Este sistema de cohesión es el responsable de la adherencia que se establece entre la matriz de yeso y las adiciones de refuerzo, que provoca la generación de cristales de dihidrato en la superficie de las fibras, consiguiendo una unión íntima de los dos materiales durante su fabricación. Se realiza un estudio teórico sobre la estructura interna y propiedades de los polímeros sintéticos, que concluye en la selección de aquéllos que se consideran idóneos para su adición al yeso. Este estudio teórico se complementa: con el análisis de cada uno de los polímeros seleccionados en función del proceso de fabricación para III crear fibras o dispersiones, y can un estudio teórico sobre materiales reforzados que sienta los fundamentos que sirven de base para el análisis de resultados. Se realiza un proceso experimental que comprueba el comportamiento conjunto de cada una de las adiciones previamente seleccionadas y conlleva la selección de la fibra y la dispersión idóneas, así como de su porcentaje óptimo. Una vez seleccionada y optimizada la adición, se comprueba su idoneidad para la fabricación de placas y se realizan ensayos de resistencia a impacto y tracción.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabajo aborda el estudio de la calidad acústica de restaurantes y propone la inteligibilidad como magnitud adecuada para su valoración. La conversación en el entorno de cada mesa se considera como señal de interés para quienes la ocupan, mientras que las conversaciones de los comensales de las restantes mesas se consideran ruido perturbador junto con el procedente de otras fuentes interiores o exteriores, ruido este que por otra parte suele estar limitado por ordenanzas o reglamentaciones ad hoc, a niveles muy por debajo del nivel de conversación medio y se suele tratar como un ruido estacionario homogéneamente distribuido en todo el restaurante. Las condiciones de inteligibilidad en cada mesa del restaurante deben ser equivalentes. La relación señal-ruido juega un papel primordial en todos los modelos objetivos de predicción de la inteligibilidad en recintos comúnmente aceptados en la actualidad. La calificación de la inteligibilidad de un recinto de restauración requiere un mapa de inteligibilidad en una retícula suficientemente fina que cubra la zona de público, en cuyos puntos se necesita calcular los niveles de señal y de ruido, así como el tiempo de reverberación u otro parámetro relacionado con la señal recibida en el tiempo de integración auditiva. Esto conlleva una cantidad ingente de potencia computacional tanto en memoria como en tiempo. Si se dispone de ecuaciones sencillas y fiables de distribución del nivel sonoro en función de la distancia a la fuente sonora los enormes requerimientos de cálculo mencionados podrían reducirse en un factor importante. La teoría estadística clásica de recintos presenta justamente este escenario, pero trabajos relativamente recientes de Barron y colaboradores indican la mejor adecuación de ecuaciones empíricas algo más complejas, dentro de la sencillez, las cuales a su vez han sido cuestionadas en parte por otros autores. La importancia de estas ecuaciones ha condicionado que en esta tesis se haya planeado un programa de exploraciones experimentales ambicioso, a la par que lo mas simplificado posible, para obtener distribuciones de campos sonoros en recintos prismáticos de plantas en forma de I, L y U; en donde se exploran trayectorias axiales y diagonales. En paralelo se exploro el tiempo de reverberación y se completo con estudios análogos en recintos acoplados formados a partir del recinto de planta en U, por su utilidad actual en recintos de interés arquitectónico rehabilitados para restaurantes. Por su facilidad operativa la experimentación se planteo en maquetas a escala reducida asegurando el cumplimiento de los requisitos en este tipo de estudios. Los resultados experimentales directos se corrigieron de los efectos alineales derivados de las descargas eléctricas usadas como señales de excitación, tanto en el tiempo de reverberación como en la distribución de niveles. Con este fin se desarrollaron ecuaciones de corrección de ambas magnitudes en función del parámetro de alinealidad en el rango de débil alinealidad. También se aplicaron correcciones del exceso de absorción sonora en el seno del aire a los valores de humedad relativa, temperatura y presión atmosféricas reinantes en el interior de las maquetas durante la experimentación, para las frecuencias transpuestas por el factor de escala, en relación con la escala real. Como resultado se obtuvo un paquete de archivos de datos experimentales correspondientes a condiciones lineales. Se ha mostrado que una generalización de la ecuación de Barron consigue un buen ajuste a los valores experimentales en todos los casos considerados, lo que apoya el gran fundamento de esta ecuación tipo. El conjunto de ecuaciones empíricas que ajusta cada caso particular solamente difiere en el valor de una de las tres constantes del tipo funcional: el factor ligado al término exponencial. Un valor de esta constante cercano al valor medio de la serie de casos estudiados se ha usado en el cálculo de los mapas de inteligibilidad en recintos prismáticos que se comentaran más adelante Los resultados experimentales del nivel sonoro a lo largo de trayectorias axiales y diagonales comparados a los calculados numéricamente con las ecuaciones empíricas presentan disminuciones justamente detrás de las esquinas de los recintos con plantas en forma de L y de U. Las aéreas de estas zonas afónicas son función de la frecuencia de manera bastante coincidente con las encontradas en las barreras de ruido por efecto de la difracción. A distancias superiores los valores experimentales caen de nuevo sobre las curvas empíricas. Se ha estudiado la influencia en los mapas de inteligibilidad del ruido de fondo, de la absorción sonora, de la distribución de las mesas, de la densidad de mesas por unidad de superficie, del porcentaje de ocupación y su distribución espacial así como de la posición de la mesa de señal. El ruido conversacional resulta ser el factor más adverso a la inteligibilidad. Al aumentar la densidad de mesas (ocupadas) la valoración de la inteligibilidad disminuye e inversamente. La influencia negativa de las mesas de ruido conversacional disminuye rápidamente al aumentar la distancia a la mesa de señal: pudiendo afirmarse que las 4 a 8 mesas mas próximas a la de señal, junto con la absorción total del recinto, constituyen los dos factores que condicionan la inteligibilidad influyendo negativamente el primero y positivamente el segundo. Este resultado difiere del ofrecido por la teoría geométrico estadística clásica donde todas las mesas tienen la misma influencia con independencia del sitio que ocupen en el recinto, y también con la teoría derivada de la ecuación de Barron, que ocupa una posición intermedia. Mayor absorción y menor densidad de mesas (ocupadas) mejoran la inteligibilidad en todos los casos pero la absorción no siempre puede neutralizar el efecto adverso de la densidad de mesas de la cual parece existir un valor frontera imposible de neutralizar en la práctica con incrementos de absorción. El grado de inteligibilidad en torno a la mesa de señal es poco sensible a la posición de esta dentro del recinto, resultado que simplifica el enunciado de criterios de calidad acústica de utilidad práctica tanto en diseño como en reglamentaciones de control. La influencia del ruido de fondo estacionario y homogéneo resulta de escasa o nula influencia en la inteligibilidad para niveles de hasta 50-55 dB, si se admite que los niveles normales de conversación se sitúan de 65 a 70 dB. La subdivisión del restaurante en subespacios menores mediante septa de separación parcial media y alta, presenta ventajas ya que dentro de cada subespacio la inteligibilidad no depende más que de las características de este

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El almacenamiento y tratamiento de señales digitales es un campo muy importante de la informática. Dichas señales contienen información valiosa que ha de ser extrada y transformada para poder ser utilizada. En la presente tesis doctoral se han creado métodos para almacenar, procesar y recuperar información de las regiones contenidas en una imagen, en especial en imágenes de gran tamaño. Como base del trabajo se ha diseñado una estructura de datos de tipo grafo para poder almacenar todas las regiones contenidas en una imagen. En esta estructura de datos se pueden guardar tanto los descriptores de bajo nivel de las regiones como las relaciones estructurales entre las distintas regiones de la imagen. En los sistemas de almacenamiento de imágenes es una práctica habitual distribuir las imágenes para mejorar el rendimiento. Más allá de este tipo de distribución, una característica distintiva y novedosa de la estructura de datos creada en la presente investigación es que puede funcionar de forma distribuida de manera que una imagen grande puede ser dividida en varias subimagenes, y dichas sub-imágenes pueden ser almacenadas de forma separada en varios servidores. También se han adaptado algunos métodos y algoritmos pertenecientes a la Morfología Matemática para trabajar directamente sobre la estructura de datos distribuida. De esta manera, se pueden procesar todas las sub-imágenes de una misma imagen sin necesidad de reconstruir la imagen inicial. Finalmente, haciendo uso de la estructura de datos y de los métodos desarrollados se ha creado un prototipo de sistema multi-agente capaz de almacenar y procesar imágenes grandes. Este prototipo permite realizar consultas para recuperar información perteneciente a regiones de una imagen almacenada en el sistema sin necesidad de volver a ser procesada. En la experimentación realizada, resumida en los resultados presentados, se muestra que la división y distribución de una imagen en varias sub-imágenes reduce los tiempos de almacenamiento, procesamiento y recuperación de la información.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El tema central de investigación en esta Tesis es el estudio del comportamientodinámico de una estructura mediante modelos que describen la distribución deenergía entre los componentes de la misma y la aplicación de estos modelos parala detección de daños incipientes.Los ensayos dinámicos son un modo de extraer información sobre las propiedadesde una estructura. Si tenemos un modelo de la estructura se podría ajustar éstepara que, con determinado grado de precisión, tenga la misma respuesta que elsistema real ensayado. Después de que se produjese un daño en la estructura,la respuesta al mismo ensayo variará en cierta medida; actualizando el modelo alas nuevas condiciones podemos detectar cambios en la configuración del modeloestructural que nos condujeran a la conclusión de que en la estructura se haproducido un daño.De este modo, la detección de un daño incipiente es posible si somos capacesde distinguir una pequeña variación en los parámetros que definen el modelo. Unrégimen muy apropiado para realizar este tipo de detección es a altas frecuencias,ya que la respuesta es muy dependiente de los pequeños detalles geométricos,dado que el tamaño característico en la estructura asociado a la respuesta esdirectamente proporcional a la velocidad de propagación de las ondas acústicas enel sólido, que para una estructura dada es inalterable, e inversamente proporcionala la frecuencia de la excitación. Al mismo tiempo, esta característica de la respuestaa altas frecuencias hace que un modelo de Elementos Finitos no sea aplicable enla práctica, debido al alto coste computacional.Un modelo ampliamente utilizado en el cálculo de la respuesta de estructurasa altas frecuencias en ingeniería es el SEA (Statistical Energy Analysis). El SEAaplica el balance energético a cada componente estructural, relacionando la energíade vibración de estos con la potencia disipada por cada uno de ellos y la potenciatransmitida entre ellos, cuya suma debe ser igual a la potencia inyectada a cadacomponente estructural. Esta relación es lineal y viene caracterizada por los factoresde pérdidas. Las magnitudes que intervienen en la respuesta se consideranpromediadas en la geometría, la frecuencia y el tiempo.Actualizar el modelo SEA a datos de ensayo es, por lo tanto, calcular losfactores de pérdidas que reproduzcan la respuesta obtenida en éste. Esta actualización,si se hace de manera directa, supone la resolución de un problema inversoque tiene la característica de estar mal condicionado. En la Tesis se propone actualizarel modelo SEA, no en término de los factores de pérdidas, sino en términos deparámetros estructurales que tienen sentido físico cuando se trata de la respuestaa altas frecuencias, como son los factores de disipación de cada componente, susdensidades modales y las rigideces características de los elementos de acoplamiento.Los factores de pérdidas se calculan como función de estos parámetros. Estaformulación es desarrollada de manera original en esta Tesis y principalmente sefunda en la hipótesis de alta densidad modal, es decir, que en la respuesta participanun gran número de modos de cada componente estructural.La teoría general del método SEA, establece que el modelo es válido bajounas hipótesis sobre la naturaleza de las excitaciones externas muy restrictivas,como que éstas deben ser de tipo ruido blanco local. Este tipo de carga es difícil dereproducir en condiciones de ensayo. En la Tesis mostramos con casos prácticos queesta restricción se puede relajar y, en particular, los resultados son suficientementebuenos cuando la estructura se somete a una carga armónica en escalón.Bajo estas aproximaciones se desarrolla un algoritmo de optimización por pasosque permite actualizar un modelo SEA a un ensayo transitorio cuando la carga esde tipo armónica en escalón. Este algoritmo actualiza el modelo no solamente parauna banda de frecuencia en particular sino para diversas bandas de frecuencia demanera simultánea, con el objetivo de plantear un problema mejor condicionado.Por último, se define un índice de daño que mide el cambio en la matriz depérdidas cuando se produce un daño estructural en una localización concreta deun componente. Se simula numéricamente la respuesta de una estructura formadapor vigas donde producimos un daño en la sección de una de ellas; como se tratade un cálculo a altas frecuencias, la simulación se hace mediante el Método delos Elementos Espectrales para lo que ha sido necesario desarrollar dentro de laTesis un elemento espectral de tipo viga dañada en una sección determinada. Losresultados obtenidos permiten localizar el componente estructural en que se haproducido el daño y la sección en que éste se encuentra con determinado grado deconfianza.AbstractThe main subject under research in this Thesis is the study of the dynamic behaviourof a structure using models that describe the energy distribution betweenthe components of the structure and the applicability of these models to incipientdamage detection.Dynamic tests are a way to extract information about the properties of astructure. If we have a model of the structure, it can be updated in order toreproduce the same response as in experimental tests, within a certain degree ofaccuracy. After damage occurs, the response will change to some extent; modelupdating to the new test conditions can help to detect changes in the structuralmodel leading to the conclusión that damage has occurred.In this way incipient damage detection is possible if we are able to detect srnallvariations in the model parameters. It turns out that the high frequency regimeis highly relevant for incipient damage detection, because the response is verysensitive to small structural geometric details. The characteristic length associatedwith the response is proportional to the propagation speed of acoustic waves insidethe solid, but inversely proportional to the excitation frequency. At the same time,this fact makes the application of a Finite Element Method impractical due to thehigh computational cost.A widely used model in engineering when dealing with the high frequencyresponse is SEA (Statistical Energy Analysis). SEA applies the energy balance toeach structural component, relating their vibrational energy with the dissipatedpower and the transmitted power between the different components; their summust be equal to the input power to each of them. This relationship is linear andcharacterized by loss factors. The magnitudes considered in the response shouldbe averaged in geometry, frequency and time.SEA model updating to test data is equivalent to calculating the loss factorsthat provide a better fit to the experimental response. This is formulated as an illconditionedinverse problem. In this Thesis a new updating algorithm is proposedfor the study of the high frequency response regime in terms of parameters withphysical meaning such as the internal dissipation factors, modal densities andcharacteristic coupling stiffness. The loss factors are then calculated from theseparameters. The approach is developed entirely in this Thesis and is mainlybased on a high modal density asumption, that is to say, a large number of modescontributes to the response.General SEA theory establishes the validity of the model under the asumptionof very restrictive external excitations. These should behave as a local white noise.This kind of excitation is difficult to reproduce in an experimental environment.In this Thesis we show that in practical cases this assumption can be relaxed, inparticular, results are good enough when the structure is excited with a harmonicstep function.Under these assumptions an optimization algorithm is developed for SEAmodel updating to a transient test when external loads are harmonic step functions.This algorithm considers the response not only in a single frequency band,but also for several of them simultaneously.A damage index is defined that measures the change in the loss factor matrixwhen a damage has occurred at a certain location in the structure. The structuresconsidered in this study are built with damaged beam elements; as we are dealingwith the high frequency response, the numerical simulation is implemented witha Spectral Element Method. It has therefore been necessary to develop a spectralbeam damaged element as well. The reported results show that damage detectionis possible with this algorithm, moreover, damage location is also possible withina certain degree of accuracy.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El control inteligente de vehículos autónomos es uno de los retos actuales más importantes de los Sistemas Inteligentes de Transporte. La aplicación de técnicas de inteligencia artificial para la gestión automática de los actuadores del vehículo permite a los diferentes sistemas avanzados de asistencia al conductor (ADAS) y a los sistemas de conducción autónoma, realizar una gestión de nivel bajo de una manera muy similar a la de los conductores humanos, mejorando la seguridad y el confort. En este artículo se presenta un esquema de control para gestionar estos actuadores de bajo nivel del vehículo (dirección, acelerador y freno). Este sistema automático de control de bajo nivel se ha definido, implementado y probado en un vehículo Citroën C3 Pluriel, cuyos actuadores han sido automatizados y pueden recibir señales de control desde un ordenador de a bordo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este Proyecto Docente se presenta como parte de la documentación requerida para el Concurso de Acceso a plazas de cuerpos docentes universitarios. Centro: E.T.S.I. de Telecomunicación. Cuerpo: Profesores Titulares de Universidad. Departamento: Señales, Sistemas y Radiocomunicaciones (0935). Área de conocimiento: Teoría de la Señal y Comunicaciones (800). Perfil docente: Radiocomunicaciones; Comunicaciones Móviles. Perfil investigador: Tecnología de las Telecomunicaciones (3325). Dedicación: Completa

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este Proyecto Investigador se presenta como parte de la documentación requerida para el Concurso de Acceso a plazas de cuerpos docentes universitarios. Centro: E.T.S.I. de Telecomunicación. Cuerpo: Profesores Titulares de Universidad. Departamento: Señales, Sistemas y Radiocomunicaciones (0935). Área de conocimiento: Teoría de la Señal y Comunicaciones (800). Perfil docente: Radiocomunicaciones; Comunicaciones Móviles. Perfil investigador: Tecnología de las Telecomunicaciones (3325). Dedicación: Completa

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Análisis matemático e implementación de la transformada del coseno tipo 3 para transmisión de señales mediante sistemas multiportadora

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Actualmente en el mercado existen una reducida variedad de materiales específicos de ruido de impactos. Los materiales que han de ser utilizados como material resiliente, han de cumplir unos valores muy bajos del módulo de elasticidad E. Mientras el valor del caucho blando está en el orden de los 100 kg/cm2, el valor del acero es de 2.100.000 kg/cm2 (21.000 veces mayor). Estos valores tan bajos hacen que diferencias de apenas 50 kg/cm2 produzcan variaciones muy importantes en las ganancias de aislamiento acústico. La realización de los ensayos de caracterización acústica a ruido de impacto en laboratorio es un proceso largo y caro. En primer lugar se necesita elaborar un forjado de referencia, que ha de ser ensayado de forma independiente. Con posterioridad, se ha de colocar la losa flotante, y volver a realizar la prueba. Con la diferencia de las medidas realizadas, se determinan los valores de módulo de elasticidad. Como alternativa a este método, en la ponencia del congreso “TECNIACÚSTICA GANDÍA 2006” sobre “estudio de cinco métodos para determinar las propiedades dinámicas de capas elásticas para la mejora del aislamiento a ruido de impactos”, presentada por Francisco Simón, David K. Anthony, Mª José Fernández, proponen un total de cinco alternativas al ensayo indicado en la norma. Al margen de las condiciones acústicas, las placas de suelo radiante necesitan garantizar unos valores mínimos de aislamiento térmico. Con las actuales necesidades normativas, la solución habitual consiste en la superposición de dos materiales: en primer lugar, inmediatamente sobre el forjado, se coloca el material encargado de proporcionar el aislamiento acústico, generalmente una lámina flexible de polietileno. Encima de ella se coloca la placa de aislamiento térmico, generalmente una plancha de poliestireno expandido con resaltes en las que se encajan las tuberías que conducen el agua calefactada. El poliestireno expandido convencional, no tiene unos valores de módulo elástico suficientemente bajo para poder actuar como material resiliente. Para conseguir estos valores, es necesario elastificar el material mediante su introducción en una prensa (Poliestireno expandido elastificado EEPS). La utilización de esta técnica es incompatible con el proceso de fabricación de planchas moldeadas con tetones para la integración de los soportes de las tuberías. La lámina flexible de polietileno, si tienes valores aceptables, tanto de aislamiento térmico como acústico, en cambio no es posible la integración de los tetones durante su proceso de fabricación para soportar las canalizaciones de agua. El objetivo de la investigación consiste en integrar en una única placa las características tanto térmicas como acústicas necesarias para satisfacer todas las necesidades. Como se ha indicado más arriba, los materiales resilientes han de cumplir unos valores muy bajos del módulo de elasticidad E. Mientras el valor del caucho blando está en el orden de los 100 kg/cm2, el valor del acero es de 2.100.000 kg/cm2 (21.000 veces mayor). Pero no es menos cierto que con acero, dando la forma adecuada (un helicoide) se consigue un elemento muy elástico, un muelle. Tal es así, que variando la forma se puede conseguir el módulo de elásticidad E deseado, resultando utilidades tan dispares como el resorte de un bolígrafo o la suspensión de un coche. Por otro lado, y como se ha indicado anteriormente, la determinación de los valores mecánicos de los materiales aislantes térmicos es cara y complicada. Como objetivo secundario de la investigación, se establece el proponer un ensayo alternativo, más rápido y económico que el propuesto por la norma para facilitar el estudio de nuevas alternativas, sin tener que hacer grandes desembolsos económicos en

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tesis es un trabajo de investigación que profundiza en la concepción de la música en las capillas reales a lo largo de dos siglos de historia, su percepción y los rituales asociados. La Tesis persigue profundizar en todos los aspectos que relacionan la música y el espacio, así como aquéllos otros aspectos asociados a los diferentes protocolos y a la liturgia, con especial incidencia a la existencia de la policoralidad en la Corte de Madrid y su referencia espacial. El trabajo se centra en la Capilla Real del Alcázar de Madrid. Se ha realizado una exhaustiva labor de archivo, que ha permitido realizar una reconstrucción de la misma, teniendo en consideración las diferentes fases constructivas por las que fue evolucionando dicha Capilla. Se ha completado el estudio con la realización de un modelo 3D realizado por ordenador, que ha permitido comprobar las condiciones acústicas de la misma; También, se han analizado los instrumentos y voces que intervenían, y su ubicación física en el espacio, así como los materiales que recubrían los diferentes paramentos y que modulaban la percepción acústica del espacio. Tras la investigación se ha obtenido un nuevo marco documental sobre la Capilla del Alcázar, más exhaustivo que el existente, especialmente en los aspectos histórico y gráfico; y se han obtenido conclusiones novedosas sobre la relación existente entre música y arquitectura, destacando entre ellas la gran dependencia de aspectos de la vida de Corte, como la música y liturgia, de las Etiquetas que regían la Corte de Madrid.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Wireless communication is the transfer of information from one place to another without using wires. From the earliest times, humans have felt the need to develop techniques of remote communication. From this need arose the smoke signals, communication by sun reflection in mirrors and so on. But today the telecommunications electronic devices such as telephone, television, radio or computer. Radio and television are used for one-way communication. Telephone and computer are used for two-way communication. In wireless networks there is almost unlimited mobility, we can access the network almost anywhere or anytime. In wired networks we have the restriction of using the services in fixed area services. The demand of the wireless is increasing very fast; everybody wants broadband services anywhere anytime. WiMAX (Worldwide Interoperability for Microwave Access) is a broadband wireless technology based on IEEE 802.16-2004 and IEEE 802.16e-2005 that appears to solve this demand. WIMAX is a system that allows wireless data transmission in areas of up to 48 km of radius. It is designed as a wireless alternative to ADSL and a way to connect nodes in wireless metropolitan areas network. Unlike wireless systems that are limited in most cases, about 100 meter, providing greater coverage and more bandwidth. WIMAX promises to achieve high data transmission rates over large areas with a great amount of users. This alternative to the networks of broadband access common as DSL o Wi-Fi, can give broadband access to places quickly to rural areas and developing areas around the world. This paper is a study of WIMAX technology and market situation. First, the paper is responsible for explaining the technical aspects of WIMAX. For this gives an overview of WIMAX standards, physical layer, MAC layer and WiMAX, Technology and Market Beijing University of Post and Telecommunications 2 WIMAX network architecture. Second, the paper address the issue of market in which provides an overview of development and deployment of WIMAX to end the future development trend of WIMAX is addressed. RESUMEN: Por comunicaciones inalámbricas se entiende la transferencia de información desde un lugar a otro sin la necesidad de un soporte físico como es por ejemplo el cable. Por lo que remontándose a los principios de la existencia del ser humano, nos damos cuenta de que el ser humano siempre ha sentido la necesidad de desarrollar técnicas para lograr comunicarse a distancia con sus semejantes. De dicha necesidad, surgieron técnicas tan ancestrales como puede ser la comunicación mediante señales de humo o por reflexión de los rayos solares en espejos entre otras. La curiosidad del ser humano y la necesidad de comunicarse a distancia fue la que llevó a Alexander Graham Bell a inventar el teléfono en 1876. La aparición de un dispositivo que permitía comunicarse a distancia permitiendo escuchar la voz de aquella persona con la que se quería hablar, supuso una revolución no solo en el panorama tecnológico, si no también en el panorama social. Pues a parte de permitir comunicaciones a larga distancia, solventó el problema de la comunicación en “tiempo real”. A raíz de este invento, la tecnología en materia de comunicación ha ido avanzando significativamente, más concretamente en lo referido a las comunicaciones inalámbricas. En 1973 se realizó la primera llamada desde un terminal móvil aunque no fue hasta 1983 cuando se empezó a comercializar dicho terminal, lo que supuso un cambio de hábitos y costumbres para la sociedad. Desde la aparición del primer móvil el crecimiento del mercado ha sido exponencial, lo que ha repercutido en una demanda impensable de nuevas aplicaciones integradas en dichos dispositivos móviles que satisfagan las necesidades que día a día autogenera la sociedad. Tras conseguir realizar llamadas a larga distancia de forma inalámbrica, el siguiente paso fue la creación de los SMS (Short Message System) lo que supuso una nueva revolución además de abaratar costes al usuario a la hora de comunicarse. Pero el gran reto para la industria de las comunicaciones móviles surgió con la aparición de internet. Todo el mundo sentía la necesidad de poder conectarse a esa gran base de datos que es internet en cualquier parte y en cualquier momento. Las primeras conexiones a internet desde dispositivos móviles se realizaron a través de la tecnología WAP (Wireless Application Protocol) hasta la aparición de la tecnología GPRS que permitía la conexión mediante protocolo TCP/IP. A partir de estas conexiones han surgido otras tecnologías, como EDGE, HSDPA, etc., que permitían y permiten la conexión a internet desde dispositivos móviles. Hoy en día la demanda de servicios de red inalámbrica crece de forma rápida y exponencial, todo el mundo quiere servicios de banda ancha en cualquier lugar y en cualquier momento. En este documento se analiza la tecnología WiMAX ( Worldwide Interoperability for Microwave Access) que es una tecnología de banda ancha basada en el estándar IEEE 802.16 creada para brindar servicios a la demanda emergente en la banda ancha desde un punto de vista tecnológico, donde se da una visión de la parte técnica de la tecnología; y desde el punto de vista del mercado, donde se analiza el despliegue y desarrollo de la tecnología desde el punto de vista de negocio. WiMAX es una tecnología que permite la transmisión inalámbrica de datos en áreas de hasta 48Km de radio y que está diseñada como alternativa inalámbrica para ADSL y para conectar nodos de red inalámbrica en áreas metropolitanas. A diferencia de los sistemas inalámbricos existentes que están limitados en su mayoría a unos cientos de metros, WiMAX ofrece una mayor cobertura y un mayor ancho de banda que permita dar soporte a nuevas aplicaciones, además de alcanzar altas tasas de transmisión de datos en grandes áreas con una gran cantidad de usuarios. Se trata de una alternativa a las redes de acceso de banda ancha como DSL o Wi-Fi, que puede dar acceso de banda ancha a lugares tales como zonas rurales o zonas en vías de desarrollo por todo el mundo con rapidez. Existen dos tecnologías de WiMAX, WiMAX fijo (basado en el estándar IEEE 802.16d-2004) y WiMAX móvil (basado en el estándar IEEE 802.16e-2005). La tecnología fija está diseñada para comunicaciones punto a multipunto, mientras que la fija lo está para comunicaciones multipunto a multipunto. WiMAX móvil se basa en la tecnología OFDM que ofrece ventajas en términos de latencia, eficiencia en el uso del espectro y soporte avanzado para antenas. La modulación OFDM es muy robusta frente al multitrayecto, que es muy habitual en los canales de radiodifusión, frente al desvanecimiento debido a las condiciones meteorológicas y frente a las interferencias de RF. Una vez creada la tecnología WiMAX, poseedora de las características idóneas para solventar la demanda del mercado, ha de darse el siguiente paso, hay que convencer a la industria de las telecomunicaciones de que dicha tecnología realmente es la solución para que apoyen su implantación en el mercado de la banda ancha para las redes inalámbricas. Es aquí donde entra en juego el estudio del mercado que se realiza en este documento. WiMAX se enfrenta a un mercado exigente en el que a parte de tener que dar soporte a la demanda técnica, ha de ofrecer una rentabilidad económica a la industria de las comunicaciones móviles y más concretamente a las operadoras móviles que son quienes dentro del sector de las telecomunicaciones finalmente han de confiar en la tecnología para dar soporte a sus usuarios ya que estos al fin y al cabo lo único que quieren es que su dispositivo móvil satisfaga sus necesidades independientemente de la tecnología que utilicen para tener acceso a la red inalámbrica de banda ancha. Quizás el mayor problema al que se ha enfrentado WiMAX haya sido la situación económica en la que se encuentra el mundo. WiMAX a comenzado su andadura en uno de los peores momentos, pero aun así se presenta como una tecnología capaz de ayudar al mundo a salir hacia delante en estos tiempos tan duros. Finalmente se analiza uno de los debates existentes hoy en día en el sector de las comunicaciones móviles, WiMAX vs. LTE. Como se puede observar en el documento realmente una tecnología no saldrá victoriosa frente a la otra, si no que ambas tecnologías podrán coexistir y trabajar de forma conjunta.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El proyecto, “Aplicaciones de filtrado adaptativo LMS para mejorar la respuesta de acelerómetros”, se realizó con el objetivo de eliminar señales no deseadas de la señal de información procedentes de los acelerómetros para aplicaciones automovilísticas, mediante los algoritmos de los filtros adaptativos LMS. Dicho proyecto, está comprendido en tres áreas para su realización y ejecución, los cuales fueron ejecutados desde el inicio hasta el último día de trabajo. En la primera área de aplicación, diseñamos filtros paso bajo, paso alto, paso banda y paso banda eliminada, en lo que son los filtros de butterworth, filtros Chebyshev, de tipo uno como de tipo dos y filtros elípticos. Con esta primera parte, lo que se quiere es conocer, o en nuestro caso, recordar el entorno de Matlab, en sus distintas ecuaciones prediseñadas que nos ofrece el mencionado entorno, como también nos permite conocer un poco las características de estos filtros. Para posteriormente probar dichos filtros en el DSP. En la segunda etapa, y tras recordar un poco el entorno de Matlab, nos centramos en la elaboración y/o diseño de nuestro filtro adaptativo LMS; experimentado primero con Matlab, para como ya se dijo, entender y comprender el comportamiento del mismo. Cuando ya teníamos claro esta parte, procedimos a “cargar” el código en el DSP, compilarlo y depurarlo, realizando estas últimas acciones gracias al Visual DSP. Resaltaremos que durante esta segunda etapa se empezó a excitar las entradas del sistema, con señales provenientes del Cool Edit Pro, y además para saber cómo se comportaba el filtro adaptativo LMS, se utilizó señales provenientes de un generador de funciones, para obtener de esta manera un desfase entre las dos señales de entrada; aunque también se utilizó el propio Cool Edit Pro para obtener señales desfasadas, pero debido que la fase tres no podíamos usar el mencionado software, realizamos pruebas con el generador de funciones. Finalmente, en la tercera etapa, y tras comprobar el funcionamiento deseado de nuestro filtro adaptativo DSP con señales de entrada simuladas, pasamos a un laboratorio, en donde se utilizó señales provenientes del acelerómetro 4000A, y por supuesto, del generador de funciones; el cual sirvió para la formación de nuestra señal de referencia, que permitirá la eliminación de una de las frecuencias que se emitirá del acelerómetro. Por último, cabe resaltar que pudimos obtener un comportamiento del filtro adaptativo LMS adecuado, y como se esperaba. Realizamos pruebas, con señales de entrada desfasadas, y obtuvimos curiosas respuestas a la salida del sistema, como son que la frecuencia a eliminar, mientras más desfasado estén estas señales, mas se notaba. Solucionando este punto al aumentar el orden del filtro. Finalmente podemos concluir que pese a que los filtros digitales probados en la primera etapa son útiles, para tener una respuesta lo más ideal posible hay que tener en cuenta el orden del filtro, el cual debe ser muy alto para que las frecuencias próximas a la frecuencia de corte, no se atenúen. En cambio, en los filtros adaptativos LMS, si queremos por ejemplo, eliminar una señal de entre tres señales, sólo basta con introducir la frecuencia a eliminar, por una de las entradas del filtro, en concreto la señal de referencia. De esta manera, podemos eliminar una señal de entre estas tres, de manera que las otras dos, no se vean afectadas por el procedimiento. Abstract The project, "LMS adaptive filtering applications to improve the response of accelerometers" was conducted in order to remove unwanted signals from the information signal from the accelerometers for automotive applications using algorithms LMS adaptive filters. The project is comprised of three areas for implementation and execution, which were executed from the beginning until the last day. In the first area of application, we design low pass filters, high pass, band pass and band-stop, as the filters are Butterworth, Chebyshev filters, type one and type two and elliptic filters. In this first part, what we want is to know, or in our case, remember the Matlab environment, art in its various equations offered by the mentioned environment, as well as allows us to understand some of the characteristics of these filters. To further test these filters in the DSP. In the second stage, and recalling some Matlab environment, we focus on the development and design of our LMS adaptive filter; experimented first with Matlab, for as noted above, understand the behavior of the same. When it was clear this part, proceeded to "load" the code in the DSP, compile and debug, making these latest actions by the Visual DSP. Will highlight that during this second stage began to excite the system inputs, with signals from the Cool Edit Pro, and also for how he behaved the LMS adaptive filter was used signals from a function generator, to thereby obtain a gap between the two input signals, but also used Cool Edit Pro himself for phase signals, but due to phase three could not use such software, we test the function generator. Finally, in the third stage, and after checking the desired performance of our DSP adaptive filter with simulated input signals, we went to a laboratory, where we used signals from the accelerometer 4000A, and of course, the function generator, which was used for the formation of our reference signal, enabling the elimination of one of the frequencies to be emitted from the accelerometer. Note that they were able to obtain a behavior of the LMS adaptive filter suitable as expected. We test with outdated input signals, and got curious response to the output of the system, such as the frequency to remove, the more outdated are these signs, but noticeable. Solving this point with increasing the filter order. We can conclude that although proven digital filters in the first stage are useful, to have a perfect answer as possible must be taken into account the order of the filter, which should be very high for frequencies near the frequency cutting, not weakened. In contrast, in the LMS adaptive filters if we for example, remove a signal from among three signals, only enough to eliminate the frequency input on one of the inputs of the filter, namely the reference signal. Thus, we can remove a signal between these three, so that the other two, not affected by the procedure.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En este proyecto se estudian y analizan las diferentes técnicas de procesado digital de señal aplicadas a acelerómetros. Se hace uso de una tarjeta de prototipado, basada en DSP, para realizar las diferentes pruebas. El proyecto se basa, principalmente, en realizar filtrado digital en señales provenientes de un acelerómetro en concreto, el 1201F, cuyo campo de aplicación es básicamente la automoción. Una vez estudiadas la teoría de procesado y las características de los filtros, diseñamos una aplicación basándonos sobre todo en el entorno en el que se desarrollaría una aplicación de este tipo. A lo largo del diseño, se explican las diferentes fases: diseño por ordenador (Matlab), diseño de los filtros en el DSP (C), pruebas sobre el DSP sin el acelerómetro, calibración del acelerómetro, pruebas finales sobre el acelerómetro... Las herramientas utilizadas son: la plataforma Kit de evaluación 21-161N de Analog Devices (equipado con el entorno de desarrollo Visual DSP 4.5++), el acelerómetro 1201F, el sistema de calibración de acelerómetros CS-18-LF de Spektra y los programas software MATLAB 7.5 y CoolEditPRO 2.0. Se realizan únicamente filtros IIR de 2º orden, de todos los tipos (Butterworth, Chebyshev I y II y Elípticos). Realizamos filtros de banda estrecha, paso-banda y banda eliminada, de varios tipos, dentro del fondo de escala que permite el acelerómetro. Una vez realizadas todas las pruebas, tanto simulaciones como físicas, se seleccionan los filtros que presentan un mejor funcionamiento y se analizan para obtener conclusiones. Como se dispone de un entorno adecuado para ello, se combinan los filtros entre sí de varias maneras, para obtener filtros de mayor orden (estructura paralelo). De esta forma, a partir de filtros paso-banda, podemos obtener otras configuraciones que nos darán mayor flexibilidad. El objetivo de este proyecto no se basa sólo en obtener buenos resultados en el filtrado, sino también de aprovechar las facilidades del entorno y las herramientas de las que disponemos para realizar el diseño más eficiente posible. In this project, we study and analize digital signal processing in order to design an accelerometer-based application. We use a hardware card of evaluation, based on DSP, to make different tests. This project is based in design digital filters for an automotion application. The accelerometer type is 1201F. First, we study digital processing theory and main parameters of real filters, to make a design based on the application environment. Along the application, we comment all the different steps: computer design (Matlab), filter design on the DSP (C language), simulation test on the DSP without the accelerometer, accelerometer calibration, final tests on the accelerometer... Hardware and software tools used are: Kit of Evaluation 21-161-N, based on DSP, of Analog Devices (equiped with software development tool Visual DSP 4.5++), 1201-F accelerometer, CS-18-LF calibration system of SPEKTRA and software tools MATLAB 7.5 and CoolEditPRO 2.0. We only perform 2nd orden IIR filters, all-type : Butterworth, Chebyshev I and II and Ellyptics. We perform bandpass and stopband filters, with very narrow band, taking advantage of the accelerometer's full scale. Once all the evidence, both simulations and physical, are finished, filters having better performance and analyzed and selected to draw conclusions. As there is a suitable environment for it, the filters are combined together in different ways to obtain higher order filters (parallel structure). Thus, from band-pass filters, we can obtain many configurations that will give us greater flexibility. The purpose of this project is not only based on good results in filtering, but also to exploit the facilities of the environment and the available tools to make the most efficient design possible.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Es importante poder conocer la deformación que sufre una estructura en momentos concretos por carga, temperatura y comportamiento del suelo, refiriéndola a un marco externo estable. Esto puede realizarse mediante un control geodésico de deformaciones. La posterior comparación entre las coordenadas obtenidas de las diversas campañas de control, nos darán los movimientos relativos de la presa (o vectores de deformación) y alrededores, indicando si ha sufrido alguna deformación, información de suma importancia a la hora del mantenimiento y detección de posibles incidencias ocurridas en la estructura. La presa de La Tajera, ubicada en el río Tajuña en su tramo de cabecera, cuenta con una cuenca vertiente de 595 km2, desde la cual se atienden la mayoría de las demandas de la cuenca. La presa de titularidad estatal, lleva en servicio desde el año 1994. En Octubre de 2010, la Confederación Hidrográfica encargó la reobservación de la red geodésica de control y la comparación con la campaña de 1993 de la presa de La Antes de entrar en carga, con el embalse vacío y a altas temperaturas, se detectó una fisura en el paramento de aguas abajo, a lo largo de la transición entre bóveda y zócalo, extendiéndose hasta la clave de la galería perimetral. Motivo por el cual, se realizaron entre 2001 y 2002, varios trabajos de reparación, debido a los cuales se obstruyó parte del acceso a la infraestructura de control. La infraestructura de control de la presa de La Tajera consta de: - Red de pilares de control (incluyendo ménsulas de paramento en el extradós del muro de presa, en dos niveles.). - Red de nivelación trigonométrica de precisión de ménsulas de paramento. - Nivelación geométrica de precisión de las líneas existentes. Debido a la falta de control de geodésico desde el 1993, la comparación entre grupos de coordenadas, de tan solo dos épocas diferentes, aportó menos información que la que se hubiera obtenido haciendo controles anuales, puesto que no se pudo discernir entre movimientos atribuidos al asentamiento, carga, temperatura, fisuras u otros. En el 1993 se utilizó para la observación de la red el láser submilimétrico ME-5000, actualmente descatalogado, debido a lo cual, en el 2010 se optó por usar otro instrumento de gran precisión, para aprovechar la precisión del grupo de observaciones del 93, una Estación Total TRIMBLE S6, puesto que los requerimientos técnicos de precisión, quedaron cubiertos con sus precisiones instrumentales. Debido lo anterior, hubo que buscar un sistema común, coherente y riguroso de cálculo, para relacionar ambos grupos de observaciones bajo unos criterios comunes y poder así realizar un estudio comparativo de resultados. Previo a la observación, además de todas las verificaciones rutinarias, se uso un estudio de puntería por desorientación sobre los miniprimas, que concluía con la introducción de un casquillo suplementario de 13 mm, para evitar un posible error. También se realizó un estudio, para determinar el error producido, en las medidas de distancia, por la presión y la temperatura en el electrodistanciómetro. Como dato a tener en cuenta sobre las estaciones robóticas, decir que, durante la observación de la red de pilares hubo que detener el desagüe de la presa, puesto que las vibraciones producidas por este, impedían al sistema de puntería automática (Autolock) fijar la dirección a la estación visada. La nivelación trigonométrica de las ménsulas de paramento se hizo, en ambos años, por Nivelación trigonométrica de Precisión, descomponiendo la figura en triángulos independientes y observando cenitales recíprocos y simultáneos, con 3 teodolitos Wild T2 provistos de placas Nitrival pequeñas, esta técnica tiende a compensar errores de coeficiente de refracción y de esfericidad. Un error en la distancia geométrica repercute en función del coseno del ángulo cenital. Como en nuestro caso la determinación de distancias fue milimétrica, y las alturas de instrumentos eran las mismas, la precisión que obtuvimos en la determinación de desniveles fue submilimétrica. Las líneas de nivelación existentes se observaron, como en 1993, con nivelación geométrica de precisión, realizada con un equialtímetro NA2 provisto de micrómetro y observando sobre mira con escala ínvar. En los cálculos se usaron como coordenadas de referencia las obtenidas en 1993, de manera que los residuales mostraban directamente los vectores deformación. El control del 1993 se realizo con el embalse vació y a altas temperaturas, el control de 2010 se realizó con el embalse en carga máxima y con bajas temperaturas, este motivo se tuvo en cuenta a la hora de los cálculos y las interpretaciones de los vectores de deformación. Previo al trabajo de campo se realizó un reconocimiento como comprobación del estado de visuales entre pilares, el estado de los mismos, así como de los clavos de nivelación, para proceder posteriormente a realizar trabajos de tala entre visuales, limpieza de señales, y suplir las señales perdidas. El proyecto contiene la descripción del historial de control, de las actuaciones realizadas, los resultados obtenidos y toda la información relevante disponible, con las oportunas referencias a la campaña previa.