3 resultados para sound equipment

em Universidad Politécnica de Madrid


Relevância:

60.00% 60.00%

Publicador:

Resumo:

SSR es el acrnimo de SoundScape Renderer (tool for real-time spatial audio reproduction providing a variety of rendering algorithms), es un programa escrito en su mayora en C++. El programa permite al usuario escuchar tanto sonidos grabados con anterioridad como sonidos en directo. El sonido o los sonidos se oirn, desde el punto de vista del oyente, como si el sonido se produjese en el punto que el programa decida, lo interesante de este proyecto es que el sonido podr cambiar de lugar, moverse, etc. Todo en tiempo real. Esto se consigue sin modificar el sonido al grabarlo pero s al emitirlo, el programa calcula las variaciones necesarias para que al emitir el sonido al oyente le llegue como si el sonido realmente se generase en un punto del espacio o lo ms parecido posible. La sensacin de movimiento no deja de ser el punto anterior cambiando de lugar. La idea era crear una aplicacin web basada en Canvas de HTML5 que se comunicar con esta interfaz de usuario remota. As se solucionaran todos los problemas de compatibilidad ya que cualquier dispositivo con posibilidad de visualizar pginas web podra correr una aplicacin basada en estndares web, por ejemplo un sistema con Windows o un mvil con navegador. El protocolo deba de ser WebSocket porque es un protocolo HTML5 y ofrece las garantas de latencia que una aplicacin con necesidades de informacin en tiempo real requiere. Nos permite una comunicacin full-dplex asncrona sin mucho payload que es justo lo que se vena a evitar al no usar polling normal de HTML. El problema que surgi fue que la interfaz de usuario de red que tena el programa no era compatible con WebSocket debido a un handshacking inicial y obligatorio que realiza el protocolo, por lo que se necesitaba otra interfaz de red. Se decidi entonces cambiar a JSON como formato para el intercambio de mensajes. Al final el proyecto comprende no slo la aplicacin web basada en Canvas sino tambin un servidor funcional y la definicin de una nueva interfaz de usuario de red con su protocolo aadido. ABSTRACT. This project aims to become a part of the SSR tool to extend its capabilities in the field of the access. SSR is an acronym for SoundScape Renderer, is a program mostly written in C++ that allows you to hear already recorded or live sound with a variety of sound equipment as if the sound came from a desired place in the space. Like the web-page of the SSR says surely better explained: The SoundScape Renderer (SSR) is a tool for real-time spatial audio reproduction providing a variety of rendering algorithms. The application can be used with a graphical interface written in Qt but has also a network interface for external applications to use it. This network interface communicates using XML messages. A good example of it is the Android client. This Android client is already working. In order to use the application should be run it by loading an audio source and the wanted environment so that the renderer knows what to do. In that moment the server binds and anyone can use the network interface. Since the network interface is documented everyone can make an application to interact with this network interface. So the application can have as many user interfaces as wanted. The part that is developed in this project has nothing to do neither with audio rendering nor even with the reproduction of the spatial audio. The part that is developed here is about the interface used in the SSR application. As it can be deduced from the title: Distributed Web Interface for Real-Time Spatial Audio Reproduction System, this work aims only to offer the interface via web for the SSR (Real-Time Spatial Audio Reproduction System). The idea is not to make a new graphical interface for SSR but to allow more types of interfaces and communication. To accomplish the objective of allowing more graphical interfaces this project is going to use a new network interface. By now the SSR application is using only XML for data interchange but this new network interface support JSON. This project comprehends the server that launch the application, the user interface and the new network interface. It is done with these modules in order to allow creating new user interfaces that can communicate with the server or new servers that can communicate with the user interface by defining a complete network interface for data interchange.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

El propsito de este Proyecto Fin de Carrera es el estudio acstico y electroacstico de la realizacin del musical Hoy no me puedo levantar en el Teatro Rialto de Madrid en 2005. En primer lugar, se realiza una breve introduccin histrica, citando sus remodelaciones y comentando la situacin actual del recinto. Posteriormente, es analizado el equipo de sonido empleado en el espectculo a partir de cada uno de los distintos controles de sonido: FOH (Front of Hause), monitores y microfona inalmbrica. De cada uno de ellos se explican sus principales funciones y los sistemas que los conforman. Tambin se describe la utilizacin de las cabinas insonorizadas. A continuacin, se detallan los sistemas electroacsticos (empleados en el diseo) de la sonorizacin de dicho musical, que se consideran divididos en las siguientes partes: sistema principal, refuerzos y retardos, efectos y monitores. Adems, se detalla el software RMS (Remote Monitoring System), que aporta informacin del funcionamiento de estos sistemas en tiempo real. Seguidamente, se exponen el equipo, procedimiento y resultados de la medida in situ en el Teatro, aplicando la Norma UNE-EN ISO 3382-2/2008 para obtener el tiempo de reverberacin y ruido de fondo. Con el objeto de inicializar la simulacin por ordenador, primero se exportan los planos originales de AutoCAD a EASE 4.4, donde se finaliza el proceso de modelar el recinto. Posteriormente, se asignan materiales, reas de audiencia, puntos de escucha y se ubican los sistemas electroacsticos. Se afina el tiempo de reverberacin obtenido en la medida in situ mediante materiales de la base de datos del propio software. Tambin se ajustan los sistemas electroacsticos en el recinto para obtener la ecualizacin empleada y los niveles de presin sonora directo y total para distintas frecuencias. Una vez finalizados los pasos anteriores, se procede a realizar estudios psicoacsticos para comprobar posibles ecos y el efecto precedencia (empleando retardos electrnicos o delays). Finalmente, se realizan estudios de inteligibilidad, en los que se justifica la Claridad de Voz (C50) y Claridad Musical (C80); el ndice de inteligibilidad del habla (SII), la Prdida de articulacin de consonantes (Alcons) y el ndice de transmisin del habla (STI). Por ltimo se expone el presupuesto del proyecto y del alquiler del equipo de sonido del musical y se exponen las conclusiones del Proyecto Final de Carrera. ABSTRACT. The purpose of this Final Degree Project is the acoustic and electro-acoustic study of the musical Hoy No Me Puedo Levantar at Teatro Rialto in 2005 (Madrid, Spain). First of all, a brief review of its history is made, quoting its refurbishments and discussing the current situation of this enclosure. Later, the sound equipment of the show is analyzed through every different sound controls: FOH (Front Of House), monitors and wireless microphones. There is also an explanation about their principal functions and systems, as well as a description of the soundproof cabins. Then, the electro-acoustic systems are detailed and divided in the following parts: main system, boosters and delays, effects and monitors. The RMS software (Remote Monitoring System) is described too, since it gives relevant information of the systems operations in real time. Afterwards, equipment, procedures and results of the measurements are exposed, applying the UNE-EN ISO 3382-2/2008 regulation in order to obtain the reverberation time and background noise of the theatre. With the purpose of initialize the computer simulation, original plans are exported from AutoCad to EASE 4.4., where its modeling process is ended. Materials, audience areas, hearing points and electro-acoustic locations are assigned below. At the same time, reverberation time is tuned up using database materials of the software itself. Also, electro-acoustic systems of the enclosure are adjusted to get the equalization and pressure sound levels of the different frequencies. Once previous steps are finished, psycho-acoustic studies are made to check possible echoes and the precedence effect - using electronic delays -. Finally, intelligibility studies are detailed, where the Voice and Musical Clarities are justified: The Speech Intelligibility Index, the Loss of Consonants Articulation and the Talk Transmission Index. This Final Degree Project ends describing the budget and rent of the sound equipment and the final conclusions.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

This paper discusses the use of sound waves to illustrate multipath radio propagation concepts. Specifically, a procedure is presented to measure the time-varying frequency response of the channel. This helps demonstrate how a propagation channel can be characterized in time and frequency, and provides visualizations of the concepts of coherence time and coherence bandwidth. The measurements are very simple to carry out, and the required equipment is easily available. The proposed method can be useful for wireless or mobile communication courses.