47 resultados para DIAGRAMA

em Universidad Politécnica de Madrid


Relevância:

20.00% 20.00%

Publicador:

Resumo:

El estudio de los gradientes de temperatura en cámaras frigoríficas y contenedores es un problema crítico en la industria alimentaria para el aseguramiento de la calidad de los productos durante el transporte, así como para minimizar las pérdidas. El objetivo de este trabajo es el desarrollo de una nueva metodología de análisis de datos basada en la reconstrucción del espacio de fases de la serie temporal de temperaturas, registradas por una red multidistribuida de sensores inalámbricos autónomos y de bajo coste. Se monitorizó un transporte transoceánico en barco de limones en un contenedor multimodal refrigerado, desde Montevideo (Uruguay) a Cartagena (España), utilizando una red de 39 tarjetas RFID semi-pasivas TurboTag ®. El viaje completo incluyó el transporte transoceánico de larga distancia, un cambio de buque para un segundo transporte en barco de corta distancia y finalmente un viaje en camión hasta la central. El análisis de datos se basó en un estudio cualitativo de las series temporales mediante la representación de diagramas de fases calculados sobre la teoría de reconstrucción de atractores de Takens-Ruelle. El estrés de la fruta se cuantificó en términos del área que sobre el diagrama de fases ocupó el ciclo o atractor de la temperatura. Esta nueva metodología para el análisis de los datos pone de relieve la significativa heterogeneidad de las condiciones térmicas en diferentes puntos del contenedor.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

En un tiempo de mezclas y deslizamientos, la producción arquitectónica actual se genera en base a unos lenguajes multidisciplinares alejados de los habituales. La arquitectura moderna fue consecuencia natural de las investigaciones de las vanguardias pictóricas motivadas por unas condiciones emocionales concretas a raíz de eventos trascendentales. La arquitectura contemporánea responde a paradigmas de su tiempo también, siendo el más importante y contenedor de todos: la inmersión masiva de lo digital. Los mecanismos con que afronta sus procesos beben del aprendizaje de otras disciplinas. Periferias arquitectónicas como el pensamiento, el arte visual o la ciencia ofrecen a la arquitectura nuevas metodologías y lenguajes. La información está sumamente digitalizada y tras la pérdida progresiva de lo analógico en nuestro mundo, la arquitectura activará dos mecanismos proyectuales que determinan el carácter arquitectónico desde el uso de lo digital: por un lado la arquitectura diagrama como compresión de información, formada desde parámetros sintetizados en los que ya no podemos relacionar contenido y continente; por otro lado, la arquitectura fenómeno como interfaz de información, respuesta tangible a las condiciones de merma sensorial y las nuevas naturalezas que habitamos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La fermentación del café es una de las operaciones críticas en el proceso de beneficiado por su impacto en la calidad organoléptica del producto final. De forma general la mayor parte de las explotaciones carecen de tecnificación alguna del fermentador, no teniendo el operario ninguna información objetiva sobre la evolución de los parámetros físico-químicos de control del proceso que le ayuden a la toma de decisión. El objetivo de este trabajo es la integración multi-distribuida de sensores de bajo coste y alta fiabilidad para supervisión de la operación de fermentación del café en origen. Concretamente se ha centrado en la caracterización térmica del proceso de fermentación, mediante la instalación multidistribuida de sensores inalámbricos de temperatura (TurboTag ®) en fermentadores de café en Colombia. El análisis: temporal de la evolución de la temperatura a lo largo del proceso de fermentación y complejo mediante diagrama de fases o de cinética de la evolución de las temperaturas, permiten en este trabajo caracterizar térmicamente fermentadores industriales y prototipos plásticos. Se ha constatado la alta heterogeneidad de las fermentaciones tanto intra-lote (amplitudes térmicas de hasta 8.5 ºC y temperaturas en algunos puntos de los fermentadores de 17 ºC) como inter-lote en fermentaciones sujetas a condiciones exógenas y endógenas muy variables

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La contaminación acústica se ha convertido en uno de los principales problemas en materia medioambiental de nuestra sociedad. La creciente preocupación ha propiciado la aparición de legislación, en los distintos ámbitos de la administración, cuyo objetivo consiste en gestionar y reducir la contaminación acústica y sus efectos sobre las personas y el medio ambiente. En este sentido, en relación a las infraestructuras del transporte, y de modo muy especial en los aeropuertos, el monitorado del ruido se convierte en una herramienta de suma importancia para la gestión del ruido, la planificación del territorio y la adopción de medidas correctoras (planes de acción). Los terminales de monitorado de ruido ambiental, que se utilizan fundamentalmente en los aeropuertos, realizan una medición del nivel de ruido ambiental, y evalúan la contaminación que generan las aeronaves al ambiente sonoro general. Para ello, deben ser capaces de medir la evolución temporal del ruido y discriminar aquellos eventos sonoros que se correspondan con el paso de un avión frente al ruido de fondo. Los requisitos aplicables a las unidades de medida, así como los procedimientos de medida implicados han sido descritos recientemente en normas internacionales, como la ISO 20906 o la ARP 4721. Es precisamente en el aspecto relacionado con la discriminación del origen del ruido, donde los sistemas existentes presentan las principales carencias, ya que, un sistema básico de monitorado de ruido realiza la detección de eventos a partir de las medidas de nivel sonoro, evaluando los incrementos de nivel mediante la utilización de umbrales. Dichos umbrales relacionan nivel sonoro y tiempo, de forma que se efectúa el marcado de eventos cuando el nivel de presión sonora, Lp(t), supera un valor determinado durante, al menos, un determinado intervalo temporal. Uno de los principales objetivos de esta tesis se centra en el análisis de los sistemas que existen para la discriminación de ruido de aeronaves, y en el análisis de las contribuciones de estos sistemas sobre la incertidumbre de la medida y el reporte de resultados. Para la consecución de dicho objetivo, se ha definido un modelo de incertidumbre que permite evaluar los diferentes factores de influencia y realizar una cuantificación de la incertidumbre para diferentes escenarios. Durante este proceso se han definido y analizado los conceptos de incertidumbre de detección e incertidumbre de identificación, ambos derivados del diagrama de bloques que propone la norma ISO 20906 para la discriminación del ruido producido por los aviones y el procesado de datos. Asimismo, se pretende abordar el problema de la discriminación de aeronaves con un enfoque novedoso, que permita mejorar el rendimiento de los sistemas y reducir la incertidumbre. Mediante un sistema basado en reconocimiento de patrones uniclase, se aborda esta tarea en base al análisis de la semejanza entre la señal sonora registrada y el sonido que producen los aviones, dejando al margen la magnitud del sonido. Las técnicas de reconocimiento de patrones, y reconocimiento automático de habla, han sido aplicadas previamente al reconocimiento de fuentes de ruido ambiental. Algunos de estos proyectos se han centrado en el ruido de aviones, pero la novedad en esta tesis radica en la aplicación de clasificadores uniclase en un sistema que detecta eventos sonoros gracias a la clasificación de los fragmentos que lo componen. Actualmente los sistemas de gestión de ruido aeroportuario enlazan los datos de ruido proporcionados por las estaciones de monitorado con los datos procedentes del sistema seguimiento de los vuelos de los aviones mediante radar. Este tipo de sistemas es el que ha presentado mayor aceptación y ha sido implantado en los sistemas de monitorado de ruido de los principales aeropuertos internacionales. Sin embargo, este enfoque requiere de equipamiento que permita realizar el seguimiento de la posición de avión, y, dado que únicamente utilizan los niveles sonoros medidos para enlazarlos con el avión que los origina, no será capaz de detectar errores derivados de la presencia de una fuente sonora secundaria cuando existe un avión en la zona. El sistema que se plantea con la realización de esta tesis supone un avance debido a que permite eliminar del proceso de discriminación los umbrales de nivel sonoro, analizando única y exclusivamente la semejanza entre las señales comparadas. De esta manera se pretende mejorar las tasas de error en la identificación, e incluir umbrales de semejanza que permitan eliminar los umbrales de nivel sonoro en el proceso de detección. La implementación del sistema complementando al resto de sistemas del aeropuerto, permitirá la ampliación de las capacidades en el monitorado y la reducción de los costes en las campañas de medición desatendida. Al tiempo que se introducen las técnicas de reconocimiento de patrones en los sistemas de discriminación de los monitores de ruido, se pretende sacar partido de las posibilidades abiertas para dotar al sistema de capacidades adicionales, como es el caso de la detección del ruido de reversa, que se produce tras el aterrizaje de los aviones. La reversa se activa tras el contacto con tierra por parte de los aviones, para reducir la velocidad y acortar la distancia de frenado de los aviones. Esta práctica se usa de forma habitual en los aterrizajes, especialmente en los casos en los que la salida que debe tomar el avión rumbo al terminal se encuentra demasiado próxima al punto de aterrizaje. El empuje inverso se debe a una alteración en el flujo normal de aire que atraviesa los motores, que produce un violento choque contra la carcasa del motor, originando vibraciones y flujo turbulento que se convierte en ruido. El ruido de reversa puede alcanzar unos niveles mucho mayores que el propio aterrizaje, y sus características dinámicas y espectrales lo convierten en especialmente molesto. Por este motivo la utilización injustificada (salvo por motivos de seguridad) está prohibida o es desaconsejada en un gran número de aeropuertos, a nivel internacional (especialmente durante el período nocturno). Sin embargo, las autoridades aeroportuarias carecen de herramientas eficientes y fiables que permitan detectar la utilización de reversa, siendo este punto uno de los aspectos tratados en esta investigación.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Abstract The proliferation of wireless sensor networks and the variety of envisioned applications associated with them has motivated the development of distributed algorithms for collaborative processing over networked systems. One of the applications that has attracted the attention of the researchers is that of target localization where the nodes of the network try to estimate the position of an unknown target that lies within its coverage area. Particularly challenging is the problem of estimating the target’s position when we use received signal strength indicator (RSSI) due to the nonlinear relationship between the measured signal and the true position of the target. Many of the existing approaches suffer either from high computational complexity (e.g., particle filters) or lack of accuracy. Further, many of the proposed solutions are centralized which make their application to a sensor network questionable. Depending on the application at hand and, from a practical perspective it could be convenient to find a balance between localization accuracy and complexity. Into this direction we approach the maximum likelihood location estimation problem by solving a suboptimal (and more tractable) problem. One of the main advantages of the proposed scheme is that it allows for a decentralized implementation using distributed processing tools (e.g., consensus and convex optimization) and therefore, it is very suitable to be implemented in real sensor networks. If further accuracy is needed an additional refinement step could be performed around the found solution. Under the assumption of independent noise among the nodes such local search can be done in a fully distributed way using a distributed version of the Gauss-Newton method based on consensus. Regardless of the underlying application or function of the sensor network it is al¬ways necessary to have a mechanism for data reporting. While some approaches use a special kind of nodes (called sink nodes) for data harvesting and forwarding to the outside world, there are however some scenarios where such an approach is impractical or even impossible to deploy. Further, such sink nodes become a bottleneck in terms of traffic flow and power consumption. To overcome these issues instead of using sink nodes for data reporting one could use collaborative beamforming techniques to forward directly the generated data to a base station or gateway to the outside world. In a dis-tributed environment like a sensor network nodes cooperate in order to form a virtual antenna array that can exploit the benefits of multi-antenna communications. In col-laborative beamforming nodes synchronize their phases in order to add constructively at the receiver. Some of the inconveniences associated with collaborative beamforming techniques is that there is no control over the radiation pattern since it is treated as a random quantity. This may cause interference to other coexisting systems and fast bat-tery depletion at the nodes. Since energy-efficiency is a major design issue we consider the development of a distributed collaborative beamforming scheme that maximizes the network lifetime while meeting some quality of service (QoS) requirement at the re¬ceiver side. Using local information about battery status and channel conditions we find distributed algorithms that converge to the optimal centralized beamformer. While in the first part we consider only battery depletion due to communications beamforming, we extend the model to account for more realistic scenarios by the introduction of an additional random energy consumption. It is shown how the new problem generalizes the original one and under which conditions it is easily solvable. By formulating the problem under the energy-efficiency perspective the network’s lifetime is significantly improved. Resumen La proliferación de las redes inalámbricas de sensores junto con la gran variedad de posi¬bles aplicaciones relacionadas, han motivado el desarrollo de herramientas y algoritmos necesarios para el procesado cooperativo en sistemas distribuidos. Una de las aplicaciones que suscitado mayor interés entre la comunidad científica es la de localization, donde el conjunto de nodos de la red intenta estimar la posición de un blanco localizado dentro de su área de cobertura. El problema de la localization es especialmente desafiante cuando se usan niveles de energía de la seal recibida (RSSI por sus siglas en inglés) como medida para la localization. El principal inconveniente reside en el hecho que el nivel de señal recibida no sigue una relación lineal con la posición del blanco. Muchas de las soluciones actuales al problema de localization usando RSSI se basan en complejos esquemas centralizados como filtros de partículas, mientas que en otras se basan en esquemas mucho más simples pero con menor precisión. Además, en muchos casos las estrategias son centralizadas lo que resulta poco prácticos para su implementación en redes de sensores. Desde un punto de vista práctico y de implementation, es conveniente, para ciertos escenarios y aplicaciones, el desarrollo de alternativas que ofrezcan un compromiso entre complejidad y precisión. En esta línea, en lugar de abordar directamente el problema de la estimación de la posición del blanco bajo el criterio de máxima verosimilitud, proponemos usar una formulación subóptima del problema más manejable analíticamente y que ofrece la ventaja de permitir en¬contrar la solución al problema de localization de una forma totalmente distribuida, convirtiéndola así en una solución atractiva dentro del contexto de redes inalámbricas de sensores. Para ello, se usan herramientas de procesado distribuido como los algorit¬mos de consenso y de optimización convexa en sistemas distribuidos. Para aplicaciones donde se requiera de un mayor grado de precisión se propone una estrategia que con¬siste en la optimización local de la función de verosimilitud entorno a la estimación inicialmente obtenida. Esta optimización se puede realizar de forma descentralizada usando una versión basada en consenso del método de Gauss-Newton siempre y cuando asumamos independencia de los ruidos de medida en los diferentes nodos. Independientemente de la aplicación subyacente de la red de sensores, es necesario tener un mecanismo que permita recopilar los datos provenientes de la red de sensores. Una forma de hacerlo es mediante el uso de uno o varios nodos especiales, llamados nodos “sumidero”, (sink en inglés) que actúen como centros recolectores de información y que estarán equipados con hardware adicional que les permita la interacción con el exterior de la red. La principal desventaja de esta estrategia es que dichos nodos se convierten en cuellos de botella en cuanto a tráfico y capacidad de cálculo. Como alter¬nativa se pueden usar técnicas cooperativas de conformación de haz (beamforming en inglés) de manera que el conjunto de la red puede verse como un único sistema virtual de múltiples antenas y, por tanto, que exploten los beneficios que ofrecen las comu¬nicaciones con múltiples antenas. Para ello, los distintos nodos de la red sincronizan sus transmisiones de manera que se produce una interferencia constructiva en el recep¬tor. No obstante, las actuales técnicas se basan en resultados promedios y asintóticos, cuando el número de nodos es muy grande. Para una configuración específica se pierde el control sobre el diagrama de radiación causando posibles interferencias sobre sis¬temas coexistentes o gastando más potencia de la requerida. La eficiencia energética es una cuestión capital en las redes inalámbricas de sensores ya que los nodos están equipados con baterías. Es por tanto muy importante preservar la batería evitando cambios innecesarios y el consecuente aumento de costes. Bajo estas consideraciones, se propone un esquema de conformación de haz que maximice el tiempo de vida útil de la red, entendiendo como tal el máximo tiempo que la red puede estar operativa garantizando unos requisitos de calidad de servicio (QoS por sus siglas en inglés) que permitan una decodificación fiable de la señal recibida en la estación base. Se proponen además algoritmos distribuidos que convergen a la solución centralizada. Inicialmente se considera que la única causa de consumo energético se debe a las comunicaciones con la estación base. Este modelo de consumo energético es modificado para tener en cuenta otras formas de consumo de energía derivadas de procesos inherentes al funcionamiento de la red como la adquisición y procesado de datos, las comunicaciones locales entre nodos, etc. Dicho consumo adicional de energía se modela como una variable aleatoria en cada nodo. Se cambia por tanto, a un escenario probabilístico que generaliza el caso determinista y se proporcionan condiciones bajo las cuales el problema se puede resolver de forma eficiente. Se demuestra que el tiempo de vida de la red mejora de forma significativa usando el criterio propuesto de eficiencia energética.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El retroceso de las costas acantiladas es un fenómeno muy extendido sobre los litorales rocosos expuestos a la incidencia combinada de los procesos marinos y meteorológicos que se dan en la franja costera. Este fenómeno se revela violentamente como movimientos gravitacionales del terreno esporádicos, pudiendo causar pérdidas materiales y/o humanas. Aunque el conocimiento de estos riesgos de erosión resulta de vital importancia para la correcta gestión de la costa, el desarrollo de modelos predictivos se encuentra limitado desde el punto de vista geomorfológico debido a la complejidad e interacción de los procesos de desarrollo espacio-temporal que tienen lugar en la zona costera. Los modelos de predicción publicados son escasos y con importantes inconvenientes: a) extrapolación, extienden la información de registros históricos; b) empíricos, sobre registros históricos estudian la respuesta al cambio de un parámetro; c) estocásticos, determinan la cadencia y magnitud de los eventos futuros extrapolando las distribuciones de probabilidad extraídas de catálogos históricos; d) proceso-respuesta, de estabilidad y propagación del error inexplorada; e) en Ecuaciones en Derivadas Parciales, computacionalmente costosos y poco exactos. La primera parte de esta tesis detalla las principales características de los modelos más recientes de cada tipo y, para los más habitualmente utilizados, se indican sus rangos de aplicación, ventajas e inconvenientes. Finalmente como síntesis de los procesos más relevantes que contemplan los modelos revisados, se presenta un diagrama conceptual de la recesión costera, donde se recogen los procesos más influyentes que deben ser tenidos en cuenta, a la hora de utilizar o crear un modelo de recesión costera con el objetivo de evaluar la peligrosidad (tiempo/frecuencia) del fenómeno a medio-corto plazo. En esta tesis se desarrolla un modelo de proceso-respuesta de retroceso de acantilados costeros que incorpora el comportamiento geomecánico de materiales cuya resistencia a compresión no supere los 5 MPa. El modelo simula la evolución espaciotemporal de un perfil-2D del acantilado que puede estar formado por materiales heterogéneos. Para ello, se acoplan la dinámica marina: nivel medio del mar, cambios en el nivel medio del lago, mareas y oleaje; con la evolución del terreno: erosión, desprendimiento rocoso y formación de talud de derrubios. El modelo en sus diferentes variantes es capaz de incluir el análisis de la estabilidad geomecánica de los materiales, el efecto de los derrubios presentes al pie del acantilado, el efecto del agua subterránea, la playa, el run-up, cambios en el nivel medio del mar o cambios (estacionales o interanuales) en el nivel medio de la masa de agua (lagos). Se ha estudiado el error de discretización del modelo y su propagación en el tiempo a partir de las soluciones exactas para los dos primeros periodos de marea para diferentes aproximaciones numéricas tanto en tiempo como en espacio. Los resultados obtenidos han permitido justificar las elecciones que minimizan el error y los métodos de aproximación más adecuados para su posterior uso en la modelización. El modelo ha sido validado frente a datos reales en la costa de Holderness, Yorkshire, Reino Unido; y en la costa norte del lago Erie, Ontario, Canadá. Los resultados obtenidos presentan un importante avance en los modelos de recesión costera, especialmente en su relación con las condiciones geomecánicas del medio, la influencia del agua subterránea, la verticalización de los perfiles rocosos y su respuesta ante condiciones variables producidas por el cambio climático (por ejemplo, nivel medio del mar, cambios en los niveles de lago, etc.). The recession of coastal cliffs is a widespread phenomenon on the rocky shores that are exposed to the combined incidence of marine and meteorological processes that occur in the shoreline. This phenomenon is revealed violently and occasionally, as gravitational movements of the ground and can cause material or human losses. Although knowledge of the risks of erosion is vital for the proper management of the coast, the development of cliff erosion predictive models is limited by the complex interactions between environmental processes and material properties over a range of temporal and spatial scales. Published prediction models are scarce and present important drawbacks: extrapolation, that extend historical records to the future; empirical, that based on historical records studies the system response against the change in one parameter; stochastic, that represent of cliff behaviour based on assumptions regarding the magnitude and frequency of events in a probabilistic framework based on historical records; process-response, stability and error propagation unexplored; PDE´s, highly computationally expensive and not very accurate. The first part of this thesis describes the main features of the latest models of each type and, for the most commonly used, their ranges of application, advantages and disadvantages are given. Finally as a synthesis of the most relevant processes that include the revised models, a conceptual diagram of coastal recession is presented. This conceptual model includes the most influential processes that must be taken into account when using or creating a model of coastal recession to evaluate the dangerousness (time/frequency) of the phenomenon to medium-short term. A new process-response coastal recession model developed in this thesis has been designed to incorporate the behavioural and mechanical characteristics of coastal cliffs which are composed of with materials whose compressive strength is less than 5 MPa. The model simulates the spatial and temporal evolution of a cliff-2D profile that can consist of heterogeneous materials. To do so, marine dynamics: mean sea level, waves, tides, lake seasonal changes; is coupled with the evolution of land recession: erosion, cliff face failure and associated protective colluvial wedge. The model in its different variants can include analysis of material geomechanical stability, the effect of debris present at the cliff foot, groundwater effects, beach and run-up effects, changes in the mean sea level or changes (seasonal or inter-annual) in the mean lake level. Computational implementation and study of different numerical resolution techniques, in both time and space approximations, and the produced errors are exposed and analysed for the first two tidal periods. The results obtained in the errors analysis allow us to operate the model with a configuration that minimizes the error of the approximation methods. The model is validated through profile evolution assessment at various locations of coastline retreat on the Holderness Coast, Yorkshire, UK and on the north coast of Lake Erie, Ontario, Canada. The results represent an important stepforward in linking material properties to the processes of cliff recession, in considering the effect of groundwater charge and the slope oversteeping and their response to changing conditions caused by climate change (i.e. sea level, changes in lakes levels, etc.).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En el presente trabajo de tesis se afronta el problema de la optimización de la superficie de grandes antenas reflectoras. Es sabido que los grandes reflectores, formados por una superficie panelada, sufren deformaciones debidas al impacto del viento, a los cambios de temperatura y a los efectos gravitacionales derivados del gran peso de la estructura. Estos efectos hacen que los reflectores pierdan su forma ideal, generalmente de paraboloide, y se reduzca su eficiencia de apertura y, por tanto, se limite la máxima frecuencia de uso de los mismos. Es necesario, por tanto, disponer de técnicas que permitan medir el estado de la superficie de grandes reflectores, y derivar los ajustes necesarios a aplicar sobre los tornillos de soporte de cada uno de los paneles que conforman dicha superficie. De esta manera, se devolvería al reflector su forma óptima y aumentaría la eficiencia de apertura y el rango de frecuencias de uso. Hay que resaltar que el aumento de la eficiencia de un radiotelescopio supone una reducción en el tiempo de integración necesario para la detección de las debilísimas señales generadas por las radiofuentes naturales, ahorrando así valioso tiempo de observación. Además, el incremento en el rango de frecuencias permite la detección de nuevas líneas o especies moleculares en dichas radiofuentes. Tras un primer capítulo introductorio, se presenta, en el capítulo segundo, la geometría de estos grandes reflectores y la influencia de los distintos factores que afectan a la calidad de la superficie de los mismos, como la gravedad, el viento y la temperatura, particularizando para el caso del radiotelescopio de 40 metros del Centro Astronómico de Yebes. En el tercer capítulo, se presentan las diferentes técnicas metrológicas empleadas actualmente para abordar la determinación de estos ajustes, mostrándose las ventajas e inconvenientes de cada una de ellas. Actualmente, la técnica metrológica más precisa y rápida para llevar a cabo esta tarea de caracterización de la superficie de un gran reflector, es la radio-holografía de microondas presentada en el capítulo cuarto. A partir de las medidas proporcionadas por esta técnica, realizadas con la ayuda de un transmisor, y mediante transformaciones de campo, se calculan los errores de la superficie del reflector, respecto al paraboloide ideal, y se derivan los ajustes necesarios. En los capítulos quinto y sexto se presentan los resultados de la aplicación de esta técnica a dos radiotelescopios: el de 30 metros de IRAM en Pico de Veleta (Granada) y los prototipos de 12 metros de las antenas del proyecto ALMA. Por su parte, el capítulo séptimo contiene el núcleo fundamental de esta tesis y presenta el desarrollo de la técnica de radio-holografía de microondas para optimizar la superficie del radiotelescopio de 40 metros del Centro Astronómico de Yebes. Para ello, ha sido necesario diseñar, construir e instalar un receptor de doble canal en banda Ku en foco primario, y la instrumentación asociada para hacer las medidas de amplitud y fase del diagrama de radiación. Además, ha sido necesario desarrollar el software para llevar a cabo las transformaciones de campo y derivar los ajustes de los paneles. De las medidas holográficas iniciales resultó un error de la superficie del radiotelescopio de 485 μm WRMS, respecto al paraboloide ideal en dirección normal. Tras varias iteraciones del proceso de medida y ajuste, se consiguió reducir dicho error a 194 μm WRMS. Esta notable mejora de la calidad de la superficie ha supuesto aumentar la eficiencia de apertura desde 2,6% al 38,2% a 86 GHz, para un receptor a esta frecuencia situado en el foco primario que produjese la misma iluminación que el receptor de holografía. In this thesis the problem of large reflector antenna surface optimization is faced. It is well known that large reflectors, which are made of a panelled surface, suffer from deformations due to the impact of wind, temperature gradients and gravity loads coming from the high weigth of the structure. These effects distort the ideal reflector shape, which is a paraboloid in most cases, hence reducing the aperture efficiency of the reflector and limiting the maximum frequency of operation. Therefore, it is necessary to have some techniques to measure the status of large reflector surfaces and to derive the adjustment values to be applied to the screws that connect the surface panels to the reflector back-up structure. In this way, the reflector would recover its optimum shape and the aperture efficiency and frequency range would increase. It has to be stated that an increment in the radiotelescope aperture efficiency would imply a reduction in the integration time needed to detect such weak signals coming from natural radiosources in space and, hence, an important saving in observation time. In addition, the increase in the frequency range of operation would allow the detection of new molecular lines in those radiosources. After the introduction, the second chapter shows the geometry of large reflector antennas and the impact on its surface quality of different factors like gravity, wind and temperature, particularly for the case of the Centro Astronómico de Yebes 40 meter radiotelescope. The third chapter deals with the different metrology techniques used to determine the panel adjustments, including the advantages and drawbacks of each one Currently, the most accurate and fast metrologic technique to carry out the characterization of large reflector surfaces is microwave radio-holography2, which is shown in chapter four. From the measurements provided by microwave radio-holography, performed with the help of a transmitter, and with the use of field transformations, the reflector surface errors are computed and the panel adjustments are derived. Chapters five and six show the results of holographic measurements applied to two first class radiotelescopes: the IRAM 30 meter radiotelescope and the 12 meter prototype antennas for the ALMA project. Chapter seven contains the main work of this thesis. It presents the development of the microwave radio-holography technique for the optimization of the Centro Astronómico de Yebes 40m radiotelescope. The work implied the design, construction and instalation of a prime focus Ku-band dual channel receiver, together with the associated instrumentation to measure the amplitude and phase of the radiotelescope radiation pattern. In addition, the software to carry out field transformations and screw settings computations was developed too. Initial holography measurements came up with an surface error of 485 μmWRMS in normal direction with respect to the best-fit paraboloid. After a few iterations of the measurementadjustment cycle, the surface error was reduced to 194 μm WRMS. This remarkable improvement in surface quality means an increment in aperture efficiency from 2,6% to 38,2% at 86 GHz, assuming a receiver at this frequency in prime focus position which produces the same illumination as the holography receiver.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Se presentan consideraciones elementales sobre el coeficiente de impacto y se indican los resultados de las medidas ORE-UIC, a los que, en general, no se ha prestado la atención que merecen. Para facilitar su uso se presenta un diagrama de alineación doble, que se compara con la fórmula de la instrucción vigente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

RESUMEN Los procesos de diseño de zonas o diseño del territorio implican la partición de un espacio geográfico, organizado en un conjunto de unidades de área, en diferentes regiones o zonas según un conjunto especifico de criterios que varían en función del campo de aplicación. En la mayoría de los casos, el objetivo fundamental consiste en crear zonas de tamaño aproximadamente igual respecto a uno o varios atributos de medida -de carácter cuantitativo- (zonas con igual número de habitantes, igual promedio de ventas...). Sin embargo, están apareciendo nuevas aplicaciones, algunas en el contexto de las políticas de desarrollo sostenible, cuya finalidad es la definición de regiones con un tamaño predeterminado, no necesariamente similar. Además, en estos casos las zonas han de formarse en torno a un conjunto específico de posiciones, semillas o generadores. Este tipo de particiones no han sido lo suficientemente investigadas, de manera que no se conocen modelos de solución para la delimitación automática de las zonas. En esta tesis se ha diseñado un nuevo método basado en una versión discreta del diagrama de Voronoi con peso aditivo adaptativo (DVPAA), que permite la partición de un espacio bidimensional en zonas de un tamaño específico, considerando tanto la posición como el peso de cada uno de los generadores. El método consiste en resolver repetidamente un tradicional diagrama de Voronoi con peso aditivo, de forma que los pesos de cada generador se actualizan en cada iteración. En el proceso de cálculo de distancias se usa una métrica basada en el camino más corto, lo que garantiza que la partición obtenida esté formada por un conjunto de zonas conexas. La heurística diseñada se integra en una aplicación prototipo, desarrollada en un entorno SIG (Sistemas de Información Geográfica), que permite el trazado automático de zonas según los criterios anteriormente expuestos. Para analizar la viabilidad del método se ha utilizado como caso de estudio la gestión de los recursos pastorales para la ganadería extensiva en tres municipios de Castilla-La Mancha. Las pruebas realizadas ponen de manifiesto que la heurística diseñada, adaptada a los criterios que se plantean en el contexto de la gestión de sistemas extensivos agropecuarios, es válida para resolver este tipo de problemas de partición. El método propuesto se caracteriza por su eficacia en el tratamiento de un gran número de unidades superficiales en formato vectorial, generando soluciones que convergen con relativa rapidez y verifican los criterios establecidos. En el caso estudiado, aunque la posición prefijada de los generadores reduce considerablemente la complejidad del problema, existen algunas configuraciones espaciales de estos elementos para las que el algoritmo no encuentra una solución satisfactoria, poniéndose de manifiesto una de las limitaciones de este modelo. Tal y como se ha podido comprobar, la localización de los generadores puede tener un considerable impacto en la zonificación resultante, por lo que, de acuerdo con Kalcsics et al. (2005), una selección "inadecuada" difícilmente puede generar regiones válidas que verifiquen los criterios establecidos. ABSTRACT Tenitory or zone design processes entail partitioning a geographic space, organized as a set of basic areal units, into different regions or zones according to a specific set of entena that are dependent on the application context. In most cases the aim is to create zones that have approximately equal sizes with respect to one or several measure attributes (zones with equal numbers of inhabitants, same average sales, etc). However, some of the new applications that have emerged, particularly in the context of sustainable development policies, are aimed at defining zones of a predetermined, though not necessarily similar, size. In addition, the zones should be built around a given set of positions, seeds or generators. This type of partitioning has not been sufñciently researched; therefore there are no known approaches for automated zone delimitation. This thesis proposes a new method based on a discrete versión of the Adaptive Additively Weighted Voronoi Diagram (AAWVD) that makes it possible to partition a 2D space into zones of specific sizes, taking both the position and the weight of each (seed) generator into account. The method consists of repeatedly solving a traditional additively weighted Voronoi diagram, so that the weights of each generator are updated at every iteration. The partition s zones are geographically connected nsing a metric based 011 the shortest path. The proposed heuristic lias been included in an application, developed in a GIS environment that allows the automated zone delimitation according to the mentioned criteria. The management of the extensive farming system of three municipalities of Castilla-La Mancha (Spain) has been used as study case to analyze the viability of the method. The tests carried out have established that the proposed method, adapted to the criteria of this application field, is valid for solving this type of partition problem. The applied algorithm is capable of handling a high number of vector areal units, generating solutions that converge in a reasonable CPU time and comply with the imposed constraints. Although the complexity of this problem is greatly reduced when the generator's positions are fixed, in many cases, these positions impose a spatial confignration that the algorithm proposed is unable to solve, thus revealing one of the limitations of this method. It has been shown that the location of the generators has a considerable impact on the final solution, so that, as Kalcsics et al. (2005) observed, an "inadequate" selection can hardly generate valid zones that comply with the established criteria.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Los arrays de ranuras son sistemas de antennas conocidos desde los años 40, principalmente destinados a formar parte de sistemas rádar de navíos de combate y grandes estaciones terrenas donde el tamaño y el peso no eran altamente restrictivos. Con el paso de los años y debido sobre todo a importantes avances en materiales y métodos de fabricación, el rango de aplicaciones de este tipo de sistemas radiantes creció en gran medida. Desde nuevas tecnologías biomédicas, sistemas anticolisión en automóviles y navegación en aviones, enlaces de comunicaciones de alta tasa binaria y corta distancia e incluso sistemas embarcados en satélites para la transmisión de señal de televisión. Dentro de esta familia de antennas, existen dos grupos que destacan por ser los más utilizados: las antennas de placas paralelas con las ranuras distribuidas de forma circular o espiral y las agrupaciones de arrays lineales construidos sobre guia de onda. Continuando con las tareas de investigación desarrolladas durante los últimos años en el Instituto de Tecnología de Tokyo y en el Grupo de Radiación de la Universidad Politécnica de Madrid, la totalidad de esta tesis se centra en este último grupo, aunque como se verá se separa en gran medida de las técnicas de diseño y metodologías convencionales. Los arrays de ranuras rectas y paralelas al eje de la guía rectangular que las alimenta son, sin ninguna duda, los modelos más empleados debido a la fiabilidad que presentan a altas frecuencias, su capacidad para gestionar grandes cantidades de potencia y la sencillez de su diseño y fabricación. Sin embargo, también presentan desventajas como estrecho ancho de banda en pérdidas de retorno y rápida degradación del diagrama de radiación con la frecuencia. Éstas son debidas a la naturaleza resonante de sus elementos radiantes: al perder la resonancia, el sistema global se desajusta y sus prestaciones degeneran. En arrays bidimensionales de slots rectos, el campo eléctrico queda polarizado sobre el plano transversal a las ranuras, correspondiéndose con el plano de altos lóbulos secundarios. Esta tesis tiene como objetivo el desarrollo de un método sistemático de diseño de arrays de ranuras inclinadas y desplazadas del centro (en lo sucesivo “ranuras compuestas”), definido en 1971 como uno de los desafíos a superar dentro del mundo del diseño de antennas. La técnica empleada se basa en el Método de los Momentos, la Teoría de Circuitos y la Teoría de Conexión Aleatoria de Matrices de Dispersión. Al tratarse de un método circuital, la primera parte de la tesis se corresponde con el estudio de la aplicabilidad de las redes equivalentes fundamentales, su capacidad para recrear fenómenos físicos de la ranura, las limitaciones y ventajas que presentan para caracterizar las diferentes configuraciones de slot compuesto. Se profundiza en las diferencias entre las redes en T y en ! y se condiciona la selección de una u otra dependiendo del tipo de elemento radiante. Una vez seleccionado el tipo de red a emplear en el diseño del sistema, se ha desarrollado un algoritmo de cascadeo progresivo desde el puerto alimentador hacia el cortocircuito que termina el modelo. Este algoritmo es independiente del número de elementos, la frecuencia central de funcionamiento, del ángulo de inclinación de las ranuras y de la red equivalente seleccionada (en T o en !). Se basa en definir el diseño del array como un Problema de Satisfacción de Condiciones (en inglés, Constraint Satisfaction Problem) que se resuelve por un método de Búsqueda en Retroceso (Backtracking algorithm). Como resultado devuelve un circuito equivalente del array completo adaptado a su entrada y cuyos elementos consumen una potencia acorde a una distribución de amplitud dada para el array. En toda agrupación de antennas, el acoplo mutuo entre elementos a través del campo radiado representa uno de los principales problemas para el ingeniero y sus efectos perjudican a las prestaciones globales del sistema, tanto en adaptación como en capacidad de radiación. El empleo de circuito equivalente se descartó por la dificultad que suponía la caracterización de estos efectos y su inclusión en la etapa de diseño. En esta tesis doctoral el acoplo también se ha modelado como una red equivalente cuyos elementos son transformadores ideales y admitancias, conectada al conjunto de redes equivalentes que representa el array. Al comparar los resultados estimados en términos de pérdidas de retorno y radiación con aquellos obtenidos a partir de programas comerciales populares como CST Microwave Studio se confirma la validez del método aquí propuesto, el primer método de diseño sistemático de arrays de ranuras compuestos alimentados por guía de onda rectangular. Al tratarse de ranuras no resonantes, el ancho de banda en pérdidas de retorno es mucho mas amplio que el que presentan arrays de slots rectos. Para arrays bidimensionales, el ángulo de inclinación puede ajustarse de manera que el campo quede polarizado en los planos de bajos lóbulos secundarios. Además de simulaciones se han diseñado, construido y medido dos prototipos centrados en la frecuencia de 12GHz, de seis y diez elementos. Las medidas de pérdidas de retorno y diagrama de radiación revelan excelentes resultados, certificando la bondad del método genuino Method of Moments - Forward Matching Procedure desarrollado a lo largo de esta tésis. Abstract The slot antenna arrays are well known systems from the decade of 40s, mainly intended to be part of radar systems of large warships and terrestrial stations where size and weight were not highly restrictive. Over the years, mainly due to significant advances in materials and manufacturing methods, the range of applications of this type of radiating systems grew significantly. From new biomedical technologies, collision avoidance systems in cars and aircraft navigation, short communication links with high bit transfer rate and even embedded systems in satellites for television broadcast. Within this family of antennas, two groups stand out as being the most frequent in the literature: parallel plate antennas with slots placed in a circular or spiral distribution and clusters of waveguide linear arrays. To continue the vast research work carried out during the last decades in the Tokyo Institute of Technology and in the Radiation Group at the Universidad Politécnica de Madrid, this thesis focuses on the latter group, although it represents a technique that drastically breaks with traditional design methodologies. The arrays of slots straight and parallel to the axis of the feeding rectangular waveguide are without a doubt the most used models because of the reliability that they present at high frequencies, its ability to handle large amounts of power and their simplicity of design and manufacturing. However, there also exist disadvantages as narrow bandwidth in return loss and rapid degradation of the radiation pattern with frequency. These are due to the resonant nature of radiating elements: away from the resonance status, the overall system performance and radiation pattern diminish. For two-dimensional arrays of straight slots, the electric field is polarized transverse to the radiators, corresponding to the plane of high side-lobe level. This thesis aims to develop a systematic method of designing arrays of angled and displaced slots (hereinafter "compound slots"), defined in 1971 as one of the challenges to overcome in the world of antenna design. The used technique is based on the Method of Moments, Circuit Theory and the Theory of Scattering Matrices Connection. Being a circuitry-based method, the first part of this dissertation corresponds to the study of the applicability of the basic equivalent networks, their ability to recreate the slot physical phenomena, their limitations and advantages presented to characterize different compound slot configurations. It delves into the differences of T and ! and determines the selection of the most suitable one depending on the type of radiating element. Once the type of network to be used in the system design is selected, a progressive algorithm called Forward Matching Procedure has been developed to connect the proper equivalent networks from the feeder port to shorted ending. This algorithm is independent of the number of elements, the central operating frequency, the angle of inclination of the slots and selected equivalent network (T or ! networks). It is based on the definition of the array design as a Constraint Satisfaction Problem, solved by means of a Backtracking Algorithm. As a result, the method returns an equivalent circuit of the whole array which is matched at its input port and whose elements consume a power according to a given amplitude distribution for the array. In any group of antennas, the mutual coupling between elements through the radiated field represents one of the biggest problems that the engineer faces and its effects are detrimental to the overall performance of the system, both in radiation capabilities and return loss. The employment of an equivalent circuit for the array design was discarded by some authors because of the difficulty involved in the characterization of the coupling effects and their inclusion in the design stage. In this thesis the coupling has also been modeled as an equivalent network whose elements are ideal transformers and admittances connected to the set of equivalent networks that represent the antennas of the array. By comparing the estimated results in terms of return loss and radiation with those obtained from popular commercial software as CST Microwave Studio, the validity of the proposed method is fully confirmed, representing the first method of systematic design of compound-slot arrays fed by rectangular waveguide. Since these slots do not work under the resonant status, the bandwidth in return loss is much wider than the longitudinal-slot arrays. For the case of two-dimensional arrays, the angle of inclination can be adjusted so that the field is polarized at the low side-lobe level plane. Besides the performed full-wave simulations two prototypes of six and ten elements for the X-band have been designed, built and measured, revealing excellent results and agreement with the expected results. These facts certify that the genuine technique Method of Moments - Matching Forward Procedure developed along this thesis is valid and trustable.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El trabajo realizado ha pretendido desarrollar y caracterizar una solución de revestimiento continuo interior con características de barrera de vapor e higroscopicidad. El objetivo ha sido desarrollar una solución de revestimiento continuo interior, capaz de reducir el riesgo de condensación intersticial en los cerramientos, manteniendo la capacidad de regulación de la humedad del ambiente interior. ESTUDIO DE ANTECEDENTES 1 La condensación intersticial La condensación intersticial se produce cuando la presión de vapor sobrepasa la presión de vapor de saturación en una de las capas internas del cerramiento. El vapor de agua se transfiere de los locales de mayor presión de vapor a los de menor presión. Para la situación de condensación intersticial, en la estación de calentamiento, las presiones de vapor son más elevadas en el interior del edificio que en el exterior. Entonces existe una transferencia de vapor del interior hacia el exterior y es en ese trayecto cuando pueden producirse las condensaciones intersticiales si éste alcanza la temperatura de rocío. Las consecuencias de la condensación intersticial pueden ser varias, desde la degradación de los materiales, como la corrosión de elementos metálicos; la pudrición de productos orgánicos naturales, como la madera, variaciones dimensionales de las fábricas de ladrillo con posibilidad de deformación del cerramiento y de fisuración de los revestimientos continuos. Pueden también producirse fenómenos de corrosión física provocados por la congelación del agua en los elementos porosos del cerramiento. Los revestimientos continuos pueden también estar sujetos a vegetaciones parasitarias por el exterior del cerramiento o de hongos por el interior, por transferencia del agua condensada a las superficies del cerramiento. Los hongos pueden provocar enfermedades principalmente respiratorias o alergias, al alterar la calidad del aire. La condensación intersticial se produce principalmente en situaciones de bajas temperaturas y elevados grados de humedad especifica exterior. Pero las condiciones de temperatura y principalmente de humedad especifica interior tienen también gran influencia en esta situación patológica. Las condiciones de humedad relativa interior dependen de muchos factores como el tipo y uso del edificio, y en caso de vivienda, del número de ocupantes, de las actividades que se desarrollan, pero esencialmente de la temperatura interior y del grado de ventilación. Las soluciones constructivas también tienen influencia en el riesgo de condensaciones. Las soluciones de cerramientos con aislamientos por el interior y con capas impermeables al vapor por el exterior son las más problemáticas. En esta solución constructiva extrema, tenemos prácticamente todo el cerramiento cerca de las temperaturas exteriores, con gran concentración de vapor de agua. El tipo de aislamiento también es importante, los aislamientos con gran desequilibrio higrotérmico, como las lanas minerales, de fibra de madera, o de fibras textiles, caracterizados por el elevado aislamiento y la elevada permeabilidad al vapor, son los que presentan mayor riesgo. Éstos permiten el paso del vapor y producen un salto acentuado de la temperatura. Su colocación por el interior de los cerramientos incrementa aún más el riesgo de condensaciones. Estos materiales de aislamiento también se caracterizan por tener una menor energía primaria asociada a su fabricación. Por lo tanto merecen una atención especial en la búsqueda de soluciones sostenibles. Así mismo, también puede existir riesgo de condensaciones con aquellos aislamientos de menor permeabilidad al vapor, como los poliméricos o las espumas de vidrio, pero deficientemente aplicados, permitiendo el paso del vapor de agua por las juntas o en los encuentros con forjados, pilares o huecos. La condensación de agua en los aislamientos caracterizados por una elevada permeabilidad al vapor es la situación más problemática porque, además de poder conducir a la pudrición de aislamientos de origen orgánico (como los de fibra de madera), conduce a una disminución del aislamiento del cerramiento y al consecuente incremento del consumo de energía en la obtención del confort térmico. Existen un conjunto de reglas y de soluciones constructivas que pueden reducir el riesgo de condensaciones intersticiales como la colocación de materiales sucesivamente más permeables al vapor, o más aislantes, del interior al exterior. XXXIII Revestimientos exteriores discontinuos y ventilados y aislamientos aplicados por el exterior es la solución extrema de este principio. La aplicación de aislamientos impermeables al vapor es otra solución, siendo necesario que se garantice que las juntas de las placas del aislamiento sean estancas, así como los encuentros con los forjados, pilares y huecos. Otra solución es la aplicación de cerramientos dobles con cámara de aire ventilada, teniendo el cuidado de ventilar solamente la parte fría del cerramiento. Es necesario en estas situaciones, que se garantice que el aislamiento se encuentra aplicado en la cara exterior del ladrillo interior del cerramiento. También es importante controlar el grado de ventilación de la cámara para que no se produzca la pérdida de la resistencia térmica de la hoja de ladrillo exterior. La aplicación de barreras de vapor en la parte caliente del cerramiento es una solución que garantiza la reducción del flujo del vapor del interior hacia el exterior y consecuentemente contribuye a la reducción de la presión de vapor en su lado exterior y en la parte fría del cerramiento. 2 La normativa La normativa española, el Código Técnico de la Edificación de 2006, en su capítulo Ahorro de Energía, establece que no está permitida en ninguna situación, la condensación en el aislamiento. Todavía existiendo condensaciones en otras capas del cerramiento, en la estación de calentamiento, éstas no pueden ser mayores que la evaporación en la estación de enfriamiento. La misma normativa determina que si existe una barrera de vapor en la parte caliente del cerramiento no será necesario comprobar las condiciones anteriores. La normativa portuguesa, el Regulamento das Características do Comportamento Térmico dos Edifícios, de 2006, no tiene ninguna exigencia relativa a las condensaciones intersticiales. Sus autores defienden que en Portugal no es un fenómeno que pueda tener consecuencias graves en los elementos constructivos o en el consumo de energía. En la norma EN 13788 de 2001 están definidos los métodos más comunes de verificación de las condensaciones y de la evaporación y están basados en el Diagrama de Glaser. En base a esta norma es posible verificar el riesgo de condensaciones superficiales y la posibilidad de desarrollo de hongos en la superficie interior del cerramiento. Pero también permite evaluar el riesgo de condensaciones debido a la difusión de vapor de agua. En este método se considera que el agua incorporada en la construcción ha secado, y es aplicable en situaciones en que sean insignificantes los fenómenos de alteración de conductividad térmica con la humedad, la liberación y absorción de calor, alteración de las propiedades de los materiales con la humedad, succión capilar y transferencia de humedad líquida en los materiales, circulación de aire a través de grietas, y la capacidad higroscópica en los materiales. Me resulta extraño que la misma norma establezca que el método no debe ser utilizado para la comprobación de la existencia de condensaciones, sino solamente como método comparativo de diferentes soluciones constructivas o condiciones ambientales. Más recientemente, con la norma EN 15026 de 2007, se ha introducido una alteración en el método de verificación. Mientras que en base a la norma 13788 la verificación se realiza en régimen estacionario, y solamente considerando algunas propiedades de los materiales como la resistencia térmica (R) y el coeficiente de resistencia a la difusión de vapor de agua (μ), la norma EN 15026, determina que se realice en régimen variable y que otros fenómenos físicos sean considerados. Con respecto a la temperatura, el almacenamiento de calor en materiales secos o húmedos, la transferencia de calor con la transmitancia térmica dependiente de la cantidad de agua presente en los materiales, transferencia de calor latente por difusión de vapor de agua con cambio de fase. Con respecto a la humedad, el almacenamiento de humedad por adsorción y desorción de vapor de agua y fuerzas capilares. Transporte de humedad por difusión de vapor de agua, transporte de agua líquida por difusión de superficie y conducción capilar. 3 Barreras de vapor Las barreras de vapor se caracterizan por una reducida permeancia al vapor, que de acuerdo con la normativa española NBE 79 es inferior a 0,1g /MNs o resistencia superior a 10 MNs/g. (o permeancia inferior a 1,152 g/mmHg, o resistencia al vapor mayor que 0,86 mmHg∙m2∙día /g). Esta permeancia al vapor corresponde a una capa de aire de difusión equivalente (Sd) de 215 cm o 2,15 metros. XXXV Todos los materiales pueden alcanzar estos valores de resistencia al vapor siempre que se utilicen con grandes espesores, pero los que más interesan son los que puedan tener esa característica con pequeños espesores. Existen otras clasificaciones, como la del CSTC de la Bélgica que divide los materiales de acuerdo a su permeancia al vapor. Están definidas 4 categorías de barreras de vapor E1, E2, E3, E4. La categoría E1 para los materiales con - Sd entre 2 y 5 metros, E2 – con Sd entre 5 y 25 metros y 3 - con Sd entre 25 y 200 metros y finalmente E4 para valores de Sd superiores a 200 metros. Estos materiales pueden ser de diferentes tipos, y con diferentes aplicaciones. Las pinturas al esmalte o emulsiones bituminosas, los films de polietileno o de aluminio, y las membranas de betún o vinílicas son algunos ejemplos de productos con estas características y que se utilizan con ese fin. Su aplicación puede realizarse en la superficie interior del cerramiento como las pinturas al esmalte o en la cámara de aire como los otros tipos mencionados anteriormente. En todo caso deben ser colocados en la parte caliente del cerramiento, por el interior del aislamiento. Las pinturas al esmalte, los barnices, o las membranas vinílicas, cuando son aplicados sobre el revestimiento interior, presentan el problema de quitar la capacidad higroscópica del revestimiento, sea de yeso, mortero de cemento o incluso de madera. Las emulsiones de betún o las membranas de betún son generalmente aplicadas en la cara exterior de la hoja interior del cerramiento, cuando existe cámara de aire, por lo que necesitan ser aplicadas por el exterior del edificio y obligan a que la ejecución de la hoja de ladrillo de fuera sea hecha también por el exterior, con las condiciones de seguridad y de costo asociadas. Los films de aluminio o de polietileno presentan problemas de aplicación como la garantía de estanquidad, por no ser continuos, y por que el sistema de fijación poder no garantizarla. Las soluciones que parecen garantizar una mejor estanquidad y menor costo son las aplicaciones de barreras de vapor continuas y aplicadas por el interior del cerramiento, como la pintura al esmalte. Sin embargo, como ya se ha comentado con anterioridad, pueden reducir la capacidad higroscópica de los cerramientos y la inercia higroscópica de las construcciones. 4 La importancia de la capacidad higroscópica El agua actúa como un pequeño imán y es atraída por varios materiales en estado líquido o gaseoso. Muchos materiales son capaces de contener moléculas de vapor de aire, llamándose este fenómeno adsorción y ocurre en los materiales llamados hidrófilos. La capacidad de los materiales de variar su contenido de humedad con la humedad relativa del aire se llama capacidad higroscópica. La capacidad higroscópica de los materiales de revestimiento es importante por permitir la adsorción y desadsorción de agua en estado de vapor y así permitir la regulación de la humedad del ambiente interior, adsorbiendo cuando la humedad relativa del aire es elevada y desorbiendo cuando la humedad relativa es baja. De acuerdo con los datos del Fraunhofer Institut y para valores de humedad por unidad de volumen (Kg/m3), el revestimiento de yeso no es el producto que presenta una mejor capacidad higroscópica, comparado por ejemplo con los revocos de cemento. Para valores de humedad relativa del 50%, el revestimiento de yeso presenta valores de contenido de humedad de 3,6 g/m3, el revoco de cemento 9,66 g/m3, y el revestimiento acrílico de acabado de 2,7 g/m3. Para una humedad relativa del 95% y por tanto aún en el rango higroscópico, los valores para los mismos morteros son de 19 g/m3, 113,19 g/m3 y 34,55 g/m3, respectivamente. Para una humedad relativa del 100% y por tanto en el rango por encima de la saturación capilar, en la saturación máxima, los valores son de 400 g/m3, 280 g/m3 y 100 g/m3 respectivamente. Solo para valores de humedad relativa del 100% es posible verificar un contenido de humedad del revestimiento de yeso superior al del revoco de cemento. La inercia higroscópica permite que las variaciones de la humedad relativa del aire en una habitación, tenga una atenuación de los picos diarios pudiendo contribuir para el confort y para la disminución de los costos energéticos a él asociados. Puede también XXXVII tener un efecto a largo plazo traducido en alteraciones de las medias mensuales en los meses de inicio y de fin de ciclos estacionales, de variación de la humedad relativa. Estos son los fundamentos que han llevado al desarrollo de soluciones de revestimientos continuos interiores con características de barrera de vapor e higroscopicidad. ESTUDIO EXPERIMENTAL El estudio experimental consta de dos partes: - permeabilidad al vapor e capacidad higroscópica de materiales y productos - adherencia de revestimientos predosificados de yeso a capas impermeables al vapor. 1- Materiales y métodos I. Permeabilidad al vapor y capacidad higroscópica de materiales y productos El desarrollo de esta solución de revestimiento ha comenzado por el estudio de las características de permeabilidad al vapor y de capacidad higroscópica de los materiales y productos utilizados en los revestimientos continuos de cerramientos. Los primeros ensayos han sido realizados en el periodo de docencia del Curso de Doctorado en la asignatura de Aplicaciones Actuales de Conglomerantes Tradicionales, del Profesor Luis de Villanueva Domínguez, y han permitido el primer contacto con los métodos de ensayos y el conocimiento de las normas aplicables. En el trabajo de investigación realizado en la asignatura, se ha ensayado la permeabilidad al vapor e la capacidad higroscópica de morteros de revestimiento, de conglomerantes tradicionales Los materiales y productos ensayados, en ese primer trabajo experimental, han sido, mortero de escayola y cal aérea, yeso de proyectar, mortero de cal aérea y arena, mortero de cal hidráulica y arena, mortero de cemento y arena, mortero de cemento y arena con aditivos impermeabilizantes y morteros impermeabilizantes a base de cemento. En el periodo de investigación del Curso de Doctorado han sido ensayados otros materiales y productos. También con la orientación del Catedrático Luis de Villanueva Domínguez se ha desarrollado el Trabajo Tutelado en el cual se han ensayado materiales y productos de revestimiento continuo de conglomerantes no tradicionales, yesos puros con adiciones naturales, yesos de proyectar con adiciones sintéticas y capas peliculares de diferente origen. De los productos de origen sintético se ha ensayado la permeabilidad al vapor y capacidad higroscópica de estucos acrílicos de relleno (Matesica), estucos acrílicos de acabado (Matesica), mortero sintético de relleno/acabado para exterior o interior (Matesica), mortero sintético de acabado para exterior (Weber), mortero epoxi de relleno y acabado para interior (Gobbetto), morteros de agarre (BASF y Matesica), mortero de reparación de cemento (Weber), mortero de reparación de yeso (Weber). Se ha ensayado también la permeabilidad al vapor de capas peliculares continuas de diferentes orígenes, como aceite de linaza hervido, cera de abeja diluida en esencia de trementina, emulsión bituminosa (Shell), emulsión bituminosa con polímero (BASF), imprimación epoxídica con cemento (BASF), pintura epoxídica (Matesica), pintura anticarbonatación (BASF), estuco Veneciano de cal (La Calce de la Brenta), estuco Veneciano sintético (Gobbetto) e impermeabilización líquida (Weber). Han sido ensayadas también la permeabilidad al vapor y la capacidad higroscópica de yesos puros (portugueses) sin adiciones y con aditivos naturales (cal aérea hidratada 1/1, cola de pescado y cola de conejo). Los yesos de proyectar han sido ensayados sin adiciones y con adiciones de látex SBR (BASF), acrílico (Weber) y epoxi (Matesica). II Adherencia de revestimientos predosificados de yeso a capas impermeables al vapor Como ya se ha dicho anteriormente, hasta una humedad relativa por debajo del 95%, el revestimiento de yeso tiene una capacidad higroscópica inferior al revoco de cemento y al revestimiento acrílico de acabado. Se ha elegido, de acuerdo con el profesor Luis de Villanueva Domínguez, este producto como capa higroscópica del esquema de revestimiento. Las cuestiones de tradición cultural, de abundancia de materia prima en la Península Ibérica, esencialmente en España, y los menores costos energéticos asociados a su fabricación, determinan el origen de esta decisión. Para la producción de 1 m3 de XXXIX cemento son necesarios 12600 MJ, mientras que para 1 m3 de yeso son necesarios solamente 2640 MJ. Pero el yeso presenta otras características mejores que los morteros de cemento, como la menor densidad, menor conductividad térmica y menor efusividad térmica. La mejor capacidad de absorción de agua en la fase líquida por capilaridad, que el mortero de cemento, es otra de las ventajas de los revestimientos de yeso que en situaciones de condensación superficial interior puede evitar el goteo. El paso siguiente ha sido ensayar la adherencia de un revestimiento predosificado de yeso a las capas que han presentado característica de barrera de vapor con espesores hasta 6 mm, así como en aquellas en que los fabricantes recomiendan menores espesores, como el mortero epoxi de relleno y acabado y el mortero sintético de acabado. Se ha utilizado un revestimiento de yeso predosificado de aplicación manual, portugués. La elección de un producto de aplicación manual se ha debido a la dificultad de obtener la aplicación por proyección en el local donde se han hecho las muestras, el taller de la Faculdade de Arquitectura da Universidade Técnica de Lisboa. Se ha aplicado con espesor de 2 cm sobre las capas de aceite de linaza hervido, emulsión de bituminosa, imprimación epoxídica con cemento, pintura epoxídica, impermeabilización líquida, mortero epoxi de relleno y acabado, mortero sintético de acabado. Verificando que ninguno de los materiales que han presentado características de barrera de vapor hasta espesores de 0,6 mm proporcionaban una adherencia al revestimiento de yeso capaz de garantizar el cumplimento de todas las exigencias, se ha decidido elegir los materiales impermeables al vapor más finos y con diferentes orígenes para desarrollar los estudios de mejora de la adherencia. Ha sido necesario desarrollar un conjunto de experimentos con el objetivo de incrementar la adherencia del revestimiento de yeso a estos soportes no absorbentes. La adherencia de los revestimientos continuos de conglomerantes tradicionales, como el yeso sobre soportes absorbentes, se basa en una adherencia mecánica. En este caso los cristales de yeso se van a formar dentro de la red capilar del ladrillo cerámico o del hormigón. Aplicando una barrera de vapor sobre ellos, se elimina esta posibilidad por aplicarse una barrera entre la estructura porosa del soporte (ladrillo u hormigón) y el revestimiento de yeso. Se tiene que producir otro tipo de adherencia, la adherencia química. Esta adherencia se basa en los enlaces químicos, de tipo secundario, como los puentes de hidrógeno o las fuerzas bipolares de Van der Waals. Aunque este tipo de adherencia es menor que la que se produce sobre soportes absorbentes, puede alcanzar valores considerables. Los materiales impermeables al vapor elegidos han sido el aceite de linaza hervido, la emulsión bituminosa y la imprimación epoxi con cemento. A estos materiales de origen natural, artificial e sintético, han sido aplicadas capas intermedias de arena de sílice, mortero de cemento y arena, mortero de agarre y un puente de adherencia de acuerdo con las recomendaciones de Eurogypsum. La capa de arena ha sido aplicada con la última mano aún fresca, mientras que las otras capas intermedias han sido aplicadas con las capas impermeables al vapor ya secas. Las capas intermedias aplicadas han sido: - al aceite de linaza hervido - arena de sílice y puente de adherencia. - a la emulsión bituminosa - arena de sílice, mortero de cemento y arena 1:1 y puente de adherencia - a la capa de imprimación epoxídica con cemento - arena de sílice, mortero de agarre y puente de adherencia. El revestimiento de yeso utilizado ha sido un yeso predosificado de aplicación manual, de origen español, y se ha aplicado con un espesor de 2 centímetros. Para la capa intermedia de puente de adherencia y siguiendo la recomendación del fabricante, se ha añadido un látex de SBR (con relación látex/agua de 1/2) al revestimiento de yeso. Otra experimentación realizada ha sido la adición del látex SBR al revestimiento de yeso y su aplicación directamente sobre cada una de las capas impermeables al vapor, y a cada una de las capas intermedias aplicadas sobre las capas impermeables al vapor. XLI La aplicación del látex en las proporciones de 1/2, de relación látex/agua, puede cambiar algunas propiedades del revestimiento de yeso en pasta, en relación a su aplicación, o tiempo de inicio o fin de fraguado, e incluso tener influencia en el costo final del revestimiento. Puesto que la adherencia del revestimiento de yeso con adición del látex a la capa intermedia de puente de adherencia ha sido muy superior a las exigencias más estrictas, se ha realizado un ensayo, pero sin la adición del látex. Este ensayo se ha realizado aplicando el revestimiento de yeso sobre las capas de puente de adherencia anteriormente aplicadas sobre las capas impermeables al vapor, descritas con anterioridad. Se ha aplicado ahora un revestimiento de yeso predosificado también de aplicación manual, pero de origen portugués. Para garantizar el cumplimiento integral de la exigencia de adherencia de 0,5 MPa, se ha hecho otro ensayo con una menor adición de látex de SBR al yeso predosificado. Se ha aplicado el látex con una relación látex/agua de 1/3 y 1/4. 2 Resultados y discusión I. Permeabilidad al vapor y capacidad higroscópica de materiales y productos En el primer ensayo de permeabilidad al vapor se concluyó que ninguno de los productos ensayados puede constituir barrera de vapor en espesores hasta 2 cm. y que lo que ha presentado mayor resistividad al vapor ha sido el mortero impermeabilizante de capa fina. Tendría que tener un espesor próximo a los 14,12 cm para poder constituir barrera de vapor. En los ensayos de capacidad higroscópica, realizados solamente para humedades relativas del 50% y 95% a temperaturas de 23ºC, el mortero de escayola y cal aérea y el yeso de proyectar han presentado una capacidad higroscópica bastante elevada, pero como el secado ha sido realizado a 100º C (lo que no es la temperatura adecuada para los productos a base de yeso por poder éstos sufrir una deshidratación y un cambio en su constitución) los resultados no pueden ser considerados. El mortero de impermeabilización de capa fina también ha presentado una buena capacidad higroscópica, mejor que el mortero de cemento y arena, y éste mejor que el mortero de cal hidráulica y arena, y éste mejor que el mortero de cal aérea y arena. La adición de aditivos impermeabilizantes no ha cambiado significativamente esta característica. Como resultado de los segundos ensayos se ha concluido que existen diferentes materiales y productos que pueden constituir barrera de vapor con diferentes espesores. Los productos estuco acrílico de relleno, estuco sintético de acabado, mortero sintético de acabado para exterior, mortero epoxi de relleno y acabado, han presentado características de barrera de vapor con espesores hasta 2 cm, sin embargo, son espesores superiores a los recomendados por los fabricantes de los productos. De los productos peliculares, han constituido barrera de vapor, el aceite de linaza hervido (con valores muy próximos), la emulsión bituminosa sin polímero, la imprimación epoxídica con cemento, la pintura epoxídica y la impermeabilización líquida. Todos los demás productos ensayados no han presentado esa característica cuando aplicados en tres manos. Los yesos puros con adiciones naturales y los yesos de proyectar con adiciones sintéticas no han presentado características de barrera de vapor en espesores hasta dos centímetros. El mejor resultado ha sido el del yeso puro con adición de cola de pescado, que ha presentado característica de barrera de vapor con espesor de 16,32 cm. En cuanto a la capacidad higroscópica de los materiales y productos, el ensayo ha sido repetido recientemente con las mismas muestras, porque en el ensayo realizado para el Trabajo Tutelado no fue posible una correcta caracterización. En ese ensayo solo se han obtenido los valores de capacidad higroscópica para valores de humedad del 50 % ± 3 a temperatura de 23 ºC ± 2 por no disponerse de los medios necesarios para un estudio más completo. En el ensayo realizado recientemente en el Laboratório Nacional de Engenharia Civil de Portugal (LNEC), se ha utilizado una cámara climática, con control de temperatura y humedad relativa, y se han obtenido los valores de capacidad higroscópica para valores de humedad relativa del 25%, 50%, 75% y 95% a temperatura constante de 23º C. XLIII En ese último ensayo se ha verificado que para humedades relativas del 50 %, los yesos predosificados de aplicación manual, portugueses y españoles, tienen diferentes capacidades higroscópicas. Los yesos españoles han presentado una capacidad higroscópica de 0,2 % y el portugués de 0,05 %. La adición de látex de SRB no ha reducido la capacidad higroscópica del yeso predosificado español. Los valores se han mantenido próximos para las relaciones látex/agua de 1/4, 1/3 y 1/2, con 0,2 %. Para valores de capacidad higroscópica por volumen se ha verificado que la adición de látex incrementa la capacidad higroscópica, estableciéndose que los valores para el yeso español sin látex han sido de 2,2 g/dm3 y para los yesos con adición de látex han sido de cerca de 2,5 g/dm3. Para este valor de humedad relativa otros productos han presentado mayor capacidad higroscópica, como el yeso puro con cola de pescado con 5,1 g/dm3.Para morteros ensayados con espesores de 0,6 cm, el mortero de reparación de yeso ha presentado un valor de capacidad higroscópica de 4,1 g/dm3 y el mortero de agarre (BASF) ha presentado el valor de 4,6 g/dm3. Para valores de humedad relativa del 95 %, la capacidad higroscópica presentada por el yeso predosificado español ha sido de 1 % y por el portugués ha sido de 0,27 %. La adición de látex tampoco aquí ha alterado la capacidad higroscópica. Las pequeñas diferencia registradas pueden deberse al diferente tiempo en que se han realizado los pesajes, por existir ya mucha agua libre. Para valores de capacidad higroscópica por volumen se ha verificado que la adición de látex incrementa la capacidad higroscópica, estableciéndose que los valores para el yeso español sin látex han sido de 10,6 g/dm3 y para los yesos con adición de látex han sido de cerca de 11,60 g/dm3 para látex/agua de 1/4, 13,77 g/dm3 para látex/agua de 1/3 y 12,20 g/dm3 para látex/agua de 1/2. Para este valor de humedad relativa, otros productos han presentado mayor capacidad higroscópica, y superiores al yeso predosificado de aplicación manual español. El yeso predosificado de proyectar con adición de látex acrílico (Weber), con 14,1 g/dm3, el yeso puro con cola de pescado con 17,8 g/dm3, el yeso puro cal aérea hidratada con 18,3 g/dm3. Para los morteros ensayados con espesores de 0,6 cm, el mortero de agarre Matesica con valor 17,7 g/dm3, el mortero de reparación de yeso con valores de 31,2 g/dm3 y el mortero de agarre BASF con valores de 48,8 g/dm3. Este ultimo valor debería ser verificado por haberse podido producir un error en la cantidad de agua suministrada. XLIV II Adherencia de revestimientos predosificados de yeso a capas impermeables al vapor Realizado el ensayo de adherencia del revestimiento de yeso predosificado aplicado sobre las capas que han constituido barrera de vapor con espesor hasta 6 mm, se ha verificado que los valores requeridos por la norma europea EN 13279 de 2005, con valores de adherencia ≥ 0,1 MPa o rotura cohesiva por el soporte, solo no han sido satisfechos por la pintura epoxídica y por el revestimiento sintético de acabado. Todavía los valores de adherencia no han alcanzado los valores exigidos por las exigencias complementarias del Laboratório Nacional de Engenharia de Portugal (LNEC) o las exigencias españolas. Las exigencias del LNEC, determinan una adherencia ≥ 0,5 MPa, o una ruptura cohesiva. Las exigencias españolas determinan que la adherencia debe ser determinada por la rotura del revestimiento. La solución de revestimiento que mejor resultado ha presentado ha sido la del revestimiento predosificado de yeso aplicado sobre la capa de aceite de linaza hervido, con una adherencia de 0,324 MPa. También se ha ensayado la aplicación de una capa intermedia de mortero de agarre entre las capas impermeables al vapor de imprimación epoxídica y pintura epoxídica. Los resultados obtenidos han sido de 0,21 MPa y de 0,25 MPa respectivamente. De los valores obtenidos en el ensayo de adherencia del revestimiento de yeso predosificado a las capas peliculares elegidas que han constituido barrera de vapor cuando aplicadas en tres manos, solo algunas de las soluciones con adición de látex al yeso han cumplido las exigencias más estrictas. Éstas han sido las capas impermeables al vapor constituidas por emulsión bituminosa e imprimación epoxi con cemento. Las capas intermedias de arena de sílice sobre la emulsión bituminosa y sobre la imprimación epoxi también han cumplido. Las capas intermedias de mortero de cemento sobre emulsión bituminosa, y mortero de agarre sobre imprimación epoxi con cemento también han cumplido. El puente de adherencia sobre emulsión bituminosa e imprimación epoxídica con cemento, han presentado valores muy elevados de adherencia del revestimiento de XLV yeso. Los valores obtenidos han sido tres veces superiores a las exigencias más estrictas. Los valores obtenidos en el ensayo de adherencia del revestimiento de yeso predosificado sobre el puente adherencia aplicado sobre las capas peliculares impermeables al vapor han sido muy cercanos a la exigencia del Laboratório Nacional de Engenharia Civil de Portugal. Presentan una media de 0,456 MPa. Los valores más bajos han sido para la solución de capa impermeable al vapor constituida por aceite de linaza hervido, con el valor de 0,418 MPa. El valor más elevado ha sido para la solución de capa impermeable al vapor constituida por imprimación epoxídica con cemento, con el valor de adherencia de 0,484 MPa. Los valores obtenidos con las capas impermeables al vapor constituidas por aceite de linaza hervido han presentado roturas siempre adhesivas, o en su capa, pero con valores muy diferentes. Los valores de mayor adherencia se han producido con las capas de aceite con mayor tiempo de secado. En el ensayo de adherencia del revestimiento de yeso predosificado con adición de látex con relación agua/látex de 1/3 y 1/4, aplicado sobre el puente de adherencia, aplicado sobre la capa de imprimación epoxi se ha verificado que la solución con relación látex/agua de 1/4 ha superado la exigencia de 0,5 MPa en un 50 %. Esto resultado quiere decir que es posible aplicar una relación de látex/agua aún inferior. PRINCIPALES CONCLUSIONES Como principales conclusiones del estudio experimental podemos decir que es posible obtener un revestimiento continuo interior impermeable al vapor e higroscópico. Se pueden obtener con capas impermeables al vapor de aceite de linaza hervido (debidamente seco), emulsión bituminosa o con imprimación epoxídica con cemento, aplicadas directamente sobre el ladrillo. Como capa higroscópica se puede aplicar un revestimiento de yeso predosificado, no obstante sea menos higroscópico que un revestimiento de mortero de cemento y arena (hasta humedades relativas del 95%). La adherencia entre la capa impermeable al vapor y el revestimiento de yeso predosificado, puede conseguirse con un puente de adherencia entre las dos capas anteriormente descritas. Si la adherencia del yeso no fuera capaz de cumplir las exigencias más estrictas (0,5 MPa) puede añadirse un látex de SBR al yeso en una relación de látex agua de 1/4. Esa adición permite una adherencia un 50 % superior a las exigencias más estrictas, por lo que se pueden ensayar relaciones aún menores de L/A. Estas adiciones no restan capacidad higroscópica al revestimiento, pudiendo incluso incrementarla (para humedades relativas del 25% al 95%) con beneficio para la inercia higroscópica del edificio donde fuese aplicado. Con respecto a la influencia de la solución de revestimiento propuesta en el riesgo de condensaciones intersticiales, se puede decir que no ha sido posible observar una diferencia significativa en las simulaciones realizadas, entre la aplicación del revestimiento y su no aplicación. Las simulaciones han sido realizadas con la aplicación informática Wufi 5 Pro, que respeta la normativa más reciente relativa a las condensaciones intersticiales. Comparando con la solución tradicional de aplicación de barrera de vapor en la cámara de aire, tampoco se han verificado grandes diferencias. Cabe destacar que esta solución tradicional no ha presentado diferencias en relación a la no aplicación de barrera de vapor. Estas simulaciones contradicen lo comúnmente establecido hasta ahora, que es considerar que la aplicación de barreras de vapor en la parte caliente del cerramiento reduce considerablemente el riesgo de condensaciones intersticiales. Estas simulaciones han sido realizadas considerando que la fracción de lluvia adherida al cerramiento seria la correspondiente a la solución constructiva y a su inclinación. En la definición del componente pared del cerramiento no existe la posibilidad de colocar la capa de pintura exterior. Considerando la hipótesis de que con la capa de pintura exterior, no existe absorción de agua de lluvia, en esta solución constructiva, los valores obtenidos han cambiado considerablemente. El contenido total de agua en el elemento ha sido menor en la solución con barrera de vapor en el revestimiento (pico máximo de 1 Kg/m2), seguido de la solución de barrera de vapor en la cámara de aire (pico máximo de 1,4 Kg/m2) y esto menor que la solución sin barrera de vapor (pico máximo de 1,8 Kg/m2). El contenido de agua en la lana de roca también ha sido menor en la solución con barrera de vapor en el revestimiento interior (pico máximo de 1,15 %), seguido de la solución con barrera de vapor en la cámara de aire (pico máximo de 1,5 %). y esto menor que la solución sin barrera de vapor (pico máximo de 1,62 %).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El presente proyecto propone la creación de un procedimiento y metodología para el diseño de salas y sistemas electroacústicos basados en el software EASE. La sala tipo elegida para el diseño será una sala de cine bajo las premisas de DOLBY Digital. Los sistemas electroacústicos modelo serán: • Sistema distribuido tanto en malla cuadrada como hexagonal • Sistemas centralizados basados en agrupaciones, tanto lineales como circulares. Se establecerán los pasos básicos imprescindibles para el diseño de los sistemas descritos de forma que, con la ayuda de este tutorial y los medios didácticos adjuntos al mismo, se puedan acometer paso a paso las distintas fases de diseño, cálculo y análisis de los mismos. Como metodología de trabajo se acometerá el proceso de diseño de un ejemplo de cada tipo sobre el que se describirán todos los pasos, posibilidades de diseño y cálculo de los mismos. Los puntos de estudio serán: • Diseño de una sala de Cine ◦Importación de los Ficheros Autocad del cine a EASE ◦Dibujo del recinto en EASE ◦Inserción de materiales ◦Cálculo del tiempo de reverberación en función del volumen de la sala ◦Ajuste del tiempo de reverberación ◦Elección de altavoces para la sonorización ◦Comprobación de la uniformidad de campo sonoro en todos los canales ◦Comprobación de los niveles de pico y total por canal ◦Ecualización de la sala según la curva X (ISO-2969) ◦Inclusión de la Pantalla en la curva de ecualización ◦Estudios psicoacústico de la sala. Retardos ◦Inteligibilidad ◦Diagrama de bloques • Diseño de un sistema distribuido ◦Estudio de los diferentes tipos de solapamientos ▪Borde con Borde ▪Solapamiento mínimo ▪Centro con Centro ◦Estudio de los diferente tipos de mallas ▪Cuadrada ▪Hexagonal • Diseño de un sistema Centralizado ◦Sistemas centralizados tipo Linear Array ◦Sistemas centralizados tipo Circular Array Así mismo se estudiarán las diferentes posibilidades dentro de la suite EASE, incluyendo las versiones gratuitas del mismo EASE ADDRESS (sistemas distribuidos) y FOCUS II (sistemas centralizados), comparando sus posibilidades con los módulos comerciales equivalentes de EASE y las herramientas añadidas del mismo EARS (software para la auralización biaural) y AURA (utilidad de análisis extendido). ABSTRACT This project proposes the creation of a procedure and methodology for the design of rooms and electroacoustic systems based on EASE software. The room chosen as example design is a cinema under DOLBY Digital premises. Electroacoustic systems chosen as example are: • Distributed both square and hexagonal mesh • Centralized systems based on clusters, both linear and circular. It will be established the basic essential steps for the design of the systems described so, with this tutorial and attached teaching aids, could be undertaken the various stages of design, calculation and analysis. As a working methodology, the process design of an example will be described of each system on which all the steps described, design possibilities and calculation will be shown. The main points are: • Design of a cinema • Importing Autocad Files in EASE • Drawing with EASE • Materials insertion • Reverberation time based on the room volume • Adjusting reverberation time • Choosing speakers • Checking sound field uniformity in all channels • Checking peak levels and total level per each channel • Room equalization using X curve (ISO-2969) • Adding screen in the EQ • Psychoacoustic. Delays • Intelligibility • Block diagram • Design of a distributed system • Study of the different types of overlap o Edge to Edge o Minimum Overlap o Center to Center • Study of different types of mesh • Square • Hex • Centralized System Design • Centralized systems. Linear Array • Centralized systems. Circular Array It also will explore the different possibilities within the EASE suite, including the free versions of the same EASE ADDRESS (distributed systems) and FOCUS II (centralized), comparing its potential with commercial equivalents EASE modules and added tools EARS (software for biaural auralization) and AURA (utility extended analysis).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En este proyecto fin de carrera se ha diseñado y construido un equipo de medida automático que permite realizar la medida de la constante de Planck utilizando los principios de Funcionamiento de los diodos LED. El equipo de medida es totalmente automático gracias a la utilización de una placa controladora Arduino MEGA 2560, que se encarga de realizar la iluminación secuencial de cada LED, medir sus tensiones de funcionamiento, y de realizar los cálculos necesarios para hallar la constante de Planck. Todos los datos se muestran por una pantalla LCD de 16 caracteres por 2 lineas. Para comprender el funcionamiento del sistema de medida automático se ha realizado un estudio detallado de cada uno de los sistemas que componen el equipo de medida. Se ha explicado el funcionamiento teórico de los diodos LED y el funcionamiento de los semiconductores. Se ha explicando los diversos tipos de semiconductores que se utilizan para los LED y las modificaciones que se les aplica para mejorar su eficiencia. Para poder comprender en qué consiste la constante de Planck se ha explicado los principios teóricos en que se basa, y se ha realizado una pequeña demostración de su cálculo. Una vez visto todos los principios teóricos se ha pasado a realizar la explicación de cada uno de los grandes bloques que componen el sistema de medida automático. Estos bloques son la placa controladora Arduino, el sistema de iluminación LED, el sistema de control mecánico de LEDs, la pantalla LCD, el sistema de interrupciones y el sistema de alimentación. Para poder observar el espectro de emisión de cada uno de los LED se ha utilizado un analizador de espectros óptico (OSA), el cual ha sido explicado con detenimiento. El código de programación de Arduino ha sido explicado en forma de diagrama de flujo para una mayor facilidad de comprensión. Se ha desarrollado un manual de usuario para facilitar el uso del sistema a cualquier usuario, en el que se ha introducido un ejemplo completo de funcionamiento. ABSTRACT. In this final Project has designed and built an automatic measuring equipment which is able to measure the Planck`s constant using the operation principles of the LEDs. The measuring equipment is fully automated thanks to the use of an Arduino Mega 2560 controller board, which is responsible for conducting sequential illumination of each LED, measure their operating voltages, and perform the necessary calculations of find the Planck constant. All data is displayed by a LCD screen 16 character by 2 lines. To understand the operation of the automatic measuring system has been made a detailed study of each of the systems that make the measurement equipment. It develops the theoretical performance of the LED and the operation of semiconductors. It explains the different types of semiconductors that are used for LEDs and the changes applied to improve efficiency. In order to understand what is the Planck constant has been explained the theoretical principles in which it is based, and a small demonstration of its calculation has been performed. After seeing all the theoretical principles has been made the explanation of each of the main blocks that compose the automatic measuring system. These blocks are the Arduino controller board, LED lighting system, the mechanical control system LEDs, LCD screen, the interrupt system and feeding system. To observe the emission spectrum of each of the LED has been used optical spectrum analyzer (OSA), which has been explained in detail. The Arduino programming code has been explained in flowchart form for an easy understanding. It has developed a manual to facilitate the use of system to any user, which has introduced a complete example of operation.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El objetivo de este Proyecto Fin de Carrera es el estudio y simulación de la sonorización de una sala de cine mediante la utilización del sistema DOLBY ATMOS. Para ello, se simulará la sala 6 del complejo de cines Kinépolis de Madrid utilizando el programa de simulación electroacústica EASE en el que se dispondrá el sistema de sonido DOLBY ATMOS. Primero se procederá a realizar el modelo geométrico en el programa EASE, a partir de los planos de la instalación y medidas realizadas en el recinto. Este programa de simulación permite obtener los parámetros acústicos y electroacústicos necesarios para realizar el estudio de la sala. Luego se diseñará el sistema de sonido de acuerdo a las disposiciones del sistema DOLBY ATMOS, mediante la ubicación de sistemas de altavoces de cine existentes en el mercado, siempre intentando mantener el uso de la sala de forma convencional como DOLBY DIGITAL y cumpliendo los requisitos de uniformidad y ángulos de apuntamiento recomendados por DOLBY. A continuación, una vez dispuestos los altavoces, se procederá a su configuración, realizando una ecualización y ajuste de nivel de manera individual para cada una de las fuentes sonoras, tanto de los altavoces de pantalla, altavoces de surround de pared y techo y los altavoces de subgraves. Como resultado de todo ello, se comprobarán parámetros como la inteligibilidad, respuesta impulsiva, respuesta en frecuencia y tiempo de reverberación en diferentes puntos de escucha, comparando los resultados obtenidos entre ellos. También se realizará una configuración compatible con el sistema de sonido 7.1, realizando su correspondiente configuración, ecualización, ajuste y aplicando los retardos necesarios. Una vez esté todo configurado, será dar un presupuesto de lo que supondría la reformar de un cine convencional a un sistema DOLBY ATMOS, teniendo en cuenta el número de altavoces disponibles en la sala actual, los modelos utilizados, amplificadores y mano de obra. También se realizará un diagrama de conexionado del sistema de sonido utilizado en el proyecto, incluyendo todos los parámetros necesarios de la configuración. Por último se comprobará la viabilidad técnica y económica del sistema diseñado, viendo cuál es la opción que más se adecua a cada necesidad y sugiriendo soluciones a los posibles problemas que se puedan encontrar. ABSTRACT. The main aim of this Project is the study and simulation of the sound of a movie theater by using DOLBY ATMOS system. It is going to be simulated the movie theatre 6 at Kinepolis cinema complex in Madrid using the simulation program EASE according to the sound system DOLBY ATMOS. First of all we proceed to conduct the geometric pattern in the EASE program, from installation drawings and measurements made on the premises. This simulation program allows getting the acoustic and electroacoustic parameters necessary for the study of the theatre. Then the sound system designed according to the suggestions of ATMOS DOLBY, by locating theater speaker systems on the market, always trying to keep the use of the room for DOLBY DIGITAL conventional and meeting the requirements of uniformity and pointing angles DOLBY recommended. Then, once the speakers are prepared, you can proceed to configure, make equalization and level setting individually for each of the sound sources, both screen speakers, surround speakers (wall and ceiling) and subwoofer. As a result, parameters are checked as intelligibility, impulse response, frequency response and reverberation time in different listening points, comparing the results between each other. There will also be configured to support 7.1 sound system, making the corresponding settings, equalization, level setting and applying the necessary delays. Once everything is configured, it will give an estimate of what would be the reform of a conventional film DOLBY ATMOS system, taking into account the number of speakers available in the current room, the models used, amplifiers and labor. Also there will be a wiring diagram of the sound system used in this project, including all of the configuration parameters needed. Finally, check the technical and economic feasibility of the designed system, seeing what is the option that best suits to each need and suggesting possible solutions to problems you might find during the process.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El refuerzo de estructuras existentes mediante el encolado exterior de láminas de polímeros reforzados con fibras (FRP) se ha convertido en la aplicación más común de los materiales compuestos avanzados en construcción. Estos materiales presentan muchas ventajas frente a los materiales convencionales (sin corrosión, ligeros, de fácil aplicación, etc.). Pero a pesar de las numerosas investigaciones realizadas, aún persisten ciertas dudas sobre algunos aspectos de su comportamiento y las aplicaciones prácticas se llevan a cabo sólo con la ayuda de guías, sin que haya una normativa oficial. El objetivo de este trabajo es incrementar el conocimiento sobre esta técnica de refuerzo, y más concretamente, sobre el refuerzo a flexión de estructuras de fábrica. Con frecuencia el elemento reforzado es de hormigón armado y las láminas de FRP encoladas al exterior sirven para mejorar su resistencia a flexión, cortante o compresión (encamisados). Sin embargo su empleo en otros materiales como las estructuras de fábrica resulta muy prometedor. Las fábricas se caracterizan por soportar muy bien los esfuerzos de compresión pero bastante mal los de tracción. Adherir láminas de materiales compuestos puede servir para mejorar la capacidad resistente de elementos de fábrica sometidos a esfuerzos de flexión. Pero para ello, debe quedar garantizada una correcta adherencia entre el FRP y la fábrica, especialmente en edificios antiguos cuya superficie puede estar deteriorada por encontrarse a la intemperie o por el propio paso del tiempo. En el capítulo II se describen los objetivos fundamentales del trabajo y el método seguido. En el capítulo III se hace una amplia revisión del estado de conocimiento sobre el tema. En el apartado III.1 se detallan las principales características y propiedades mecánicas de fibras, matrices y materiales compuestos así como sus principales aplicaciones, haciendo especial hincapié en aspectos relativos a su durabilidad. En el apartado III.2 se incluye una revisión histórica de las líneas de investigación, tanto teóricas como empíricas, publicadas sobre estructuras de hormigón reforzadas a flexión encolando materiales compuestos. El apartado III.3 se centra en el aspecto fundamental de la adherencia refuerzo-soporte. Se hace un repaso a distintos modelos propuestos para prevenir el despegue distinguiendo si éste se inicia en la zona de anclaje o si está inducido por fisuras en la zona interior del elemento. Se observa falta de consenso en las propuestas. Además en este punto se relatan las campañas experimentales publicadas acerca de la adherencia entre materiales compuestos y fábricas. En el apartado III.4 se analizan las particularidades de las estructuras de fábrica. Además, se revisan algunas de las investigaciones relativas a la mejora de su comportamiento a flexión mediante láminas de FRP. El comportamiento mecánico de muros reforzados solicitados a flexión pura (sin compresión) ha sido documentado por varios autores, si bien es una situación poco frecuente en fábricas reales. Ni el comportamiento mecánico de muros reforzados solicitados a flexocompresión ni la incidencia que el nivel de compresión soportado por la fábrica tiene sobre la capacidad resistente del elemento reforzado han sido suficientemente tratados. En cuanto a los trabajos teóricos, las diferentes propuestas se basan en los métodos utilizados para hormigón armado y comparten los principios habituales de cálculo. Sin embargo, presentan diferencias relativas, sobre todo, a tres aspectos: 1) la forma de modelar el comportamiento de la fábrica, 2) el valor de deformación de cálculo del refuerzo, y 3) el modo de fallo que se considera recomendable buscar con el diseño. A pesar de ello, el ajuste con la parte experimental de cada trabajo suele ser bueno debido a una enorme disparidad en las variables consideradas. Cada campaña presenta un modo de fallo característico y la formulación que se propone resulta apropiada para él. Parece necesario desarrollar un método de cálculo para fábricas flexocomprimidas reforzadas con FRP que pueda ser utilizado para todos los posibles fallos, tanto atribuibles a la lámina como a la fábrica. En el apartado III.4 se repasan algunas lesiones habituales en fábricas solicitadas a flexión y se recogen ejemplos de refuerzos con FRP para reparar o prevenir estos daños. Para mejorar el conocimiento sobre el tema, se llevan a cabo dos pequeñas campañas experimentales realizadas en el Instituto de Ciencias de la Construcción Eduardo Torroja. La primera acerca de la adherencia de materiales compuestos encolados a fábricas deterioradas (apartado IV.1) y la segunda sobre el comportamiento estructural a flexocompresión de probetas de fábrica reforzadas con estos materiales (apartado IV.2). En el capítulo V se analizan algunos de los modelos de adherencia propuestos para prevenir el despegue del extremo del refuerzo. Se confirma que las predicciones obtenidas con ellos resultan muy dispares. Se recopila una base de datos con los resultados experimentales de campañas sobre adherencia de FRP a fábricas extraídas de la literatura y de los resultados propios de la campaña descrita en el punto IV.1. Esta base de datos permite conocer cual de los métodos analizados resulta más adecuado para dimensionar el anclaje de láminas de FRP adheridas a fábricas. En el capítulo VI se propone un método para la comprobación en agotamiento de secciones de fábrica reforzadas con materiales compuestos sometidas a esfuerzos combinados de flexión y compresión. Está basado en el procedimiento de cálculo de la capacidad resistente de secciones de hormigón armado pero adaptado a las fábricas reforzadas. Para ello, se utiliza un diagrama de cálculo tensión deformación de la fábrica de tipo bilineal (acorde con el CTE DB SE-F) cuya simplicidad facilita el desarrollo de toda la formulación al tiempo que resulta adecuado para predecir la capacidad resistente a flexión tanto para fallos debidos al refuerzo como a la fábrica. Además se limita la deformación de cálculo del refuerzo teniendo en consideración ciertos aspectos que provocan que la lámina adherida no pueda desarrollar toda su resistencia, como el desprendimiento inducido por fisuras en el interior del elemento o el deterioro medioambiental. En concreto, se propone un “coeficiente reductor por adherencia” que se determina a partir de una base de datos con 68 resultados experimentales procedentes de publicaciones de varios autores y de los ensayos propios de la campaña descrita en el punto IV.2. También se revisa la formulación propuesta con ayuda de la base de datos. En el capítulo VII se estudia la incidencia de las principales variables, como el axil, la deformación de cálculo del refuerzo o su rigidez, en la capacidad final del elemento. Las conclusiones del trabajo realizado y las posibles líneas futuras de investigación se exponen en el capítulo VIII. ABSTRACT Strengthening of existing structures with externally bonded fiber reinforced polymers (FRP) has become the most common application of advanced composite materials in construction. These materials exhibit many advantages in comparison with traditional ones (corrosion resistance, light weight, easy to apply, etc.). But despite countless researches have been done, there are still doubts about some aspects of their behaviour and applications are carried out only with the help of guidelines, without official regulations. The aim of this work is to improve the knowledge on this retrofitting technique, particularly in regard to flexural strengthening of masonry structures. Reinforced concrete is often the strengthened material and external glued FRP plates are used to improve its flexural, shear or compressive (by wrapping) capacity. However the use of this technique on other materials like masonry structures looks promising. Unreinforced masonry is characterized for being a good material to support compressive stresses but really bad to withstand tensile ones. Glue composite plates can improve the flexural capacity of masonry elements subject to bending. But a proper bond between FRP sheet and masonry must be ensured to do that, especially in old buildings whose surface can be damaged due to being outside or ageing. The main objectives of the work and the methodology carried out are described In Chapter II. An extensive overview of the state of art is done in Chapter III. In Section III.1 physical and mechanical properties of fibers, matrix and composites and their main applications are related. Durability aspects are especially emphasized. Section III.2 includes an historical overview of theoretical and empirical researches on concrete structures strengthened gluing FRP plates to improve their flexural behaviour. Section III.3 focuses on the critical point of bonding between FRP and substrate. Some theoretical models to prevent debonding of FRP laminate are reviewed, it has made a distinction between models for detachment at the end of the plate or debonding in the intermediate zones due to the effects of cracks. It is observed a lack of agreement in the proposals. Some experimental studies on bonding between masonry and FRP are also related in this chapter. The particular characteristics of masonry structures are analyzed in Section III.4. Besides some empirical and theoretical investigations relative to improve their flexural capacity with FRP sheets are reviewed. The mechanical behaviour of strengthened walls subject to pure bending (without compression) has been established by several authors, but this is an unusual situation for real masonry. Neither mechanical behaviour of walls subject to bending and compression nor influence of axial load in the final capacity of the strengthened element are adequately studied. In regard to theoretical studies, the different proposals are based on reinforced concrete analytical methods and share common design principles. However, they present differences, especially, about three aspects: 1) the constitutive law of masonry, 2) the value of ultimate FRP strain and 3) the desirable failure mode that must be looked for. In spite of them, a good agreement between each experimental program and its theoretical study is often exhibited due to enormous disparity in considered test parameters. Each experimental program usually presents a characteristic failure mode and the proposed formulation results appropriate for this one. It seems necessary to develop a method for FRP strengthened walls subject to bending and compression enable for all failure modes (due to FRP or masonry). Some common damages in masonry subject to bending are explained in Section III.4. Examples of FRP strengthening to repair or prevent these damages are also written. Two small experimental programs are carried out in Eduardo Torroja Institute to improve the knowledge on this topic. The first one is concerned about the bond between FRP plates and damaged masonry (section IV.1) and the second one is related to the mechanical behaviour of the strengthened masonry specimens subject to out of plane bending combined with axial force (section IV.2). In the Chapter V some bond models to prevent the debonding at the FRP plate end are checked. It is confirmed that their predictions are so different. A pure-shear test database is compiled with results from the existing literature and others from the experimental program described in section IV.1. This database lets know which of the considered model is more suitable to design anchorage lengths of glued FRP to masonry. In the Chapter VI a method to check unreinforced masonry sections with external FRP strengthening subject to bending and compression to the ultimate limit state is proposed. This method is based on concrete reinforced one, but it is adapted to strengthened masonry. A bilinear constitutive law is used for masonry (according to CTE DB SE-F). Its simplicity helps to develop the model formulation and it has proven to be suitable to predict bending capacity either for FRP failures or masonry crushing. With regard to FRP, the design strain is limited. It is taken into account different aspects which cause the plate can’t reach its ultimate strength, like intermediate FRP debonding induced by opening cracking or environmental damage. A “bond factor” is proposed. It is obtained by means of an experimental bending test database that includes 68 results from the existing literature and from the experimental program described in section IV.2. The proposed formulation has also been checked with the help of bending database. The effects of the main parameters, like axial load, FRP design effective strain or FRP stiffness, on the bending capacity of the strengthened element are studied in Chapter VII. Finally, the main conclusions from the work carried out are summarized in Chapter VIII. Future lines of research to be explored are suggested as well.