63 resultados para Acondicionamiento


Relevância:

10.00% 10.00%

Publicador:

Resumo:

El presente trabajo trata sobre la implementación de un prototipo de pulsioxímetro, es decir, un dispositivo capaz de medir la saturación de oxígeno en sangre y el ritmo cardiaco. Aprovechando una serie de propiedades ópticas se aplicará una técnica no invasiva basada en la absorción diferencial de la luz emitida por dos LEDs y, posteriormente, transmitida por los componentes del tejido humano. La caracterización de las constantes vitales del paciente será posible gracias a la comparación de las respuestas correspondientes a las dos longitudes de onda empleadas realizada por un fotodetector. Además de estos elementos, el sistema estará formado por un circuito analógico de acondicionamiento de la señal, un microcontrolador Arduino y un módulo de visualización LCD. El documento presentará la motivación que ha impulsado la elaboración de este proyecto, así como los conceptos fisiológicos y técnicos sobre los que se asienta el sistema y las fases de desarrollo que ha conllevado su implementación en un modelo real. Asimismo, se mencionarán las limitaciones del pulsioxímetro, los resultados de las mediciones experimentales y las posibles mejoras que podrían realizarse orientadas a la continuidad del diseño. El aliciente principal del proyecto está relacionado con su coste de fabricación. El objetivo es diseñar un dispositivo asequible que garantice una precisión de cálculo similar al de otros sistemas presentes en el mercado actual. Por ello, se realizará una comparativa sobre la fiabilidad de las lecturas del dispositivo frente a las especificaciones de dichos productos, con precios más elevados y por tanto menos accesibles para los países en vías de desarrollo

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A lo largo del presente trabajo se investiga la viabilidad de la descomposición automática de espectros de radiación gamma por medio de algoritmos de resolución de sistemas de ecuaciones algebraicas lineales basados en técnicas de pseudoinversión. La determinación de dichos algoritmos ha sido realizada teniendo en cuenta su posible implementación sobre procesadores de propósito específico de baja complejidad. En el primer capítulo se resumen las técnicas para la detección y medida de la radiación gamma que han servido de base para la confección de los espectros tratados en el trabajo. Se reexaminan los conceptos asociados con la naturaleza de la radiación electromagnética, así como los procesos físicos y el tratamiento electrónico que se hallan involucrados en su detección, poniendo de relieve la naturaleza intrínsecamente estadística del proceso de formación del espectro asociado como una clasificación del número de detecciones realizadas en función de la energía supuestamente continua asociada a las mismas. Para ello se aporta una breve descripción de los principales fenómenos de interacción de la radiación con la materia, que condicionan el proceso de detección y formación del espectro. El detector de radiación es considerado el elemento crítico del sistema de medida, puesto que condiciona fuertemente el proceso de detección. Por ello se examinan los principales tipos de detectores, con especial hincapié en los detectores de tipo semiconductor, ya que son los más utilizados en la actualidad. Finalmente, se describen los subsistemas electrónicos fundamentales para el acondicionamiento y pretratamiento de la señal procedente del detector, a la que se le denomina con el término tradicionalmente utilizado de Electrónica Nuclear. En lo que concierne a la espectroscopia, el principal subsistema de interés para el presente trabajo es el analizador multicanal, el cual lleva a cabo el tratamiento cualitativo de la señal, y construye un histograma de intensidad de radiación en el margen de energías al que el detector es sensible. Este vector N-dimensional es lo que generalmente se conoce con el nombre de espectro de radiación. Los distintos radionúclidos que participan en una fuente de radiación no pura dejan su impronta en dicho espectro. En el capítulo segundo se realiza una revisión exhaustiva de los métodos matemáticos en uso hasta el momento ideados para la identificación de los radionúclidos presentes en un espectro compuesto, así como para determinar sus actividades relativas. Uno de ellos es el denominado de regresión lineal múltiple, que se propone como la aproximación más apropiada a los condicionamientos y restricciones del problema: capacidad para tratar con espectros de baja resolución, ausencia del concurso de un operador humano (no supervisión), y posibilidad de ser soportado por algoritmos de baja complejidad capaces de ser instrumentados sobre procesadores dedicados de alta escala de integración. El problema del análisis se plantea formalmente en el tercer capítulo siguiendo las pautas arriba mencionadas y se demuestra que el citado problema admite una solución en la teoría de memorias asociativas lineales. Un operador basado en este tipo de estructuras puede proporcionar la solución al problema de la descomposición espectral deseada. En el mismo contexto, se proponen un par de algoritmos adaptativos complementarios para la construcción del operador, que gozan de unas características aritméticas especialmente apropiadas para su instrumentación sobre procesadores de alta escala de integración. La característica de adaptatividad dota a la memoria asociativa de una gran flexibilidad en lo que se refiere a la incorporación de nueva información en forma progresiva.En el capítulo cuarto se trata con un nuevo problema añadido, de índole altamente compleja. Es el del tratamiento de las deformaciones que introducen en el espectro las derivas instrumentales presentes en el dispositivo detector y en la electrónica de preacondicionamiento. Estas deformaciones invalidan el modelo de regresión lineal utilizado para describir el espectro problema. Se deriva entonces un modelo que incluya las citadas deformaciones como una ampliación de contribuciones en el espectro compuesto, el cual conlleva una ampliación sencilla de la memoria asociativa capaz de tolerar las derivas en la mezcla problema y de llevar a cabo un análisis robusto de contribuciones. El método de ampliación utilizado se basa en la suposición de pequeñas perturbaciones. La práctica en el laboratorio demuestra que, en ocasiones, las derivas instrumentales pueden provocar distorsiones severas en el espectro que no pueden ser tratadas por el modelo anterior. Por ello, en el capítulo quinto se plantea el problema de medidas afectadas por fuertes derivas desde el punto de vista de la teoría de optimización no lineal. Esta reformulación lleva a la introducción de un algoritmo de tipo recursivo inspirado en el de Gauss-Newton que permite introducir el concepto de memoria lineal realimentada. Este operador ofrece una capacidad sensiblemente mejorada para la descomposición de mezclas con fuerte deriva sin la excesiva carga computacional que presentan los algoritmos clásicos de optimización no lineal. El trabajo finaliza con una discusión de los resultados obtenidos en los tres principales niveles de estudio abordados, que se ofrecen en los capítulos tercero, cuarto y quinto, así como con la elevación a definitivas de las principales conclusiones derivadas del estudio y con el desglose de las posibles líneas de continuación del presente trabajo.---ABSTRACT---Through the present research, the feasibility of Automatic Gamma-Radiation Spectral Decomposition by Linear Algebraic Equation-Solving Algorithms using Pseudo-Inverse Techniques is explored. The design of the before mentioned algorithms has been done having into account their possible implementation on Specific-Purpose Processors of Low Complexity. In the first chapter, the techniques for the detection and measurement of gamma radiation employed to construct the spectra being used throughout the research are reviewed. Similarly, the basic concepts related with the nature and properties of the hard electromagnetic radiation are also re-examined, together with the physic and electronic processes involved in the detection of such kind of radiation, with special emphasis in the intrinsic statistical nature of the spectrum build-up process, which is considered as a classification of the number of individual photon-detections as a function of the energy associated to each individual photon. Fbr such, a brief description of the most important matter-energy interaction phenomena conditioning the detection and spectrum formation processes is given. The radiation detector is considered as the most critical element in the measurement system, as this device strongly conditions the detection process. Fbr this reason, the characteristics of the most frequent detectors are re-examined, with special emphasis on those of semiconductor nature, as these are the most frequently employed ones nowadays. Finally, the fundamental electronic subsystems for preaconditioning and treating of the signal delivered by the detector, classically addresed as Nuclear Electronics, is described. As far as Spectroscopy is concerned, the subsystem most interesting for the scope covered by the present research is the so-called Multichannel Analyzer, which is devoted to the cualitative treatment of the signal, building-up a hystogram of radiation intensity in the range of energies in which the detector is sensitive. The resulting N-dimensional vector is generally known with the ñame of Radiation Spectrum. The different radio-nuclides contributing to the spectrum of a composite source will leave their fingerprint in the resulting spectrum. Through the second chapter, an exhaustive review of the mathematical methods devised to the present moment to identify the radio-nuclides present in the composite spectrum and to quantify their relative contributions, is reviewed. One of the more popular ones is the so-known Múltiple Linear Regression, which is proposed as the best suited approach according to the constraints and restrictions present in the formulation of the problem, i.e., the need to treat low-resolution spectra, the absence of control by a human operator (un-supervision), and the possibility of being implemented as low-complexity algorithms amenable of being supported by VLSI Specific Processors. The analysis problem is formally stated through the third chapter, following the hints established in this context, and it is shown that the addressed problem may be satisfactorily solved under the point of view of Linear Associative Memories. An operator based on this kind of structures may provide the solution to the spectral decomposition problem posed. In the same context, a pair of complementary adaptive algorithms useful for the construction of the solving operator are proposed, which share certain special arithmetic characteristics that render them specially suitable for their implementation on VLSI Processors. The adaptive nature of the associative memory provides a high flexibility to this operator, in what refers to the progressive inclusión of new information to the knowledge base. Through the fourth chapter, this fact is treated together with a new problem to be considered, of a high interest but quite complex nature, as is the treatment of the deformations appearing in the spectrum when instrumental drifts in both the detecting device and the pre-acconditioning electronics are to be taken into account. These deformations render the Linear Regression Model proposed almost unuseful to describe the resulting spectrum. A new model including the drifts is derived as an extensión of the individual contributions to the composite spectrum, which implies a simple extensión of the Associative Memory, which renders this suitable to accept the drifts in the composite spectrum, thus producing a robust analysis of contributions. The extensión method is based on the Low-Amplitude Perturbation Hypothesis. Experimental practice shows that in certain cases the instrumental drifts may provoke severe distortions in the resulting spectrum, which can not be treated with the before-mentioned hypothesis. To cover also these less-frequent cases, through the fifth chapter, the problem involving strong drifts is treated under the point of view of Non-Linear Optimization Techniques. This reformulation carries the study to the consideration of recursive algorithms based on the Gauss-Newton methods, which allow the introduction of Feed-Back Memories, computing elements with a sensibly improved capability to decompose spectra affected by strong drifts. The research concludes with a discussion of the results obtained in the three main levéis of study considerad, which are presented in chapters third, fourth and fifth, toghether with the review of the main conclusions derived from the study and the outline of the main research lines opened by the present work.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

"En la línea de trabajo que hemos seguido, en todo momento hemos tenido en cuenta que una mejora en las condiciones de vida de la población no sería posible sin: _ la creación de nuevas actividades productivas que puedan dar trabajo a los hombres y generar economía en estos pueblos _ un mejor acondicionamiento de los espacios públicos donde mujeres y niños pasan la mayor parte del día actualmente A escala territorial, la mejora en el sistema hídrico podría ayudar a una mejor explotación agrícola de las tierras, permitiendo con el tiempo, generar una actividad productiva con la venta de cultivos (existente en otras partes de la provincia) A escala urbana, . poner en valor las construcciones tradicionales y evitar que se pierda la forma tradicional de construcción con tierra característica de estos pueblos con la introducción de la técnica del btc empleando un 2-7% de cemento, con lo que conseguiríamos lo bueno del hormigón [ausencia de mantenimiento y rapidez en la construcción] y de la tierra [buen funcionamiento térmico] . una mejora en las competencias técnicas de quienes se dedican a la construcción y el aprendizaje de un nuevo oficio por parte de otros, haciéndoles partícipes de la construcción de su propio entorno. Un año después de la llegada de los talleres de construcción con tierra a los pueblos del oasis, se han producido algunos cambios que suponemos estaban ya a punto de florecer. La construcción de una red hídrica que deriva el agua a las casas en M´Hamid ha empezado a construirse mientras llevábamos a cabo el análisis para esta práctica."

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La Arquitectura industrial del tabaco en España está representada por dos tipos de construcciones, que corresponden a las dos fases en las que se divide el proceso de producción del tabaco: los secaderos (arquitectura bioclimática donde se realiza el secado), y las fábricas (centros donde se elabora el tabaco procedente de los secaderos). Las fábricas se repartieron por todo el territorio español, ocupando preferiblemente los lugares costeros, aunque existen casos en los que su localización obedecía a razones políticas. Estos edificios, en su mayoría, incluidos en los centros históricos de las ciudades, han cambiando de uso, y las antiguas fábricas de tabaco se han transformado en su mayoría, en centros de cultura, o centros sociales y representativos. La tesis surge del análisis de las características constructivas de la arquitectura industrial del tabaco: de los secaderos y de las fábricas, por tratarse de una tipología con suficiente entidad y un ejemplo de arquitectura bioclimática de producción en el caso de los secaderos, y por conseguir haberse adaptado a otros usos en el caso de las fábricas. La arquitectura de producción emplea un lenguaje acorde con los avances de la industrialización, anticipando materiales y estructuras, y condensando en una tipología específica las complejas relaciones establecidas entre producto, hombres y espacio. Estos edificios tuvieron una extensa implantación en el territorio, y se caracterizan por una serie de valores tecnológicos, arquitectónicos, sociológicos y paisajísticos, que hacen de ellos un documento de primera magnitud para conocer: la evolución e implantación de las técnicas constructivas (materiales y estructuras), los procesos de innovación tipológica y la estructura económica y procedimientos técnicos utilizados. El territorio en el que se insertan constituye su contexto territorial, por lo que no sería adecuado considerar estos edificios como elementos aislados, sin analizar la relación con el entorno en el que se generaron. Por este motivo, se analizan las condiciones higrotérmicas ambientales de los secaderos para compararlas con las de confort humano y establecer relaciones y parámetros compatibles. Los ejemplos analizados de secaderos son todos de fábrica. El uso del ladrillo como módulo principal para la elaboración de un edificio, supone la consideración de un “grado cero” de todo el aparato constructivo y compositivo de la arquitectura. Dejar el ladrillo visto, supone hacer explícitos todos los procesos acumulativos. Este elemento mínimo, permite unas posibilidades enormemente abiertas, pero no absolutamente aleatorias, que definen su propia lógica combinatoria. La exigencia de sinceridad, característica de la arquitectura industrial, en la exposición de los materiales, exhibiéndolos en su propia naturaleza y en el modo real de ser utilizados, se hace patente en este tipo de construcción. Se realiza un estudio de permeabilidad en las fachadas de los secaderos, para determinar el grado de ventilación y su relación con la orientación, el patrón de celosía empleado y el volumen total. Este sistema de acondicionamiento climático específico, puede servir de recurso a otras construcciones, por lo que se podría trasladar el sistema constructivo y formal de los secaderos a otros usos, desde una doble vertiente: Arquitectura para la adaptación climática al entorno. Arquitectura como generadora de condiciones climáticas específicas, en el interior. La utilidad de los secaderos es fundamentalmente: proporcionar sombra, ventilación y un espacio cubierto, pero permeable en sus fachadas. La arquitectura industrial debe ser reconocida dentro del conjunto patrimonial, debido a sus características propias que permiten su diferenciación del resto de la arquitectura. Conocer la estructura productiva permite analizar correctamente estas construcciones, ya que el programa inicial es básico para entender la organización del espacio interior. Las fábricas no se situaron cerca de las zonas de producción del tabaco, excepto en dos casos: Cádiz y Palazuelo, en los que existen secaderos y campos de cultivo de hoja de tabaco en las áreas cercanas. La principal causa de esta separación es que el proceso de obtención de tabaco es un proceso dividido en dos fases principales: proceso primario y proceso secundario. En el proceso primario la hoja de tabaco se seca en los secaderos, en los que es determinante el clima, pero únicamente en el caso del secado del tabaco al aire. En el proceso secundario sin embargo, el tabaco llega previamente tratado a las fábricas, por lo que no influye el clima en esta parte del proceso. Esta razón determina que en las áreas climáticas donde se centra el estudio, haya zonas en las que existen fábrica y secaderos y otras en las que únicamente existe fábrica, o sólo secaderos. La localización de las fábricas atendía a razones de muy diferente índole, las más importantes fueron: geográficas, estratégicas, y políticas. En la mayoría de las fábricas la elección de la ciudad de emplazamiento estaba ligada a la recepción de la materia prima, que principalmente se hacía por vía marítima, o acuática (el caso de Sevilla), y por vía terrestre, utilizando como medio de transporte el ferrocarril. Sólo dos casos, de las antiguas fábricas, corresponden a razones políticas, son las dos únicas que no están en la costa: Madrid y Logroño. La de Madrid se construyó por centralidad política, y porque geográficamente ocupaba el punto central de todas las comunicaciones terrestres por carretera y ferrocarril. Muchas de las fábricas se situaron cercanas a las estaciones de ferrocarril. La de Logroño atendió, sin embargo, a razones políticas. Para finalizar, se realiza un estudio comparativo de las fábricas de Sevilla, Madrid y San Sebastián. Las razones que justifican esta elección son: - La de Sevilla fue históricamente la primera fábrica y la más importante. - La de Madrid fue la más importante a nivel administrativo, la sede de Tabacalera se instaló en la capital, y después de la de Sevilla, fue la que sirvió de modelo al resto de las fábricas. - La de San Sebastián era la más grande del Norte. Los análisis que se han realizado son de: volumen y superficies de patios, superficies de cubierta, permeabilidad o huecos en fachadas, orientación y soleamiento de patios, distribución espacial interior y organización, y evolución de usos. Podemos observar que en la mayoría de estas fábricas ha habido una transformación en el uso, pasando de ser edificios industriales a edificios culturales. Estas construcciones se pueden considerar como infraestructuras adaptables, por ser útiles, sostenibles y funcionales. ABSTRACT The Spanish industrial architecture of tobacco is represented by two construction types that correspond to the two phases of tobacco production: the drying sheds (bioclimatic constructions where the drying process takes place) and factories (centres where tobacco is processed after the drying process). The factories were distributed throughout the Spanish territory, preferably occupying coastal locations, although some of them were located elsewhere following political reasons. Most of the buildings inside city centres have suffered changes in their use, becoming cultural, social or representative centres. This thesis attempts the analysis of the constructive systems employed in tobacco industrial architecture, from drying sheds to factories. The drying sheds are an example of bioclimatic industrial architecture. The factories are a typology that have successfully adapted to new uses. Industrial architecture uses a language that follows the advances in industrialization, anticipating new materials and structures, and merging the complex relationships established among products, human beings, space and locations. These buildings were promoted extensively in the country. They are characterized by technological architectural sociological and landscaping innovations. They are considered as important examples of the evolution and the implementation of construction techniques (building materials and structures). They are also considered as examples of innovation in the building typology, in their economic structure and in the technologies that they have applied. The settings in which the drying sheds are placed have an important influence in them. They cannot be considered as isolated elements. Instead, there is a close relationship between drying sheds and the surroundings in which they are located. Drying sheds’ hygrotermal and environmental conditions are analyzed in this thesis to compare them with the values of human comfort and find suitable relationships and parameters. All the drying sheds that have been analyzed are constructed with brick. This implies a consideration of “zero degree” for both the construction and the composition of the architectural process. The detailing - entails making all the accumulative processes explicit as the brick walls are left exposed. This minimal component allows a wide range of options that are never random but based on the logic of the way in which it is combined. The “sincerity” in the exposition of material, displaying them in their very nature and showing how they are really used, is a basic characteristic of industrial architecture, and it is even more expressive in these types of buildings. The walls of the drying sheds undergo a permeability assessment in order to determine the degree of ventilation and orientation, the lattice pattern used and the overall volume. This specific conditioning system can serve as a resource for other buildings, and consequently, it could be transferred to other uses within a two-pronged approach: -Climatically adapted architecture that takes into account the surroundings. -Architecture as a generator of specific climatic conditions indoors. Drying sheds’ main purposes / aims deal with how to provide shade, ventilation and a covered space as well as permeability. The industrial architecture must be recognized as historical valuable buildings due to its intrinsic and distinctive characteristics. Knowing the productive structure, allow us to make a proper analysis of these buildings, since the basic aim, is to understand the spatial organization indoors. Factories did not come close to the tobacco production, with the exception of Cádiz and Palazuelo, where there are sheds and tobacco croplands nearby. The main reason for this separation is that the process of obtaining tobacco has two processes: the primary process and the secondary process. In the primary process tobacco leaves are left to dry. In the secondary process, previously manufactured tobacco allocated in the factories where the weather conditions are not important. This fact determines that in the climate areas where this study tales place there are some cases in which we can find both factories and drying sheds, and others where there are either factories or drying sheds only. The location of these factories met various demands, being the most outstanding the ones related to geographic, strategic and political reasons. In most factories the choice of its location was often linked to the incoming of raw goods, mainly delivered through waterways –it is the case of Seville,) and by land, using railways. The location of the factories was linked to political reasons in only two cases Madrid and Logroño, which are the only ones that are not placed near the coast. The one in Madrid was built due to its political centrality and because geographically speaking, it was the reference landmark of means of land and rail transports. Many factories, in fact, were settled nearby rail stations. For the factory in Logroño, only political reasons were taken into consideration. I should like to close by undertaking a comparative study of factories in Seville, Madrid and San Sebastian. There are a number of reasons to substantiate this choice: -The factory in Seville was historically speaking the first that was built and the most important one. -The factory in Madrid was the most important one administratively. This factory was the headquarters as well as being, after Seville, the one which provided a model for other factories. -The factory in San Sebastian is the biggest in the North of Spain. The analysis carried out are related to the volume of the buildings and the surface areas of the courtyards, the surface of the roofs, the permeability of the walls and the openings of the façade, the orientation and the sun exposure, the indoor spatial distribution and organization and evolution of the uses (formerly and currently) I observe that in most of these factories there has been a change in the use of the buildings, from industrial cultural purposes. These buildings can be considered as adaptable infrastructures based on a combination of architectural practicability, sustainability and functionality.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Se propone una metodología para la evaluación de soluciones constructivas de fachada para la rehabilitación de viviendas sociales, construidas entre el final de la Guerra Civil y la entrada en vigor de la norma básica NBE-CT-79, sobre condiciones térmicas en edificios. La metodología parte por un lado del análisis del estado actual en las viviendas, y por otro de la caracterización de las soluciones constructivas de rehabilitación, para la evaluación conjunta de las posibles mejoras. Esta evaluación persigue valorar su repercusión en la calidad del ambiente interior, y en la reducción de la demanda energética para acondicionamiento térmico. Se aplica sobre dos viviendas tipo que se han monitorizado en Madrid, utilizando dos soluciones innovadoras para rehabilitación energética, que disponen de documentos de idoneidad DIT y DITE. Una incorpora sobre la fachada tipo un aislamiento por el exterior, y otra incorpora un sistema de fachada ventilada, también sobre esta fachada tipo. El análisis de las viviendas se ha realizado a partir de la toma de datos, ensayos y estudio de detalle, llevados a cabo a lo largo de los años 2014 y 2015. El análisis de los sistemas de fachada se ha realizado a partir de ensayos controlados, comparando los resultados para tres tipos de fachada: una fachada tipo, habitual en la construcción de las viviendas de este periodo, y las dos soluciones innovadoras mencionadas. Una vez realizado el diagnóstico de las viviendas y el análisis de los ensayos de los sistemas constructivos, los resultados obtenidos se utilizan para generar los modelos de simulación sobre los que evaluar las mejoras. El periodo de estudio comprende cuatro décadas que comienzan en 1940, en un momento con escasos medios técnicos para la construcción, y que coincide con el comienzo del crecimiento en las grandes ciudades, y finaliza con la incorporación en la normativa de las exigencias de aislamiento en fachadas, de 1979. En la ciudad de Madrid las viviendas construidas en este periodo, suponen un 45% del total de viviendas censadas en 2011. La rehabilitación energética se ha ido incorporando en los sucesivos planes nacionales de vivienda como actuación protegida, y son muchos y muy diversos los planes de acción desde la administración en materia de vivienda social, tanto a nivel nacional como europeo. La vivienda queda incluida en materia de desarrollo y cohesión urbana, territorial y social, haciendo necesario un enfoque integrado. Los barrios de vivienda social forman parte de un patrimonio construido en los que los criterios de sostenibilidad toman especial interés y relevancia, ya que a través del tiempo se han construido como actores y testigos de su historia social, económica, ambiental y cultural. El diseño de los modelos y actuaciones de futuro se sustenta en la asimilación de esa complejidad y diversidad adquirida. Por otro lado, el actual reto que impone el calentamiento global obliga a plantear escenarios de adaptación y mejora en estos edificios, con una especial atención a la dependencia energética, el consumo de recursos, y emisiones de gases de efecto invernadero. La fachada es el elemento más importante de la envolvente en los edificios multifamiliares, siendo el lugar donde se produce el intercambio entre el ambiente interior y exterior. Su rehabilitación puede mejorar las prestaciones de habitabilidad en las viviendas, y disminuir la demanda de energía para alcanzar unas condiciones de confort estándar. El trabajo de investigación que se ha realizado, forma parte de una linea de investigación abierta sobre sistemas constructivos y habitabilidad en edificación. ABSTRACT A methodology for the evaluation of facade’s constructive solutions for social housing refurbishment, built between the end of the Civil War, and the entry into force of the basic standard NBE-CT-79 on thermal conditions in buildings is proposed. This methodology starts both with the analysis of the current status in dwellings, and with the characterization of rehabilitation’s constructive solutions performance, for the integrated assessment of improvements. The evaluation seeks to assess their impact on the indoor environmental quality, and on reducing the energy demand for thermal conditioning. The methodology is applied to two standard dwellings, that have been monitored in Madrid, with two innovative solutions for energy refurbishment, which have DIT and DITE assessment documents. One incorporates an exterior insulation, and the other incorporates a ventilated facade system. The analysis of the dwellings was made from data collection, testing and detailed study, conducted throughout 2014 and 2015. Analysis of the facade systems was made from controlled trials comparing the results for three types of façade: a standard usual facade common in the construction of this period, and the two innovative solutions mentioned. Based on the diagnosis of housing and systems analysis, the results are used to generate simulation models on which assess the improvements. The study period comprises four decades starting in 1940, at a time with limited technical resources for construction, which coincides with the beginning of growth in big cities, and ends with the incorporation in the 1979 legislation of the façade’s insulation requirements. In the city of Madrid the houses built in this period account for 45% of all households surveyed in 2011. As a “protected action” energy rehabilitation has been incorporated in successive national housing plans, and there are many and very different action plans from the Administration in the field of social housing, both at national and European level. An integrated approach is needed, due to the inclusion of housing in development and urban, territorial and social cohesion. Social housing neighborhoods are part of the built heritage. Sustainability criteria therefore are particularely relevant, since over time they have been built as actors and witnesses of their social, economic, environmental and cultural history. The design and performance of future models is based on the assimilation of this complexity and diversity acquired. On the other hand, the current challenge posed by global warming forces to consider scenarios for adaptation and improvement in these buildings, with particular attention to energy dependence, resource consumption, and greenhouse gas emissions. The facade is the most important element of the envelope in the multi-family buildings, being the place where the exchange occurs between the indoor and outdoor environments. Its rehabilitation can improve wellbeing in housing performance, and reduce energy demand to achieve standard comfort conditions. This research that has been done, is part of an open research line on construction and living conditions in buildings.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En esta tesis se estudia la vivienda “Tempe à pailla” (1932-1934) construida por Eileen Gray para uso propio, en la localidad francesa de Castellar. La expresión “cuarto propio” en el título del trabajo identifica este proyecto con la búsqueda de un lugar para la autoexperimentación. “Tempe à pailla” es el resultado de una enseñanza autodidacta adquirida por Eileen Gray gracias a la convivencia con los protagonistas del movimiento moderno, en el marco de la Francia de entreguerras. Las experiencias artesanales de E. Gray previas a la arquitectura y los instrumentos de aprendizaje permiten comprender el desarrollo de una mente crítica que cuestiona continuamente lo observado. Por ello, para demostrar la influencia de los postulados de los movimientos contemporáneos en la evolución de sus creaciones, y como preámbulo al análisis de “Tempe à pailla” se realiza un recorrido por las técnicas experimentadas y se analizan dos de sus primeros ejercicios de proyecto: “Vivienda de tres plantas” (1923) y “Maison pour un ingénieur” (1926). La enseñanza adquirida en torno a la herramienta del dibujo analítico y técnico, junto a su investigación en el campo de lo pictórico trasladada al mobiliario realizado en laca, o al diseño y tejido de tapices, constituyen un conjunto de prácticas que desembocan, primero en el acondicionamiento de interiores, para ensayar novedosas composiciones espaciales entre sus objetos y, por último, en el proyecto de arquitectura como disciplina capaz de conjugar todo lo experimentado anteriormente. El binomio Intuición más Método, en todos estos itinerarios prácticos de Eileen Gray, combinado con una mirada atenta hacia las obras, exposiciones, lecturas y revistas especializadas de su tiempo, amalgaman una personalidad compleja que investigó progresivamente, primero en el ámbito de la domesticidad, y en su etapa de madurez en torno a los mínimos de habitar y a los espacios colectivos. El propósito de esta tesis es descubrir cómo los aspectos sociales, artísticos y arquitectónicos del contexto, entrelazados con la propia subjetividad crítica de la arquitecto conforman los fundamentos de esta vivienda y condicionan las decisiones de una mente que proyecta copiando, reelaborando y descartando entre lo conocido y lo aprendido. La elección de esta casa como protagonista de la investigación persigue, en primer lugar, descubrir su relación con los discursos del momento, constituyéndose en objeto arquitectónico paradigmático de un diálogo continuado y abierto. Y en segundo lugar, establecer una síntesis valorativa de la coherencia o la falta de ella en las decisiones objetivas del proyecto, confrontándolas con otros ejemplos. Para alcanzar estos dos objetivos se ha diseccionado la casa desde cinco perspectivas: su vínculo con la preexistencia del lugar, su organización en planta alejada de cualquier tipo normalizado, su vocabulario como reflejo de la modernidad, las relaciones espacio-temporales conseguidas y la sinergia establecida entre el equipamiento doméstico y la arquitectura. Este desarrollo ha hecho posible situar “Tempe á pailla” como un punto de inflexión en la arquitectura de Eileen Gray, y un ejemplo donde fue capaz de anticipar las futuras revisiones del movimiento moderno en aspectos como: la adecuación y empatía de lo construido con el lugar de emplazamiento, el rechazo a las connotaciones del concepto de “machine d’habiter” y la búsqueda de un confort enfatizado por la percepción, la experiencia e incluso los efectos psicológicos del interior doméstico. La relectura de esta casa, enmarcada dentro de la trayectoria práctica de su autora, invita a fijar la mirada en un inexcusable aprendizaje, previo a lo arquitectónico, que aúne la TEORÍA y la PLÁSTICA del momento con ensayos materializados en la PRÁCTICA, demostrando que, para madurar el conocimiento y proyectar con criterio crítico, es imprescindible el factor TIEMPO. ABSTRACT This thesis examines the housing “Tempe à pailla” (1932-1934) built by Eileen Gray for her own use, in the French village of Castellar. The expression “own room” in the title of the work identifies this project as the searching for a place for self experimentation. “Tempe à pailla” is the result of a self-directed learning acquired by the authoress due to coexistence with the protagonists of the modern movement, within the framework of the interwar France. Gray’s craft experiences previous to the architecture along the learning tools allow us to understand the development of a critical mind that questions continuously what she observes. Therefore to demonstrate the influence of the postulates of the contemporary movements in the evolution of her creations, and as a preamble to analysis of “Tempe à pailla”, this thesis makes a tour, along the techniques that she experienced, and studies two of her first exercises of project: “Three-storey housing”(1923) and “Maison pour an ingénieur” (1926). Lesson learned around the analytical tool of architectural drawing, together her research in the field of painting transferred to furniture made in lacquer, or to the design and fabric of tapestries, they constitute a set of craft experiences that lead, first in the conditioning of interiors, rehearsing novel spatial compositions among her objects and finally in the architectural project as a discipline capable of combining everything she learnt previously The binomial Intuition plus Method in all of these practicals Eileen Gray’s itineraries, combined with her look toward the works, exhibitions, readings and journals of her time, become together a complex personality that progressively innovates firstly in the context of domesticity and, in her stage of maturity, on the minimum living and collective spaces. The purpose of this thesis is to discover how the social, artistic and architectural aspects of the context, interlaced with the own critical subjectivity of the architect shape the foundations of this housing and determine the decisions of a mind that projects copying, re-elaborating and rejecting among the aspects known and learned. The choice of this house as the protagonist of the thesis aims, first to discover the relationship with the speeches of her time, becoming a paradigmatic architectural object of a continued and open dialogue. And secondly, to establish a evaluative synthesis of the consistency or lack of it in the project decisions, confronting them with others appropriate examples. To achieve these two objectives the house has been dissected from five perspectives: Its link with the preexistence of the place, its organization on floor away any standard type, its vocabulary as a reflection of modernity reached spatial-temporal relations and the synergy established between the domestic equipment and architecture. The development has made possible to place “Tempe à pailla” as a turning point in the architecture of Eileen Gray, and an example where she was able to anticipate future revisions of the modern movement in aspects such as: adaptation and empathy of the architecture with the site, the rejection of the connotations of the concept of “machine d’habiter” and the pursuit of comfort emphasized by the perception, the experience and even the psychological effects of the domestic interior. The re-reading of this singular and reduced House, framed within the practical trajectory of her authoress, invites to gaze inexcusable learning prior to the architecture, which combines the THEORY and the PLASTIC with trials materialized in PRACTICE, demonstrating that the essential factor to mature knowledge and planning with critical criteria, is the TIME.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El control, o cancelación activa de ruido, consiste en la atenuación del ruido presente en un entorno acústico mediante la emisión de una señal igual y en oposición de fase al ruido que se desea atenuar. La suma de ambas señales en el medio acústico produce una cancelación mutua, de forma que el nivel de ruido resultante es mucho menor al inicial. El funcionamiento de estos sistemas se basa en los principios de comportamiento de los fenómenos ondulatorios descubiertos por Augustin-Jean Fresnel, Christiaan Huygens y Thomas Young entre otros. Desde la década de 1930, se han desarrollado prototipos de sistemas de control activo de ruido, aunque estas primeras ideas eran irrealizables en la práctica o requerían de ajustes manuales cada poco tiempo que hacían inviable su uso. En la década de 1970, el investigador estadounidense Bernard Widrow desarrolla la teoría de procesado adaptativo de señales y el algoritmo de mínimos cuadrados LMS. De este modo, es posible implementar filtros digitales cuya respuesta se adapte de forma dinámica a las condiciones variables del entorno. Con la aparición de los procesadores digitales de señal en la década de 1980 y su evolución posterior, se abre la puerta para el desarrollo de sistemas de cancelación activa de ruido basados en procesado de señal digital adaptativo. Hoy en día, existen sistemas de control activo de ruido implementados en automóviles, aviones, auriculares o racks de equipamiento profesional. El control activo de ruido se basa en el algoritmo fxlms, una versión modificada del algoritmo LMS de filtrado adaptativo que permite compensar la respuesta acústica del entorno. De este modo, se puede filtrar una señal de referencia de ruido de forma dinámica para emitir la señal adecuada que produzca la cancelación. Como el espacio de cancelación acústica está limitado a unas dimensiones de la décima parte de la longitud de onda, sólo es viable la reducción de ruido en baja frecuencia. Generalmente se acepta que el límite está en torno a 500 Hz. En frecuencias medias y altas deben emplearse métodos pasivos de acondicionamiento y aislamiento, que ofrecen muy buenos resultados. Este proyecto tiene como objetivo el desarrollo de un sistema de cancelación activa de ruidos de carácter periódico, empleando para ello electrónica de consumo y un kit de desarrollo DSP basado en un procesador de muy bajo coste. Se han desarrollado una serie de módulos de código para el DSP escritos en lenguaje C, que realizan el procesado de señal adecuado a la referencia de ruido. Esta señal procesada, una vez emitida, produce la cancelación acústica. Empleando el código implementado, se han realizado pruebas que generan la señal de ruido que se desea eliminar dentro del propio DSP. Esta señal se emite mediante un altavoz que simula la fuente de ruido a cancelar, y mediante otro altavoz se emite una versión filtrada de la misma empleando el algoritmo fxlms. Se han realizado pruebas con distintas versiones del algoritmo, y se han obtenido atenuaciones de entre 20 y 35 dB medidas en márgenes de frecuencia estrechos alrededor de la frecuencia del generador, y de entre 8 y 15 dB medidas en banda ancha. ABSTRACT. Active noise control consists on attenuating the noise in an acoustic environment by emitting a signal equal but phase opposed to the undesired noise. The sum of both signals results in mutual cancellation, so that the residual noise is much lower than the original. The operation of these systems is based on the behavior principles of wave phenomena discovered by Augustin-Jean Fresnel, Christiaan Huygens and Thomas Young. Since the 1930’s, active noise control system prototypes have been developed, though these first ideas were practically unrealizable or required manual adjustments very often, therefore they were unusable. In the 1970’s, American researcher Bernard Widrow develops the adaptive signal processing theory and the Least Mean Squares algorithm (LMS). Thereby, implementing digital filters whose response adapts dynamically to the variable environment conditions, becomes possible. With the emergence of digital signal processors in the 1980’s and their later evolution, active noise cancellation systems based on adaptive signal processing are attained. Nowadays active noise control systems have been successfully implemented on automobiles, planes, headphones or racks for professional equipment. Active noise control is based on the fxlms algorithm, which is actually a modified version of the LMS adaptive filtering algorithm that allows compensation for the acoustic response of the environment. Therefore it is possible to dynamically filter a noise reference signal to obtain the appropriate cancelling signal. As the noise cancellation space is limited to approximately one tenth of the wavelength, noise attenuation is only viable for low frequencies. It is commonly accepted the limit of 500 Hz. For mid and high frequencies, conditioning and isolating passive techniques must be used, as they produce very good results. The objective of this project is to develop a noise cancellation system for periodic noise, by using consumer electronics and a DSP development kit based on a very-low-cost processor. Several C coded modules have been developed for the DSP, implementing the appropriate signal processing to the noise reference. This processed signal, once emitted, results in noise cancellation. The developed code has been tested by generating the undesired noise signal in the DSP. This signal is emitted through a speaker simulating the noise source to be removed, and another speaker emits an fxlms filtered version of the same signal. Several versions of the algorithm have been tested, obtaining attenuation levels around 20 – 35 dB measured in a tight bandwidth around the generator frequency, or around 8 – 15 dB measured in broadband.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Radon gas (Rn) is a natural radioactive gas present in some soils and able to penetrate buildings through the building envelope in contact with the soil. Radon can accumulate within buildings and consequently be inhaled by their occupants. Because it is a radioactive gas, its disintegration process produces alpha particles that, in contact with the lung epithelia, can produce alterations potentially giving rise to cancer. Many international organizations related to health protection, such as WHO, confirm this causality. One way to avoid the accumulation of radon in buildings is to use the building envelope as a radon barrier. The extent to which concrete provides such a barrier is described by its radon diffusion coefficient (DRn), a parameter closely related to porosity (ɛ) and tortuosity factor (τ). The measurement of the radon diffusion coefficient presents challenges, due to the absence of standard procedures, the requirement to establish adequate airtightness in testing apparatus (referred to here as the diffusion cell), and due to the fact that measurement has to be carried out in an environment certified for use of radon calibrated sources. In addition to this calibrated radon sources are costly. The measurement of the diffusion coefficient for non-radioactive gas is less complex, but nevertheless retains a degree of difficulty due to the need to provide reliably airtight apparatus for all tests. Other parameters that can characterize and describe the process of gas transport through concrete include the permeability coefficient (K) and the electrical resistivity (ρe), both of which can be measured relatively easily with standardized procedure. The use of these parameters would simplify the characterization of concrete behaviour as a radon barrier. Although earlier studies exist, describing correlation among these parameters, there is, as has been observed in the literature, little common ground between the various research efforts. For precisely this reason, prior to any attempt to measure radon diffusion, it was deemed necessary to carry out further research in this area, as a foundation to the current work, to explore potential relationships among the following parameters: porosity-tortuosity, oxygen diffusion coefficient, permeability coefficient and resistivity. Permeability coefficient measurement (m2) presents a more straightforward challenge than diffusion coefficient measurement. Some authors identify a relationship between both coefficients, including Gaber (1988), who proposes: k= a•Dn Equation 1 Where: a=A/(8ΠD020), A = sample cross-section, D020 = diffusion coefficient in air (m2/s). Other studies (Klink et al. 1999, Gaber and Schlattner 1997, Gräf and Grube et al. 1986), experimentally relate both coefficients of different types of concrete confirming that this relationship exists, as represented by the simplified expression: k≈Dn Equation 2 In each particular study a different value for n was established, varying from 1.3 to 2.5, but this requires determination of a value for n in a more general way because these proposed models cannot estimate diffusion coefficient. If diffusion coefficient has to be measured to be able to establish n, these relationships are not interesting. The measurement of electric resistivity is easier than diffusion coefficient measurement. Correlation between the parameters can be established via Einstein´s law that relates movement of electrical charges to media conductivity according to the expression: D_e=k/ρ Equation 3 Where: De = diffusion coefficient (cm2/s), K = constant, ρ = electric resistivity (Ω•cm). The tortuosity factor is used to represent the uneven geometry of concrete pores, which are described as being not straight, but tortuous. This factor was first introduced in the literature to relate global porosity with fluid transport in a porous media, and can be formulated in a number of different ways. For example, it can take the form of equation 4 (Mason y Malinauskas), which combines molecular and Knudsen diffusion using the tortuosity factor: D=ε^τ (3/2r √(πM/8RT+1/D_0 ))^(-1) Equation 4 Where: r = medium radius obtained from MIP (µm), M = gas molecular mass, R = ideal gases constant, T = temperature (K), D0 = coefficient diffusion in the air (m2/s). Few studies provide any insight as to how to obtain the tortuosity factor. The work of Andrade (2012) is exceptional in this sense, as it outlines how the tortuosity factor can be deduced from pore size distribution (from MIP) from the equation: ∅_th=∅_0•ε^(-τ). Equation 5 Where: Øth = threshold diameter (µm), Ø0 = minimum diameter (µm), ɛ = global porosity, τ = tortuosity factor. Alternatively, the following equation may be used to obtain the tortuosity factor: DO2=D0*ɛτ Equation 6 Where: DO2 = oxygen diffusion coefficient obtained experimentally (m2/s), DO20 = oxygen diffusion coefficient in the air (m2/s). This equation has been inferred from Archie´s law ρ_e=〖a•ρ〗_0•ɛ^(-m) and from the Einstein law mentioned above, using the values of oxygen diffusion coefficient obtained experimentally. The principal objective of the current study was to establish correlations between the different parameters that characterize gas transport through concrete. The achievement of this goal will facilitate the assessment of the useful life of concrete, as well as open the door to the pro-active planning for the use of concrete as a radon barrier. Two further objectives were formulated within the current study: 1.- To develop a method for measurement of gas coefficient diffusion in concrete. 2.- To model an analytic estimation of radon diffusion coefficient from parameters related to concrete porosity and tortuosity factor. In order to assess the possible correlations, parameters have been measured using the standardized procedures or purpose-built in the laboratory for the study of equations 1, 2 y 3. To measure the gas diffusion coefficient, a diffusion cell was designed and manufactured, with the design evolving over several cycles of research, leading ultimately to a unit that is reliably air tight. The analytic estimation of the radon diffusion coefficient DRn in concrete is based on concrete global porosity (ɛ), whose values may be experimentally obtained from a mercury intrusion porosimetry test (MIP), and from its tortuosity factor (τ), derived using the relations expressed in equations 5 y 6. The conclusions of the study are: Several models based on regressions, for concrete with a relative humidity of 50%, have been proposed to obtain the diffusion coefficient following the equations K=Dn, K=a*Dn y D=n/ρe. The final of these three relations is the one with the determination coefficient closest to a value of 1: D=(19,997*LNɛ+59,354)/ρe Equation 7 The values of the obtained oxygen diffusion coefficient adjust quite well to those experimentally measured. The proposed method for the measurement of the gas coefficient diffusion is considered to be adequate. The values obtained for the oxygen diffusion coefficient are within the range of those proposed by the literature (10-7 a 10-8 m2/s), and are consistent with the other studied parameters. Tortuosity factors obtained using pore distribution and the expression Ø=Ø0*ɛ-τ are inferior to those from resistivity ρ=ρ0*ɛ-τ. The closest relationship to it is the one with porosity of pore diameter 1 µm (τ=2,07), being 7,21% inferior. Tortuosity factors obtained from the expression DO2=D0*ɛτ are similar to those from resistivity: for global tortuosity τ=2,26 and for the rest of porosities τ=0,7. Estimated radon diffusion coefficients are within the range of those consulted in literature (10-8 a 10-10 m2/s).ABSTRACT El gas radón (Rn) es un gas natural radioactivo presente en algunos terrenos que puede penetrar en los edificios a través de los cerramientos en contacto con el mismo. En los espacios interiores se puede acumular y ser inhalado por las personas. Al ser un gas radioactivo, en su proceso de desintegración emite partículas alfa que, al entrar en contacto con el epitelio pulmonar, pueden producir alteraciones del mismo causando cáncer. Muchos organismos internacionales relacionados con la protección de la salud, como es la OMS, confirman esta causalidad. Una de las formas de evitar que el radón penetre en los edificios es utilizando las propiedades de barrera frente al radón de su propia envolvente en contacto con el terreno. La principal característica del hormigón que confiere la propiedad de barrera frente al radón cuando conforma esta envolvente es su permeabilidad que se puede caracterizar mediante su coeficiente de difusión (DRn). El coeficiente de difusión de un gas en el hormigón es un parámetro que está muy relacionado con su porosidad (ɛ) y su tortuosidad (τ). La medida del coeficiente de difusión del radón resulta bastante complicada debido a que el procedimiento no está normalizado, a que es necesario asegurar una estanquidad a la celda de medida de la difusión y a que la medida tiene que ser realizada en un laboratorio cualificado para el uso de fuentes de radón calibradas, que además son muy caras. La medida del coeficiente de difusión de gases no radioactivos es menos compleja, pero sigue teniendo un alto grado de dificultad puesto que tampoco está normalizada, y se sigue teniendo el problema de lograr una estanqueidad adecuada de la celda de difusión. Otros parámetros que pueden caracterizar el proceso son el coeficiente de permeabilidad (K) y la resistividad eléctrica (ρe), que son más fáciles de determinar mediante ensayos que sí están normalizados. El uso de estos parámetros facilitaría la caracterización del hormigón como barrera frente al radón, pero aunque existen algunos estudios que proponen correlaciones entre estos parámetros, en general existe divergencias entre los investigadores, como se ha podido comprobar en la revisión bibliográfica realizada. Por ello, antes de tratar de medir la difusión del radón se ha considerado necesario realizar más estudios que puedan clarificar las posibles relaciones entre los parámetros: porosidad-tortuosidad, coeficiente de difusión del oxígeno, coeficiente de permeabilidad y resistividad. La medida del coeficiente de permeabilidad (m2) es más sencilla que el de difusión. Hay autores que relacionan el coeficiente de permeabilidad con el de difusión. Gaber (1988) propone la siguiente relación: k= a•Dn Ecuación 1 En donde: a=A/(8ΠD020), A = sección de la muestra, D020 = coeficiente de difusión en el aire (m2/s). Otros estudios (Klink et al. 1999, Gaber y Schlattner 1997, Gräf y Grube et al. 1986) relacionan de forma experimental los coeficientes de difusión de radón y de permeabilidad de distintos hormigones confirmando que existe una relación entre ambos parámetros, utilizando la expresión simplificada: k≈Dn Ecuación 2 En cada estudio concreto se han encontrado distintos valores para n que van desde 1,3 a 2,5 lo que lleva a la necesidad de determinar n porque no hay métodos que eviten la determinación del coeficiente de difusión. Si se mide la difusión ya deja de ser de interés la medida indirecta a través de la permeabilidad. La medida de la resistividad eléctrica es muchísimo más sencilla que la de la difusión. La relación entre ambos parámetros se puede establecer a través de una de las leyes de Einstein que relaciona el movimiento de cargas eléctricas con la conductividad del medio según la siguiente expresión: D_e=k/ρ_e Ecuación 3 En donde: De = coeficiente de difusión (cm2/s), K = constante, ρe = resistividad eléctrica (Ω•cm). El factor de tortuosidad es un factor de forma que representa la irregular geometría de los poros del hormigón, al no ser rectos sino tener una forma tortuosa. Este factor se introduce en la literatura para relacionar la porosidad total con el transporte de un fluido en un medio poroso y se puede formular de distintas formas. Por ejemplo se destaca la ecuación 4 (Mason y Malinauskas) que combina la difusión molecular y la de Knudsen utilizando el factor de tortuosidad: D=ε^τ (3/2r √(πM/8RT+1/D_0 ))^(-1) Ecuación 4 En donde: r = radio medio obtenido del MIP (µm), M = peso molecular del gas, R = constante de los gases ideales, T = temperatura (K), D0 = coeficiente de difusión de un gas en el aire (m2/s). No hay muchos estudios que proporcionen una forma de obtener este factor de tortuosidad. Destaca el estudio de Andrade (2012) en el que deduce el factor de tortuosidad de la distribución del tamaño de poros (curva de porosidad por intrusión de mercurio) a partir de la ecuación: ∅_th=∅_0•ε^(-τ) Ecuación 5 En donde: Øth = diámetro umbral (µm), Ø0 = diámetro mínimo (µm), ɛ = porosidad global, τ = factor de tortuosidad. Por otro lado, se podría utilizar también para obtener el factor de tortuosidad la relación: DO2=D0*-τ Ecuación 6 En donde: DO2 = coeficiente de difusión del oxígeno experimental (m2/s), DO20 = coeficiente de difusión del oxígeno en el aire (m2/s). Esta ecuación está inferida de la ley de Archie ρ_e=〖a•ρ〗_0•ɛ^(-m) y la de Einstein mencionada anteriormente, utilizando valores del coeficiente de difusión del oxígeno DO2 obtenidos experimentalmente. El objetivo fundamental de la tesis es encontrar correlaciones entre los distintos parámetros que caracterizan el transporte de gases a través del hormigón. La consecución de este objetivo facilitará la evaluación de la vida útil del hormigón así como otras posibilidades, como la evaluación del hormigón como elemento que pueda ser utilizado en la construcción de nuevos edificios como barrera frente al gas radón presente en el terreno. Se plantean también los siguientes objetivos parciales en la tesis: 1.- Elaborar una metodología para la medida del coeficiente de difusión de los gases en el hormigón. 2.- Plantear una estimación analítica del coeficiente de difusión del radón a partir de parámetros relacionados con su porosidad y su factor de tortuosidad. Para el estudio de las correlaciones posibles, se han medido los parámetros con los procedimientos normalizados o puestos a punto en el propio Instituto, y se han estudiado las reflejadas en las ecuaciones 1, 2 y 3. Para la medida del coeficiente de difusión de gases se ha fabricado una celda que ha exigido una gran variedad de detalles experimentales con el fin de hacerla estanca. Para la estimación analítica del coeficiente de difusión del radón DRn en el hormigón se ha partido de su porosidad global (ɛ), que se obtiene experimentalmente del ensayo de porosimetría por intrusión de mercurio (MIP), y de su factor de tortuosidad (τ), que se ha obtenido a partir de las relaciones reflejadas en las ecuaciones 5 y 6. Las principales conclusiones obtenidas son las siguientes: Se proponen modelos basados en regresiones, para un acondicionamiento con humedad relativa de 50%, para obtener el coeficiente de difusión del oxígeno según las relaciones: K=Dn, K=a*Dn y D=n/ρe. La propuesta para esta última relación es la que tiene un mejor ajuste con R2=0,999: D=(19,997*LNɛ+59,354)/ρe Ecuación 7 Los valores del coeficiente de difusión del oxígeno así estimados se ajustan a los obtenidos experimentalmente. Se considera adecuado el método propuesto de medida del coeficiente de difusión para gases. Los resultados obtenidos para el coeficiente de difusión del oxígeno se encuentran dentro del rango de los consultados en la literatura (10-7 a 10-8 m2/s) y son coherentes con el resto de parámetros estudiados. Los resultados de los factores de tortuosidad obtenidos de la relación Ø=Ø0*ɛ-τ son inferiores a la de la resistividad (ρ=ρ0*ɛ-τ). La relación que más se ajusta a ésta, siendo un 7,21% inferior, es la de la porosidad correspondiente al diámetro 1 µm con τ=2,07. Los resultados de los factores de tortuosidad obtenidos de la relación DO2=D0*ɛτ son similares a la de la resistividad: para la porosidad global τ=2,26 y para el resto de porosidades τ=0,7. Los coeficientes de difusión de radón estimados mediante estos factores de tortuosidad están dentro del rango de los consultados en la literatura (10-8 a 10-10 m2/s).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La edificación residencial existente en España y en Europa se encuentra abocada a una rehabilitación profunda para cumplir los objetivos marcados en la estrategia europea para el año 2050. Estos, para el sector de la edificación, se proponen una reducción del 90% de emisiones de gases de efecto invernadero (GEI) respecto a niveles del año 1990. Este plan a largo plazo establece hitos intermedios de control, con objetivos parciales para el año 2020 y 2030. El objetivo último es aprovechar el potencial de reducción de demanda energética del sector de la edificación, del cual la edificación residencial supone el 85% en España. Dentro de estos requerimientos, de reducción de demanda energética en la edificación, la ventilación en la edificación residencial se convierte en uno de los retos a resolver por su vinculación directa a la salud y el confort de los ocupantes de la misma, y al mismo tiempo su relación proporcional con la demanda energética que presenta el edificio asociada al acondicionamiento térmico. Gran parte de las pérdidas térmicas de la edificación residencial se producen por el aire de renovación y la infiltración de aire a través de la envolvente. La directiva europea de eficiencia energética de la edificación (EPBD), que establece las directrices necesarias para alcanzar los objetivos de este sector en cuanto a emisiones de CO2 y gases de efecto invernadero (GEI), contempla la ventilación con aire limpio como un requisito fundamental a tener en cuenta de cara a las nuevas construcciones y a la rehabilitación energética de los edificios existentes. El síndrome del edificio enfermo, un conjunto de molestias y síntomas asociados a la baja calidad del aire de edificios no residenciales que surgió a raíz de la crisis del petróleo de 1973, tuvo su origen en una ventilación deficiente y una renovación del aire interior insuficiente de estos edificios, producto del intento de ahorro en la factura energética. Teniendo en cuenta que, de media, pasamos un 58% de nuestro tiempo en las viviendas, es fundamental cuidar la calidad del aire interior y no empeorarla aplicando medidas de “eficiencia energética” con efectos no esperados. Para conseguir esto es fundamental conocer en profundidad cómo se produce la ventilación en la edificación en bloque en España en sus aspectos de calidad del aire interior y demanda energética asociada a la ventilación. El objetivo de esta tesis es establecer una metodología de caracterización y de optimización de las necesidades de ventilación para los espacios residenciales existentes en España que aúne el doble objetivo de garantizar la calidad ambiental y reducir la demanda energética de los mismos. La caracterización del parque edificatorio residencial español en cuanto a ventilación es concluyente: La vivienda en España se distribuye principalmente en tres periodos en los que se encuentran más del 80% del total de las viviendas construidas. El periodo anterior a las normas básicas de la edificación (NBE), de 1960 a 1980, el periodo desde 1980 al año 2005, con el mayor número total de viviendas construidas, guiado por la NTE ISV 75, y el periodo correspondiente a la edificación construida a partir del Código Técnico de la Edificación, en 2006, cuyo documento básico de condiciones de salubridad (DB HS3) es la primera norma de obligado cumplimiento en diseño y dimensionamiento de ventilación residencial en España. La selección de un modelo de bloque de viviendas de referencia, un valor medio y representativo, seleccionado de entre estos periodos, pero con cualidades que se extienden más allá de uno de ellos, nos permite realizar un intensivo análisis comparativo de las condiciones de calidad de aire interior y la demanda energética del mismo, aplicando las distintas configuraciones que presenta la ventilación en viviendas dependiendo del escenario o época constructiva (o normativa) en que esta fuera construida. Este análisis se lleva a cabo apoyándose en un doble enfoque: el modelado numérico de simulaciones y el análisis de datos experimentales, para comprobar y afinar los modelos y observar la situación real de las viviendas en estos dos aspectos. Gracias a las conclusiones del análisis previo, se define una estrategia de optimización de la ventilación basada fundamentalmente en dos medidas: 1) La introducción de un sistema de extracción mecánica y recuperación de calor que permita reducir la demanda energética debida a la renovación del aire y a la vez diluir los contaminantes interiores más eficazmente para mejorar, de esta forma, la calidad del ambiente interior. 2) La racionalización del horario de utilización de estos sistemas, no malgastando la energía en periodos de no ocupación, permitiendo una leve ventilación de fondo, debida a la infiltración, que no incida en pérdidas energéticas cuantiosas. A esta optimización, además de aplicar la metodología de análisis previo, en cuanto a demanda energética y calidad del aire, se aplica una valoración económica integradora y comparativa basada en el reglamento delegado EU244/2012 de coste óptimo (Cost Optimal Methodology). Los resultados principales de esta tesis son: • Un diagnóstico de la calidad del aire interior de la edificación residencial en España y su demanda energética asociada, imprescindible para lograr una rehabilitación energética profunda garantizando la calidad del aire interior. • Un indicador de la relación directa entre calidad de aire y demanda energética, para evaluar la adecuación de los sistemas de ventilación, respecto de las nuevas normativas de eficiencia energética y ventilación. • Una estrategia de optimización, que ofrece una alternativa de intervención, y la aplicación de un método de valoración que permite evaluar la amortización comparada de la instalación de los sistemas. ABSTRACT The housing building stock already built in Spain and Europe faces a deep renovation in the present and near future to accomplish with the objectives agreed in the European strategy for 2050. These objectives, for the building sector, are set in a 90% of Green House Gases (GHG) reduction compared to levels in 1990. This long‐term plan has set milestones to control the correct advance of achievement in 2020 and 2030. The main objective is to take advantage of the great potential to reduce energy demand from the building sector, in which housing represents 85% share in Spain. Among this reduction on building energy demand requirements, ventilation of dwellings becomes one of the challenges to solve as it’s directly connected to the indoor air quality (IAQ) and comfort conditions for the users, as well as proportional to the building energy demand on thermal conditioning. A big share of thermal losses in housing is caused by air renovation and infiltration through the envelope leaks. The European Directive on Building energy performance (EPBD), establishes the roots needed to reach the building sector objectives in terms of CO2 and GHG emissions. This directive sets the ventilation and renovation with clean air of the new and existing buildings as a fundamental requirement. The Sick Building Syndrome (SBS), an aggregation of symptoms and annoys associated to low air quality in non residential buildings, appeared as common after the 1973 oil crisis. It is originated in defective ventilation systems and deficient air renovation rates, as a consequence of trying to lower the energy bill. Accounting that we spend 58% of our time in dwellings, it becomes crucial to look after the indoor air quality and focus in not worsening it by applying “energy efficient” measures, with not expected side effects. To do so, it is primary to research in deep how the ventilation takes place in the housing blocks in Spain, in the aspects related to IAQ and ventilation energy demand. This thesis main objective is to establish a characterization and optimization methodology regarding the ventilation needs for existing housing in Spain, considering the twofold objective of guaranteeing the air quality as reducing the energy demand. The characterization of the existing housing building stock in Spain regarding ventilation is conclusive. More of 80% of the housing stock is distributed in 3 main periods: before the implementation of the firsts regulations on building comfort conditions (Normas Básicas de la Edificación), from 1960 to 1980; the period after the first recommendations on ventilation (NTE ISV 75) for housing were set, around 1980 until 2005 and; the period corresponding to the housing built after the existing mandatory regulation in terms of indoor sanity conditions and ventilation (Spanish Building Code, DB HS3) was set, in 2006. Selecting a representative blueprint of a housing block in Spain, which has medium characteristics not just within the 3 periods mention, but which qualities extent beyond the 3 of them, allows the next step, analyzing. This comparative and intense analyzing phase is focused on the air indoor conditions and the related energy demand, applying different configurations to the ventilation systems according to the different constructive or regulation period in which the building is built. This analysis is also twofold: 1) Numerical modeling with computer simulations and 2) experimental data collection from existing housing in real conditions to check and refine the models to be tested. Thanks to the analyzing phase conclusions, an optimization strategy on the ventilation of the housing stock is set, based on two actions to take: 1) To introduce a mechanical exhaust and intake ventilation system with heat recovery that allows reducing energy demand, as improves the capacity of the system to dilute the pollutant load. This way, the environmental quality is improved. 2) To optimize the schedule of the system use, avoids waste of energy in no occupancy periods, relying ventilation during this time in a light infiltration ventilation, intended not to become large and not causing extra energy losses. Apart from applying the previous analyzing methodology to the optimization strategy, regarding energy demand and air quality, a ROI valorization is performed, based on the cost optimal methodology (delegated regulation EU244/2012). The main results from the thesis are: • To obtain a through diagnose regarding air quality and energy demand for the existing housing stock in Spain, unavoidable to reach a energy deep retrofitting scheme with no air quality worsening. • To obtain a marker to relate air quality and energy demand and evaluate adequateness of ventilation systems, for the new regulations to come. • To establish an optimization strategy to improve both air quality and energy demand, applying a compared valorization methodology to obtain the Return On Investment (ROI).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El presente proyecto trata de describir las actuaciones necesarias para la perforación de un sondeo de investigación en el municipio de Biar (Alicante), con el fin de averiguar si es posible obtener agua en calidad y cantidad suficiente para el suministro de dicha población. Para ello se ha llevado a cabo un estudio hidrogeológico, que incluye un balance hídrico tanto de la masa de agua de Sierra Mariola como de los acuíferos implicados (Cabranta y Pinar de Camús), un estudio geofísico del entorno de la futura captación, además de indicar el proceso y los procedimientos de todas las fases constructivas de dicho proyecto (desde el acondicionamiento hasta el ensayo de bombeo, pasando por perforación, entubación, etc.) y la descripción de las actuaciones. El informe se completa con un estudio básico de seguridad y salud y su correspondiente evaluación de impacto ambiental.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La Tesis investiga aquellas obras en las que se ha producido un desplazamiento de la estructura portante hacia el perímetro del edificio para alcanzar su posterior desvanecimiento aplicando ciertos mecanismos arquitectónicos. En el proceso de la investigación se ha detectado cómo la rotundidad e inmediatez de la huella de lo estructural percibida en la arquitectura tradicional, tiende a desvanecerse, su desmaterialización queda patente en ciertas obras de la arquitectura contemporánea. La investigación comienza con la concordancia hallada entre tres edificios contemporáneos cuyo perímetro lo conforma una Envolvente Estructural: la tienda TODS, de Toyo Ito (2003); PRADA, de Herzog&de Meuron (2000) y DIOR, de SANAA (2001). Tres obras de fechas consecutivas, que, aun respondiendo a las mismas condiciones de ubicación, Omotesando (Tokio), uso, volumetría, altura y superficie, su Envolvente se configura de modo muy diverso, produciendo soluciones estructurales diferenciadas y heterogéneas. De estos tres modos de configurarse la envolvente, se desprenden las tres estrategias arquitectónicas empleadas en el desarrollo de la Tesis: figuración, abstracción y desmaterialización. Así pues, la investigación descubre, por una parte, un procedimiento figurativo que pone el acento en valores expresivos empleando códigos de significado como son los objetos de la naturaleza; por otra parte, un procedimiento abstracto, priorizando las reglas de construcción formal del propio objeto; y por último, como continuación de los anteriores, se descubre un procedimiento de desmaterialización planteado desde la delgadez de los muros, los materiales efímeros o una semitransparencia que pretende mayor conexión con el mundo exterior. Con el análisis de estas tres categorías secuenciales desveladas por los edificios citados de Omotesando, se han identificado otras obras clarividentes de Toyo Ito, Herzog&de Meuron y SANAA, por ser representativos de dichas nociones. Así pues, se han seleccionado veinticuatro casos de estudio y se han ordenado formando una colección de obras capaz de llegar a formular por sí misma un enunciado conclusivo sobre los procedimientos arquitectónicos capaces de velar la estructura mecánica. En la actualidad, el planteamiento de la Envolvente Estructural recurre a un nuevo modo de abordar la arquitectura. Esta ya no consiste en el juego sabio, correcto y magnífico, sino que adquiere una nueva dimensión poética desde la ausencia de la esencia resistente. Efectivamente, por un lado, se ha afirmado que ‘sin estructura no hay arquitectura’; y por otro lado, se trata de hacerla desaparecer. Así queda expresado en palabras de SANAA: “Para nosotros la estructura es muy importante, incluso su desaparición lo es”. Por otro lado, la Envolvente Estructural analizada en la Tesis recoge el legado de la historia, lo interpreta y se manifiesta con el lenguaje contemporáneo manteniendo aquella unidad entre las disciplinas de arquitectura e ingeniería comenzada en el siglo XIX. El contorno edilicio, conformado en un único elemento compacto e indiferenciado, resuelve diversas funciones habitualmente asignadas a otros elementos específicos: Encierra en un reducido espesor el cerramiento, la estructura resistente, el ornamento y el acondicionamiento térmico (en algunos casos); configura la forma arquitectónica y envuelve el espacio arquitectónico mostrando una libertad formal (cáscaras esculturales) y un lenguaje de liviandad (muros de espesores reducidos) sin precedentes. La tipología planteada condensa todo aquello que le permite expresar el enunciado más inmaterial de la estructura mecánica. Concluyendo, la Tesis verifica que una parte de la arquitectura contemporánea ya ha pasado del límite denso, corporeizado y mecánico tradicional, a un límite borroso, que se ha erosionado, se ha transmutado hasta su desmaterialización, su desvanecimiento o incluso su desaparición. ABSTRACT This thesis researches those buildings where the bearing structure has been moved towards the perimeter in order to reach its fading by means of architectural strategies. In the research development it has been detected how the clearness and immediacy of the footprint of the structure as noticed in the traditional architecture, tends to vanish, its dematerialization remains patent in certain contemporary architecture works. The research begins with the agreement found in three contemporary buildings whose perimeter is shaped by a structural envelope: TODS shop, by Toyo Ito (2003); PRADA, by Herzog&de Meuron (2000) and DIOR, by SANAA (2001). Three works in consecutive dates, that share the placement conditions, Omotesando (Tokio), use, volume, height and area, but its envelope is shaped in various ways, generating different and heterogeneous structural solutions. From these three ways of the envelope shape are deduced the three architectural strategies studied during the Thesis development: figuration, abstraction and dematerialization. Thus, the research discovers, on one hand, a figurative procedure that highlights the expressive values by using meaning codes such as the nature objects; on the other hand, an abstract procedure, prioritizing the formal construction rules typical of the object; at last, as a continuation of the others, a dematerialization procedure is shown, set out from the wall thinness, the ephemeral materials or the semitransparency that tries to increase the connection with the world around. With the analysis of these three categories in a sequence, shown in the Ometesando buildings, other works from Toyo Ito, Herzog&de Meuron and SANNAA have been identified because of being representative of those concepts. Therefore, twenty four case studies have been selected and have been ordered to set a collection of works that are able to formulate by themselves a conclusive statement about the architectural procedures that are able to veil the mechanical structure. Nowadays, the Structural envelope approach leads to a new way of dealing with architecture. This is not any more a wise game, correct and magnificent, but it acquires a new poetic dimension from the absence of the resistant essence. Indeed, on the one hand, it has been stated that ‘without structure there is no architecture’; and on the other hand, it tries to make it disappear. It is so stated in SANAA words: ‘The structure is very important for us, and even its disappearance” On the other hand, the Structural envelope analysed in this Thesis gathers the legacy of history, interprets it and it is expressed with a contemporary language, by keeping that unity between disciplines of architecture and engineering already started in the XIX century. The building boundary, shaped as a compacted and undifferentiated single element, solves several functions commonly assigned to other specific elements: keeps in a small thickness the envelope, the bearing structure, the ornament and the thermal conditioning (in same cases); it shapes the architectural form and envelopes the architectural space by showing a formal freedom (sculptural shells) and a lightness language (small thickness walls) with no precedents. This typology gathers all what lets to express the most immaterial statement of the mechanical structure. As a conclusion, the Thesis verifies that a part of the contemporary architecture has already gone over the dense limit, shaped and mechanical traditional to a blur limit that has been eroded, it has been changed until its dematerialization, its fading or event its disappearance.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La principal motivación para la elección del tema de la tesis es nuestra realidad energética y ambiental. Y más específicamente, la necesidad urgente de dar una respuesta a esta realidad desde el sector de la edificación. Por lo que, el trabajo parte de la búsqueda de soluciones pasivas que ayuden a la reducción del consumo energético y de las emisiones de C02 de los edificios, tanto nuevos como existentes. El objeto de estudio son aplicaciones innovadoras, basadas en el uso de materiales reactivos, con un efecto térmico de memoria bidireccional. La energía es un elemento imprescindible para el desarrollo. Sin embargo, el modelo energético predominante, basado principalmente en la utilización de combustibles de origen fósil, es uno de los importantes responsables del deterioro ambiental que sufre el planeta. Además, sus reservas son limitadas y están concentradas en unas pocas regiones del mundo, lo que genera problemas de dependencia, competitividad y de seguridad de suministro. Dado el gran potencial de ahorro energético del sector de la edificación, la Unión Europea en sus directivas enfatiza la necesidad de mejorar la eficiencia energética de los edificios. Añadiendo, además, la obligatoriedad de desarrollar edificios “energía casi nula”, cuyo prerrequisito es tener un muy alto rendimiento energético. En España, los edificios son responsables del 31% del consumo de energía primaria. La mayor parte de este consumo se relaciona a la utilización de sistemas activos de acondicionamiento. Una medida efectiva para reducir la demanda es mejorar la envolvente. Sin embargo, hay que buscar estrategias adicionales para aumentar aún más la eficiencia de los edificios nuevos y existentes. Para los climas de España, el uso de la inercia térmica ha probado ser una estrategia válida. Sin embargo, su funcionamiento está vinculado al peso y al volumen de los materiales utilizados. Esto limita sus posibilidades en la rehabilitación energética y en los nuevos edificios basados en la construcción ligera. Una alternativa es el uso de aplicaciones de almacenamiento térmico por calor latente, utilizando materiales de cambio de fase (PCM). Los PCM son sustancias con un muy alto calor de fusión, capaces de almacenar una gran cantidad de energía térmica sin requerir aumentos significativos de peso o volumen. Estas características los hacen idóneos para reducir el consumo relacionado con el acondicionamiento térmico, en edificios nuevos y existentes. En la parte preliminar de la investigación, se encontró que para lograr un aprovechamiento óptimo de las aplicaciones con PCM es necesario tener un conocimiento profundo de su funcionamiento y de las variables del sistema. De ahí que el objetivo principal de la presente tesis sea: establecer las bases para la optimizatión integral de las aplicaciones con almacenamiento de energía térmica por calor latente, identificando y validando sus variables más relevantes. La investigación consta de tres partes. La primera, documental, sistematizando y jerarquizando la información científica publicada; la segunda, numérica, basada en un análisis paramétrico de una aplicación con PCM, utilizando simulaciones térmicas; y la tercera, experimental, monitorizando el funcionamiento térmico y energético de diferentes aplicaciones con PCM en módulos a escala real. Los resultados brindan un más profundo entendimiento del funcionamiento de las aplicaciones evaluadas. Han permitido identificar sus variables relevantes, cuantificar su influencia, y determinar condiciones óptimas para su utilización así como situaciones en las que sería muy difícil justificar su uso. En el proceso, se realizó la caracterización térmica y energética de aplicaciones con PCM, tanto opacas como traslúcidas. Además, se ha encontrado que las aplicaciones con PCM son capaces de aumentar la eficiencia energética inclusive en recintos con diseños optimizados, demostrando ser una de las estrategias adecuadas para lograr el muy alto desempeño energético requerido en los edificios energía nula. ABSTRACT The main motivation for choosing the theme of the thesis is our energy and environmental reality. And more specifically, the urgent need to respond to this reality from the building sector. This is why, the work start with the search of passive solutions that help reduce energy consumption and C02 emissions of buildings, in both new and existing ones. The object of study is innovative applications based on the use of responsive materials, with bidirectional thermal memory. Energy is an essential element for development. However, the predominant energy model, based primarily on the use of fossil fuels, is one of the major responsible for the environmental deterioration of the planet, the cause of most of the CO2 emissions. Furthermore, reserves of fossil fuels are limited and are concentrated in a few regions of the world, which creates issues related to dependency, competitiveness, and security of supply. Given the large potential for energy savings in the building sector, the European Union in its directives emphasizes the need to improve energy efficiency in buildings. Also, adding the obligation to develop "nearly zero energy" buildings, whose first prerequisite is to achieve a very high energy efficiency. In Spain, buildings are responsible for 31% of primary energy consumption and most of this consumption is related to the used of HVAC systems. One of the most effective measures to reduce demand is to improve the envelope. However, it is necessary to look for additional strategies to further increase the efficiency of new and existing buildings. For the predominant climates in Spain, use of the thermal inertia may be a valid strategy. Nevertheless, its operation is linked to weight and volume of the materials used. This limits their possibilities in the existing buildings energy retrofitting and in the new buildings based on lightweight construction. An alternative is the use of latent heat thermal energy storage applications (LHTES), using phase change materials (PCM). PCM are substances with a high heat of fusion, capable of storing a large amount of thermal energy without requiring significant increases in weight or volume. These features make them ideal for reducing energy consumption associated with thermal conditioning in both new and existing buildings. In the preliminary part of the investigation, it was found that to get optimum utilization of the PCM applications is needed to have a deep understanding of its operation and, in particular, how the system variables affect its performance. Hence, the main objective of this thesis is: to establish the basis for the integral optimization of applications with latent heat thermal energy storage, identifying and validating the most relevant variables. The research comprises of three parts. The first, documentary, systematizing and prioritizing published scientific information. The second, numeric, based on a parametric analysis of an application PCM using thermal simulations. The third, experimental, monitoring the thermal and energy performance of different applications with PCM on real scale test cells. The results provide a complete understanding of the functioning of the evaluated LHTES application. They have allowed to identify their relevant variables, quantify their influence and determine optimum conditions for use as well as situations where it would be very difficult to justify its use. In the process, it was carried out the power and thermal characterization of various opaque and translucent PCM applications. Furthermore, it has been found that applications with PCM can increase the energy efficiency, even in buildings with optimized designs; proving to be one of the appropriate measures to achieve the high energy performance required in zero energy buildings.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En esta tesis se estudia cómo lograr el equilibrio entre dos fenómenos naturales que afectan a los huecos de fachadas: la iluminación natural y la ganancia solar. Es decir, el cómo, conseguir la optimización de la iluminación natural que se introduce a través de las ventanas existentes, sin realizar una laboriosa intervención de sustitución de las mismas y el cómo, conseguir la protección de la radiación solar directa de la zona acristalada, para evitar tanto las ganancias térmicas innecesarias como el deslumbramiento que afecta a la calidad lumínica de los recintos. Para el desarrollo esta investigación se ha propuesto una metodología de estudio dividida en dos fases: La primera, de Análisis y Diagnóstico, en la que se han de definir los estándares a cumplir y las variables con las que se evaluarán las bandejas. Y, la segunda, de Evaluación y Comprobación en la que se han de establecer los criterios de valoración y ponderación de cada variable. En la primera fase, se definirán las variables físico-ambientales, para lo que se seleccionarán algunas ciudades a estudiar, a las cuales se les estudiará las necesidades de confort térmico, se determinarán las dimensiones que deben tener las protecciones solares en esas ciudades, además se determinarán las actuaciones a realizar en los huecos de fachada según sea su posición en el plano vertical de la misma. Así mismo, se plantea hacer un análisis de casos reales, para lo que se caracterizarán desde el punto de vista lumínico algunas viviendas, realizando medidas “in situ” y comparando resultados con los que se obtienen de los programas de simulación, para seleccionar las viviendas en las que la realidad y la simulación se aproximen más, una de estas viviendas servirá de modelo en las simulaciones que se realizará en la segunda fase. También, en esta primera fase, mediante un modelo neutro, se estudiará el comportamiento térmico y lumínico del tamaño del hueco en el que se insertará la bandeja posteriormente, para luego estudiar la posición de la bandeja en el plano vertical de la ventana, desde el punto de vista ergonómico. Y finalmente se estudiará, el comportamiento térmico y lumínico del modelo con la bandeja ubicada a 40, 50 y 60cm del techo. En la segunda fase, se establecerá la valoración y ponderación de las variables con las que seleccionar la bandeja que mejor equilibre los aspectos térmicos y lumínicos, teniendo en cuenta estrategias pasivas de acondicionamiento ambiental, como favorecer las ganancias solares en invierno en horas diurnas y evitar las pérdidas de calor en horas nocturnas; y en verano implementar sistemas de sombreamiento en la zona acristalada para evitar las ganancias de calor; y, tanto en verano como en invierno, aprovechar la iluminación natural, para favorecer la iluminancia útil y evitar el deslumbramiento. Una vez definidos los criterios de valoración y ponderación se aplicará a la evaluación térmica y lumínica del modelo neutro con la bandeja, consiguiendo seleccionar la bandeja con mejor comportamiento. Posteriormente se comprobará la metodología de estudio desarrollada en el modelo seleccionado, se evaluará el comportamiento térmico y lumínico, con la incorporación de algunas alternativas de bandeja. Con esta investigación se quiere demostrar que mediante la aplicación de esta metodología de estudio, es posible evaluar y seleccionar bandejas que respondan a las necesidades requeridas en distintos casos de estudio, por lo que se considera que, la bandeja puede ser un elemento arquitectónico aplicable tanto en rehabilitación como en nueva construcción, de espacios en los que sea necesario mejorar sus condiciones lumínicas y térmicas simultáneamente. ABSTRACT This thesis studies how to balance two natural events that affect the window opening of facades: daylighting and solar gain. That is to say, how to achieve optimization of natural light that gets in through the existing windows, without making a laborious intervention of replacing them and how to get protection from direct solar radiation from the glass area, to avoid unnecessary heat gain and glare affecting the light quality of the enclosures. To develop this research, it has been proposed a methodology of study divided into two phases: First phase, Analysis and Diagnostics, in which the variables with which the light shelf are evaluated will be defined along with the standards the light shelves will meet. The second phase, Assessment and Verification, in which the assessment criteria and weighting of each variable will be established. In the first phase, the physical and environmental variables shall be defined, various cities will be selected to be studied, and in each the needs of thermal comfort will be determined along with the dimensions of shading devices in the cities. In addition the actions to be taken in the window opening of the façade will be determined, depending on their position in the vertical plane. An analysis of real cases will be undertaken, which will be characterized from the luminous point of view, performing "in situ" measurements and comparing results with those obtained from simulation programs, to select places/dwellings where reality and simulation are closer, one of these places/dwellings will be a model, in the simulations to perform at the second phase. Also, in this first phase, by a neutral model, the thermal and light behavior of the size of the window opening will be studied, in which the light shelf is inserted later, the position of the light shelf in the vertical plane of the window is studied, from an ergonomic point of view. And finally to study the thermal and light behavior of the model with the light shelf located at 40, 50 and 60cm from the ceiling. In the second phase, the evaluation and weighting of the variables will be established selecting the light shelf that best balances the thermal and daylighting aspects, taking into account passive environmental conditioning strategies; such as getting solar gains in winter during daylight hours, and preventing heat loss during the night hours; and in summer implementing shading systems in the glazing area to avoid heat gains. And in both summer and winter, taking advantage of natural lighting, to improve useful illuminance and avoid glare. Once defined, the evaluation criteria and weighting will be applied to thermal and daylighting evaluation to the neutral model with the light shelf, the best performing light shelf will be selected. The study methodology developed in the selected model will be verified the thermal and daylighting performance with the addition of some light shelf alternative will also be studied. With this research, we want to show that by applying this study methodology it is possible to evaluate and select the light shelf that meets the needs required in different case studies, so it is considered that the light shelf may be an applicable architectural element in both refurbishment and new construction of spaces where necessary to improve their daylighting and thermal conditions simultaneously.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El artículo aborda la necesidad de regenerar, acondicionar, y re-diseñar el espacio publico de las ordenaciones residenciales construidas bajo los criterios de la ciudad funcional (alta densidad, baja ocupación y tipología de bloques abiertos y torres), bajo los principios de sostenibilidad. Para ello propone una nueva metodología basada principalmente en caracterizar primero el espacio público actual, para después singularizarlo atendiendo a su vocación, mediante la ayuda de una “matriz de vocación de los espacios libres”. Como resultado el espacio público aparece discriminado en espacios principales y espacios servidos, sobre los que se articularán nuevos usos, acondicionamiento térmico, tratamiento de paisaje urbano y nuevos criterios de diseño para lograr transformar estos barrios en unidades más complejas, variadas y eficientes. Estos usos pasarán necesariamente por una nueva forma de gestión, en la que los vecinos entrarán a ser actores, responsables y beneficiarios de su correcto uso y mantenimiento. Sin duda una respuesta novedosa, participativa y sostenible para estos espacios, y que ayudará a alcanzar el reto de la sostenibilidad en la ciudad consolidada.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El empobrecimiento de los filtros del hueco hace que su eficiencia medioambiental, integración en el sistema constructivo y cualidades compositivas y espaciales se vean drásticamente reducidas. La revisión de la persiana enrollable desde su evolución histórica como elemento fundamental de la transformación del hueco permite devolver al cerramiento y al hueco esa complejidad perdida y acercarnos a la necesaria tipificación de nuestras soluciones. La investigación de la persiana enrollable parte de las primeras patentes inglesas y francesas hasta llegar a España por medio de los Herederos de Ramón Múgica, en San Sebastián y Casas&Bardes, en Barcelona, con múltiples soluciones constructivas integradas en los huecos. Su concepción a principios del s. XIX difiere de la actual tanto a nivel de acondicionamiento climático como constructivo y permite valorar, a través del análisis de algunos ejemplos, el cumplimiento de sus prestaciones e integración en el hueco y discernir qué soluciones emergentes son las más óptimas.