42 resultados para La Plana de Utiel-Requena-Fotografías
em Universidad Politécnica de Madrid
Resumo:
La presa de Campos del Paraíso (Cuenca), recientemente construida, es el órgano de regulación y distribución de los recursos suministrados por el Acueducto Tajo-Segura para abastecimiento de la Llanura Manchega. De ella parte una importante red de conducciones de más de 1.000 km de longitud, con la que se abastecerá a más de 100 núcleos urbanos, con una población global de unos 800.000 habitantes. Tiene este embalse encomendadas dos misiones importantes, una cotidiana consistente en regular los volúmenes de agua que ha de servir a la Llanura Manchega y otra de seguridad como receptor en emergencia del vaciado del Acueducto Tajo- Segura. El emplazamiento tiene la singularidad geológica de la existencia, bajo la plana aluvial del vaso, de capas subhorizontales de brechas calcáreas cretácicas permeables, lo que ha precisado ajustar su diseño a este condicionante para evitar pérdidas de agua por infiltración. En este artículo se describe el alcance de la actuación, el diseño estructural de esta presa de materiales sueltos, la solución dada a la impermeabilización del embalse, los detalles constructivos del sistema hidráulico (tomas, desagües y aliviadero) y la repercusión que esta obra tiene sobre la seguridad funcional del Acueducto Tajo-Segura
Resumo:
A Le Corbusier le hubiera gustado que le recordaran también como pintor. Igual que su compatriota E. L. Boullée, devoto como él de las formas más puras de la geometría, hubiera escrito gustoso, bajo el título de cualquiera de sus libros de Arquitectura, aquella frase: “Yo también soy pintor”. Para él, como para el ilustrado, la Arquitectura comparte una dimensión artística con la Pintura (y con la Escultura, la Música, la Poesía...etc.) que se pone de manifiesto en el proceso creativo y que está encaminada a emocionar al espectador que participa y se involucra en la obra. Arquitectura y Pintura se convierten de este modo en caminos diferentes para llegar a los mismos objetivos. Esta Tesis trata sobre el proceso de creación en la arquitectura de Le Corbusier y de cómo en él se producen continuas incursiones en el mundo de la pintura cubista. Asumiendo que es un tema sobre el que ya se ha escrito mucho ( las bibliografías de Le Corbusier y de Picasso son sin duda las más numerosas entre los artistas de sus respectivos campos) creemos que es posible ofrecer una nueva visión sobre los mecanismos que, tanto el arquitecto como el pintor, utilizaban en su trabajo. Lo que buscamos es desvelar un modo de creación, común entre ambas disciplinas, basado en el análisis de ciertos componentes artísticos capaces de ser ensamblados en composiciones sintéticas siempre nuevas, que inviten al espectador a participar del hecho creativo en una continua actividad cognoscitiva. El proyecto cubista, tanto para Le Corbusier como para Picasso, se alcanza al final de un largo camino como resultado de un profundo estudio de la realidad (en la Arquitectura, social, cultural y económica, y en la Pintura la realidad cotidiana), en el que el motivo, ya sea objeto, espacio ó luz, intenta ser “conocido” en su totalidad a través del filtro personal del artista. Es por lo tanto, algo a lo que se llega, y cuyo resultado, a priori, es desconocido. En cualquier caso, forma parte de una investigación, de un proceso continuo que intencionadamente supera la circunstancia concreta de cada ocasión. Es la coincidencia en los procesos de proyecto lo que unificará arquitecturas en principio tan dispares como la Capilla de Ronchamp, el Tribunal de Justicia de Chandigarh, o el Hospital de Venecia, y son esos procesos los que aquí, a través de varias obras concretas vamos a intentar desvelar. Es cierto que el proyecto presentado al concurso del Palacio de los Soviets de Moscú es un ejercicio brillante de Constructivismo, pero este resultado no se anunciaba al principio. Si analizamos el proceso de proyecto encontramos que inicialmente la propuesta no era muy diferente a la del Centorsoyuz, o incluso a la de la Cité de Refuge o a la del Pavillon Suisse de París. La solución final sólo se alcanzaría después de mover muchísimas veces, las piezas preseleccionadas en el solar. Cuando entendemos el Convento de la Tourette como una versión actualizada del monasterio dominico tradicional estamos haciendo una lectura parcial y engañosa de la idea de proyecto del arquitecto. En los croquis previos del archivo de la Fondation Le Corbusier encontramos otra vez las mismas ideas que en la vieja Cité de Refuge, ahora actualizadas y adaptadas al nuevo fin. Con la Asamblea de Chandigarh las similitudes son obvias e incluso aparece el mismo cubo al que se superpone una pirámide como techo, avanzando hacia el espacio central pero aquí aparece un gran hiperboloide en un interior cerrado. Este hiperboloide fue en el inicio del proyecto un cubo, y después un cilindro. Sólo al final encontró su forma óptima en un volumen de geometría reglada que en su idoneidad podría también valer para otros edificios, por ejemplo para una Iglesia. La comparación que se ha hecho de este volumen con las torres de refrigeración de Ahmedabad es puramente anecdótica pues, como veremos, esta forma se alcanza desde la lógica proyectual que sigue el pensamiento plástico de Le Corbusier, en este caso, en la adaptación del espacio cilíndrico a la luz, pero no como inspiración en las preexistencias. En todas sus obras los mecanismos que se despliegan son, en muchas ocasiones pictóricos (fragmentación analítica del objeto y del espacio, ensamblaje multidimensional, tramas subyacentes de soporte, escenografía intencionada ...etc.) y el programa en cada caso, como el motivo de los cubistas, no es más que una ocasión más para investigar una nueva forma de hacer y de entender, la Arquitectura. Cualquier proyecto del pintor-arquitecto cubista es en realidad un trabajo continuo desarrollado a lo largo de toda su vida, en el que se utilizan, una y otra vez, las mismas palabras de su vocabulario particular y personal. aunque con diferente protagonismo en cada ocasión. Se trata de alcanzar, desde ellas mismas, una perfección que las valide universalmente. Los mismos objetos, los mismos mecanismos, las mismas constantes manipulaciones del espacio y de la luz, se desplegarán, como ingredientes previos con los que trabajar, sobre el tablero de dibujo coincidiendo con el inicio de cada proyecto, para desde aquí hacer que el motivo que se trata de construir emerja, aunque a veces sea de manera incierta e inesperada, como resultado alcanzado al final. Con muchas dudas, a partir de la primera hipótesis planteada, se confirma, se añade o se elimina cada elemento según van apareciendo en el tiempo los condicionantes del solar, del programa o incluso a veces de obsesiones propias del arquitecto. El trabajo que presentamos utiliza un método inductivo que va desde los ejemplos hasta los conceptos. Empezaremos por investigar el proceso de proyecto en una obra concreta y con los mecanismos que en él se utilizan plantearemos una síntesis que los generalice y nos permitan extenderlos al entendimiento de la totalidad de su obra. Se trata en realidad de un método que en sí mismo es cubista: desde la fragmentación del objeto-proyecto procedemos a su análisis desde diversos puntos de vista, para alcanzar después su recomposición en una nueva estructura sintética. Cada mecanismo se analiza de forma independiente siguiendo un cierto orden que correspondería, supuestamente, al trabajo del arquitecto: manipulación del objeto, método compositivo, entendimiento del soporte (lienzo o espacio) y de su geometría implícita, relación con el observador, concepto y materialidad del espacio y de la luz ..etc. recurriendo a la teoría sólo en la medida en que necesitemos de ella para aclarar el exacto sentido con el que son utilizados. En nuestra incursión en el mundo de la pintura, hemos decidido acotar el Cubismo a lo que fue en realidad su periodo heroico y original, que discurrió entre 1907 y 1914, periodo en el que desarrollado casi exclusivamente por los que habían sido sus creadores, Picasso y Braque. Solo en alguna ocasión entraremos en la pintura del “tercer cubista”, Juan Gris para entender el tránsito de los mecanismos de los primeros hasta la pintura purista, pero no es nuestra intención desviar las cuestiones planteadas de un ámbito puramente arquitectónico Resulta difícil hablar del cubismo de Pablo Picasso sin hacerlo comparativamente con el de Georges Braque (para algunos especialistas es éste incluso el auténtico creador de la Vanguardia), siendo necesario enfrentar los mecanismos de ambos pintores para obtener un exacto entendimiento de lo que supuso la Vanguardia. Por eso nos parece interesante estudiar la obra de Le Corbusier en paralelo con la de otro arquitecto de tal manera que los conceptos aparezcan como polaridades entre las que situar los posibles estados intermedios. En este sentido hemos recurrido a James Stirling. Su deuda es clara con Le Corbusier, y sobre todo con el Cubismo, y como vamos a ver, los mecanismos que utiliza en su obra, siendo similares, difieren significativamente. La Tesis adquiere un sentido comparativo y aparecen así atractivas comparaciones Picasso-Le Corbusier, Braque-Stirling que se suman a las ya establecidas Picasso-Braque y Le Corbusier-Stirling. Desde ellas podemos entender mejor lo que supone trabajar con mecanismos cubistas en Arquitectura. Por último, en relación a los dibujos creados expresamente para esta Tesis, hemos de indicar que las manipulaciones que se han hecho de los originales les convierten en elementos analíticos añadidos que aclaran determinadas ideas expresadas en los croquis de sus autores. Algunos están basados en croquis del archivo de la Fondation Le Corbusier (se indican con el número del plano) y otros se han hecho nuevos para explicar gráficamente determinadas ideas. Se completa la parte gráfica con las fotografías de las obras pictóricas, los planos originales e imágenes de los edificios construidos, extraídos de los documentos de la bibliografía citada al final. Nos disponemos pues, a indagar en las obras del Cubismo, en una búsqueda de los mecanismos con los que hacía su arquitectura Le Corbusier.
Resumo:
El sector del vino se enfrenta a nuevas oportunidades de mercado, debido a la creciente liberalización y globalización del comercio, a las que hay que unir mayores retos, como la competencia en aumento de nuevos actores y el descenso del consumo en los países productores tradicionales. Para hacer frente a esta competencia en mercados emergentes, así como a la saturación de los tradicionales, las estrategias de diferenciación se hacen cada vez más necesarias. La industria vitivinícola española, incluida en un modelo tradicional de producción, también ha sufrido con la aparición en el mercado internacional de nuevos países productores y requiere de procesos de reestructuración de la producción y estrategias innovadoras en el comercio. En España existe un claro desajuste entre oferta y demanda, con descensos en el consumo interno, que apenas cubre la sexta parte de la producción, con la eliminación de los apoyos públicos de regulación y con aumentos continuados de las cosechas. Por ello, la vía más relevante para mantener la rentabilidad del sector es la exportación, aumentando considerablemente el volumen exportado, pero también mejorando el valor de los envíos. Esta situación, sin duda, exige adaptar la oferta española a la demanda global y requiere del conocimiento de los mercados de destino y del diseño de estrategias adecuadas para alcanzar el objetivo marcado. Estados Unidos es un importador neto de vino, debido al incremento de la demanda, que desde 2013 le hizo convertirse en el mayor consumidor mundial en volumen. Este consumo en expansión no es cubierto por la producción interna, y los vinos importados adquieren un creciente interés para el consumidor estadounidense. España tiene tasas de incremento significativas en este destino, pero sus cuotas de mercado aún se sitúan en niveles inferiores a las de muchos países competidores y el consumidor medio estadounidense no tiene un elevado conocimiento del vino español, por lo que existe una gran capacidad de crecimiento. En este contexto, se plantea la necesidad de examinar el comportamiento de la demanda de EE.UU. frente a los atributos del vino español. Identificar y analizar las características que la demanda estadounidense, como mercado de exportación, considera relevantes en el vino español de calidad diferenciada, procedente de distintas regiones productoras, y posteriormente determinar su grado de importancia, de manera que se puedan plantear herramientas para la toma de decisiones empresariales y para la definición de estrategias comerciales, por parte de productores, exportadores y distribuidores vitivinícolas. El análisis de precios hedónicos, metodología ampliamente utilizada en el sector, trata de explicar la decisión de compra de determinado producto en base a una combinación de sus atributos, además de estimar el precio implícito de cada uno de ellos. Por tanto, este enfoque resulta indicado y ha sido el empleado para proporcionar a los operadores del lado de la oferta la posibilidad de comprobar los beneficios previstos de sus inversiones, comparándolos con los costes asociados a dicho esfuerzo inversor. La estimación hedónica se realiza sobre una muestra representativa de exportaciones de bodegas españolas, obtenida de una guía especializada de EE.UU. de amplia difusión en dicho mercado. Se realizan análisis tanto para el conjunto de la muestra, como para los distintos segmentos de precio (super premium, popular premium y ultra premium), y de ellos se deriva que seis grupos de variables presentan influencia sobre la apreciación del consumidor: añada, categoría comercial (grado de envejecimiento y vinos boutique), nota de calidad, origen, tipo de vino (según su color) y tamaño de la bodega. Cualquier decisión empresarial adoptada respecto a alguno de estos atributos es relevante respecto al posicionamiento del vino en el mercado estadounidense. Al margen de determinadas particularidades y del origen del vino, que presenta conductas diferentes según el segmento de precios, se observa un comportamiento similar de la demanda respecto a cada grupo de variables en los distintos tramos del mercado. Por otro lado, es necesario señalar que el rango super premium es el de mayor complejidad a la hora de tomar decisiones y en el que se dan un mayor número de posibilidades de actuación a la hora de posicionar el producto, ya que es en el que un mayor número de parámetros resulta de interés para el consumidor. El comprador estadounidense presta gran atención a la categoría del vino, siendo el factor más influyente sobre el precio de manera general. La demanda estadounidense valora de un modo importante el grado de envejecimiento de los vinos, así como su posicionamiento en precios altos que reflejen características específicas, como ocurre en los vinos boutique, especialmente apreciados en el segmento ultra premium. En este sentido, sería pertinente analizar los costes asociados a procurar a los vinos, en el caso de ser aptos para ello, un mayor envejecimiento o para elaborar un vino boutique dirigido a este mercado, o bien centrar las exportaciones en este tipo de vinos, para comprobar si se obtienen mayores beneficios con estas operaciones. Se presentan como excepción los vinos calificados como crianza que se equiparan a los vinos jóvenes o presentan peor apreciación, por lo que puede no resultar rentable un envejecimiento del vino hasta esa categoría. Por otro lado, se observa en los dos tramos inferiores de precio, que el consumidor estadounidense sabe apreciar las oportunidades de encontrar un vino de calidad en un precio inferior al esperado, por lo que aparecen oportunidades para establecer estrategias de comercialización, vía ofertas o promociones, para penetrar en el mercado. El factor exclusividad, medido a través del tamaño de la bodega, puede servir como instrumento de diferenciación comercial en EE.UU. al presentar valor añadido para la demanda, que aprecia en mayor medida los vinos elaborados por microempresas, frente a los de grandes empresas, que obtienen los peores resultados. En los vinos super premium crece la importancia de este factor, frente al tramo inferior donde el peso de las decisiones recae en otros parámetros. En ultra premium, la demanda relaciona más el factor exclusividad con la categoría boutique y no tanto con el menor tamaño de la empresa. En cuanto al tipo de vino, resulta el atributo menos relevante para el consumidor a la hora de tomar una decisión de compra, e incluso no es significativo en el segmento inferior de precios. Por tanto, las bodegas podrían tratar de introducirse en el mercado popular premium sin atender al color del vino como aspecto clave. De manera general, los vinos tintos presentan una mayor valoración frente a los blancos y rosados, teniendo estos últimos consideración negativa para el cliente. El origen del vino es relevante en las elecciones del consumidor y tiene utilidad como elemento diferenciador. Por tanto, la localización de una bodega puede favorecer o perjudicar su penetración en EE.UU. Resulta interesante que, en el tramo superior de precios, gran parte de las apreciaciones sobre los distintos orígenes son positivas, lo que va en favor de la asociación de los vinos españoles a un cierto factor prestigio y con la generación de una buena imagen general. Sin embargo, no hay muchas procedencias significativas en este estrato, por lo que son necesarios mayores esfuerzos promocionales y de posicionamiento, para ampliar el conocimiento y aceptación por el mercado de EE.UU. y mejorar así el citado factor prestigio. De manera global, la mejor valoración por la demanda se produce en los orígenes del norte de la península, mientras que la submeseta sur, zonas colindantes y Aragón tienen apreciaciones negativas. En este sentido, hay determinados orígenes, como Yecla, Utiel-Requena, Cariñena, Vinos de la Tierra de Castilla o, especialmente, Valdepeñas, que han de modificar sus estrategias de promoción, si existieran, o emprender trabajos intensos en esta línea. Por otro lado, se muestra que la mayor penetración de mercado ayuda a un mayor conocimiento y a una mejor valoración por parte del cliente. Las denominaciones de origen Rioja, Ribera de Duero, Priorat, Penedès, Rueda y Toro, orígenes con elevada presencia en la muestra, son reconocidas positivamente. Excepciones a esta afirmación, DO Navarra y Rías Baixas, deben aumentar la promoción y replantear las estrategias de posicionamiento, ya que el consumidor no parece predispuesto a comprar un vino de estas procedencias por encima de determinado nivel de precio. Finalmente, se destaca que hay orígenes, como DO Campo de Borja o IGP Vino de la Tierra de Castilla y León, con mayor valoración a mayor precio, por lo que deberían aprovechar esta percepción de buena calidad para penetrar en el mercado, especialmente en los tramos superiores de precio. En general, el consumidor estadounidense considera la añada como un factor de media relevancia en la toma de decisiones, con menos importancia en ultra premium que entre los vinos del segmento inferior y medio. En todos los análisis hay coincidencia en la mejor valoración de las últimas añadas, hecho que puede guardar relación con el aumento de la presencia y del mayor conocimiento de los vinos españoles en EE.UU. En cualquier caso, no resultaría interesante la exportación de vinos de años de cosecha antiguos, especialmente en los tramos más baratos de precios, dado que su valor puede no verse recompensado. Finalmente indicar que el mercado estadounidense tiene gran consideración, y de manera directamente proporcional, por la nota de calidad otorgada por expertos, más notablemente a medida que aumenta el precio, y la obtención de las máximas calificaciones puede suponer una apreciación significativa, mientras que una nota situada en los valores inferiores será considerada negativamente y prácticamente del mismo modo por el consumidor. Por tanto, para el elaborador del vino resultaría muy relevante obtener una de las máximas calificaciones, ya que sólo a partir de los 90 puntos se consigue un impacto positivo considerable, que permita rentabilizar los esfuerzos inversores realizados a tal fin.
Resumo:
La protección de las aguas subterráneas es una prioridad de la política medioambiental de la UE. Por ello ha establecido un marco de prevención y control de la contaminación, que incluye provisiones para evaluar el estado químico de las aguas y reducir la presencia de contaminantes en ellas. Las herramientas fundamentales para el desarrollo de dichas políticas son la Directiva Marco del Agua y la Directiva Hija de Aguas Subterráneas. Según ellas, las aguas se consideran en buen estado químico si: • la concentración medida o prevista de nitratos no supera los 50 mg/l y la de ingredientes activos de plaguicidas, de sus metabolitos y de los productos de reacción no supera el 0,1 μg/l (0,5 μg/l para el total de los plaguicidas medidos) • la concentración de determinadas sustancias de riesgo es inferior al valor umbral fijado por los Estados miembros; se trata, como mínimo, del amonio, arsénico, cadmio, cloruro, plomo, mercurio, sulfatos, tricloroetileno y tetracloroetileno • la concentración de cualquier otro contaminante se ajusta a la definición de buen estado químico enunciada en el anexo V de la Directiva marco sobre la política de aguas • en caso de superarse el valor correspondiente a una norma de calidad o a un valor umbral, una investigación confirma, entre otros puntos, la falta de riesgo significativo para el medio ambiente. Analizar el comportamiento estadístico de los datos procedentes de la red de seguimiento y control puede resultar considerablemente complejo, debido al sesgo positivo que suelen presentar dichos datos y a su distribución asimétrica, debido a la existencia de valores anómalos y diferentes tipos de suelos y mezclas de contaminantes. Además, la distribución de determinados componentes en el agua subterránea puede presentar concentraciones por debajo del límite de detección o no ser estacionaria debida a la existencia de tendencias lineales o estacionales. En el primer caso es necesario realizar estimaciones de esos valores desconocidos, mediante procedimientos que varían en función del porcentaje de valores por debajo del límite de detección y el número de límites de detección aplicables. En el segundo caso es necesario eliminar las tendencias de forma previa a la realización de contrastes de hipótesis sobre los residuos. Con esta tesis se ha pretendido establecer las bases estadísticas para el análisis riguroso de los datos de las redes de calidad con objeto de realizar la evaluación del estado químico de las masas de agua subterránea para la determinación de tendencias al aumento en la concentración de contaminantes y para la detección de empeoramientos significativos, tanto en los casos que se ha fijado un estándar de calidad por el organismo medioambiental competente como en aquéllos que no ha sido así. Para diseñar una metodología que permita contemplar la variedad de casos existentes, se han analizado los datos de la Red Oficial de Seguimiento y Control del Estado Químico de las Aguas Subterráneas del Ministerio de Agricultura, Alimentación y Medio Ambiente (Magrama). A continuación, y dado que los Planes Hidrológicos de Cuenca son la herramienta básica de las Directivas, se ha seleccionado la Cuenca del Júcar, dada su designación como cuenca piloto en la estrategia de implementación común (CIS) de la Comisión Europea. El objetivo principal de los grupos de trabajo creados para ello se dirigió a implementar la Directiva Derivada de Agua Subterráneas y los elementos de la Directiva Marco del Agua relacionadas, en especial la toma de datos en los puntos de control y la preparación del primer Plan de Gestión de Cuencas Hidrográficas. Dada la extensión de la zona y con objeto de analizar una masa de agua subterránea (definida como la unidad de gestión en las Directivas), se ha seleccionado una zona piloto (Plana de Vinaroz Peñiscola) en la que se han aplicado los procedimientos desarrollados con objeto de determinar el estado químico de dicha masa. Los datos examinados no contienen en general valores de concentración de contaminantes asociados a fuentes puntuales, por lo que para la realización del estudio se han seleccionado valores de concentración de los datos más comunes, es decir, nitratos y cloruros. La estrategia diseñada combina el análisis de tendencias con la elaboración de intervalos de confianza cuando existe un estándar de calidad e intervalos de predicción cuando no existe o se ha superado dicho estándar. De forma análoga se ha procedido en el caso de los valores por debajo del límite de detección, tomando los valores disponibles en la zona piloto de la Plana de Sagunto y simulando diferentes grados de censura con objeto de comparar los resultados obtenidos con los intervalos producidos de los datos reales y verificar de esta forma la eficacia del método. El resultado final es una metodología general que integra los casos existentes y permite definir el estado químico de una masa de agua subterránea, verificar la existencia de impactos significativos en la calidad del agua subterránea y evaluar la efectividad de los planes de medidas adoptados en el marco del Plan Hidrológico de Cuenca. ABSTRACT Groundwater protection is a priority of the EU environmental policy. As a result, it has established a framework for prevention and control of pollution, which includes provisions for assessing the chemical status of waters and reducing the presence of contaminants in it. The measures include: • criteria for assessing the chemical status of groundwater bodies • criteria for identifying significant upward trends and sustained concentrations of contaminants and define starting points for reversal of such trends • preventing and limiting indirect discharges of pollutants as a result of percolation through soil or subsoil. The basic tools for the development of such policies are the Water Framework Directive and Groundwater Daughter Directive. According to them, the groundwater bodies are considered in good status if: • measured or predicted concentration of nitrate does not exceed 50 mg / l and the active ingredients of pesticides, their metabolites and reaction products do not exceed 0.1 mg / l (0.5 mg / l for total of pesticides measured) • the concentration of certain hazardous substances is below the threshold set by the Member States concerned, at least, of ammonium, arsenic, cadmium, chloride, lead, mercury, sulphates, trichloroethylene and tetrachlorethylene • the concentration of other contaminants fits the definition of good chemical status set out in Annex V of the Framework Directive on water policy • If the value corresponding to a quality standard or a threshold value is exceeded, an investigation confirms, among other things, the lack of significant risk to the environment. Analyzing the statistical behaviour of the data from the monitoring networks may be considerably complex due to the positive bias which often presents such information and its asymmetrical distribution, due to the existence of outliers and different soil types and mixtures of pollutants. Furthermore, the distribution of certain components in groundwater may have concentrations below the detection limit or may not be stationary due to the existence of linear or seasonal trends. In the first case it is necessary to estimate these unknown values, through procedures that vary according to the percentage of values below the limit of detection and the number of applicable limits of detection. In the second case removing trends is needed before conducting hypothesis tests on residuals. This PhD thesis has intended to establish the statistical basis for the rigorous analysis of data quality networks in order to conduct the evaluation of the chemical status of groundwater bodies for determining upward and sustained trends in pollutant concentrations and for the detection of significant deterioration in cases in which an environmental standard has been set by the relevant environmental agency and those that have not. Aiming to design a comprehensive methodology to include the whole range of cases, data from the Groundwater Official Monitoring and Control Network of the Ministry of Agriculture, Food and Environment (Magrama) have been analysed. Then, since River Basin Management Plans are the basic tool of the Directives, the Júcar river Basin has been selected. The main reason is its designation as a pilot basin in the common implementation strategy (CIS) of the European Commission. The main objective of the ad hoc working groups is to implement the Daughter Ground Water Directive and elements of the Water Framework Directive related to groundwater, especially the data collection at control stations and the preparation of the first River Basin Management Plan. Given the size of the area and in order to analyze a groundwater body (defined as the management unit in the Directives), Plana de Vinaroz Peñíscola has been selected as pilot area. Procedures developed to determine the chemical status of that body have been then applied. The data examined do not generally contain pollutant concentration values associated with point sources, so for the study concentration values of the most common data, i.e., nitrates and chlorides have been selected. The designed strategy combines trend analysis with the development of confidence intervals when there is a standard of quality and prediction intervals when there is not or the standard has been exceeded. Similarly we have proceeded in the case of values below the detection limit, taking the available values in Plana de Sagunto pilot area and simulating different degrees of censoring in order to compare the results obtained with the intervals achieved from the actual data and verify in this way the effectiveness of the method. The end result is a general methodology that integrates existing cases to define the chemical status of a groundwater body, verify the existence of significant impacts on groundwater quality and evaluate the effectiveness of the action plans adopted in the framework of the River Basin Management Plan.
Resumo:
The broadcast service spreads a message m among all processes of the system, such that each process eventually delivers m. A basic broadcast service does not impose any delivery guarantee in a system with failures. Fault-tolerant broadcast is a fundamental problem in distributed systems that adds certainty in the delivery of messages when crashes can happen in the system. Traditionally, the fault-tolerant broadcast service has been studied in classical distributed systems when each process has a unique identity (eponymous system). In this paper we study the fault-tolerant broadcast service in anonymous systems, that is, in systems where all processes are indistinguishable.
Elementos peatonales de las ciudades medias españolas : tipos, orígenes, relaciones y articulaciones
Resumo:
A través de esta tesis se busca aportar un análisis de los elementos peatonales que cubren las necesidades y las infraestructuras de apoyo al peatón, siendo un campo poco desarrollado en nuestro país a diferencia de otros como Dinamarca, Reino Unido, Alemania y Holanda, donde las actuaciones peatonales ejecutadas son tradicionales y muy exitosas. Se trata por tanto de un tema poco estudiado pero que adquiere singular importancia en estos años de búsqueda de nuevos modelos urbanos que eviten el derroche de recursos, y avancen hacia formas de movilidad más adecuadas a un mundo limitado y vulnerable. La investigación tiene un carácter eminentemente descriptivo cuyo principal valor es documentar y analizar sistemáticamente una realidad poco conocida, aportándose datos para entender el origen y desarrollo de las actuaciones peatonales. El propósito es ayudar a cimentar este campo en nuestro país, definiendo con precisión el estado de la cuestión geográficamente y dejando para un futuro una cartografía temática completa. El objeto general es estudiar y comprender los elementos peatonales de un número limitado de ciudades medias españolas, marcándose como objetivos específicos los siguientes: - Identificar y describir los principales elementos que conforman la red peatonal de las ciudades. ‐ Estudiar las tipologías espaciales dominantes, sus características y orígenes, pudiendo distinguir de un lado, las desarrolladas en la ciudad consolidada, como las actuaciones en los cascos antiguos; y por otro, las ejecutadas en la ciudad nueva a través de fórmulas arquitectónicas generalmente residenciales con espacios peatonales adjuntos. ‐ Analizar los referidos elementos para comprobar si han conformado redes de uso peatonal, si se han constituido articulando la ciudad como en el caso de los ejes lineales en las ciudades con río o mar, o si han influenciado el carácter del entorno en el que se han realizado, centrando el interés en los cascos históricos peatonalizados. ‐ Comprobar si hay actuaciones complementarias a los procesos de urbanización y mejora urbanística, así como la aprobación de ayudas y subvenciones para afrontar las mismas. ‐ Finalmente, describir y evaluar los procesos y procedimientos mediante los que se produce la peatonalización de determinadas áreas urbanas, los orígenes, los instrumentos y fechas de su puesta en marcha, aportando una cronología peatonal. La metodología comienza con la acotación de 22 ciudades españolas, capitales de provincia con una población entre 100.000 y 500.000 habitantes según los datos del INE del año 2009. La distribución es equilibrada con la selección de ciudades de costa, de interior, con río/ría, con carácter patrimonial, ciudades en islas, etc. El análisis de los elementos peatonales de estas urbes se realiza gracias a la gran resolución de las bases cartográficas públicas y privadas que hay en la actualidad en internet, especialmente con el uso de las herramientas de Google Earth y Google Maps en su versión “street view”, softwares que permiten un paseo virtual de cada ciudad detallándose con gran precisión las actuaciones peatonales. Las ciudades elegidas son: ‐ 11 ciudades costeras: Alicante, Almería, Bilbao, Cádiz, Castellón de la Plana, Huelva, Las Palmas de Gran Canaria, Palma de Mallorca, Santander, San Sebastián y Tarragona. ‐ 11 ciudades de interior: Albacete, Burgos, Córdoba, León, Lérida, Logroño, Oviedo, Murcia, Pamplona, Valladolid y Vitoria. Finalmente, por tener los porcentajes mas elevados de las áreas peatonales de sus casco histórico, se eligen 3 casos de ciudades representativas para un desarrollo peatonal en profundidad, seleccionándose Burgos, San Sebastián y Pamplona. Otros aspectos metodológicos interesantes a destacar, es la extensa documentación adquirida a través de las fuentes de Internet, sobre todo a la hora de desarrollar el último capítulo “Procesos de peatonalización de las ciudades españolas” centrado en las 3 ciudades elegidas. Se consulta las hemerotecas de periódicos locales, los boletines oficiales, las actas de los plenos de los Ayuntamientos y los documentos de planificación (Planes Generales, Planes Especiales, Planes y Proyectos Municipales, Planes de Movilidad), adquiriéndose una precisa información en cuanto a la cronología de las fechas y extensión del trabajo. Se complementa la metodología con las entrevistas a actores claves en el proceso peatonal, como el personal técnico de los Ayuntamiento y los técnicos redactores de los proyectos; y con la colaboración directa de los técnicos de los consistorios de las 3 ciudades seleccionadas, aportando todo tipo de información demandada. En la tesis, se introduce los elementos peatonales mediante el estudio de los espacios peatonales y los procesos de peatonalización existentes, a través del análisis de la literatura consultada aportándose información valiosa en cuanto a la definición de los modelos peatonales, exponiéndose una breve historia de las peatonalizaciones. Destacan las publicaciones de los expertos europeos en la materia como los autores Carmen Hass-Klau, Rolf Monheim, Rob Krier y Collin Buchanan. En España, las actuaciones peatonales fueron tardías en el tiempo en comparación con el resto de Europa, con casi 40 años de retraso. Las referencias bibliográficas españolas en esta materia son escasas siendo las mas significativas las realizadas por Alfonso Sanz y por el profesor Julio Pozueta destacando una de sus últimas publicaciones “La ciudad paseable” describiéndose los elementos peatonales existentes en las ciudades, sirviendo como modelo y ejemplo para esta investigación. En base a lo anterior, se definen los elementos peatonales como aquellos espacios públicos libres de edificación que, por sus características y diseño, garantizan un confortable uso estancial, de tránsito peatonal y están expresamente reservados para ello. En la tesis se detectan y se especifican los siguientes elementos peatonales: las calles y plazas peatonales, las aceras y bulevares de una anchura superior a 8 metros, los paseos peatonales, los elementos de paso (tradicionales y mecánicos), espacios peatonales ligados a nuevas áreas residenciales, los soportales y pasajes peatonales con una anchura mínima de 4 metros, recintos feriales, espacios libres y zonas verdes y parques. Para cada una de las 22 ciudades seleccionadas se realiza un exhaustivo inventario de los anteriores elementos a través de fichas, aportando un gran número de proyectos individuales ejecutados en cada urbe. Esta información se recoge gráficamente en 2 fotoplanos, conformándose como herramientas fundamentales para esta investigación. El Fotoplano 1 se hace sobre la base de la ciudad del Google Earth diferenciándose las áreas peatonales y las zonas verdes. En el Fotoplano 2, y con el soporte anterior, se distinguen las tipologías persistentes y dominantes como son los grandes ejes peatonales, las redes peatonales locales y los elementos peatonales singulares. Finalmente, a partir de los 2 fotoplanos, se realiza la denominada “Huella peatonal” que destaca por su atractivo y pregnancia, algo de lo que el campo de lo peatonal es muy útil. A través de la huella se obtiene una rápida información al tener el plano dos colores, color naranja para lo peatonal (formado por las áreas peatonales y zonas verdes) y color negro para el resto el resto no peatonal. Toda esta documentación gráfica y descriptiva de los elementos peatonales de cada ciudad, queda ampliamente recogida en el Anexo de la tesis. La “Huella peatonal” se considera como el plano básico en la investigación obteniendo una percepción rápida, clara y visual del espacio peatonal de cada ciudad. Se arroja información morfológica con respecto a la distribución espacial, articulación, equilibrio, modulación, cohesión, concentración peatonal, etc. de cada una de las ciudades seleccionadas. A través de la huella se resuelve muchos de las cuestiones enmarcadas como objetivos de la tesis, comprobándose de forma general, que los elementos peatonales dentro de la trama urbana están desarticulados ya que no hay una estructura que module la ciudad como un conjunto cohesionado. Se localizan pequeñas redes conectadas entre sí, que de forma heterogénea, están dispersas por la ciudad. Se verifica que los elementos peatonales con mayor concentración y presencia en las ciudades analizadas son los ejes peatonales, los cascos históricos y los elementos peatonales en las nuevas áreas residenciales. En la investigación, además de estos 3 elementos mencionados, se analiza con mayor profundidad otros tipos que destacan por su persistencia y repetición en la “Huella peatonal” de cada una de las 22 ciudades, como son las plazas peatonales, los soportales y los elementos singulares peatonales: espacios tradicionales (recintos feriales, pasajes, puentes históricos), nuevos elementos peatonales (pasarelas peatonales, elementos mecánicos de paso), áreas peatonales entorno a edificios culturales y otros casos como los consistentes en la recuperación y transformación de edificaciones y construcciones urbanas de diferente uso y tipología, en nuevas áreas peatonales. Se aporta luz sobre su definición, localización, cronología, proporción, presencia y génesis, facilitando resultados de cada uno de ellos. De forma paralela, se obtiene información de índole cuantitativa a través de las mediciones de la huella, obteniéndose datos y porcentajes de extensión de la ciudad, de las zonas peatonales y de las zonas verdes, de los cascos históricos y de sus superficies peatonales, de los metros lineales de dichos cascos históricos y de sus calles peatonales. Se proporcionan ratios e índices que se consideran fundamentales para una mejor comprensión peatonal de cada urbe. Se establece una clasificación de las ciudades en cada uno de los ámbitos descritos, destacando las ciudades de Pamplona, San Sebastián y Burgos por arrojar las cifras peatonales más positivas encabezando la mayoría de las tablas clasificatorias. La peor ciudad valorada es Alicante, seguida según criterio, de Almería, Palma de Mallorca y Las Palmas de GC. En el capítulo final de la investigación, se eligen las ciudades de Burgos, San Sebastián y Pamplona como casos de estudio representativos. El objetivo es obtener un conocimiento más preciso en cuanto a su origen, cronología y procesos de las peatonalizaciones. Cada ciudad se compone de un cuadro cronológicos por etapas, desarrollándose de forma exhaustiva cada una de ellas, enunciadas normalmente, como instrumentos de planeamiento o proyectos de urbanización, acompañadas de los planos de las actuaciones peatonales. Al final de cada etapa se aportan datos de las cifras de las peatonalizaciones que se van realizando, con un cuadro numérico de localizaciones, superficie peatonal, superficie reurbanizada, longitud peatonal y el grado de peatonalización del casco histórico, además de los datos acumulados por etapa. De las conclusiones cruzadas de estas 3 ciudades, destaca la comprobación de la tendencia de ir peatonalizando los centros antiguos llegando incluso al 100% de calles peatonales en el caso de San Sebastián. No obstante, es difícil confirmar si el objetivo es una peatonalización global de los cascos, ya que son muchas las variables que afectan e influyen en el proceso peatonal de cada ciudad. Se coteja adicionalmente cómo se extiende la cultura peatonal desde el interior al exterior, mas allá de los cascos históricos hacia los ensanches próximos. En cuanto al origen de las peatonalizaciones, se concluye que no hay una concepción inicial y teórica marcada, a partir de la cual se va desarrollando la trama peatonal de cada ciudad. Se puede afirmar que los procesos peatonales ejecutados son variados y de diversa índole, sin poder precisar un hecho como causa principal. Según el momento y las circunstancias, las peatonalizaciones responden a distintas iniciativas promovidas por los comerciantes, por las administraciones locales o por los técnicos de planeamiento, con sus expertas aportaciones en los planes. Estos tres agentes actúan como impulsores de proyectos individuales peatonales que se van solapando en el tiempo. Como punto final de la tesis, se propone una serie de nuevas líneas de investigación que pueden servir como estudio adicional y complementario, respondiendo a aspectos tan relevantes como cuestiones de índole económica, social y de movilidad, fuertemente ligadas a las peatonalizaciones, tal y como se demuestra en la literatura consultada. ABSTRACT This thesis aims to analyse the pedestrian elements dealing with the needs and infrastructures that support pedestrians, as this is a field that is little developed in our country, in comparison to other regions such as Denmark, the United Kingdom, Germany and the Netherlands, where the pedestrian actions implemented are traditional and highly successful. Therefore, even though little research has been done about this topic, this field is increasingly important throughout these years of search for urban models intended to prevent the waste of resources and to develop new mobility ways, more adapted to a limited, vulnerable world. This research is essentially descriptive and it mainly aims to document and systematically analysed a scarcely known reality by providing data in order to understand the origin and development of pedestrian actions. This thesis intends to lay the foundations of this field in Spain, accurately defining the state of the art from a geographical point of view and preparing a full thematic map that may be used in the future. The overall aim is to study and understand the pedestrian elements of a limited number of Spanish medium-size cities, establishing the following specific goals: - To identify and describe the main elements comprising cities' pedestrian networks. - To study of special predominant typologies, their features and origins, with the possibility to, on the one hand, make a difference between the typologies developed in well-established cities, such as the actions in historic quarters, and, on the other hand, those implemented in new cities through generally residential architectural formulae with adjoining pedestrian areas. - To analyse the said elements in order to check whether they have resulted in pedestrian-use networks, whether they have been established by organising the city, such as the linear axes in coastal and riverside cities, or whether they have had an impact on the character of the areas where these elements have been implemented, focusing on pedestrian historic quarters. - Check whether there are actions supplementary to the urban development and urban improvement processes, as well as the approval of financial support and subventions to deal with these actions. - Finally, to describe and assess the processes and procedures by which the pedestrianisation of certain urban areas is carried out, the origins, the instruments and the date of their implementation, providing a pedestrian timeline. The methodology starts by defining 22 Spanish cities, province capitals with a population ranging from 100,000 to 500,000 inhabitants, according to the data recorded by the Spanish Statistics Institute (INE) in 2009. The distribution of coastal, riverside and interior cities, as well as of patrimonial cities and cities in islands, etc. is well balanced. The analysis of the pedestrian elements of these cities is made with the great resolution of the public and private map databases that can be accessed on the Internet, especially using the "street-view" version of tools such as Google Earth and Google Maps, software applications that allow to go for a virtual walk in each city, providing highly precise details about the pedestrian actions. The following cities have been chosen: ‐ 11 coastal cities: Alicante, Almería, Bilbao, Cádiz, Castellón de la Plana, Huelva, Las Palmas de Gran Canaria, Palma de Mallorca, Santander, San Sebastián and Tarragona. ‐ 11 interior cities: Albacete, Burgos, Córdoba, León, Lérida, Logroño, Oviedo, Murcia, Pamplona, Valladolid and Vitoria. Finally, as they have the highest percentages regarding the pedestrian areas found in the historic quarters, 3 cities representing a deep pedestrian development have been chosen: Burgos, San Sebastián and Pamplona. Other significant methodological aspects are the many documents found from online sources, especially when preparing the last chapter: “Processes for the pedestrianisation of Spanish cities”, which focuses on the 3 cities chosen. Local newspaper and periodical libraries, official gazettes, the minutes of plenary sessions of councils and the zoning regulation documents (General Zoning Plans, Special Zoning Plans, Municipal Plans and Projects, Mobility Plans, etc.) have been consulted, obtaining accurate information regarding the timeline and the extension of the works carried out. The methodology is supplemented by interviews with key players in the pedestrianisation process, such as the technical staff in councils and the officers drafting and designing the projects, as well as with the direct collaboration by the officers of the councils of the 3 cities chosen, who provided all the information requested. The thesis introduces the pedestrian elements by studying pedestrian areas and existing pedestrianisation processes through the analysis of the literature consulted, providing valuable information for the definition of pedestrian models and showing a brief history and background of the pedestrianisation process. Remarkable papers published by some European experts in the field, such as Carmen Hass-Klau, Rolf Monheim and Collin Buchanan, are covered in the thesis. In Spain, the pedestrianisation actions were late in time in comparison to the rest of Europe, with at least 40 years of delay. The Spanish literature references in this field are limited. The most significant papers are those published by Alfonso Sanz and by Professor Julio Pozueta, with a special mention of one of his last works "La ciudad paseable" (The Walkable City), which describes the pedestrian elements found in the cities and is used a model and an example for this research. Based on the elements above, pedestrian elements are defined as those construction-free public areas that, due to their features and design, ensure the comfortable, convenient use of the spaces, characterised by pedestrian traffic and specifically reserved for this purpose. The thesis detects and specifies the following pedestrian elements: pedestrian streets and squares, pavements (sidewalks) and boulevards with a width exceeding 8 metres, pedestrian promenades, crossing elements (traditional and mechanical), pedestrian spaces linked to new residential areas, colonnades and pedestrian passages or narrow streets with a minimum width of 4 metres, exhibition sites, free spaces and green areas and parks. For each of the 22 cities chosen, a thorough inventory of the elements mentioned above has been made by using worksheets, providing a significant number of individual projects developed in each city. This information is graphically collected and displayed on 2 photomaps, resulting in tools essential for this research. Photomap 1 is made based on the city displayed by Google Earth, making a difference between pedestrian areas and green areas. On Photomap 2, using the tool mentioned above, a difference can be made between persistent and predominant typologies, such as the big pedestrian axes, the local pedestrian networks and singular pedestrian elements. Finally, the 2 photomaps are used in order to establish the so-called "pedestrian footprint", which is highlighted by its attractiveness and appeal, concepts for which the pedestrian field is very useful. With the pedestrian footprint, quick information can be obtained, since the map shows two colours: orange for pedestrian elements (made up of pedestrian areas and green areas) and black for the other non-pedestrian elements. A significant part of these graphic, descriptive documents about each city's pedestrian elements can be found in the thesis appendix. The "Pedestrian Footprint" is regarded in the research as the basic map, obtaining a quick, clear and visual perception of each city's pedestrian space. This footprint provides morphological information regarding the space distribution, the organisation, the balance, the modulation, the cohesion, the pedestrian concentration, etc. in each of the cities chosen. The pedestrian footprint helps solve many of the questions established as the thesis goals, proving that, in general, the pedestrian elements are not organised in the urban plot, as there is no structure modulating the city as a properly linked set of elements. Small networks linked to each other and heterogeneously scattered all over the city are found. It has been verified that the pedestrian elements with the highest concentration and presence in the cities analysed are the pedestrian axes, the historic quarters and the pedestrian elements found in the new residential areas. Besides these 3 elements mentioned, the research analyses in depth other types that are remarkable due to their persistence and repetition in the "Pedestrian Footprint" of each of the 22 cities, such as the pedestrian squares, the colonnades and the singular pedestrian elements: traditional spaces (exhibition sites, passages, historic bridges), new pedestrian elements (pedestrian footbridges, mechanical crossing elements), pedestrian areas around cultural buildings and other cases such as those consisting of recovering and transforming building and urban constructions, intended for a wide range of purposes and of different types, into new pedestrian areas. This work puts light on the definition, location, timeline, proportion, presence and origin, providing results for each of these concepts. At the same time, quantitative information is obtained by measuring the footprint, getting data and percentages on the size of the city, the pedestrian areas and the green areas, the historic quarters and the pedestrian zones, the linear metres of such historic quarters and pedestrian streets. The footprint also provides ratios and rates that are considered as essential in order to better understand the pedestrian elements of each city. A classification of cities is established for each of the areas described, highlighting the cities of Pamplona, San Sebastián and Burgos, as they provide the most positive pedestrian figures and lead most of the classification tables or rankings. According to the criteria considered, the city with the worst values is Alicante, followed by Almería, Palma de Mallorca and Las Palmas de Gran Canaria. In the final chapter in the thesis, the cities of Burgos, San Sebastián and Pamplona are chosen as representative study cases. The aim is to gain more accurate knowledge regarding the pedestrianisation origin, timeline and processes. Each city comprises a chronological sequence made of stages, each of which is thoroughly developed and usually announced as zoning plans or urban development projects, accompanied by the plans of the pedestrian actions. At the end of each stage, data with the figures of the pedestrianisation projects are provided, including a numerical chart with locations, pedestrian area, redeveloped urban areas, pedestrian length and pedestrianisation degree in the historic quarter, as well as the data cumulated throughout each stage. In the crossed conclusions on the three cities, the trend of gradually pedestrianising the historic quarters (even reaching the 100% of the pedestrian streets as in San Sebastián) is verified. However, it is difficult to confirm whether the purpose is to reach an overall pedestrianisation of the historic quarters, since there are many variables that affect and influence each city's pedestrianisation process. In addition, the spread of the pedestrian culture from the internal areas to the external areas, beyond the historic quarters to the nearby expansion areas, is compared. Regarding the origin of pedestrianisations, the thesis comes to the conclusion that there is no initial or theoretical conception from which each city's pedestrian plot is developed. The pedestrian processes implemented are varied and diverse but no fact can be specified as the main cause. Based on the moment and circumstances, the pedestrianisation processes are due to different initiatives promoted by shopkeepers, by the local administrations or by the zoning officers, with their expert contributions to the plans. These three players promote and drive individual pedestrianisation projects that overlap in the course of time. Finally, new lines of research are put forwards, as they can be taken as an additional study and as a supplement to this research, dealing with aspects as significant as the economic, social and mobility factors, closely linked to the pedestrianisation processes, as proven in the literature consulted.
Resumo:
La cubierta plana invertida se forma, cuando sobre una membrana impermeable se coloca un aislamiento térmico. Estos materiales pueden separarse con capas auxiliares que impiden el contacto directo entre ellos. Muchos de los materiales que forman esta solución constructiva pueden ser polímeros, como lo son algunas membranas impermeables, las capas auxiliares separadoras o el poliestireno extrusionado (XPS). La mayoría de los polímeros son incompatibles entre sí, por lo que en esta tesis se plantea como hipótesis la posibilidad de que se produzcan interacciones e incompatibilidades entre algunos de estos materiales. Por ello se hace una búsqueda bibliográfica y documental de otras investigaciones que pudieran estar relacionadas con el tema, y se estudian y analizan normas y documentación facilitada por fabricantes. Sin embargo, tras consultar toda la bibliografía y documentación que se referencia en esta tesis doctoral, no fue encontrado ningún trabajo de investigación sobre la influencia de la interacción entre los materiales que componen las cubiertas planas invertidas, y de cómo afecta esta a la durabilidad de las mismas. El propósito de esta tesis es el análisis de la durabilidad de la cubierta plana invertida, desde el punto de vista de las interacciones e incompatibilidades que pueden producirse entre los materiales formantes de esta solución constructiva. Además de este objetivo general, se estudian alternativas que puedan prolongar el ciclo de vida de la cubierta plana invertida. Para ello, se desarrolla un plan experimental con el fin de analizar dichas incompatibilidades, y estudiar los factores que las condicionan. Algunos de los resultados obtenidos, muestran que determinadas láminas impermeables utilizadas normalmente para la construcción de cubiertas planas, pueden interactuar con el XPS y sufrir deterioro. El contacto con el mismo, la incorrecta separación, la presión y el calor, son factores determinantes para que se produzca deterioro. Se puede señalar como una de las conclusiones de esta investigación, que la protección térmica que proporciona el XPS a la cubierta plana invertida, puede no ser suficiente (dependiendo del espesor del mismo, y de la ubicación de la cubierta fundamentalmente), para reducir la cantidad de calor que alcanza la línea de contacto entre los materiales, y por tanto paliar las interacciones que se producen. Además, aunque los geotextiles utilizados como capas auxiliares separadoras, en los gramajes por metro cuadrado, recomendados por algunas de las normas reguladoras de este tipo de cubiertas minoran las interacciones, estas siguen produciéndose. ABSTRACT The inverted flat roof is formed from a waterproofing membrane on which the thermal insulation is placed. These materials may be separated with auxiliary layers, which prevent the direct contact between them. Many of the materials forming this constructive solution can be polymers, such as some waterproofing membranes, the auxiliary separating layers, or the extruded polystyrene board (XPS). Most polymers are incompatible, so this thesis hypothesized that interactions and incompatibilities between some of these materials might be possible. Therefore, a literature search, and other documentation that could be related to the topic, are studied and analyzed, as well as, standards and documentation provided by manufacturers. However, after consulting all literature and documents referenced in this dissertation, it was not found any research about the influence of interaction between the materials forming the inverted flat roof, and how this affects to the durability of them. The purpose of this thesis is the analysis of the durability of the inverted flat roof, from the point of view of interactions and incompatibilities may occur between the materials setting up this constructive solution. Along with this general objective, alternatives that can prolong the life cycle of the inverted roof are studied. To get this, an experimental plan is developed, in order to analyze these incompatibilities, and study the factors conditioning them. Some of the results show, that certain normally used waterproofing laminas for building flat roofs, may interact with XPS producing lamina deterioration. Contact, incorrect separation, pressure and heat, are determinant factors for degradation. It can be pointed out, as one of the conclusions of this research, that the thermal protection provided by XPS to the inverted flat roof, cannot be enough (depending on the XPS thickness, and the location of the flat mainly) to reduce the amount of heat that reaches the contact line between materials, and thus to cut down interactions. Furthermore, although geotextiles used as auxiliary separating layers, within the weights per square meter recommended by some of the regulating rules of this type of roofs reduce interactions, these still occur.
Resumo:
El presente proyecto trata sobre el estudio geotécnico realizado a causa del deslizamiento ocurrido entre los puntos kilométricos 159+750 y 159+950 de la carretera N-322 que une Bailén (Jaén) con Requena (Valencia). El principal objetivo del estudio es el de esclarecer los posibles factores que han favorecido el movimiento del terreno, así como delimitar sus dimensiones y forma aproximadas y con ello averiguar los parámetros resistentes con los que se produjo la rotura gracias a un análisis de estabilidad a posteriori. La metodología seguida comienza por la búsqueda de antecedentes y observación de datos de campo, para pasar a plantear la campaña de reconocimiento geotécnico. Los trabajos de campo resultan ser clave para el conocimiento de la profundidad a la que encuentra el plano deslizamiento y del terreno que se encuentra en el subsuelo de la zona. Resulta de especial interés la caracterización geotécnica realizada, debido a la gran cantidad de ensayos disponibles y a la existencia de diferentes métodos o ensayos con los que se ha obtenido la resistencia residual de la formación comúnmente conocida como “Margas azules del Guadalquivir”. Una vez obtenidos los parámetros geotécnicos de las unidades se efectúa un análisis retrospectivo, con el cual, gracias a los datos ya conocidos, se simula la situación de rotura, y se averiguan los parámetros resistentes de las unidades involucradas, imponiendo la condición de equilibrio límite. Se incluye un capítulo en el que se plantea una de las posibles soluciones para remediar la inestabilidad. Por último se estiman los costes de un estudio geotécnico de esta envergadura.
Resumo:
El objetivo de este trabajo es generar un modelo Edafogeomorfológico útil en la identificación de necesidades de manejo de suelos, se realizó un estudio en el área de la cuenca Cañada La Gorda Machiques-Colón, estado Zulia, Venezuela, caracterizada por un clima tropical de condición subhúmeda, con duración del periodo de crecimiento (DPC) de 230 días, régimen de humedad Ustic y de temperatura Isohipertémico. Se empleó el enfoque de la ecuación factorial de formación de suelos para el análisis y descripción biofísica de los factores a lo largo de una carena. El relieve caracterizado a partir de fotografías aéreas, imágenes de satélites y de chequeos sistemático mediante transectos en el sentido del flujo del escurrimiento; la vegetación a través del uso de la tierra, la cobertura vegetal, la identificación de las especies dominantes a partir de sus nombres vernáculos y la definición de indicadores de vegetales (Iv). Los suelos fueron descritos y clasificados según la Taxonomía de suelos y valorados mediante el modelo paramétricode Riquier et al. (1970) para determinar el índice de productividad (Ip). Se caracterizaron dos paisajes gemorfológicos: Colinar (C) y Valle (V), seis posiciones geomorfológicas entre ambos paisajes definidas por la sucesión de relieves en el sentido de la pendiente: Tope de colina-loma (TC), mesa conservada (MC), vertientes de mesa alta (VA), media (VM), baja (VB) y valle intracolinar (VI); e igual número de perfiles de suelos representativos, los cuales mostraron edafogénesis muy avanzada con Ip inferiores a 8% en todas las posiciones, exceptuando la VB, con una productividad de 13%. El uso de la tierra es a base de pastoreo semi-intensivo de plantas forrajeras introducidas. Las formaciones vegetales predominante fueron los matorrales y arbustales dispersos, acompañados con restos de una selva tropófila fuertemente afectada por la extracción forestal y la conversión en áreas de pastoreo. Se identificaron 8 Iv, asociados fuertemente con condiciones de físicas e hidrológicas del suelo. El alto impacto de las actividades humanas sobre el suelo y vegetación, expresado a través de los procesos de erosión activa, la ausencia de áreas boscosas y la baja productividad de los sistemas de ganadería reportada para la zona, señalan la necesidad de reorientación del uso actual de la tierra, para lo cual se plantean alternativas como la incorporación de bosques protectores y sistemas agrosilvopastoriles In order to generate an Edaphogeomorphological model to be used for the identification of management requirements of soils, a study was carried out in the area of the Cañada La Gorda watershed, Machiques Colon, Zulia State with a tropical climate, subsumid conditions with a growing period of 230 days, an Ustic soil moisture and Isohypertermic regimes. The soils factorial equation approach was used for the analisis and description of the factors of soil formation throughout a soil catena. Relief was characterized through aerial photographs, satellite images and systematic checks of transects drawn in the sense of surface runoff and also taking into account geomorphological features. Vegetation cover and land use were described and vegetation components were indified by its local names to defined vegetations indicators (VI) for the local conditions. Soils were described and classified according to soil taxonomy and valued by means of a parametric model proposed by Riquier et al, (1970) for determining the productivity index (PI). Two geomorphological landscapes were defined: Hilly and Valley with six positions within the landscapes: hilltop (round or elongated), preserved tableland summit, slopes of high, medium and low tableland and valleys between hills. Representative soils of each position were studied showing a highly advanced degree of edaphogenesis with PI values below 8% in all positions except the valleys with a PI of 13%. Land use type is based on semi intensive pasturing of introduced forage species, with a vegetation of brushwood and scattered shrubs, with some trees relicts of woods affected by timber extraction and turn to grassland Eight VI were identified, highly associated to local physical and hidrological soil conditions. The enormous impact of human activity on soils and vegetation as shown by active erosion processes and absence of wooded areas and the low productivity of livestock systems reported for the area, indicates the necessity of a reorientation of the present land use introducing alternatives like the incorporation of protective woods and agrosilvopastoral management systems.
Resumo:
Este trabajo presenta ciertos resultados recientes que están relacionados con el equilibrio dinámico de puentes líquidos mantenidos entre discos solidos paralelos y coaxiales. Estos estudios tienen por objeto analizar los experimentos realizados a bordo del spacelab en diciembre de 1983. Se ha desarrollado un programa muy activo en tierra para simular, tanto numérica como experimentalmente, los efectos de la gravedad reducida en configuraciones capilares. La simulación con la técnica de plateau permite obtener en muchos casos resultados extremadamente precisos, siempre que se ponga un gran cuidado en gobernar la densidad del liquido soporte. Aunque las aplicaciones comerciales de estas investigaciones están lejos, su contenido científico justifica trabajar mas todavía. En el caso particular que consideramos, el puente liquido es la configuración mas sencilla, voluminosa y gobernable limitada por una superficie libre no plana, y esto es en sí mismo científicamente interesante. La competencia comercial con desarrollos paralelos en tierra será desfavorable para los procesos espaciales mientras no aumenten las oportunidades de vuelo.
Resumo:
Como cualquier encinar que eligiésemos a fin de concretar en él nuestro estudio, quedaría enclavado dentro de la masa general de encina que puebla el término de Villanueva de Córdoba, sometida toda ella al mismo tratamiento y sobre la que gravitan los mismos problemas, creemos conveniente dividir nuestro trabajo en dos partes, comprendiendo la primera esas cuestiones de índole general, no sólo dentro del término de Villanueva, sino comunes a todo el valle de los Pedroches, haciendo resaltar los problemas que en la actualidad se presentan y sus soluciones adecuadas: tratando en la segunda de las características, tratamiento y distintos aprovechamientos que posee, de que es objeto y rinde una finca concreta que posea las condiciones que se nos señala de “tener una producción frutal no inferior de la necesaria para el cebo o engorde de una piara de trescientos cerdos”. Siguiendo esta directriz, tratamos en la primera parte de la evolución histórico-jurídica, primero, y selvícola, después, de la masa encinar del término; pasamos a ocuparnos después de los tratamientos de que son objeto, del suelo y vuelo; estudiamos detenidamente la cuestión de plagas con los remedios que se han puesto y cabe poner en práctica, y, por último, tratamos de los distintos aprovechamientos de que son objeto estos encinares. En la segunda parte concretamos nuestro estudio sobre el monte “Las Navas” de propiedad particular en cuanto a sus estados legal, natural y forestal, y determinamos su capacidad en ganado deducida de su posibilidad en fruto y el rendimiento en los distintos aprovechamientos de que es objeto la finca. Resaltamos de antemano los tres problemas pendientes de solución, de gran trascendencia en cuanto al estado actual y futuro y de los encinares y su economía general: la extinción de plagas, la regeneración artificial del arbolado y el aprovechamiento del fruto mediante su conservación o transformación. El primer problema, siempre de actualidad, y de posible realización, que por su persistencia ha adquirido caracteres de catástrofe, es de lamentar que quede sin resolver después de los importantes trabajos realizados por el antiguo Servicio de Estudio y Extinción de Plagas Forestales, adscrito al Cuerpo de Montes. El segundo problema, el de la regeneración de los encinares, lo encontramos de necesaria solución, a pesar de la imposibilidad de los particulares que creen en la indefinida longevidad de la encina; pues es ya grande la extensión de la zona desarbolada o casi desarbolada, sin que su suelo produzca apenas utilidad alguna después de la desaparición del arbolado; y cierto el estado decadente del vuelo de algunas fincas. Y, por último, la cuestión de la conservación del fruto en grandes cantidades, o, mejor aún, su transformación en harina y conservación de la misma, es de gran transcendencia económica y su solución resolvería el problema del total y apropiado aprovechamiento de la bellota. Ilustran nuestro trabajo una pequeña colección de fotografías relacionadas con los distintos asuntos tratados, un pequeño muestrario de lo distintos tipos de fruto de la localidad y de diversas variedades de encina, y varias modalidades de las puestas de L. dispar y M. neustria, sin que hayamos podido recoger ninguna de T. viridana como era nuestro propósito. …
Resumo:
El acero es, junto con el hormigón, el material más ampliamente empleado en la construcción de obra civil y de edificación. Además de su elevada resistencia, su carácter dúctil resulta un aspecto de particular interés desde el punto de vista de la seguridad estructural, ya que permite redistribuir esfuerzos a elementos adyacentes y, por tanto, almacenar una mayor energía antes del colapso final de la estructura. No obstante, a pesar de su extendida utilización, todavía existen aspectos relacionados con su comportamiento en rotura que necesitan una mayor clarificación y que permitirían un mejor aprovechamiento de sus propiedades. Cuando un elemento de acero es ensayado a tracción y alcanza la carga máxima, sufre la aparición de un cuello de estricción que plantea dificultades para conocer el comportamiento del material desde dicho instante hasta la rotura. La norma ISO 6892-1, que define el método a emplear en un ensayo de tracción con materiales metálicos, establece procedimientos para determinar los parámetros relacionados con este tramo último de la curva F − E. No obstante, la definición de dichos parámetros resulta controvertida, ya que éstos presentan una baja reproducibilidad y una baja repetibilidad que resultan difíciles de explicar. En esta Tesis se busca profundizar en el conocimiento del último tramo de la curva F − E de los aceros de construcción. Para ello se ha realizado una amplia campaña experimental sobre dos aceros representativos en el campo de la construcción civil: el alambrón de partida empleado en la fabricación de alambres de pretensado y un acero empleado como refuerzo en hormigón armado. Los dos materiales analizados presentan formas de rotura diferentes: mientras el primero de ellos presenta una superficie de rotura plana con una región oscura claramente apreciable en su interior, el segundo rompe según la clásica superficie en forma de copa y cono. La rotura en forma de copa y cono ha sido ampliamente estudiada en el pasado y existen modelos de rotura que han logrado reproducirla con éxito, en especial el modelo de Gurson- Tvergaard-Needleman (GTN). En cuanto a la rotura exhibida por el primer material, en principio nada impide abordar su reproducción numérica con un modelo GTN, sin embargo, las diferencias observadas entre ambos materiales en los ensayos experimentales permiten pensar en otro criterio de rotura. En la presente Tesis se realiza una amplia campaña experimental con probetas cilíndricas fabricadas con dos aceros representativos de los empleados en construcción con comportamientos en rotura diferentes. Por un lado se analiza el alambrón de partida empleado en la fabricación de alambres de pretensado, cuyo frente de rotura es plano y perpendicular a la dirección de aplicación de la carga con una región oscura en su interior. Por otro lado, se estudian barras de acero empleadas como armadura pasiva tipo B 500 SD, cuyo frente de rotura presenta la clásica superficie en forma de copa y cono. Estos trabajos experimentales han permitido distinguir dos comportamientos en rotura claramente diferenciados entre ambos materiales y, en el caso del primer material, se ha identificado un comportamiento asemejable al exhibido por materiales frágiles. En este trabajo se plantea la hipótesis de que el primer material, cuya rotura provoca un frente de rotura plano y perpendicular a la dirección de aplicación de la carga, rompe de manera cuasifrágil como consecuencia de un proceso de decohesión, de manera que la región oscura que se observa en el centro del frente de rotura se asemeja a una entalla circular perpendicular a la dirección de aplicación de la carga. Para la reproducción numérica de la rotura exhibida por el primer material, se plantea un criterio de rotura basado en un modelo cohesivo que, como aspecto novedoso, se hace depender de la triaxialidad de tensiones, parámetro determinante en el fallo de este tipo de materiales. Este tipo de modelos presenta varias ventajas respecto a los modelos GTN habitualmente empleados. Mientras los modelos GTN precisan de numerosos parámetros para su calibración, los modelos cohesivos precisan fundamentalmente de dos parámetros para definir su curva de ablandamiento: la tensión de decohesión ft y la energía de fractura GF . Además, los parámetros de los modelos GTN no son medibles de manera experimental, mientras que GF sí lo es. En cuanto a ft, aunque no existe un método para su determinación experimental, sí resulta un parámetro más fácilmente interpretable que los empleados por los modelos GTN, que utilizan valores como el porcentaje de huecos presentes en el material para iniciar el fenómeno de coalescencia o el porcentaje de poros que provoca una pérdida total de la capacidad resistente. Para implementar este criterio de rotura se ha desarrollado un elemento de intercara cohesivo dependiente de la triaxialidad de tensiones. Se han reproducido con éxito los ensayos de tracción llevados a cabo en la campaña experimental empleando dicho elemento de intercara. Además, en estos modelos la rotura se produce fenomenológicamente de la misma manera observada en los ensayos experimentales: produciéndose una decohesión circular en torno al eje de la probeta. En definitiva, los trabajos desarrollados en esta Tesis, tanto experimentales como numéricos, contribuyen a clarificar el comportamiento de los aceros de construcción en el último tramo de la curva F − E y los mecanismos desencadenantes de la rotura final del material, aspecto que puede contribuir a un mejor aprovechamiento de las propiedades de estos aceros en el futuro y a mejorar la seguridad de las estructuras construidas con ellos. Steel is, together with concrete, the most widely used material in civil engineering works. Not only its high strength, but also its ductility is of special interest from the point of view of the structural safety, since it enables stress distribution with adjacent elements and, therefore, more energy can be stored before reaching the structural failure. However, despite of being extensively used, there are still some aspects related to its fracture behaviour that need to be clarified and that will allow for a better use of its properties. When a steel item is tested under tension and reaches the maximum load point, necking process begins, which makes difficult to define the material behaviour from that moment onward. The ISO standard 6892-1, which defines the tensile testing method for metallic materials, describes the procedures to obtain some parameters related to this last section of the F − E curve. Nevertheless, these parameters have proved to be controversial, since they have low reproducibility and repeatibility rates that are difficult to explain. This Thesis tries to deepen the knowledge of the last section of the F − E curve for construction steels. An extensive experimental campaign has been carried out with two representative steels used in civil engineering works: a steel rod used for manufacturing prestressing steel wires, before the cold-drawing process is applied, and steel bars used in reinforced concrete structures. Both materials have different fracture surfaces: while the first of them shows a flat fracture surface, perpendicular to the loading direction with a dark region in the centre of it, the second one shows the classical cup-cone fracture surface. The cup-cone fracture surface has been deeply studied in the past and different numerical models have been able to reproduce it with success, with a special mention to the Gurson-Tvergaard-Needleman model (GTN). Regarding the failure surface shown by the first material, in principle it can be numerically reproduced by a GTN model, but the differences observed between both materials in the experimental campaign suggest thinking of a different failure criterium. In the present Thesis, an extensive experimental campaign has been carried out using cylindrical specimens made of two representative construction steels with different fracture behaviours. On one hand, the initial eutectoid steel rod used for manufacturing prestressing steel wires is analysed, which presents a flat fracture surface, perpendicular to the loading direction, and with a dark region in the centre of it. On the other hand, B 500 SD steel bars, typically used in reinforced concrete structures and with the typical cup-cone fracture surface, are studied. These experimental works have allowed distinguishing two clearly different fracture behaviours between both materials and, in the case of the first one, a fragile-like behaviour has been identified. For the first material, which shows a flat fracture surface perpendicular to the loading direction, the following hypothesis is proposed in this study: a quasi-brittle fracture is developed as a consequence of a decohesion process, with the dark region acting as a circular crack perpendicular to the loading direction. To reproduce numerically the fracture behaviour shown by the first material, a failure criterium based on a cohesive model is proposed in this Thesis. As an innovative contribution, this failure criterium depends on the stress triaxiality state of the material, which is a key parameter when studying fracture in this kind of materials. This type of models have some advantages when compared to the widely used GTN models. While GTN models need a high number of parameters to be defined, cohesive models need basically two parameters to define the softening curve: the decohesion stress ft and the fracture energy GF . In addition to this, GTN models parameters cannot be measured experimentally, while GF is indeed. Regarding ft, although no experimental procedure is defined for its obtention, it has an easier interpretation than the parameters used by the GTN models like, for instance, the void volume needed for the coalescence process to start or the void volume that leads to a total loss of the bearing capacity. In order to implement this failure criterium, a triaxiality-dependent cohesive interface element has been developed. The experimental results obtained in the experimental campaign have been successfully reproduced by using this interface element. Furthermore, in these models the failure mechanism is developed in the same way as observed experimentally: with a circular decohesive process taking place around the longitudinal axis of the specimen. In summary, the works developed in this Thesis, both experimental and numerical, contribute to clarify the behaviour of construction steels in the last section of the F − E curve and the mechanisms responsible for the eventual material failure, an aspect that can lead to a better use of the properties of these steels in the future and a safety improvement in the structures built with them.
Resumo:
Desde que el Hombre era morador de las cavernas ha sido manifiesto su deseo innato por grabar y reproducir "instantáneas con las que perpetuarse o sobre las que mirarse ". La aparición y desarrollo de la fotografía como medio para poder captar y fijar "la imagen directa de la realidad circundante " pronto se convierte en un nuevo lenguaje estético y poético que permite al artista la interpretación y reflexión de lo observado. Se imprime a la imagen el carácter de la mirada del fotógrafo, estableciendo un diálogo conceptual con el juego de luces. La presente Tesis plantea la creación de una nueva piel de arquitectura mediante la impresión fotográfica sobre materiales pétreos. La búsqueda de la expresividad de los materiales como soporte de expresión artística implica un cambio de escala al trasladar la instantánea fotográfica a la arquitectura y la aplicación de un nuevo soporte al imprimir la fotografía sobre materiales arquitectónicos. Se justifica la elección del dispositivo láser CO2 como sistema de impresión fotográfica sobre los materiales pétreos arquitectónicos, como la técnica que permite la unión física de la imagen y el proyecto arquitectónico, generando un valor añadido a través del arte de la fotografía. Se justifica la elección de los materiales investigados, Silestone® Blanco Zeus y GRC® con TX Active® Aria, de forma que la investigación de esta nueva piel de arquitectura abarca tanto la envolvente del edificio como su volumen interior, permitiendo cerrar el círculo arquitectónico "in&out" y dota al proyecto arquitectónico de un valor añadido al introducir conceptos sostenibles de carácter estético y medioambiental. Se realiza una consulta a las empresas del sector arquitectónico relacionadas directamente con la producción y distribución de los materiales Silestone® y GRC®, así como a las empresas especializadas en sistemas de impresión fotográfica sobre materiales, acerca del estado del arte. Se recorre la Historia de la fotografía desde sus orígenes hasta el desarrollo de la era digital y se analiza su condición artística. Se recopilan los sistemas de impresión fotográfica que han evolucionado en paralelo con los dispositivos de captura de la instantánea fotográfica y se describe en profundidad el sistema de impresión fotográfica mediante dispositivo láser CO2. Se describen los procesos de fabricación, las características técnicas, cualidades y aplicaciones de los materiales pétreos arquitectónicos Silestone® Blanco Zeus y GRC® con TX Active® Aria. Se explica la técnica utilizada para la captación de la imagen fotográfica, su justificación artística y su proceso de impresión mediante dispositivo láser CO2 bajo diferentes parámetros sobre muestras de los materiales arquitectónicos investigados. Se comprueba la viabilidad de desarrollo de la nueva piel de arquitectura sobre Silestone® Blanco Zeus y GRC® con TX Active® Aria sometiendo a las piezas impresas bajo diferentes parámetros a tres ensayos de laboratorio. En cada uno de ellos se concreta el objetivo y procedimiento del ensayo, la enumeración de las muestras ensayadas y los parámetros bajo los que han sido impresas, el análisis de los resultados del ensayo y las conclusiones del ensayo. Ensayo de amplitud térmica. Se determina el grado de afectación de las imágenes impresas bajo la acción de contrastes térmicos. Series de muestras de Silestone® Blanco Zeus y GRC® con TX Active® Aria impresas con láser CO2 se someten a ciclos de contraste frío-calor de 12 horas de duración para una amplitud térmica total de 102°C. Se realiza una toma sistemática de fotografías microscópicas con lupa de aumento de cada pieza antes y después de los ciclos frío-calor y la observación de las transformaciones que experimentan los materiales bajo la acción del láser CO2. Ensayo de exposición a la acción de la radiación ultravioleta (UV). Se determina el grado de afectación de las imágenes impresas al activar la capacidad autolimpiante de partículas orgánicas. Una serie de muestras de GRC® con TX Active® Aria impresa con láser CO2 se someten a ciclos de exposición de radiación ultravioleta de 26 horas de duración. Se somete la serie a un procedimiento de activación del aditivo TX Active®. Se simula la contaminación orgánica mediante la aplicación controlada de Rodamina B, tinte orgánico, y se simula la radiación UV mediante el empleo de una bombilla de emisión de rayos ultravioleta. Se realiza una toma sistemática de fotografías macroscópicas de la serie de muestras ensayadas: antes de aplicación de la Rodamina B, momento 00:00h, momento 04:00h y momento 26:00h del ensayo. Se procede a la descarga y análisis del histograma de las fotografías como registro de la actividad fotocatalítica. Ensayo de la capacidad autodescontaminante del GRC® con TX Active® impreso con láser CO2. Se comprueba si la capacidad autodescontaminante del GRC® con TX Active® se ve alterada como consecuencia de la impresión de la imagen fotográfica impresa con láser CO2. Serie de muestras de GRC® con TX Active® Aria impresa con láser CO2 se someten a test de capacidad autodescontaminante: atmósfera controlada y contaminada con óxidos de nitrógeno en los que se coloca cada pieza ensayada bajo la acción de una lámpara de emisión de radiación ultravioleta (UV). Se registra la actividad fotocatalítica en base a la variación de concentración de óxido de nitrógeno. Se recopila el análisis e interpretación de los resultados de los ensayos de laboratorio y se elaboran las conclusiones generales de la investigación. Se sintetizan las futuras líneas de investigación que, a partir de las investigaciones realizadas y de sus conclusiones generales, podrían desarrollarse en el ámbito de la impresión fotográfica sobre materiales arquitectónicos. Se describe el rendimiento tecnológico y artístico generado por las investigaciones previas que han dado origen y desarrollo a la Tesis Doctoral. ABSTRACT Since ancient time, humanity has been driven by an innate wish to reproduce and engrave "snapshots that could help to perpetúate or to look at one self". Photography's birth and its development as a mean to capture and fix "the direct image of the surrounding reality" quickly becomes a new aesthetical and poetical language allowing the artist to interpret and think over what has been observed. The photographer's eye is imprinted onto the image, and so the conceptual dialogue between the artist and the light beams begins. The current thesis suggests the creation of a new architectural skin through photography imprinting over stony materials. The search for material's expressiveness as a medium of artistic expression involves a change of scale as it transfers photographic snapshot into architecture and the use of a new photographic printing support over architectural materials. CO2 laser is the chosen printing system for this technique as it allows the physical union of the image and the architectonic project, generating an added value through the art of photography. The researched materials selected were Silestone®, Blanco Zeus and GRC® with TX Active® Aria. This new architectural skin contains the building surrounding as well as its interior volume, closing the architectonic "in & out" circle and adding a value to the project by introducing aesthetical and environmental sustainable concepts. Architecture companies related to the production and distribution of materials like Silestone® and GRC®, as well as companies specialized in photography printing over materials were consulted to obtain a State of the Art. A thorough analysis of photography's History from its origins to the digital era development was made and its artistic condition was studied in this thesis. In this study the author also makes a compilation of several photographic printing systems that evolved together with photographic snapshot devices. The CO2 laser-based photographic printing system is also described in depth. Regarding stony materials of architecture like Silestone®, Blanco Zeus and GRC® with TX Active® Aria, the present study also describes their manufacture processes as well as technical features, quality and application. There is also an explanation about the technique to capture the photographic image, its artistic justification and its CO2 laser-based printing system over the researched materials under different parameters. We also tested the feasibility of this new architectural skin over Silestone® Blanco Zeus and GRC® with TX Active® Aria. The pieces were tested under different parameters in three laboratory trials. Each trial comprises of an explanation of its objective and its process, the samples were numbered and the printing parameters were specified. Finally, with the analysis of the results some conclusions were drawn. In the thermal amplitude trial we tried to determine how printed images were affected as a result of the action of thermal contrasts. Series of samples of Silestone® Blanco Zeus and GRC® with TX Active® Aria printed with CO2 laser were subjected to several 12h warm-cold cycles for thermal total amplitude of 102oc. Each sample was captured systematically with microscopic enhanced lenses before and after cold-warm cycles. The changes experienced by these materials under the effect of CO2 laser were observed and recorded. Trial regarding the Ultraviolet Radiation (UR) effect on images. We determined to which extent printed images were affected once the self-cleaning organic particles were activated. This time GRC® with TX Active® Aria samples printed with CO2 laser were exposed to a 26h UR cycle. The samples were subjected to the activation of TX Active® additive. Through the controlled application of Rodamine B and organic dye we were able to simulate the organic contamination process. UR was simulated using an ultraviolet beam emission bulb. A systematic capture of macroscopic pictures of the tested sample series was performed at different time points: before Rodamine B application, at moment 00:00h, moment 04:00h and moment 26:00h of the trial. Picture's histogram was downloaded and analyzed as a log of photocatalytic activity. Trial regarding the self-decontaminating ability of GRC® with TX Active® printed with CO2 laser. We tested if this self-decontaminating ability is altered as a result of CO2 laser printed image. GRC® with TX Active® Aria samples printed with CO2 laser, were subject to self-decontaminating ability tests with controlled and nitrogen oxide contaminated atmosphere. Each piece was put under the action of an UR emission lamp. Photocatalytic activity was recorded according to the variation in nitrogen oxide concentration. The results of the trial and their interpretation as well as the general conclusions of the research are also compiled in the present study. Study conclusions enable to draw future research lines of potential applications of photographic printing over architecture materials. Previous research generated an artistic and technological outcome that led to the development of this doctoral thesis.
Resumo:
Esta metodología se orienta a servir de guía a profesores y entrenadores de natación, intentando contribuir con una clara delimitación de temas para facilitar una base argumental. No obstante, este trabajo pretende dejar también un amplio espacio a la prudente iniciativa e imaginación del profesor, a la que sirve de cimientos. He preferido ilustrar el texto con mayor número de dibujos que de fotografías, por creer que así se aclaran y completan mejor las explicaciones, forzosamente concisas. La sencilla sucesión de las distintas fases, separadas por guiones, permitirá al profesor formarse una idea clara de los movimientos. La elección de los ejercicios que se practicarán en cada caso es, naturalmente, competencia del profesor. El fin que persigue un método de natación es conseguir que el alumno llegue a convertirse en un nadador seguro. Esto significa que tendrá que alcanzar un grado de soltura que le permita moverse dentro del agua con la misma seguridad natural con que lo hace en tierra. “Su capacidad física mientras nade corresponderá a la capacidad física de su cuerpo fuera del agua” (P. A. SCHWIMMEN: Natación para todos. Página 7. Línea 5). Creo también que cada situación donde el alumno se ejercita, representa una experiencia concreta e individual, por lo que ni un ejercicio y aún menos una sucesión de ejercicios deben concebirse a priori. E1 alumno está constantemente imponiendo al profesor la naturaleza del ejercicio a ejecutar mediante sus reacciones y comportamiento. El ejercicio no es eficaz si en él no se demuestra un progreso tangible y tampoco es útil si no se presenta un proceso franqueable y asimilable. Es importante hacer notar en una metodología de la enseñanza de la natación que la repetición excesiva de un ejercicio puede acarrear el hastío y el aburrimiento del alumno que pretende aprender a nadar. Por ello es indispensable que cada lección y cada ejercicio vaya acompañado de una toma de conciencia de la progresión por parte del alumno y por parte del profesor. Por último, pienso que este trabajo debe ser personalizado por el que pretenda aprovechar sus conocimientos.