801 resultados para Bioingegneria, Modelli matematici, Volume del liquido interstiziale


Relevância:

30.00% 30.00%

Publicador:

Resumo:

La disponibilidad hídrica es uno de los principales factores que determinan el rendimiento del viñedo en muchas regiones vitícolas, por lo que sus consecuencias han sido ampliamente estudiadas. Sin embargo, para una cantidad de agua de riego determinada, otros aspectos como la frecuencia de aplicación, o la combinación entre el caudal de los goteros y la distancia entre los mismos (es decir, el patrón de distribución de agua en el suelo), pueden jugar un papel relevante, pero estos factores han sido poco estudiados. El objetivo de este trabajo ha sido evaluar las implicaciones agronómicas y fisiológicas de dos frecuencias de riego (IrrF, cada 2 y 4 días) y dos patrones de distribución de agua (DisP, goteros de 2 L h-1 separados 0,6 m vs. goteros de 4 L h-1 separados 1,2 m). El experimento se llevó a cabo durante cuatro temporadas consecutivas en un viñedo cv. Syrah con un suelo arcilloso en el centro de España, y los dos factores fueron evaluados bajo dos condiciones de disponibilidad hídrica (Baja: 20% de ETo y Media: 40% de ETo). El efecto de la frecuencia de riego y el patrón de distribución de agua en la respuesta agronómica del cv. Syrah se ha estudiado en el capítulo 1. La frecuencia de riego y el patrón de distribución de agua en el suelo afectaron a algunos aspectos de los componentes de rendimiento y desarrollo vegetativo en las dos condiciones de disponibilidad hídrica, aunque los efectos observados no fueron los mismos todos los años. Los efectos fueron más evidentes para IrrF en condiciones de baja disponibilidad hídrica y para DisP en condiciones de disponibilidad hídrica media. Dos de los cuatro años del experimento, el pasar de frecuencia de riego de 2 días a 4 días causó un incremento medio de rendimiento del 20% para la situación de baja disponibilidad hídrica. La textura del suelo, sin duda ha condicionado los resultados obtenidos en los tratamientos regados con el 20% de la ETo, ya que regar cada dos días implicaba la aplicación de pequeñas cantidades de agua y se formaban bulbos de riego superficiales, probablemente favoreciendo las pérdidas por evaporación. En el capítulo 2, se ha analizado el efecto de la frecuencia de riego y del patrón de distribución de agua en el estado hídrico de la planta y el intercambio gaseoso a nivel de hoja con el fin de explicar las diferencias observadas en la respuesta agronómica. En lo que respecta a la frecuencia de riego, en condiciones de baja disponibilidad hídrica, las plantas regadas cada 4 días (plantas 4d), mostraron mayores tasas de asimilación neta y conductancia estomática que las plantas regadas cada 2 días (plantas 2d), lo que es consistente con la hipótesis de que con la frecuencia de riego de 2 días se produjo una pérdida de eficiencia del uso del agua, probablemente debido a una mayor evaporación como consecuencia del hecho de que el volumen de suelo mojado creado era pequeño y cerca de la superficie. En condiciones de disponibilidad hídrica media, las diferencias en el intercambio gaseoso a nivel de hoja fueron mucho más pequeñas. Al comienzo del verano cada frecuencia de riego se comportó mejor uno de los días de medida, compensando al final del ciclo de riego de 4 días. Sin embargo, a medida que avanzó el verano y el déficit de agua se hizo más alto, las diferencias significativas aparecieron sólo en el 'día 4' del ciclo de riego, cuando las plantas 2d se comportaron mejor que las plantas regadas 4d que llevaban tres días sin regarse. Estas diferencias fisiológicas fueron menores que en condiciones de baja disponibilidad hídrica y al parecer no suficientes para afectar el comportamiento agronómico. En cuanto al patrón de distribución de agua, el efecto fue poco significativo, pero la mayor densidad de goteros tendió a presentar un mayor intercambio gaseoso a nivel de hoja, especialmente a media mañana. El efecto fue más importante para las condiciones de disponibilidad hídrica media. En el capítulo 3, se han comparado las relaciones entre el intercambio gaseoso a nivel de hoja, el estado hídrico y la demanda atmosférica, con el fin de explicar los cambios en la intensidad de la respuesta fisiológica observados en el Capítulo 2. No se han encontrado diferencias en dichas relaciones para el patrón de distribución de agua, por lo que sólo se ha analizado el efecto de la frecuencia de riego. El estudio se ha centrado fundamentalmente en si las plantas mostraron una respuesta fisiológica diferente a los cambios en el estado hídrico y en la demanda atmosférica según el tiempo transcurrido desde el último riego. Las diferencias observadas explican los resultados obtenidos en los capítulos anteriores, y sugieren la existencia de procesos de aclimatación vinculados a la frecuencia de riego y a la disponibilidad hídrica. Las plantas bajo condiciones de baja disponibilidad hídrica se mostraron más aclimatadas al estrés hídrico que aquellas en condiciones de disponibilidad hídrica media. La frecuencia de riego afectó claramente la relación entre los parámetros de intercambio gaseoso a nivel de hoja, el estado hídrico de la planta y las condiciones atmosféricas, y junto con la cantidad de agua aplicada tuvo implicaciones en el desarrollo de mecanismos de aclimatación que afectaron a la respuesta fisiológica de la planta, afectando a la eficiencia del riego. ABSTRACT Water availability is one of the major factors that determine vineyard performance in many grape growing regions, so its implications have been widely studied before. However, for a given irrigation water amount, other aspects such as application frequency, or emitter spacing and flow rate (i.e., distribution pattern), may play a relevant role, but these factors have been scarcely studied. The aim of this work was to evaluate the agronomic and physiological implications of two irrigation frequencies (IrrF, every 2 and 4 days) and two water distribution patterns (DisP, 2 L h−1 emitters every 0.6 m vs. 4 L h−1 emitters every 1.2 m). The experiment was carried out during four consecutive seasons in a cv. Syrah vineyard with a clay soil in central Spain, and the two factors were evaluated under two water availability conditions (LOW WA: 20% of ETo and MEDIUM WA: 40% of ETo). The effect of irrigation frequency and water distribution pattern on the agronomical response of cv. Syrah was studied in Chapter 1. IrrF and DisP affected some aspects of vegetative development and yield components under both water availability conditions, although the effects observed were not the same every year. The effects were more evident for IrrF under low water availability and for DisP under medium water availability. Two out of the four years of the experiment, the change of irrigation frequency from 2 days to 4 days promoted an average yield increase of 20% for the LOW WA situation. Soil texture certainly conditioned the results obtained under LOW WA conditions, since high frequency irrigation implied applying small amounts of water that resulted in limited superficial water bulbs, which probably favored water evaporation. In Chapter 2, the effect of irrigation frequency and water distribution pattern on plant water status and leaf gas exchange was analyzed to explain the differences observed in the agronomical response. Concerning irrigation frequency, under LOW WA conditions, applying irrigation every 4 days, resulted in higher net assimilation rates and stomatal conductance than doing it every 2 days, supporting the hypothesis that the latter frequency resulted in a water use efficiency loss, probably due to higher evaporation as a consequence of the fact the wetted soil volume created was small and close to the surface. Under MEDIUM WA conditions, differences in leaf gas exchange were much smaller. At the beginning of the summer each irrigation frequency behaved better one of the measurements days, compensating at the end of the 4-day irrigation cycle. However, as the summer progressed and water deficit became higher, significant differences appeared only on ‘day 4’ of the irrigation cycle, when 2d plants behaved better than 4d plants. These physiological differences were smaller than under LOW WA conditions and apparently not sufficient to affect agronomical performance. Regarding water distribution pattern, the effect was less significant but the closest emitter spacing resulted in general terms in a higher leaf gas exchange, especially at midmorning. The effect was more noticeable for MEDIUM WA conditions. In Chapter 3, the relationships between leaf gas exchange and leaf water status and atmospheric demand were compared to explain the changes in the intensity of the physiological response observed in Chapter 2. No differences were found in the relationships for water distribution pattern, so only the effect of irrigation frequency was analyzed focusing on whether the plants have a different physiological response to changes in water status and atmospheric demand according to the time elapsed since the last irrigation. Differences observed in the relationships explained the results obtained in the previous chapters, and point at the occurrence of acclimation processes linked to irrigation frequency and to water availability. Plants under LOW WATER AVAILABILITY conditions seemed to be more acclimated to water stress than those under MEDIUM WATER AVAILABILITY conditions. Irrigation frequency clearly affected the relationship between leaf gas exchange parameters, plant water status and atmospheric conditions, and together with the amount of water applied had implications in the development of acclimation mechanisms that affected plant physiological response, thus affecting irrigation efficiency.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La competitividad del transporte de mercancías depende del estado y funcionamiento de las redes existentes y de sus infraestructuras, no del modo de transporte. En concreto, la rentabilidad o la reducción de los costes de producción del transporte marítimo se vería incrementado con el uso de buques de mayor capacidad y con el desarrollo de plataformas portuarias de distribución o puertos secos, ya que el 90% del comercio entre la Unión Europea y terceros países se realiza a través de sus puertos a un promedio de 3,2 billones de toneladas de mercancías manipuladas cada año y el 40% del tráfico intraeuropeo utiliza el transporte marítimo de corta distancia. A pesar de que los puertos europeos acogen anualmente a más de 400 millones de pasajeros, los grandes desarrollos se han producido en los puertos del norte de Europa (Róterdam, Amberes, Ámsterdam). Los países del Sur de Europa deben buscar nuevas fórmulas para ser más competitivos, ya sea mediante creación de nuevas infraestructuras o mediante refuerzo de las existentes, ofreciendo los costes de los puertos del Norte. El fomento del transporte marítimo y fluvial como alternativa al transporte por carretera, especialmente el transporte marítimo de corta distancia, ha sido impulsado por la Comisión Europea (CE) desde 2003 a través de programas de apoyo comunitario de aplicación directa a las Autopistas del Mar, a modo de ejemplo, cabría citar los programas Marco Polo I y II, los cuales contaron con una dotación presupuestaria total de 855 millones de euros para el período 2003 – 2013; en ese período de tiempo se establecieron objetivos de reducción de congestión vial y mejora del comportamiento medio ambiental del sistema de transporte de mercancías dentro de la comunidad y la potenciación de la intermodalidad. El concepto de Autopista del Mar surge en el Libro Blanco de Transportes de la Comisión Europea “La política europea de transportes de cara al 2010: La hora de la verdad” del 12 de diciembre de 2001, en el marco de una política europea para fomento y desarrollo de sistemas de transportes sostenibles. Las Autopistas del Mar consisten en rutas marítimas de corta distancia entre dos puntos, de menor distancia que por vía terrestre, en las que a través del transporte intermodal mejoran significativamente los tiempos y costes de la cadena logística, contribuyen a la reducción de accidentes, ruidos y emisiones de CO2 a la atmósfera, permite que los conductores pierdan horas de trabajo al volante y evita el deterioro de las infraestructuras terrestres, con el consiguiente ahorro en mantenimiento. La viabilidad de una Autopista del Mar depende tanto de factores de ubicación geográficos, como de características propias del puerto, pasando por los diferentes requerimientos del mercado en cada momento (energéticos, medio ambientales y tecnológicos). Existe un elemento nuevo creado por la Comisión Europea: la red transeuropea de transportes (RTE-T). En el caso de España, con sus dos accesos por los Pirineos (La Junquera e Irún) como únicos pasos terrestres de comunicación con el continente y con importantes limitaciones ferroviarias debido a los tres anchos de vía distintos, le resta competitividad frente al conjunto europeo; por el contrario, España es el país europeo con más kilómetros de costa (con más de 8.000 km) y con un emplazamiento geográfico estratégico, lo que le convierte en una plataforma logística para todo el sur de Europa, por lo que las Autopistas del Mar tendrán un papel importante y casi obligado para el desarrollo de los grandes corredores marítimos que promueve Europa. De hecho, Gijón y Vigo lo han hecho muy bien con sus respectivas líneas definidas como Autopistas del Mar y que conectan con el puerto francés de Nantes-Saint Nazaire, ya que desde ahí los camiones pueden coger rutas hacia el Norte. Paralelamente, la Unión Europea ha iniciado los pasos para el impulso de la primera Autopista del Mar que conectará España con el mercado de Reino Unido, concretamente los Puertos de Bilbao y Tilbury. Además, España e Italia sellaron un acuerdo internacional para desarrollar Autopistas del Mar entre ambos países, comprometiéndose a impulsar una docena de rutas entre puertos del litoral mediterráneo español y el italiano. Actualmente, están en funcionando los trayectos como Barcelona-Génova, Valencia-Civitavecchia y Alicante- Nápoles, notablemente más cortos por mar que por carretera. Bruselas identificó cuatro grandes corredores marítimos que podrían concentrar una alta densidad de tráfico de buques, y en dos de ellos España ya tenía desde un principio un papel crucial. La Comisión diseñó el 14 de abril de 2004, a través del proyecto West-Mos, una red de tráfico marítimo que tiene como vías fundamentales la denominada Autopista del Báltico (que enlaza Europa central y occidental con los países bálticos), la Autopista de Europa suroriental (que une el Adriático con el Jónico y el Mediterráneo más oriental) y también la Autopista de Europa occidental y la Autopista de Europa suroccidental (que enlazan España con Reino Unido y la Francia atlántica y con la Francia mediterránea e Italia, respectivamente). Para poder establecer Autopistas del Mar entre la Península Ibérica y el Norte de Europa primará especialmente la retirada de camiones en la frontera pirenaica, donde el tráfico pesado tiene actualmente una intensidad media diaria de 8.000 unidades, actuando sobre los puntos de mayor congestión, como por ejemplo los Alpes, los Pirineos, el Canal de la Mancha, las carreteras fronterizas de Francia y Euskadi, y proponiendo el traslado de las mercancías en barcos o en trenes. Por su parte, para contar con los subsidios y apoyos europeos las rutas seleccionadas como Autopistas del Mar deben mantener una serie de criterios de calidad relacionados con la frecuencia, coste “plataforma logística a plataforma logística”, simplicidad en procedimientos administrativos y participación de varios países, entre otros. Los estudios consideran inicialmente viables los tramos marítimos superiores a 450 millas, con un volumen de unas 15.000 plataformas al año y que dispongan de eficientes comunicaciones desde el puerto a las redes transeuropeas de autopistas y ferrocarril. Otro objetivo de las Autopistas del Mar es desarrollar las capacidades portuarias de forma que se puedan conectar mejor las regiones periféricas a escala del continente europeo. En lo que a Puertos se refiere, las terminales en los muelles deben contar con una línea de atraque de 250 m., un calado superior a 8 m., una rampa “ro-ro” de doble calzada, grúas portainer, y garantizar operatividad para un mínimo de dos frecuencias de carga semanales. El 28 de marzo de 2011 se publicó el segundo Libro Blanco sobre el futuro del transporte en Europa “Hoja de ruta hacia un espacio único europeo de transporte: por una política de transportes competitiva y sostenible”, donde se definió el marco general de las acciones a emprender en los próximos diez años en el ámbito de las infraestructuras de transporte, la legislación del mercado interior, la reducción de la dependencia del carbono, la tecnología para la gestión del tráfico y los vehículos limpios, así como la estandarización de los distintos mercados. Entre los principales desafíos se encuentran la eliminación de los cuellos de botella y obstáculos diversos de nuestra red europea de transporte, minimizar la dependencia del petróleo, reducir las emisiones de GEI en un 60% para 2050 con respecto a los niveles de 1990 y la inversión en nuevas tecnologías e infraestructuras que reduzcan estas emisiones de transporte en la UE. La conexión entre la UE y el norte de África provoca elevados niveles de congestión en los puntos más críticos del trayecto: frontera hispano-francesa, corredor del Mediterráneo y el paso del estrecho. A esto se le añade el hecho de que el sector del transporte por carretera está sujeto a una creciente competencia de mercado motivada por la eliminación de las barreras europeas, mayores exigencias de los cargadores, mayores restricciones a los conductores y aumento del precio del gasóleo. Por otro lado, el mercado potencial de pasajeros tiene una clara diferenciación en tipos de flujos: los flujos en el período extraordinario de la Operación Paso del Estrecho (OPE), enfocado principalmente a marroquíes que vuelven a su país de vacaciones; y los flujos en el período ordinario, enfocado a la movilidad global de la población. Por tanto, lo que se pretende conseguir con este estudio es analizar la situación actual del tráfico de mercancías y pasajeros con origen o destino la península ibérica y sus causas, así como la investigación de las ventajas de la creación de una conexión marítima (Autopista del Mar) con el Norte de África, basándose en los condicionantes técnicos, administrativos, económicos, políticos, sociales y medio ambientales. The competitiveness of freight transport depends on the condition and operation of existing networks and infrastructure, not the mode of transport. In particular, profitability could be increased or production costs of maritime transport could be reduced by using vessels with greater capacity and developing port distribution platforms or dry ports, seeing as 90% of trade between the European Union and third countries happens through its ports. On average 3,2 billion tonnes of freight are handled annualy and 40% of intra-European traffic uses Short Sea Shipping. In spite of European ports annually hosting more than 400 million passengers, there have been major developments in the northern European ports (Rotterdam, Antwerp, Amsterdam). Southern European countries need to find new ways to be more competitive, either by building new infrastructure or by strengthening existing infrastructure, offering costs northern ports. The use of maritime and river transport as an alternative to road transport, especially Short Sea Shipping, has been driven by the European Commission (EC) from 2003 through community support programs for the Motorways of the Sea. These programs include, for example, the Marco Polo I and II programs, which had a total budget of 855 million euros for the period 2003-2013. During this time objectives were set for reducing road congestion, improving the environmental performance of the freight transport system within the community and enhancing intermodal transport. The “Motorway of the Sea” concept arises in the European Commission’s Transport White Paper "European transport policy for 2010: time to decide" on 12 December 2001, as part of a European policy for the development and promotion of sustainable transport systems. A Motorway of the Sea is defined as a short sea route between two points, covering less distance than by road, which provides a significant improvement in intermodal transport times and to the cost supply chain. It contributes to reducing accidents, noise and CO2 emissions, allows drivers to shorten their driving time and prevents the deterioration of land infrastructure thereby saving on maintenance costs. The viability of a Motorway of the Sea depends as much on geographical location factors as on characteristics of the port, taking into account the different market requirements at all times (energy, environmental and technological). There is a new element created by the European Commission: the trans-European transport network (TEN-T). In the case of Spain, with its two access points in the Pyrenees (La Junquera and Irun) as the only land crossings connected to the mainland and major railway limitations due to the three different gauges, it appears less competitive compared to Europe as a whole. However, Spain is the European country with the most kilometers of coastline (over 8,000 km) and a strategic geographical location, which makes it a logistics platform for the all of Southern Europe. This is why the Motorways of the Sea will have an important role, and an almost necessary one to develop major maritime corridors that Europe supports. In fact, Gijon and Vigo have done very well with their respective sea lanes defined as Motorways of the Sea and which connect with the French port of Nantes-Saint Nazaire, as from there trucks can use nort-heading routes. In parallel, the European Union has taken the first steps to boost the first Motorway of the Sea linking Spain to the UK market, specifically the ports of Bilbao and Tilbury. Furthermore, Spain and Italy sealed an international agreement to develop Motorways of the Sea between both countries, pledging to develop a dozen routes between ports on the Spanish and Italian Mediterranean coasts. Currently, there are sea lanes already in use such as Barcelona-Genova, Valencia-Civitavecchia and Alicante-Naples, these are significantly shorter routes by sea than by road. Brussels identified four major maritime corridors that could hold heavy concentrate shipping traffic, and Spain had a crucial role in two of these from the beginning. On 14 April 2004 the Commission planned through the West-Mos project, a network of maritime traffic which includes the essential sea passages the so-called Baltic Motorway (linking Central and Western Europe with the Baltic countries), the southeast Europe Motorway (linking the Adriatic to the Ionian and eastern Mediterranean Sea), the Western Europe Motorway and southwestern Europe Motorway (that links Spain with Britain and the Atlantic coast of France and with the French Mediterranean coast and Italy, respectively). In order to establish Motorways of the Sea between the Iberian Peninsula and Northern Europe especially, it is necessary to remove trucks from the Pyrenean border, where sees heavy traffic (on average 8000 trucks per day) and addressing the points of greatest congestion, such as the Alps, the Pyrenees, the English Channel, the border roads of France and Euskadi, and proposing the transfer of freight on ships or trains. For its part, in order to receive subsidies and support from the European Commission, the routes selected as Motorways of the Sea should maintain a series of quality criteria related to frequency, costs "from logistics platform to logistics platform," simplicity in administrative procedures and participation of several countries, among others. To begin with, studies consider viable a maritime stretch of at least 450 miles with a volume of about 15,000 platforms per year and that have efficient connections from port to trans-European motorways and rail networks. Another objective of the Motorways of the Sea is to develop port capacity so that they can better connect peripheral regions across the European continent. Referring ports, the terminals at the docks must have a berthing line of 250 m., a draft greater than 8 m, a dual carriageway "ro-ro" ramp, portainer cranes, and ensure operability for a minimum of two loads per week. On 28 March 2011 the second White Paper about the future of transport in Europe "Roadmap to a Single European Transport Area – Towards a competitive and resource efficient transport system" was published. In this Paper the general framework of actions to be undertaken in the next ten years in the field of transport infrastructure was defined, including internal market legislation, reduction of carbon dependency, traffic management technology and clean vehicles, as well as the standardization of different markets. The main challenges are how to eliminate bottlenecks and various obstacles in our European transport network, minimize dependence on oil, reduce GHG emissions by 60% by 2050 compared to 1990 levels and encourage investment in new technologies and infrastructure that reduce EU transport emissions. The connection between the EU and North Africa causes high levels of congestion on the most critical points of the journey: the Spanish-French border, the Mediterranean corridor and Gibraltar Strait. In addition to this, the road transport sector is subject to increased market competition motivated by the elimination of European barriers, greater demands of shippers, greater restrictions on drivers and an increase in the price of diesel. On the other hand, the potential passenger market has a clear differentiation in type of flows: flows in the special period of the Crossing the Straits Operation (CSO), mainly focused on Moroccans who return home on vacation; and flows in the regular session, focused on the global mobile population. Therefore, what I want to achieve with this study is present an analysis of the current situation of freight and passengers to or from the Iberian Peninsula and their causes, as well as present research on the advantages of creating a maritime connection (Motorways of the Sea) with North Africa, based on the technical, administrative, economic, political, social and environmental conditions.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La reutilización de efluentes depurados siempre ha sido una opción en lugares con déficit coyuntural o estructural de recursos hídricos, se haya o no procedido a la regulación y planificación de esta práctica. La necesidad se crea a partir de las demandas de una zona, normalmente riego agrícola, que ven un mejor desarrollo de su actividad por contar con este recurso. España es el país de la UE que más caudal reutiliza, y está dentro de los diez primeros a nivel mundial. La regulación de esta práctica por el RD 1620/2007, ayudó a incorporar la reutilización de efluentes depurados a la planificación hidrológica como parte de los programas de medidas, con objeto de mitigar presiones, como son las extracciones de agua superficial y subterránea, o mejoras medioambientales evitando un vertido. El objeto de este trabajo es conocer la situación de la reutilización de efluentes depurados en España, los diferentes escenarios y planteamientos de esta actividad, el desarrollo del marco normativo y su aplicabilidad, junto a los tratamientos que permiten alcanzar los límites de calidad establecidos en la normativa vigente, en función de los distintos usos. Además, se aporta un análisis de costes de las distintas unidades de tratamiento y tipologías de líneas de regeneración, tanto de las utilizadas después de un tratamiento secundario como de otras opciones de depuración, como son los biorreactores de membrana (MBRs). Para el desarrollo de estos objetivos, en primer lugar, se aborda el conocimiento de la situación de la reutilización en España a través de una base de datos diseñada para cubrir todos los aspectos de esta actividad: datos de la estación depuradora de aguas residuales (EDAR), de la estación regeneradora (ERA), caudales depurados, reutilizados, volúmenes utilizados y ubicación de los distintos usos, tipos de líneas de tratamiento, calidades del agua reutilizada, etc. Las principales fuentes de información son las Confederaciones Hidrográficas (CCHH) a través de las concesiones de uso del agua depurada, las entidades de saneamiento y depuración de las distintas comunidades autónomas (CCAA), ayuntamientos, Planes Hidrológicos de Cuenca (PHC) y visitas a las zonas más emblemáticas. Además, se revisan planes y programas con el fin de realizar una retrospectiva de cómo se ha ido consolidando y desarrollando esta práctica en las distintas zonas de la geografía española. Se han inventariado 322 sistemas de reutilización y 216 tratamientos de regeneración siendo el más extendido la filtración mediante filtro arena seguido de una desinfección mediante hipoclorito, aunque este tratamiento se ha ido sustituyendo por un físico-químico con decantación lamelar, filtro de arena y radiación ultravioleta, tratamiento de regeneración convencional (TRC), y otros tratamientos que pueden incluir membranas, tratamientos de regeneración avanzados (TRA), con dosificación de hipoclorito como desinfección residual, para adaptarse al actual marco normativo. El uso más extendido es el agrícola con el 70% del caudal total reutilizado, estimado en 408 hm3, aunque la capacidad de los tratamientos de regeneración esperada para 2015, tras el Plan Nacional de Reutilización de Aguas (PNRA), es tres veces superior. Respecto al desarrollo normativo, en las zonas donde la reutilización ha sido pionera, las administraciones competentes han ido desarrollando diferentes recomendaciones de calidad y manejo de este tipo de agua. El uso agrícola, y en zonas turísticas, el riego de campos de golf, fueron los dos primeros usos que tuvieron algún tipo de recomendación incluso reglamentación. Esta situación inicial, sin una normativa a nivel estatal ni recomendaciones europeas, creó cierta incertidumbre en el avance de la reutilización tanto a nivel de concesiones como de planificación. En la actualidad sigue sin existir una normativa internacional para la reutilización y regeneración de efluentes depurados. Las recomendaciones de referencia a nivel mundial, y en concreto para el uso agrícola, son las de la OMS (Organización Mundial de la Salud) publicadas 1989, con sus posteriores revisiones y ampliaciones (OMS, 2006). Esta norma combina tratamientos básicos de depuración y unas buenas prácticas basadas en diferentes niveles de protección para evitar problemas sanitarios. Otra normativa que ha sido referencia en el desarrollo del marco normativo en países donde se realiza esta práctica, son las recomendaciones dadas por la Agencia Medioambiente Estadunidense (USEPA, 2012) o las publicadas por el Estado de California (Título 22, 2001). Estas normas establecen unos indicadores y valores máximos dónde el tratamiento de regeneración es el responsable de la calidad final en función del uso. Durante 2015, la ISO trabajaba en un documento para el uso urbano donde se muestra tanto los posibles parámetros que habría que controlar como la manera de actuar para evitar posibles riesgos. Por otro lado, la Comisión Europea (CE) viene impulsando desde el 2014 la reutilización de aguas depuradas dentro del marco de la Estrategia Común de Implantación de la Directiva Marco del Agua, y fundamentalmente a través del grupo de trabajo de “Programas de medidas”. Para el desarrollo de esta iniciativa se está planteando sacar para 2016 una guía de recomendaciones que podría venir a completar el marco normativo de los distintos Estados Miembros (EM). El Real Decreto 1620/2007, donde se establece el marco jurídico de la reutilización de efluentes depurados, tiende más a la filosofía implantada por la USEPA, aunque la UE parece más partidaria de una gestión del riesgo, donde se establecen unos niveles de tolerancia y unos puntos de control en función de las condiciones socioeconómicas de los distintos Estados, sin entrar a concretar indicadores, valores máximos o tratamientos. Sin embargo, en la normativa estadounidense se indican una serie de tratamientos de regeneración, mientras que, en la española, se hacen recomendaciones a este respecto en una Guía sin validez legal. Por tanto, queda sin regular los procesos para alcanzar estos estándares de calidad, pudiendo ser éstos no apropiados para esta práctica. Es el caso de la desinfección donde el uso de hipoclorito puede generar subproductos indeseables. En la Guía de recomendaciones para la aplicación del RD, publicada por el Ministerio de Agricultura y Medioambiente (MAGRAMA) en 2010, se aclaran cuestiones frecuentes sobre la aplicación del RD, prescripciones técnicas básicas para los sistemas de reutilización, y buenas prácticas en función del uso. Aun así, el RD sigue teniendo deficiencias en su aplicación siendo necesaria una revisión de la misma, como en las frecuencias de muestreo incluso la omisión de algunos parámetros como huevos de nematodos que se ha demostrado ser inexistentes tras un tratamiento de regeneración convencional. En este sentido, existe una tendencia a nivel mundial a reutilizar las aguas con fines de abastecimiento, incluir indicadores de presencia de virus o protozoos, o incluir ciertas tecnologías como las membranas u oxidaciones avanzadas para afrontar temas como los contaminantes emergentes. Otro de los objetivos de este trabajo es el estudio de tipologías de tratamiento en función de los usos establecidos en el RD 1620/2007 y sus costes asociados, siendo base de lo establecido a este respecto en la Guía y PNRA anteriormente indicados. Las tipologías de tratamiento propuestas se dividen en líneas con capacidad de desalar y las que no cuentan con una unidad de desalación de aguas salobres de ósmosis inversa o electrodiálisis reversible. Se realiza esta división al tener actuaciones en zonas costeras donde el agua de mar entra en los colectores, adquiriendo el agua residual un contenido en sales que es limitante en algunos usos. Para desarrollar este objetivo se han estudiado las unidades de tratamiento más implantadas en ERAs españolas en cuanto a fiabilidad para conseguir determinada calidad y coste, tanto de implantación como de explotación. El TRC, tiene un coste de implantación de 28 a 48 €.m-3.d y de explotación de 0,06 a 0,09 €. m-3, mientras que, si se precisara desalar, este coste se multiplica por diez en la implantación y por cinco en la explotación. En caso de los usos que requieren de TRA, como los domiciliarios o algunos industriales, los costes serían de 185 a 398 €.m-3.d en implantación y de 0,14 a 0,20 €.m-3 en explotación. En la selección de tecnologías de regeneración, la capacidad del tratamiento en relación al coste es un indicador fundamental. Este trabajo aporta curvas de tendencia coste-capacidad que sirven de herramienta de selección frente a otros tratamientos de regeneración de reciente implantación como son los MBR, u otros como la desalación de agua de mar o los trasvases entre cuencas dentro de la planificación hidrológica. En España, el aumento de las necesidades de agua de alta calidad en zonas con recursos escasos, aumento de zonas sensibles como puntos de captación para potables, zonas de baño o zonas de producción piscícola, y en ocasiones, el escaso terreno disponible para la implantación de nuevas plantas depuradoras (EDARs), han convertido a los MBRs, en una opción dentro del marco de la reutilización de aguas depuradas. En este trabajo, se estudia esta tecnología frente a los TRC y TRA, aportando igualmente curvas de tendencia coste-capacidad, e identificando cuando esta opción tecnológica puede ser más competitiva frente a los otros tratamientos de regeneración. Un MBR es un tratamiento de depuración de fangos activos donde el decantador secundario es sustituido por un sistema de membranas de UF o MF. La calidad del efluente, por tanto, es la misma que el de una EDAR seguida de un TRA. Los MBRs aseguran una calidad del efluente para todos los usos establecidos en el RD, incluso dan un efluente que permite ser directamente tratado por las unidades de desalación de OI o EDR. La implantación de esta tecnología en España ha tenido un crecimiento exponencial, pasando de 13 instalaciones de menos de 5.000 m3. d-1 en el 2006, a más de 55 instalaciones en operación o construcción a finales del 2014, seis de ellas con capacidades por encima de los 15.000 m3. d-1. Los sistemas de filtración en los MBR son los que marcan la operación y diseño de este tipo de instalaciones. El sistema más implantado en España es de membrana de fibra hueca (MFH), sobre todo para instalaciones de gran capacidad, destacando Zenon que cuenta con el 57% de la capacidad total instalada. La segunda casa comercial con mayor número de plantas es Kubota, con membranas de configuración placa plana (MPP), que cuenta con el 30 % de la capacidad total instalada. Existen otras casas comerciales implantadas en MBR españoles como son Toray, Huber, Koch o Microdym. En este documento se realiza la descripción de los sistemas de filtración de todas estas casas comerciales, aportando información de sus características, parámetros de diseño y operación más relevantes. El estudio de 14 MBRs ha posibilitado realizar otro de los objetivos de este trabajo, la estimación de los costes de explotación e implantación de este tipo de sistemas frente a otras alternativas de tratamiento de regeneración. En este estudio han participado activamente ACA y ESAMUR, entidades públicas de saneamiento y depuración de Cataluña y Murcia respectivamente, que cuentan con una amplia experiencia en la explotación de este tipo de sistemas. Este documento expone los problemas de operación encontrados y sus posibles soluciones, tanto en la explotación como en los futuros diseños de este tipo de plantas. El trabajo concluye que los MBRs son una opción más para la reutilización de efluentes depurados, siendo ventajosos en costes, tanto de implantación como de explotación, respecto a EDARs seguidas de TRA en capacidades por encima de los 10.000 m3.d-1. ABSTRACT The reuse of treated effluent has always been an option in places where a situational or structural water deficit exists, whether regulatory and/or planning efforts are completed or not. The need arises from the demand of a sector, commonly agricultural irrigation, which benefits of this new resource. Within the EU, Spain is ahead in the annual volume of reclaimed water, and is among the top ten countries at a global scale. The regulation of this practice through the Royal Decree 1620/2007 has helped to incorporate the water reuse to the hydrological plans as a part of the programme of measures to mitigate pressures such as surface or ground water extraction, or environmental improvements preventing discharges. The object of this study is to gain an overview of the state of the water reuse in Spain, the different scenarios and approaches to this activity, the development of the legal framework and its enforceability, together with the treatments that achieve the quality levels according to the current law, broken down by applications. Additionally, a cost analysis of technologies and regeneration treatment lines for water reclamation is performed, whereas the regeneration treatment is located after a wastewater treatment or other options such as membrane bioreactors (MBR). To develop the abovementioned objectives, the state of water reuse in Spain is studied by means of a database designed to encompass all aspects of the activity: data from the wastewater treatment plants (WWTP), from the water reclamation plants (WRP), the use of reclaimed water, treated water and reclaimed water annual volumes and qualities, facilities and applications, geographic references, technologies, regeneration treatment lines, etc. The main data providers are the River Basin authorities, through the concession or authorization for water reuse, (sanitary and wastewater treatment managers from the territorial governments, local governments, Hydrological Plans of the River Basins and field visits to the main water reuse systems. Additionally, a review of different plans and programmes on wastewater treatment or water reuse is done, aiming to put the development and consolidation process of this activity in the different regions of Spain in perspective. An inventory of 322 reuse systems and 216 regeneration treatments has been gathered on the database, where the most extended regeneration treatment line was sand filtration followed by hypochlorite disinfection, even though recently it is being replaced by physical–chemical treatment with a lamella settling system, depth sand filtration, and a disinfection with ultraviolet radiation and hypochlorite as residual disinfectant, named conventional regeneration treatment (CRT), and another treatment that may include a membrane process, named advanced regeneration treatment (ART), to adapt to legal requirements. Agricultural use is the most extended, accumulating 70% of the reclaimed demand, estimated at 408 hm3, even though the expected total capacity of WRPs for 2015, after the implementation of the National Water Reuse Plan (NWRP) is three times higher. According to the development of the water reuse legal framework, there were pioneer areas where competent authorities developed different quality and use recommendations for this new resource. Agricultural use and golf course irrigation in touristic areas were the first two uses with recommendations and even legislation. The initial lack of common legislation for water reuse at a national or European level created some doubts which affected the implementation of water reuse, both from a planning and a licensing point of view. Currently there is still a lack of common international legislation regarding water reuse, technologies and applications. Regarding agricultural use, the model recommendations at a global scale are those set by the World Health Organization published in 1989, and subsequent reviews and extensions about risk prevention (WHO, 2006). These documents combine wastewater treatments with basic regeneration treatments reinforced by good practices based on different levels of protection to avoid deleterious health effects. Another relevant legal reference for this practices has been the Environmental Protection Agency of the US (USEPA, 2012), or those published by the State of California (Title 22, 2001). These establish indicator targets and maximum thresholds where regeneration treatment lines are responsible for the final quality according to the different uses. During 2015, the ISO has worked on a document aimed at urban use, where the possible parameters to be monitored together with risk prevention have been studied. On the other hand, the European Commission has been promoting the reuse of treated effluents within the Common Implementation Strategy of the Water Framework Directive, mainly through the work of the Programme of Measures Working Group. Within this context, the publication of a recommendation guide during 2016 is intended, as a useful tool to fill in the legal gaps of different Member States on the matter. The Royal Decree 1620/2007, where the water reuse regulation is set, resembles the principles of the USEPA more closely, even though the EU shows a tendency to prioritize risk assessment by establishing tolerance levels and thresholds according to socioeconomic conditions of the different countries, without going into details of indicators, maximum thresholds or treatments. In contrast, in the US law, regeneration treatments are indicated, while in the Spanish legislation, the only recommendations to this respect are compiled in a non-compulsory guide. Therefore, there is no regulation on the different treatment lines used to achieve the required quality standards, giving room for inappropriate practices in this respect. This is the case of disinfection, where the use of hypochlorite may produce harmful byproducts. In the recommendation Guide for the application of the Royal Decree (RD), published by the Ministry of Agriculture and Environment (MAGRAMA) in 2010, clarifications of typical issues that may arise from the application of the RD are given, as well as basic technical parameters to consider in reuse setups, or good practices according to final use. Even so, the RD still presents difficulties in its application and requires a review on issues such as the sampling frequency of current quality parameters or even the omission of nematode eggs indicator, which have been shown to be absent after CRT. In this regard, there is a global tendency to employ water reuse for drinking water, including indicators for the presence of viruses and protozoans, or to include certain technologies such as membranes or advanced oxidation processes to tackle problems like emerging pollutants. Another of the objectives of this study is to provide different regeneration treatment lines to meet the quality requirements established in the RD 1620/2007 broken down by applications, and to estimate establishment and operational costs. This proposal has been based on what is established in the above mentioned Guide and NWRP. The proposed treatment typologies are divided in treatment trains with desalination, like reverse osmosis or reversible electrodialisis, and those that lack this treatment for brackish water. This separation is done due to coastal facilities, where sea water may permeate the collecting pipes, rising salt contents in the wastewater, hence limiting certain uses. To develop this objective a study of the most common treatment units set up in Spanish WRPs is conducted in terms of treatment train reliability to obtain an acceptable relationship between the required quality and the capital and operational costs. The CRT has an establishment cost of 28 to 48 €.m-3.d and an operation cost of 0.06 to 0.09 €.m-3, while, if desalination was required, these costs would increase tenfold for implementation and fivefold for operation. In the cases of uses that require ART, such as residential or certain industrial uses, the costs would be of 185 to 398 €.m-3.d for implementation and of 0.14 to 0.20 €.m-3 for operation. When selecting regeneration treatment lines, the relation between treatment capacity and cost is a paramount indicator. This project provides cost-capacity models for regeneration treatment trains. These may serve as a tool when selecting between different options to fulfill water demands with MBR facilities, or others such as sea water desalination plants or inter-basin water transfer into a water planning framework. In Spain, the requirement for high quality water in areas with low resource availability, the increasing number of sensitive zones, such as drinking water extraction, recreational bathing areas, fish protected areas and the lack of available land to set up new WWTPs, have turned MBRs into a suitable option for water reuse. In this work this technology is analyzed in contrast to CRT and ART, providing cost-capacity models, and identifying when and where this treatment option may outcompete other regeneration treatments. An MBR is an activated sludge treatment where the secondary settling is substituted by a membrane system of UF or MF. The quality of the effluent is, therefore, comparable to that of a WWTP followed by an ART. MBRs ensure a sufficient quality level for the requirements of the different uses established in the RD, even producing an effluent that can be directly treated in OI or EDR processes. The implementation of this technology in Spain has grown exponentially, growing from 13 facilities with less than 5000 m3.d-1 in 2006 to above 55 facilities operating by the end of 2014, 6 of them with capacities over 15000 m3.d-1. The membrane filtration systems for MBR are the ones that set the pace of operation and design of this type of facilities. The most widespread system in Spain is the hollow fiber membrane configuration, especially on high flow capacities, being Zenon commercial technology, which mounts up to 57% of the total installed capacity, the main contributor. The next commercial technology according to plant number is Kubota, which uses flat sheet membrane configuration, which mounts up to 30% of the total installed capacity. Other commercial technologies exist within the Spanish MBR context, such as Toray, Huber, Koch or Microdym. In this document an analysis of all of these membrane filtration systems is done, providing information about their characteristics and relevant design and operation parameters. The study of 14 full scale running MBRs has enabled to pursue another of the objectives of this work: the estimation of the implementation and operation costs of this type of systems in contrast to other regeneration alternatives. Active participation of ACA and ESAMUR, public wastewater treatment and reuse entities of Cataluña and Murcia respectively, has helped attaining this objective. A number of typical operative problems and their possible solutions are discussed, both for operation and plant design purposes. The conclusion of this study is that MBRs are another option to consider for water reuse, being advantageous in terms of both implementation and operational costs, when compared with WWTPs followed by ART, when considering flow capacities above 10000 m3.d-1.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La capacidad de transporte es uno de los baremos fundamentales para evaluar la progresión que puede llegar a tener un área económica y social. Es un sector de elevada importancia para la sociedad actual. Englobado en los distintos tipos de transporte, uno de los medios de transporte que se encuentra más en alza en la actualidad, es el ferroviario. Tanto para movilidad de pasajeros como para mercancías, el tren se ha convertido en un medio de transporte muy útil. Se encuentra dentro de las ciudades, entre ciudades con un radio pequeño entre ellas e incluso cada vez más, gracias a la alta velocidad, entre ciudades con gran distancia entre ellas. Esta Tesis pretende ayudar en el diseño de una de las etapas más importantes de los Proyectos de instalación de un sistema ferroviario: el sistema eléctrico de tracción. La fase de diseño de un sistema eléctrico de tracción ferroviaria se enfrenta a muchas dudas que deben ser resueltas con precisión. Del éxito de esta fase dependerá la capacidad de afrontar las demandas de energía de la explotación ferroviaria. También se debe atender a los costes de instalación y de operación, tanto costes directos como indirectos. Con la Metodología que se presenta en esta Tesis se ofrecerá al diseñador la opción de manejar un sistema experto que como soluciones le plantee un conjunto de escenarios de sistemas eléctricos correctos, comprobados por resolución de modelos de ecuaciones. Correctos desde el punto de vista de validez de distintos parámetros eléctrico, como de costes presupuestarios e impacto de costes indirectos. Por tanto, el diseñador al haber hecho uso de esta Metodología, tendría en un espacio de tiempo relativamente corto, un conjunto de soluciones factibles con las que poder elegir cuál convendría más según sus intereses finales. Esta Tesis se ha desarrollado en una vía de investigación integrada dentro del Centro de Investigaciones Ferroviarias CITEF-UPM. Entre otros proyectos y vías de investigación, en CITEF se ha venido trabajando en estudios de validación y dimensionamiento de sistemas eléctricos ferroviarios con diversos y variados clientes y sistemas ferroviarios. A lo largo de los proyectos realizados, el interés siempre ha girado mayoritariamente sobre los siguientes parámetros del sistema eléctrico: - Calcular número y posición de subestaciones de tracción. Potencia de cada subestación. - Tipo de catenaria a lo largo del recorrido. Conductores que componen la catenaria. Características. - Calcular número y posición de autotransformadores para sistemas funcionando en alterna bitensión o 2x25kV. - Posición Zonas Neutras. - Validación según normativa de: o Caídas de tensión en la línea o Tensiones máximas en el retorno de la línea o Sobrecalentamiento de conductores o Sobrecalentamiento de los transformadores de las subestaciones de tracción La idea es que las soluciones aportadas por la Metodología sugieran escenarios donde de estos parámetros estén dentro de los límites que marca la normativa. Tener la posibilidad de tener un repositorio de posibles escenarios donde los parámetros y elementos eléctricos estén calculados como correctos, aporta un avance en tiempos y en pruebas, que mejoraría ostensiblemente el proceso habitual de diseño para los sistemas eléctricos ferroviarios. Los costes directos referidos a elementos como subestaciones de tracción, autotransformadores, zonas neutras, ocupan un gran volumen dentro del presupuesto de un sistema ferroviario. En esta Tesis se ha querido profundizar también en el efecto de los costes indirectos provocados en la instalación y operación de sistemas eléctricos. Aquellos derivados del impacto medioambiental, los costes que se generan al mantener los equipos eléctricos y la instalación de la catenaria, los costes que implican la conexión entre las subestaciones de tracción con la red general o de distribución y por último, los costes de instalación propios de cada elemento compondrían los costes indirectos que, según experiencia, se han pensado relevantes para ejercer un cierto control sobre ellos. La Metodología cubrirá la posibilidad de que los diseños eléctricos propuestos tengan en cuenta variaciones de coste inasumibles o directamente, proponer en igualdad de condiciones de parámetros eléctricos, los más baratos en función de los costes comentados. Analizando los costes directos e indirectos, se ha pensado dividir su impacto entre los que se computan en la instalación y los que suceden posteriormente, durante la operación de la línea ferroviaria. Estos costes normalmente suelen ser contrapuestos, cuánto mejor es uno peor suele ser el otro y viceversa, por lo que hace falta un sistema que trate ambos objetivos por separado. Para conseguir los objetivos comentados, se ha construido la Metodología sobre tres pilares básicos: - Simulador ferroviario Hamlet: Este simulador integra módulos para construir esquemas de vías ferroviarios completos; módulo de simulación mecánica y de la tracción de material rodante; módulo de señalización ferroviaria; módulo de sistema eléctrico. Software realizado en C++ y Matlab. - Análisis y estudio de cómo focalizar los distintos posibles escenarios eléctricos, para que puedan ser examinados rápidamente. Pico de demanda máxima de potencia por el tráfico ferroviario. - Algoritmos de optimización: A partir de un estudio de los posibles algoritmos adaptables a un sistema tan complejo como el que se plantea, se decidió que los algoritmos genéticos serían los elegidos. Se han escogido 3 algoritmos genéticos, permitiendo recabar información acerca del comportamiento y resultados de cada uno de ellos. Los elegidos por motivos de tiempos de respuesta, multiobjetividad, facilidad de adaptación y buena y amplia aplicación en proyectos de ingeniería fueron: NSGA-II, AMGA-II y ɛ-MOEA. - Diseño de funciones y modelo preparado para trabajar con los costes directos e indirectos y las restricciones básicas que los escenarios eléctricos no deberían violar. Estas restricciones vigilan el comportamiento eléctrico y la estabilidad presupuestaria. Las pruebas realizadas utilizando el sistema han tratado o bien de copiar situaciones que se puedan dar en la realidad o directamente sistemas y problemas reales. Esto ha proporcionado además de la posibilidad de validar la Metodología, también se ha posibilitado la comparación entre los algoritmos genéticos, comparar sistemas eléctricos escogidos con los reales y llegar a conclusiones muy satisfactorias. La Metodología sugiere una vía de trabajo muy interesante, tanto por los resultados ya obtenidos como por las oportunidades que puede llegar a crear con la evolución de la misma. Esta Tesis se ha desarrollado con esta idea, por lo que se espera pueda servir como otro factor para trabajar con la validación y diseño de sistemas eléctricos ferroviarios. ABSTRACT Transport capacity is one of the critical points to evaluate the progress than a specific social and economical area is able to reach. This is a sector of high significance for the actual society. Included inside the most common types of transport, one of the means of transport which is elevating its use nowadays is the railway. Such as for passenger transport of weight movements, the train is being consolidated like a very useful mean of transport. Railways are installed in many geography areas. Everyone know train in cities, or connecting cities inside a surrounding area or even more often, taking into account the high-speed, there are railways infrastructure between cities separated with a long distance. This Ph.D work aims to help in the process to design one of the most essential steps in Installation Projects belonging to a railway system: Power Supply System. Design step of the railway power supply, usually confronts to several doubts and uncertainties, which must be solved with high accuracy. Capacity to supply power to the railway traffic depends on the success of this step. On the other hand is very important to manage the direct and indirect costs derived from Installation and Operation. With the Methodology is presented in this Thesis, it will be offered to the designer the possibility to handle an expert system that finally will fill a set of possible solutions. These solutions must be ready to work properly in the railway system, and they were tested using complex equation models. This Thesis has been developed through a research way, integrated inside Citef (Railway Research Centre of Technical University of Madrid). Among other projects and research ways, in Citef has been working in several validation studies and dimensioning of railway power supplies. It is been working by a large range of clients and railways systems. Along the accomplished Projects, the main goal has been rounded mostly about the next list of parameters of the electrical system: - Calculating number and location of traction substations. Power of each substation. - Type of Overhead contact line or catenary through the railway line. The wires which set up the catenary. Main Characteristics. - Calculating number and position of autotransformers for systems working in alternating current bi-voltage of called 2x25 kV. - Location of Neutral Zones. - Validating upon regulation of: o Drop voltages along the line o Maximum return voltages in the line o Overheating/overcurrent of the wires of the catenary o Avoiding overheating in the transformers of the traction substations. Main objective is that the solutions given by the Methodology, could be suggest scenarios where all of these parameters from above, would be between the limits established in the regulation. Having the choice to achieve a repository of possible good scenarios, where the parameters and electrical elements will be assigned like ready to work, that gives a great advance in terms of times and avoiding several tests. All of this would improve evidently the regular railway electrical systems process design. Direct costs referred to elements like traction substations, autotransformers, neutral zones, usually take up a great volume inside the general budget in railway systems. In this Thesis has been thought to bear in mind another kind of costs related to railway systems, also called indirect costs. These could be enveloped by those enmarked during installation and operation of electrical systems. Those derived from environmental impact; costs generated during the maintenance of the electrical elements and catenary; costs involved in the connection between traction substations and general electric grid; finally costs linked with the own installation of the whole electrical elements needed for the correct performance of the railway system. These are integrated inside the set has been collected taking into account own experience and research works. They are relevant to be controlled for our Methodology, just in case for the designers of this type of systems. The Methodology will cover the possibility that the final proposed power supply systems will be hold non-acceptable variations of costs, comparing with initial expected budgets, or directly assuming a threshold of budget for electrical elements in actual scenario, and achieving the cheapest in terms of commented costs from above. Analyzing direct and indirect costs, has been thought to divide their impact between two main categories. First one will be inside the Installation and the other category will comply with the costs often happens during Railway Operation time. These costs normally are opposed, that means when one is better the other turn into worse, in costs meaning. For this reason is necessary treating both objectives separately, in order to evaluate correctly the impact of each one into the final system. The objectives detailed before build the Methodology under three basic pillars: - Railway simulator Hamlet: This software has modules to configure many railway type of lines; mechanical and traction module to simulate the movement of rolling stock; signaling module; power supply module. This software has been developed using C++ and Matlab R13a - Previously has been mandatory to study how would be possible to work properly with a great number of feasible electrical systems. The target comprised the quick examination of these set of scenarios in terms of time. This point is talking about Maximum power demand peaks by railway operation plans. - Optimization algorithms. A railway infrastructure is a very complex system. At the beginning it was necessary to search about techniques and optimization algorithms, which could be adaptable to this complex system. Finally three genetic multiobjective algorithms were the chosen. Final decision was taken attending to reasons such as time complexity, able to multiobjective, easy to integrate in our problem and with a large application in engineering tasks. They are: NSGA-II, AMGA-II and ɛ-MOEA. - Designing objectives functions and equation model ready to work with the direct and indirect costs. The basic restrictions are not able to avoid, like budgetary or electrical, connected hardly with the recommended performance of elements, catenary and safety in a electrical railway systems. The battery of tests launched to the Methodology has been designed to be as real as possible. In fact, due to our work in Citef and with real Projects, has been integrated and configured three real railway lines, in order to evaluate correctly the final results collected by the Methodology. Another topic of our tests has been the comparison between the performances of the three algorithms chosen. Final step has been the comparison again with different possible good solutions, it means power supply system designs, provided by the Methodology, testing the validity of them. Once this work has been finished, the conclusions have been very satisfactory. Therefore this Thesis suggest a very interesting way of research and work, in terms of the results obtained and for the future opportunities can be created with the evolution of this. This Thesis has been developed with this idea in mind, so is expected this work could adhere another factor to work in the difficult task of validation and design of railway power supply systems.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Sudamérica es una de las zonas con mayor cantidad de bosque seco tropical a nivel mundial. No obstante, estos bosques han sido poco conocidos y la mayoría de estudios han estado orientados hacia los bosques húmedos tropicales. Los bosques secos se han reducido drásticamente y siguen muy amenazados, corriendo el riesgo de desaparecer en los próximos años. Por ello, es fundamental, generar investigación aplicada para la conservación inmediata de los ecosistemas secos tropicales. En Ecuador, la situación no es diferente y las zonas secas catalogadas como biodiversas están en constante amenaza. Los pocos estudios realizados en Ecuador sobre zonas secas, han permitido mejorar nuestro conocimiento referente a la diversidad y abundancia de las especies, relaciones planta-planta y síndromes de dispersión. No existen estudios sobre caracteres morfológicos en frutos y semillas de las especies leñosas de bosque seco. Sin embargo, nuestra comprensión de la dinámica y estructura de las comunidades ecológicas de zonas secas poco estudiadas, puede mejorar rápidamente mediante el estudio y enfoque de rasgos morfofisiológicos funcionales. El objetivo general del presente estudio fue aportar al conocimiento de la ecología y biología de semillas de zonas secas tropicales mediante el análisis y evaluación de rasgos morfofisiológicos de frutos y semillas de una comunidad de especies leñosas. El estudio se realizó en una zona de bosque y matorral seco, ubicados al sur occidente del Ecuador, a una altitud comprendida entre los 250 a 1 200 m s.n.m. caracterizada por una marcada estacionalidad ambiental, con lluvias desde diciembre a abril y una estación seca de mayo a noviembre. Precipitación media anual de 500 mm con una temperatura media anual de 20° a 26 °C. La zona de estudio forma parte de la región Tumbesina compartida entre el sur del Ecuador y el norte del Perú con gran diversidad de especies vegetales endémicas. Para el estudio se colectaron frutos con semillas maduras previamente a su dispersión de entre ocho y diez individuos de 80 especies entre árboles y arbustos más representativos de los bosques secos ecuatorianos. De los frutos colectados se utilizó una muestra al azar de 50 frutos y semillas por especie para los diferentes análisis. Se midió y evaluó 18 rasgos morfológicos y fisiológicos cuantitativos y cualitativos de frutos, semillas y de la especie. Se realizaron diferentes análisis de asociación y correlación entre los rasgos evaluados, con cinco variables ambientales registradas de las 109 parcelas establecidas en el área de estudio, además analizamos el tipo de dormición y comparamos la respuesta germinativa a la deshidratación relacionada con dos comunidades secas, matorral y bosque seco. Los resultados mostraron que las especies presentan gran heterogeneidad en rasgos continuos de las semillas. La variabilidad fue más evidente en rasgos como tamaño, volumen, masa y número de semillas por fruto. Sin embargo, una alta proporción de las especies tiende a producir una semilla por fruto. Además, la mayoría de las especies de bosque seco se caracterizan por no poseer algún tipo de apéndices o areola en sus semillas, forma ovalada y sin endospermo. La reserva nutritiva de las semillas se encuentra especialmente en los cotiledones de los embriones. Se encontraron seis tipos diferentes de embriones y la mayoría de las especies presentó embriones gruesos e invertidos. La dispersión de semillas está dominada por zoocoria en un 38 %, con relación a anemocoria (22 %) y autocoria (19 %). Sin embargo, encontramos que el 70 % de las especies posee frutos secos. Los análisis de dormición en las semillas de bosque seco, mostraron que el 60 % de las especies de bosque seco presentaron semillas con algún tipo de latencia, menor a la encontrada en especies de bosque deciduo tropical y sabanas, sin embargo, la dormición de las especies de bosque seco fue mayor al porcentaje de especies con dormición de bosque semiperenne y selva lluviosa tropical. La dormición física constituyó el 35 % de las especies de bosque seco, seguido del 12 % con dormición fisiológica, mientras que solamente una especie tuvo dormición morfológica. Encontramos que la dormición de las semillas de las especies en estudio se relaciona significativamente con el tipo y función del embrión y con el endospermo. Existieron relaciones significativas entre los rasgos morfológicos de los frutos, semillas, embriones y atributos de los individuos de 46 especies, aunque en algunos casos con coeficientes de correlación bajos. Hubo pocas relaciones entre los rasgo morfológicos de las semillas con las variables ambientales registradas. Solamente el tipo de testa y la presencia de apéndices en las semillas mostraron relación con el pH y la temperatura media del suelo. No obstante usando el modelo fouth corner-RLQ, no se encontraron asociaciones claras ni significativas entre rasgos morfológicos de semillas y frutos con variables ambientales. Al medir el efecto de la deshidratación en las semillas de los dos hábitats secos tropicales: bosque y matorral seco, los resultados determinaron que tanto las semillas de las especies leñosas de ambientes más áridos (matorral seco) están en gran medida pre-adaptadas a la desecación que las especies de ambientes menos áridos (bosque seco). Los tratamientos de deshidratación ejercieron un efecto negativo en los porcentajes de germinación en todas las especies, excepto para C. platanifolia. Los resultados más sorprendentes se registraron para Senna alata que mostró germinación extremadamente baja o incluso sin germinación a contenidos de humedad de la semillas de 0,10 g H2O g de peso seco. Las curvas de germinación difirieron significativamente entre los tratamientos de deshidratación en cada especie. Aportar al conocimiento la fisiología de la deshidratación y los límites de tolerancia de las semillas de bosque y matorral seco ayudará a entender mejor el papel de este rasgo en la ecología de las semillas y dinámica de las comunidades áridas tropicales. El estudio demostró, que la adaptación ecológica de las semillas de las especies leñosas de bosque seco a factores ambientales extremos, puede verse reflejada en una red de interacciones y correlaciones complejas entre los propios rasgos morfológicos y fisiológicos continuos y cuantitativos, sobre todo en rasgos internos de las semillas, quienes ejercerían una mayor influencia en toda la red de interacciones. Si bien, los rasgos de las semillas no mostraron fuertes relaciones con las variables ambientales, posiblemente las asociaciones presentes entre rasgos morfológicos pudiesen predecir en cambio interacciones entre especies y comportamientos y procesos relacionados con la tolerancia a la deshidratación y dormición de las semillas. ABSTRACT South America is one of the areas with the largest number of tropical dry forest in the world. However, these forests have been poorly understood and most studies have been directed to tropical rainforests. Dry forests have been drastically reduced and are very threatened, risking desaparecerer in the next years. It is therefore essential, generate applied research for conservation of tropical dry ecosystems. In Ecuador the situation is no different and dry areas classified as biodiverse are under constant threat. The few studies made in Ecuador on drylands have improved our knowledge concerning the diversity and abundance of species, plant-plant relationships and dispersion syndromes. Morphological studies on fruits and seeds of woody dry forest species do not exist. However, our understanding of the dynamics and structure of ecological communities dryland little studied, may improve quickly through the study and functional approach morphophysiological traits. The overall objective of this study was to contribute to the knowledge of the ecology and biology of tropical dry seeds through analysis and evaluation of morphophysiological traits of fruits and seeds of a community of woody species. The study was conducted in an area of dry scrub forest, located at the southwest of Ecuador, at an altitude between 250 to 1200 m asl. Environmental characterized by a marked seasonality, with rainfall from December to April and a dry season from May to November. Annual rainfall of 500 mm with an average annual temperature of 20° to 26 °C. The study area is part of the shared Tumbesina region between southern Ecuador and northern Peru with a great diversity of endemic plant species. For the study, we collected fruit and seed madure of eight and ten individuos of 80 species of trees and shrub most representated of the Ecuador dry forest. We selected a sample of 50 fruits and seeds for different analysis. We measure and evaluate 18 morphological and physiological traits of fruits, seeds and species. We perform analysis and correlation between traits associated with five environmental variables taken from the 109 plots established in the study area also analyze and compare the germination response to dehydration related to two dry communities, scrub and dry forest. The results showed that the species have great heterogeneity in continuous seed traits. Variability was more evident in features such as size, volume, mass, and number of seeds per fruit. However, a high proportion of species tends to produce a seed per fruit. In addition, most of the species of dry forest is characterized by not having some sort of ppendices or areola in its seeds, oval form and without endosperm. The nutrient reserves of seeds are especially in the cotyledons of the embryos. Six different embryos were found and most of the species presented thick and inverted embryos. Seed dispersal zoochory is dominated by 38 %, relative to anemochory (22 %) and autochory (19 %). However, we found that 70 % of the species has dried fruits. The analysis of dormancy from tropical dry forest, showed that 60 % of species showed seed dormancy, down from species found in tropical deciduous forest and savanna, however dormancy dry forest species was higher than the percentage of forest species dormancy semi-evergreen and tropical rain forest. Physical dormancy corresponds to 35 % of species, followed by 12 % with physiological dormancy, while only one species had morphological dormancy. We found that dormancy of the seeds was significantly related to the type and function of the embryo and the endospemo. There were significant relationships between morphological traits of fruits, seeds, embryos and attributes of individuals of 46 species, although in some cases with low correlation coefficients. There was little relationship between the morphologic traits of the seeds with the registered environmental variables. Only the type of tesla and the presence of appendages on the seeds showed relation to pH and the mean soil temperature. However, using the fourth corner-RLQ model, neither clear nor significant between morphological traits of seeds and fruits associations with environmental variables were found. The effect of dehydration on seeds of two tropical dry forest habitats was evident in dry scrub. The results determined that both the seeds of woody species forest and dry scrub are pre-adapted to drier conditions. Dehydration treatments exerted a negative effect on germination percentage in all species, except for C. platanifolia. However, all species germinated in treatments of extreme dryness, but in low percentages. The most striking results were recorded for Senna alata showed no germination when its moisture content was 0.10 g H2O g dry weight. Germination curves differ significantly between the treatments of dehydration in each species. Contribute to the knowledge of physiology and dehydration tolerance limits seeds dry scrub forest and help you better understand the role of this trait in seed ecology and dynamics of tropical arid communities. The study showed that the ecological adaptation of seeds of woody species of dry forest to extreme environmental factors may be reflected in a complex web of interactions and correlations between morphological and physiological traits continuous and quantitative themselves, especially in internal seed traits, who exerted a major influence on the entire network of interactions. While the seed traits showed strong relationships with environmental variables possibly present associations between morphological traits could predict interactions between species and change behaviors related to desiccation tolerance and seed dormancy processes.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El trabajo de investigación que presentamos tiene como principal objetivo, la recopilación, el registro, el análisis y la reflexión sobre una época, tan trascendental como poco estudiada desde el ámbito arquitectónico, como es el período comprendido entre las dos normas de mayor relevancia en relación a la protección del Patrimonio Histórico Español del último siglo. Nos referimos a la Ley sobre Defensa, Conservación y Acrecentamiento del Patrimonio Histórico Nacional de 13 de mayo de 1933 y la Ley 13/1985, de 25 de junio, del Patrimonio Histórico Español. A través de la investigación realizada, se pretende aportar una visión integral de esta etapa, desde el enfoque arquitectónico, fundamentando la misma en el desarrollo de pautas metodológicas, abordadas desde la recopilación exhaustiva del material bibliográfico y documental para su posterior análisis. A partir de esta fase inicial, se han identificado los nexos comunes entre los estudios existentes sobre el patrimonio monumental español previos a la Guerra Civil y las investigaciones dedicadas a la historia de las últimas décadas del siglo XX. De esta forma, se ha procurado trazar un “puente” documental, con el que trasponer virtualmente el vacío bibliográfico existente. Históricamente, la protección del patrimonio histórico edificado y urbano, ha preocupado y ocupado a multitud de profesionales que, desde disciplinas dispares, han emprendido la tarea ímproba de comprender y explicar cuáles han sido los avatares, históricos y legales, que han marcado su evolución. Tal preocupación ha generado una bibliografía ingente y diversa, desde la protección formal y precisa, sobre uno u otro material, pasando por el marco historiográfico de las tendencias conservacionistas y las teorías decimonónicas, las filigranas formadas por las cuantiosas normas promulgadas desde la Novísima Recopilación, hasta la incidencia del planeamiento urbano en la tutela del patrimonio, incluidas la trama de competencias y yuxtaposiciones administrativas. Documentos de toda índole y profundidad científica, que como mosaicos hispanomusulmanes, dibujan el panorama patrimonial en el que la criba de material resulta una tarea, en ocasiones, inextricable. El título de este documento, en sí mismo, circunscribe la materia que ha sido el objeto de análisis durante el proceso de investigación, el Patrimonio Arquitectónico Monumental. El eje o núcleo basal de estudio se sitúa en los bienes inmuebles, los edificados, que, a su vez, ostentan la declaración de Bien de Interés Cultural, y que, por ende, pertenecen al Patrimonio Histórico Español. La metodología de trabajo se ha desarrollado de forma concéntrica, desde aspectos generales de la protección del patrimonio monumental, como el marco legal que antecede a la promulgación de la Ley de 1933, y el estado previo de los bienes susceptibles de ser preservados. Reconocemos en el ámbito legislativo, el fundamento orgánico que regula y dirige la tutela del patrimonio histórico español y la acción conservadora, y que delimita el ámbito a partir del cual se condiciona el devenir de los bienes culturales. Del esquema de situación surgido del análisis previo, se han detectado los factores claves en la transición hacia la Ley de Patrimonio Histórico Español; la evolución conceptual del “Patrimonio”, como apreciación genérica, y el testimonio de este progreso a través de los valores históricos, artísticos y culturales. El presente documento de investigación, consta de una primera fase, correspondiente al Capítulo 1, que se ha desarrollado a partir, principalmente, de la ordenación jurídica que rige el Patrimonio Histórico Español, a través de leyes, decretos, órdenes y disposiciones anexas, complementado con el material bibliográfico dedicado a la revisión histórica del proceso legal de la protección del patrimonio histórico-artístico. Si bien no ha sido nuestro propósito realizar un estudio pormenorizado del volumen jurídico e histórico que precede a la Ley de 1933, y que da inicio al período de estudio de la presente investigación, sí lo ha sido centrarnos en la elaboración de un extracto de aquellos elementos de la doctrina de mayor relevancia y repercusión en la protección del patrimonio histórico-artístico y/o monumental español. A lo largo de este estudio hemos comprobado lo que algunos juristas ya habían planteado, acerca de la profunda dispersión, ramificación, y diversificación de esfuerzos, tanto en la legislación específica como en la urbanística. Esta disgregación se ha extendido al ámbito de las medidas de reconocimiento caracterizado por la elaboración de múltiples catálogos e inventarios, con desigual transcendencia, alcance y utilidad. El resultado ha sido una división de esfuerzos, desdibujando el objetivo y convirtiendo la acción del reconocimiento en múltiples empresas inconexas y de escasa trascendencia. Nuestra investigación avanza en el análisis de la protección del patrimonio, como concepto globalizador, con el desarrollo del Capítulo 2, en el que se incluye una serie de mecanismos directos e indirectos que, individualmente, suelen carecer de la fuerza efectiva que muchos de los monumentos o conjuntos monumentales requieren para sobrevivir al paso del tiempo y sus circunstancias. En primer lugar, en este segundo capítulo nos hemos centrado, específicamente, en el mecanismo regulado por la Ley del Patrimonio Histórico Español, y el régimen general de protección implementado a partir de su promulgación en 1985. En especial, consideraremos la declaración de Interés Cultural como grado máximo de protección y tutela de un bien, y su posterior inscripción en el Registro General correspondiente, dependiente del Ministerio de Educación, Cultura y Deporte. Este mecanismo representa el instrumento por antonomasia que condensa las facultades de tutela del Estado sobre un bien del que se considera poseedor y aglutinador de valores “culturales” —como cohesión de los valores históricos, artísticos, sociales, etc. — representativos de la idiosincrasia española, y sobre el cual no existen dudas sobre la necesidad de garantizar su permanencia a través de su conservación. En segunda instancia, hemos analizado el Planeamiento Urbanístico, como aglutinador de valores culturales contenidos en la ciudad y como contenedor de los efectos generados por el hombre a partir de su interacción con el medio en el que habita y se relaciona. En tercer término, hemos recopilado y estudiado la concepción de los catálogos, como noción genérica de protección. Desde hace siglos, este género ha estado definido como una herramienta capaz de intervenir en la protección del patrimonio histórico, aunque de una manera difícilmente cuantificable, mediante la identificación, enumeración y descripción de una tipología concreta de monumentos o grupos de ellos, contribuyendo al reconocimiento de los valores cualitativos contenidos en éstos. El tercer capítulo analiza el mecanismo directo de tutela que ejerce la Administración en el patrimonio monumental. La declaración de monumentalidad o de Bien de Interés Cultural y su inclusión en el Registro General de Protección. La protección teórica y la protección jurídica de un monumento, analizadas hasta el momento, resultan tan necesarias como pueriles si no van seguidas de su consumación. En el caso de este tipo de patrimonio monumental, toda acción que tenga como objeto resguardar los valores implícitos en un bien mueble o inmueble, y en su materia, implica el cumplimiento de la protección. Por último, el cuarto capítulo se convierte en el punto culminante, y por ende crucial, del proceso de protección del Patrimonio Cultural, el de la consumación de la intervención. La teoría, la crítica, la normativa y hasta las doctrinas más radicales en materia de protección del patrimonio cultural, carecen de sentido si no las suceden los hechos, la acción, en antítesis a la omisión o la desidia. De ello ha dado pruebas elocuentes la propia historia en multitud de ocasiones con la destrucción, por indolencia o desconocimiento, de importantes vestigios del patrimonio arquitectónico español. Por este motivo, y para ser consecuentes con nuestra tesis hemos recuperado, concentrado y analizado la documentación de obra de tres monumentos imprescindibles del patrimonio construido (la Catedral de Burgos, el Palacio-Castillo de la Aljafería en Zaragoza y la Muralla de Lugo). En ocasiones, al examinar retrospectivamente las intervenciones en monumentos de gran envergadura, física y cultural como catedrales o murallas, algunos investigadores han tenido la sospecha o prevención de que las actuaciones no han seguido un plan de actuación premeditado, sino que han sido el resultado de impulsos o arrebatos inconexos producto de la urgencia por remediar algún tipo de deterioro. En oposición a esto, y a través del estudio de las intervenciones llevadas a cabo en los tres monumentos mencionados, hemos podido corroborar que, a excepción de intervenciones de emergencia fruto de circunstancias puntuales, existe coherencia desde el proceso de análisis de situación de un bien a la designación de prioridades, que ha regido el proceso restaurador a lo largo de dos siglos. La evolución de las intervenciones realizadas en los monumentos analizados ha estado definida, además de por su complejidad, magnitud y singularidad constructiva, por el devenir de su estructura y su uso. En conclusión, la efectividad de la protección del patrimonio cultural español, radica en la concomitancia de múltiples aspectos, entre ellos: el cumplimiento acertado de las normas vigentes, específicas y accesorias; el conocimiento del bien y de sus valores históricos, artísticos, y culturales; su catalogación o inclusión en los inventarios correspondientes; el compromiso de los agentes e instituciones de los cuales depende; la planificación de las tareas necesarias que garanticen tanto la salvaguarda estructural como la conservación de sus valores; y la incorporación de un plan de seguimiento que permita detectar eventuales peligros que atenten contra su conservación. Pero, la situación óptima estaría dada por un sistema en el que estos mecanismos —regulaciones específicas y urbanísticas, Declaraciones de Bien de Interés Cultural, Catálogos e Inventarios, etc. — funcionaran, de forma parcial o total, como una maquinaria, donde cada pieza operara con independencia relativa, pero en sintonía con los demás engranajes. Hasta el momento, la realidad dista mucho de esta situación, convirtiendo esta convivencia en una utopía. Tanto los legisladores, como las autoridades y los técnicos involucrados, deben tener presente que, de ellos, de los parámetros asignados por la legislación, de la implementación de los instrumentos estipulados por ésta y de las decisiones tomadas por cada uno de los poderes directivos de los órganos competentes, dependerá el alcance y efectividad de la protección, ya que en cada vertiente existe, en mayor o menor medida, un porcentaje de interpretación y subjetividad. ABSTRACT The research that we present has as the main objective to collect, record, analyzed and reflection on a time, that was little studied from the architectural field. It is the period between the two laws of most relevance to the protection of Spanish Historical Heritage of the last century. We refer to the Law on the Protection and Conservation of National Heritage of 1933 and Law 16/1985 of Spanish Historical Heritage. Through this research, it aims to provide a comprehensive view of the stage from the architectural approach, basing it on the development of methodological guidelines. The investigation was initiated by the bibliography and documentary for further analysis. After this initial phase, we have identified the common links between existing studies on the Spanish architectural heritage prior to the Civil War and dedicated research into the history of the late twentieth century. Thus, we have tried to draw a documental bridge, with which virtually transpose the gap that has existed. Historically, professionals from diverse disciplines have been worried and busy of the protection of the built and urban heritage. They have undertaken the daunting task of understanding and explaining the historical and legal difficulties, which have marked its evolution. This concern has generated an enormous and diverse literature, from formal and precise protection, in the framework of conservation historiographical trends and nineteenth-century theories. Also, they have studied the impact of urban planning in the protection of heritage, including the competences and administrative juxtapositions. They have generated a lot of documents of all kinds and scientific depth. The title of this document, in itself, circumscribes the matter that has been analyzed during this research process, the Monumental Architectural Heritage. The basal studio is located in the historical buildings, which, in turn, hold the declaration of cultural interest, and thus belong to the Spanish Historical Heritage. The work methodology was developed concentrically from general aspects of the protection of monuments, such as the legal framework that predates the enactment of the 1933 Act, and the previous state of the monuments that should be preserved. We recognize in the legislative sphere, the organic base that regulates and directs the tutelage of Spanish heritage and conservative action. The situation scheme emerged from the previous analysis, and we detected the key factors in the transition to the Spanish Historical Heritage Act; the conceptual evolution of the Heritage as a generic assessment, and witness this progress through historical, artistic and cultural values. This research paper consists of a first phase, corresponding to Chapter 1, which has developed from the legal regulation governing the Spanish Historical Heritage, through laws, decrees, orders and related provisions, supplemented the bibliography dedicated to the historical review of the legal process of protecting historical and artistic heritage. While it was not our intention to conduct a detailed study of the legal and historical volume preceding the 1933 Act, and that started the study period of this investigation, yes he has been focusing on the production of an extract from those elements of the doctrine with greater relevance and impact on the protection of Spanish art-historical and / or architectural heritage. Throughout our study we have seen what some jurists had already raised, about the scattering, branching and diversification of efforts, both in specific law and in urban law. This disaggregation has been extended to the field of recognition measures characterized by the development of multiple catalogs and inventories, with varying significance, scope and usefulness. The result has been a division of efforts, blurring the objective and turning the action of the recognition in multiple attempts little consequence. Our research advances in the analysis of heritage protection, as globalization concept in the Chapter 2, which includes a number of direct and indirect mechanisms that individually, often lack the effective force that many of monuments have required to survive the test of time and circumstances. First, in this second chapter we focused specifically on the mechanism regulated by the Spanish Historical Heritage Act, and the general protection regime implemented since its enactment in 1985 . In particular, we consider the declaration of cultural interest as maximum protection and protection of cultural assets, and their subsequent entry in the relevant General Register under the Ministry of Education, Culture and Sports . This mechanism is the instrument par excellence that condenses the powers of state care about a cultural asset, and which represents the cohesion of the historical, artistic, social values , etc. Secondly, we analyzed the Urban Planning, as a unifying cultural value in the city and as a container for the effects caused by man from its interaction with the environment in which he lives and relates. Thirdly, we have collected and studied the origin of catalogs, as generic notion of protection. For centuries, this genre has been defined as a tool to intervene in the protection of historical heritage, although difficult to quantify, through the identification, enumeration and description of a particular typology of monuments, and that contributing to the recognition of qualitative values contained therein. The third chapter analyzes the direct mechanism of protection performed by the Administration in the monuments with the statement of Cultural asset and inclusion in the General Protection Register. The theoretical and legal protection of a monument is as necessary as puerile if they are not followed by intervention. For this type of architectural heritage, any action which has the aim to safeguard the values implicit in the cultural asset involves protection compliance. Finally, the fourth chapter becomes the highlight, because it treated of the end process of the cultural heritage protection, the consummation of the intervention. The theory, the criticism, the rules and even the radical doctrines on the protection of cultural heritage, are meaningless if they do not take place the facts, the action, in antithesis to the omission. The history of the architectural heritage has given eloquent proof by itself. A lot of vestiges have been lost, in many times, for the destruction, through indolence or unknowledge. For this reason, and to be consistent with our thesis, we have collected and analyzed the projects documentation of three monuments (the Burgos Cathedral, the Aljafería Palace-Castle in Zaragoza and the Wall of Lugo). Sometimes, some researchers have suspected that there had not been planning. They suspect that the projects have been the result of different emergency situations. In opposition of this, we confirm that, except for emergency interventions result of specific circumstances, there have been a process of analysis to conclude in the priorities designation, which has guided the restoration process over two centuries. The complexity, magnitude and constructive uniqueness have defined the evolution of intervention. In conclusion, the effectiveness of the protection of Spanish cultural heritage lies in the conjunction of many aspects, including: the successful implementation of existing, specific and ancillary standards; the knowledge of good and its historical, artistic and cultural values; the cataloging and inclusion in the relevant inventories; and the commitment of the actors and institutions on which it depends. These planning tasks are necessary to ensure both structural safeguards as conservation values; and the introduction of a monitoring plan to detect possible dangers that threaten its conservation. But, the optimal situation would be given by a system in which these urban-regulations and specific mechanisms, would work together like a machine, where each piece operated with relative independence, but in tune with the other gears. So far, the reality is far from this situation, turning this coexistence in a utopia. Both legislators and officials and technicians involved must be aware that the effectiveness and scope of protection depends on your insight and commitment.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este trabajo se ocupa de la construcción modular ligera de viviendas unifamiliares, más concretamente aborda el problema de la definición constructiva de las mismas, habida cuenta de lo poco conocido y publicado de este aspecto en particular. Dado que la construcción es fruto de la evolución, resulta de gran importancia el estudio de los antecedentes para comprender la situación actual, por ello para documentar como corresponde el estado de la técnica y de la investigación se estudiaron los antecedentes desde sus primeras manifestaciones a finales del siglo XIX hasta nuestros días. Contrariamente a las profecías de Le Corbusier y otros, la industrialización no ha llegado a la construcción ni en la forma ni en la medida que era de esperar a principios del siglo XX. Sin embargo y a pesar del relativo “fracaso” de la industrialización en convertirse en la forma mayoritaria de producir edificios, lo cierto es que algunos sistemas altamente industrializados, como lo es la construcción modular ligera, han logrado un lugar en el mercado, que en algunos países resulta cuanto menos significativo. Delimitar el estado de la técnica y la situación actual es crucial en este trabajo, toda vez que la construcción industrializada la realizan empresas, y situarse al margen de las mismas y de su producción, nos guste o no, resulta contrario al sentido común. De este modo se han identificado y documentado ejemplos como el de EE.UU. y Japón, entre otros, que resultan muy ilustrativos tanto desde la evolución como del estado actual. Del estado de la técnica y la investigación también resulta la escasez de publicación de detalles constructivos específicos de la construcción modular ligera. Es obvio que los fabricantes intentan blindarse mediante el secreto industrial, logrando que las soluciones constructivas más interesantes queden fuertemente protegidas dentro del conocimiento reservado de la empresa. De este modo un sistema que alcanza grados de prefabricación del 95%, tan atractivo e interesante para el arquitecto queda reservado al conocimiento de unos pocos dentro de las empresas. La búsqueda de mayor información sobre estos sistemas encuentra un filón indiscutible en los proyectos de las casas del concurso Solar Decathlon. En efecto, debido a las condiciones particulares de este concurso, las casas que compiten deben ser instaladas en un plazo corto, por lo que en su mayoría recurren al método de construcción modular ligera, para lograr correctamente este objetivo. Adicionalmente todos los planos de proyecto incluidos los de detalle, así como memorias de especificaciones técnicas, quedan colgadas en la Web, a libre disposición del público. De este modo se ha considerado interesante, conveniente y útil, aprovechar como fuente documental de este trabajo, aparte de lo obtenido en el estado de la técnica y la investigación, los proyectos de las casas de los concursos 2005 y 2007, que fueron las dos últimas ediciones celebradas cuando se inició esta tesis. De modo similar a esta carencia de detalles publicados se observa igualmente una falta de investigación y de metodologías adecuadas a la misma sobre soluciones y detalles constructivos propios de la construcción modular ligera. Por eso y ante la dificultad de manejar adecuadamente una información disponible pero farragosa, este trabajo ha dedicado una parte importante de su esfuerzo a la creación de una metodología adecuada a este tipo de situación. Hay que destacar que cada proyecto puede constar fácilmente de 60 a casi 200 planos, sin contar las memorias técnicas y otros documentos, tales como galerías de imágenes, etc. Por otra parte resulta útil establecer esta metodología, no solo para esta tesis, sino para futuros trabajos de investigación sobre el tema, toda vez que con posterioridad a 2007 se han celebrado nuevas ediciones del concurso con su correspondiente volumen de información disponible. La metodología del análisis de los proyectos se basa en el diseño y creación de siete fichas tipo que resumen los aspectos fundamentales del proyecto desde el punto de vista constructivo, permitiendo de este modo su rápida visualización y comprensión sin pretender exhaustividad, ya que en caso de querer profundizar en el detalle de la información siempre está el proyecto original para ello. Tras estudiar la información obtenida de los proyectos de las casas de concurso, se contrastan y discuten los resultados para obtener conocimientos de interés para el objetivo propuesto en la tesis. Se comparan los resultados procedentes del estado de la técnica y de la investigación y se obtienen las conclusiones correspondientes. De este modo ha sido posible identificar una serie de criterios técnicos de proyecto de viviendas unifamiliares realizadas mediante construcción modular ligera, que además se organizan en varios niveles, por lo que el resultado es un conjunto de criterios como germen de una futura guía o manual. Como conclusiones fundamentales de la tesis hay que destacar las metodológicas, que habilitan la extensión de este estudio a otros trabajos y la aportación original al conocimiento con la definición de una serie de criterios técnicos de proyecto de viviendas realizadas mediante construcción modular ligera, que además de mejorar esta parte del saber constructivo serán de gran ayuda a los arquitectos de cara a la reducción de errores, que a menudo derivan en mayores costes y plazos, cuando no directamente al abandono del sistema constructivo. El trabajo de la tesis se estructura en siete capítulos a saber: Capítulo 1: Introducción, donde se explica el tema de la tesis, el objetivo principal, las limitaciones y se aportan algunas definiciones. Capítulo 2: Estado de la técnica y la investigación, dentro del cual se presentan los antecedentes desde sus inicios pasando por la primera y segunda mitad del siglo XX y finalizando con el estado actual que recorre los sistemas de EE.UU, Japón, Europa, Escandinavia, centro Europa, Francia, España y algunos ejemplos de Latinoamérica. En el estado de la investigación se presentan las publicaciones tanto en revistas científicas indexadas en el JCR, como publicaciones no indexadas en las que se muestran artículos científicos, comunicaciones a congresos, documentación sobre el concurso Solar Decathlon, libros específicos y libros genéricos sobre construcción modular ligera, tesis doctorales tanto generales como específicas sobre el concurso Solar Decathlon, documentos de idoneidad técnica, páginas Web del concurso Solar Decathlon y finalmente páginas Web de empresas de construcción modular ligera y patentes. También se expresan las conclusiones parciales del capítulo así también como la justificación y los objetivos particulares. Capítulo 3: Metodología, se expone en primer lugar el planteamiento del problema, para luego desarrollar los métodos utilizados para el estudio y clasificación del transporte y de la organización modular, la relación entre la organización modular y distribución espacial, el diseño y contenido de las fichas resumen de los 38 proyectos presentados al SD2005 y SD2007, así también como la información consultada para su realización. Se explica asimismo como se realizaron las tablas comparativas partiendo de la información de las fichas. Finalmente se expresa la manera en que se trató el estudio particular de la junta entre módulos. Capítulo 4: Discusión de resultados, dónde en primer lugar se presenta la clasificación y las estrategias del transporte así también como una clasificación de la organización modular, en segundo lugar se estudian las relaciones que existen entre el sistema modular y la organización espacial. A partir de aquí se muestra el estudio de la estructura de todas las casas del SD2005 y SD2007, según el tipo y material de las zapatas, mostrando tanto tablas cuantitativas como tablas gráficas con fotos. De la misma manera se tratan los forjados, los pilares y las vigas y las cubiertas. Se estudia además el cerramiento opaco y acristalado, la cubierta y el forjado según las capas que lo componen. En el caso de las instalaciones se estudian las que son especiales, descartando las normales en este tipo de casas, como son los paneles fotovoltaicos, placas térmicas o tubos de vacío y los sistemas de almacenamiento de energía, como las baterías, presentando tablas numéricas y gráficas con fotos. El transporte se analiza según corresponda al traslado de la vivienda o al transporte de apoyo, según el tipo y la cantidad utilizado. Con respecto al montaje se diferencia en si se usó grúa o no, y en el caso de no utilizarse se muestran los métodos alternativos. Con respecto a la exploración de la organización modular se presentan la cantidad de módulos que utilizó cada casa, así como también la cuantificación de los sistemas híbridos como son elementos lineales 1D, paneles 2D. Por último se muestra el estudio detallado de la junta entre módulos 3D. Finalmente se realiza la propuesta de un conjunto de criterios técnicos de proyecto organizado en cuatro niveles: 1º nivel de criterios generales, 2º nivel sobre sistemas constructivos, 3º nivel de detalles constructivos y el 4º nivel llamado logística obras previas, transporte y montaje. Capítulo 5: Conclusiones y líneas futuras de investigación, se exponen las conclusiones generales, metodológicas, documentales y por último las de construcción modular. Finalmente se realiza una propuesta de líneas futuras de investigación. Capítulo 6: Bibliografía. Capítulo 7: Anexos, en el que se presentan todas las fichas resumen de las casas realizadas por el autor de esta tesis. Además se incluyen los casos concretos de Voisin en Francia y la TVA (Tennessee Valley Authority) en EE.UU., así como referencias de manuales genéricos de construcción ligera, medidas de transporte en España e información sobre estadísticas de viviendas en la Unión Europea. ABSTRACT This paper deals with Light Modular Construction of houses, and specifically addresses the problem of the constructive definition of the same, given how little known and published this subject has been. Since building construction is the result of evolution, it is of great importance to study its background for understanding the current situation, therefore to document the state of the art and research, its history was studied from its origins dating to the end nineteenth century to our days. Contrary to the prophecies of Le Corbusier and others, industrialization has not reached the construction neither in the form nor to the extent that it was expected in the early twentieth century. However, despite the relative "failure" of industrialization to become the major form of production for buildings, the fact is that some highly industrialized systems, such as the so called Lightweight Modular Construction, have achieved a place in the market, which in some countries is at least significant. To outline the state of the art and the current situation is crucial in this work, since industrialized construction is carried out by companies, and to step away from them and their production, whether we like it or not, it is contrary to common sense. So that, several cases have been identified and documented, such as the US and Japan examples, among others, which are very illustrative both from evolution and the current status. The state of the art and research shows also a shortage of publication of specific construction details of light modular construction. Obviously, manufacturers try to shield themselves by trade secret, making the most interesting constructive solutions remain heavily protected within the reserved knowledge of the company, so a system that reaches levels of 95% prefabrication, so attractive and interesting for the architect It is reserved to the knowledge of a few people inside the companies. The search for more information on these systems finds an invaluable reef in the projects of the Solar Decathlon houses. Indeed, due to the particular conditions of this contest, houses competing must be installed in a short time, so mostly turn to modular construction methods for this purpose to achieve properly this goal. Additionally all levels of project, including detailed and technical specifications reports are published on the Web, freely available to the general public. Thus it was considered interesting, convenient and useful to take advantage as a documentary source of this work, apart from what it were obtained in the state of the art and research, the projects of the houses of the 2005 and 2007 contests, which were the last two editions already held before this thesis was started. Similar to this lack of published details it is also observed a lack of research and methodologies adapted to the solutions and construction details of lightweight modular construction. So that, and facing the difficulty of adequately manage the available but bulky information, this work has devoted a significant part of its effort to create an appropriate methodology for this type of situation. It is noteworthy that each project can easily consist of 60 to almost 200 blueprints, not including technical reports and other documents, such as photo galleries, etc. The methodology of the analysis of the projects is based on the design and creation of seven record sheets that summarize key aspects of the project from a construction point of view, thus allowing quick watching and understanding of the project, without claiming completeness, always keeping for further information the blueprints themselves. After studying the information obtained from the projects of the competition houses, the results are compared and discussed to obtain relevant knowledge according to the objective proposed in the thesis. The results from the state of the art and research are also compared and the conclusions so obtained make possible to identify a number of technical design criteria for single family homes made using lightweight modular construction, which also have been organized at various levels, so the result is a set of criteria as a seed for a future guide or manual. Among the main conclusions of the thesis must be noted the methodological ones, that enable the extension of this study to other works and are an original contribution to knowledge with the definition of a number of technical criteria for housing projects made by light modular construction, what in addition to improving this part of the constructive knowledge will be of great help for the architects to reduce errors that often result in higher costs and delays, if not in abandonment of the construction system itself. The work of the thesis is divided into seven chapters as follows: Chapter 1: Introduction, where the topic of the thesis, the main objective, limitations and the provided definitions is explained. Chapter 2: State of the art and research, within which history is presented from the beginning through the first and second half of the twentieth century and ending with the current systems, that spans from the USA to Japan, Europe, Scandinavia, Central Europe, France, Spain and some Latin American examples. In the state of research publications are presented both on scientific journals indexed in the JCR, and non-indexed publications in which scientific articles, conference papers, information about the Solar Decathlon competition, generic and specific books on light modular construction, articles both general and specific on the Solar Decathlon competition, technical approval documents, dissertations, the Solar Decathlon Web pages and finally lightweight modular construction companies Web pages and patents. The partial conclusions of the chapter as well as the rationale and specific objectives are also expressed. Chapter 3: Methodology first of all exposes the problem statement and then develops the methods used for the study and classification of transportation and modular organization, the relationship between the modular organization and spatial distribution, design and content summary records of the 38 projects submitted to the SD2005 and SD2007, as well as information consulted for its realization. It explains equally how the comparative tables based on information from the chips were made. Finally, the way the particular study of the joint between modules is carried out is also treated. Chapter 4: Discussion, first sorting a classification of transport strategies as well as of modular organization, secondly the relationship between the modular system and the spatial organization studied is presented. From then on, the study of the structure of every house Moreover, to establish this methodology is useful not only for this thesis, but for future research on the subject, since after 2007 there have been held new editions of the contest with a corresponding volume of information available. shown in the SD2005 and SD2007 contests, depending on the type and material of the shoe, showing both quantitative tables as graphic boards with pictures is carried out. Similarly slabs, columns and beams and roofs are treated. Furthermore, the opaque and transparent façades, as well as roof and floor enclosure, according to the layers that compose them are studied. In the case of facilities there have been only addressed that which are of a special type, discarding that considered usual in this type of houses such as photovoltaic panels, thermal panels or vacuum tubes and energy storage systems such as batteries, presenting numerical and graphical tables with photos .The transportation is analyzed depending on it is used to move the house or for additional support, depending on the type and quantity of items used. Regarding assembly it has been made a difference if crane is or not used and if not, what the alternative methods are. With respect to the exploration of the modular organization, the amount of modules used in each house is presented, as well as the quantification of hybrid systems such as linear members as well as 1D, 2D panels. Finally, it has been carried out the detailed study of the joint between 3D modules. Finally it is proposed a set of technical criteria organized into four levels, 1st level of general criteria, 2nd level on building systems, 3rd level construction details and 4th level called previous works and logistics, transportation and assembly. Chapter 5: Conclusions and future research, where general, methodological, documentary and finally modular construction findings are presented. A proposal for further research is done. Chapter 6: Bibliography. Chapter 7: Annexes, in which all the record sheets of houses made by the author of this thesis are presented. Besides the specific cases of Voisin in France and TVA (Tennessee Valley Authority) in the USA, as well as general reference manuals on lightweight construction, transportation dimensions in Spain, and information on housing statistics in the European Union are included.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La presente tesis doctoral aborda el estudio de un nuevo material mineral, compuesto principalmente por una matriz de yeso (proveniente de un conglomerante industrial basado en sulfato de calcio multifase) y partículas de aerogel de sílice hidrófugo mesoporoso, compatibilizadas mediante un surfactante polimérico, debido a su alto carácter hidrófugo. La investigación se centra en conocer los factores que influyen en las propiedades mecánicas y conductividad térmica del material compuesto generado. Este estudio pretende contribuir al conocimiento sobre el desarrollo de nuevos morteros de elevado aislamiento térmico que puedan ser utilizados en la rehabilitación energética de edificios de viviendas existentes, debido a que estos representan gran parte del consumo energético del parque de viviendas de España, aunque también a nivel internacional. De los materiales utilizados para desarrollar los morteros estudiados, el yeso, además de ser un material muy abundante, especialmente en España, requiere una menor cantidad de energía para la fabricación de un conglomerante (debido a una menor temperatura de fabricación), en comparación con el cemento o la cal, por lo que presenta una menor huella de carbono que estos últimos. Por otro lado, el aerogel de sílice hidrófugo mesoporoso es, de acuerdo con la documentación disponible, el material que posee actualmente la mayor capacidad de aislamiento térmico en el mercado. El desarrollo de nuevos morteros minerales con una capacidad de aislamiento térmico mayor que los materiales aislantes utilizados tradicionalmente, tiene una aplicación relevante en los casos de rehabilitación energética de edificios históricos y patrimoniales, en los que se requiere la aplicación del aislamiento por el interior de la fachada, ya que este tipo de soluciones tienen el inconveniente de reducir el espacio habitable de las áreas involucradas, especialmente en zonas climáticas en las que el aislamiento térmico puede suponer un espesor considerable, por lo que es ideal utilizar materiales de altas prestaciones de aislamiento térmico capaces de aportar el mismo nivel de aislamiento (o incluso mayor), pero en un espesor considerablemente menor. La investigación se desarrolla en tres etapas: bibliográfica, experimental y de simulación. La primera etapa, parte del estudio de la bibliografía existente, relacionada con materiales aislantes, incluyendo soluciones basadas, tanto en morteros aislantes, como en paneles de aislamiento térmico. La segunda, de carácter experimental, se centra en estudiar la influencia de la microestrucrura y macroestructura, del nuevo material mineral, en las propiedades físicas elementales, mecánicas y conductividad térmica del compuesto. La tercera etapa, mediante una simulación del consumo energético, consiste en cuantificar teóricamente el potencial ahorro energético que puede aportar este material en un caso de rehabilitación energética en particular. La investigación experimental se centró principalmente en conocer los factores principales que influyen en las propiedades mecánicas y conductividad térmica de los materiales compuestos minerales desarrollados en esta tesis. Para ello, se llevó a cabo una caracterización de los materiales de estudio, así como el desarrollo de distintas muestras de ensayo, de tal forma que se pudo estudiar, tanto la hidratación del yeso en los compuestos, como su posterior microestructura y macroestructura, aspectos fundamentales para el entendimiento de las propiedades mecánicas y conductividad térmica del compuesto aislante. De este modo, se pudieron conocer y cuantificar, los factores que influyen en las propiedades estudiadas, aportando una base de conocimiento y entendimiento de este tipo de compuestos minerales con aerogel de sílice hidrófugo, no existiendo estudios publicados hasta el momento de finalización de esta tesis, con la aproximación al material propuesta en este estudio, ni con yeso (basado en sulfato de calcio multifase), ni con otro tipo de conglomerantes. Particularmente, se determinó la influencia que tiene la incorporación de partículas de aerogel de sílice hidrófugo, en grandes proporciones en volumen, en un compuesto mineral basado en distintas fases de sulfato de calcio. No obstante, para llevar a cabo las mezclas, fue necesario utilizar un surfactante para compatibilizar este tipo de partículas, con el conglomerante basado en agua. El uso de este tipo de aditivos tiene una influencia, no solo en el aerogel, sino en las propiedades del compuesto en general, dependiendo de su concentración, por lo que se establecieron dos porcentajes de adición: la primera, determinada a partir de la cantidad mínima necesaria para compatibilizar las mezclas (0,1% del agua de amasado), y la segunda, como límite superior, la concentración utilizada habitualmente a nivel industrial para estabilizar burbujas de aire en hormigones espumados (5%). El surfactante utilizado mostró la capacidad de modificar la superficie del aerogel, cambiando el comportamiento de las partículas frente al agua, permitiendo una invasión parcial de su estructura porosa, por parte del agua de amasado. Este comportamiento supone un aumento muy importante en la relación agua/yeso, afectando el hábito cristalino e influenciando negativamente las propiedades mecánicas de la matriz de yeso, presentando un efecto aún notable a mayor concentración de surfactante (5%). En cuanto a las propiedades finales alcanzadas, fue posible lograr un compuesto mineral ultraligero (200 kg/m3), con alrededor de un 60% de aerogel en volumen y de alta capacidad aislante (0,028 W/m•K), presentando una conductividad térmica notablemente menor que los morteros aislantes del mercado, e incluso también menor que la de los aislantes tradicionales basado en las lanas minerales o EPS; no obstante, con la limitante de presentar bajas propiedades mecánicas, condicionando su posible aplicación futura. Entre los factores principales relacionados con las propiedades mecánicas, se encontró que estas dependen exponencialmente del volumen de yeso en el compuesto; no obstante, factores de segundo orden, como el grado de hidratación, o una mejor distribución del conglomerante entre las partículas de aerogel, debido al aumento de la superficie específica del polvo mineral, pueden aumentar las propiedades mecánicas entre el doble y el triple, dependiendo del volumen de aerogel en cuestión. Además, se encontró que el aerogel, en conjunto con el surfactante, es capaz de introducir una gran cantidad de aire (0,70 m3 por cada m3 de aerogel), que unido al agua evaporada (no consumida por el conglomerante durante la hidratación), el volumen de aire total alcanza, generalmente, un 40%, independientemente de la cantidad de aerogel en la mezcla. De este modo, el aire introducido en la matriz desplaza las proporciones en volumen del aerogel y del yeso, disminuyendo, tanto las propiedades mecánicas, como la capacidad aislante de compuesto mineral. Por otro lado, la conductividad térmica mostró tener una dependencia directa de la contribución de las tres fases principales en el compuesto: yeso, aerogel y aire ocluido. De este modo, se pudo desarrollar un modelo matemático, adaptado de uno existente, capaz de calcular, con bastante precisión, la relación de los tres componentes mencionados, en la conductividad térmica de los compuestos, para el rango de volúmenes y materiales utilizados en esta tesis. Finalmente, la simulación del consumo energético realizada a una vivienda típica de España, de los años 1900 a 1959 (basada en muros de ladrillo macizo), para las zonas climáticas estudiadas (A, D y E), permitió observar el potencial ahorro energético que puede aportar este material, dependiendo de su espesor, como aislamiento interior de los muros de fachada. Particularmente, para la zona A, se determinó un espesor óptimo de 1 cm, mientras que para la zona D y E, 3,5 y 3,9 cm respectivamente. En este sentido, el nuevo material estudiado es capaz de disminuir, entre un 35% y un 80%, el espesor de la capa aislante, en comparación con paneles de lana de roca o los morteros minerales de mayor capacidad aislante del mercado español respectivamente. ABSTRACT The present doctoral thesis studies a new mineral-based composite material, composed by a gypsum matrix (based on an industrial multiphase gypsum binder) and mesoporous hydrophobic silica aerogel particles, compatibilized with a polymeric surfactant due to the high hydrophobic character of the insulating particles. This study pretends to contribute to the development of new composite insulating materials that could be used in energy renovation of existing dwellings, in order to reduce their high energy consumption, as they represent a great part of the total energy consumed in Spain, but also internationally. Between the materials used to develop de studied insulating mortars, gypsum, besides being an abundant material, especially in Spain, requires less energy for the manufacture of a mineral binder (due to lower manufacturing temperatures), compared to lime or cement, thus presenting lower carbon footprint. In other hand, the hydrophobic mesoporous silica aerogel, is, according to the existing references, the material with the highest know insulating capacity in the market. The development of new mineral mortars with higher thermal insulation capacity than traditional insulating materials, presents a relevant application in energy retrofitting of historic and cultural heritage buildings, in which implies that the insulating material should be installed as an internal layer, rather than as an external insulating system. This type of solution involves a reduced internal useful area, especially in climatic zones where the demand for thermal insulation is higher, and so the insulating layer thickness, being idealistic to use materials with very high insulating properties, in order to reach same insulating level (or higher), but in lower thickness than the provided by traditional insulating materials. This research is developed in three main stages: bibliographic, experimental and simulation. The first stage starts by studying the existing references regarding thermally insulating materials, including existing insulating mortars and insulating panels. The second stage, mainly experimental, is centered in the study of the the influence of the microstructure and macrostructure in the physical and mechanical properties, and also in the thermal conductivity of the new mineral-based material. The thirds stage, through energy simulation, consists in theoretically quantifying the energy savings potential that can provide this type of insulating material, in a particular energy retrofitting case study. The experimental research is mainly focused in the study of the factors that influence the mechanical properties and the thermal conductivity of the thermal insulating mineral composites developed in this thesis. For this, the characterization of the studied materials has been performed, as well as the development of several experimental samples, in order to study the hydration of the mineral binder within the composites, but also the final microstructure and macrostructure, fundamental aspects for the understanding of the composite’s mechanical and insulating properties. Thus, is was possible to determine and quantify the factors that influence the studied material properties, providing a knowledge base and understanding of mineral composites that comprises mesoporous hydrophobic silica aerogel particles, being the first study up to date regarding the specific approach of the present study, regarding not just multiphase calcium sulfate plaster, but also other mineral binders. Particularly, the influence of the incorporation of hydrophobic silica aerogel particles, in high volume ratios into a mineral compound, based on different phases of calcium sulfate has been determined. However, to perform mixing, it is necessary to use a surfactant in order to compatibilize these particles with the water-based mineral binder. The use of such additives has an influence, not only in the aerogel, but the overall properties of the compound, so two different surfactant concentration has been studied: the first, the minimum amount of surfactant (used in this thesis) in order to develop the slurries (0.1% concentration of the mixing water), and the second, as the upper limit, the concentration usually used industrially to stabilize air bubbles in foamed concrete (5%). One of the side effects of using such additive, was the modification of the aerogel particles, by changing their behavior in respect to water, generating a partial invasion of the aerogel’s porous structure, by the mixing water. This behavior produces a very important increase in water/binder ratios, affecting the crystal habit and negatively influencing the mechanical properties of the gypsum matrix. This effect further increased when a higher concentration of surfactant (5%) is used. Regarding final materials properties, it was possible to achieve an ultra-lightweight mineral composite (200 kg/m3), with around 60% by volume of aerogel, presenting a very high insulating capacity (0.028 W/m•K), a noticeable lower thermal conductivity compared to the insulating mortars and traditional thermal insulating panels on the market, such as mineral wool or EPS; however, the limiting factor for future’s material application in buildings, is related to the very low mechanical properties achieved. Among the main factors related to the mechanical properties, it has been found an exponential correlation to the volume of gypsum in the composite. However, second-order factors such as the degree of hydration, or a better distribution of the binder between the aerogel particles, due to the increased surface area of the mineral powder, can increase the mechanical properties between two to three times, depending aerogel volume involved. In addition, it was found that the aerogel, together with the surfactant, is able to entrain a large amount of air volume (around 0.70 m3 per m3 of aerogel), which together with the evaporated water (not consumed by the binder during hydration), can reach generally around 40% of entrained air within the gypsum matrix, regardless of the amount of aerogel in the mixture. Thus, the entrained air into the matrix displaces the volume proportions of the aerogel and gypsum, reducing both mechanical and insulating properties of the mineral composite. On the other hand, it has been observed a direct contribution of three main phases into the thermal conductivity of the composite: gypsum, aerogel and entrained air. Thus, it was possible to develop a mathematical model (adapted from an existing one), capable of calculating quite accurate the thermal conductivity of such mineral composites, from the ratio these three components and for the range of volumes and materials used in this thesis. Finally, the energy simulation performed to a typical Spanish dwelling, from the years 1900 to 1959 (mainly constructed with massive clay bricks), within three climatic zones of Spain (A, D and E), showed the energy savings potential that can provide this type of insulating material, depending on the thickness of the applied layer. Particularly, for the climatic A zone, it has been found an optimal layer thickness of 1 cm, while for zone D and E, 3.5 and 3.9 cm respectively. In this manner, the new studied materials is capable of decreasing the thickness of the insulating layer by 35% and 80%, compared with rock wool panels or mineral mortars with the highest insulating performance of the Spanish market respectively.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Uno de los capítulos más interesantes del gótico europeo lo constituyen las bóvedas sexpartitas, sin lugar a dudas una de las bóvedas más singulares jamás creadas dentro de este estilo. Las primeras bóvedas góticas, en cruce de ojivas y de planta cuadrada, limitaban su uso a espacios relativamente pequeños, pero ante la necesidad de cubrir espacios de considerables dimensiones, apareció una nueva bóveda de características muy peculiares; la sexpartita. Esta bóveda en cruce de ojivas está reforzada por el centro con un arco paralelo a los arcos fajones que la divide por la mitad y que fragmenta el arco formero en dos, creando una pareja de ventanales en cada lado. La sencilla superficie en bóveda de arista, en el origen de las bóvedas de crucería, se complica extraordinariamente creando una volumetría de gran complejidad con seis cuarteles de plementería y con seis apoyos de distinto tamaño, cuatros esquineros y dos centrales más pequeños. Las dificultades que implica la construcción de este tipo de bóvedas explican quizás su abandono prematuro y la vuelta a la bóveda de crucería simple, ahora de tramos rectangulares. No obstante, a pesar de su corta existencia, la bóveda sexpartita fue la gran protagonista de los inicios del gótico y con ella se llevaron a cabo importantes abovedamientos, desde Inglaterra hasta Rumanía. La disciplina de la Historia de la Construcción se vio extraordinariamente favorecida por los estudios realizados en el siglo XIX, sin embargo su investigación se abandona durante el siglo XX para ser recuperada recientemente. Viollet-le-Duc, a finales del s. XIX, hace una sucinta explicación de este tipo de bóvedas. También Auguste Choisy, más tarde, dedica unas páginas a la bóveda sexpartita francesa; desde entonces, este tema, ha merecido escasísimas referencias en los estudios posteriores. Esta investigación se enmarca en este contexto y pretende poner de manifiesto los conocimientos geométricos y constructivos que hicieron posible la realización de las bóvedas sexpartitas europeas. Para ello se ha llevado a cabo la investigación de las principales bóvedas en Europa occidental; Francia, España, Inglaterra, Alemania, Suiza e Italia. Su estudio comparativo nos ha permitido poner de manifiesto sus características constructivas comunes y aquellos aspectos propios de cada país, así como algunos de los canales de comunicación que permitieron la expansión de esta arquitectura. Las nuevas tecnologías de medición, el escáner láser, la estación total, la fotogrametría, etc., han supuesto una revolución para la documentación y restauración del Patrimonio y un salto cualitativo formidable para el análisis de las bóvedas góticas, permitiendo estudios de la arquitectura histórica hasta ahora inabordables. Para realizar el análisis de las bóvedas sexpartitas europeas se ha llevado a cabo un levantamiento exhaustivo de las mismas, lo que ha permitido definir su despiece, obteniendo la forma de la talla de cada uno de los elementos constructivos que la componen; jarjas, dovelas, claves y plementería. La obtención de estos datos nos ha permitido abordar un profundo estudio de su estereotomía y construcción, aportando datos inéditos hasta el momento. Por otro lado se ha llevado a cabo la detección y catalogación de las principales bóvedas sexpartitas que aún se conservan en Europa. Los estudios realizados nos permiten afirmar que la bóveda sexpartita surge en Francia en la segunda mitad del siglo XII, utilizándose en las principales catedrales francesas, como Notre Dame de Paris, Bourges o Laon. A comienzos del siglo XIII cae en desuso en Francia y comienza su expansión por el resto de Europa, donde se abandona medio siglo después, desapareciendo definitivamente del gótico europeo. Mientras que los ejemplos que datan del siglo XII muestran soluciones escasamente desarrolladas y propias del románico, las bóvedas construidas en el siglo XIII muestran soluciones enormemente complejas, con grandes jarjamentos e inteligentes estrategias constructivas y geométricas que permiten la simplificación de sus estructuras auxiliares y una mayor libertad en su diseño. Estas bóvedas son el reflejo del desarrollo de la estereotomía gótica en sus comienzos por lo que su estudio nos ha permitido conocer el desarrollo y la evolución del gótico primitivo en Europa. ABSTRACT One of the most interesting chapters of European Gothic is the sexpartite vault, without doubt one of the most remarkable vaults ever created within this style. The first Gothic vaults, with crossed ribs on a square base, were restricted to relatively small areas, but a new vault, with very particular characteristics emerged to address the need to cover spaces of considerable size; the sexpartite vault. This cross-ribbed vault is reinforced in the centre by an arch that runs parallel to the transverse arches, divides the vault in half and splits the wall arch in two, creating a pair of windows, one on each side. The simple groin vault surface, the source of ribbed vaults, was greatly complicated creating a highly complex volume with six sections of severies and with six supports of different sizes, four on the corners and two smaller central ones. The construction difficulties involved in building this type of vault may explain its premature abandonment and a return to the simple cross-ribbed vault, now in rectangular sections. However, despite its brief existence, the sexpartite vault was the great protagonist of the beginnings of Gothic architecture and important vaulting was built using this system from England to Romania. Studies undertaken in the 19th century helped the History of Construction as a discipline tremendously. Research was abandoned during the twentieth century however, and has only recently been taken up again. Towards the end of the 19th century, Viollet-le-Duc gave a brief description of this type of vault. Later, Auguste de Choisy also devoted some pages to the French sexpartite vault; since then, later studies have made very few references to it. Against this background, this research now attempts to bring to light the knowledge of geometry and construction that made the construction of the European sexpartite vault possible. To this end, the main vaults in Western Europe - France, Spain, England, Germany, Switzerland and Italy, have been studied. By making a comparative study we have been able to reveal the common construction features and those that are specific to each country, as well as some of the channels of communication that enabled this architecture to spread. New measuring technologies, the laser scanner, total station, photogrammetry, etc., have given rise to a revolution in heritage documentation and restoration, as well as facilitating a huge qualitative leap for the analysis of Gothic vaults, enabling studies of historical architecture that until now were inaccessible. A comprehensive survey was carried out to be able to analyse European sexpartite vaults. We could thus create an exploded view, which enabled us to obtain the form of each of the elements; tas-de-charges, voussoirs, keystones and severies. The data gathered provided previously unknown facts that enabled us to make an in-depth study of stereotomy and construction. Furthermore, the main sexpartite vaults still preserved in Europe have been identified and categorised. The studies undertaken allowed us to affirm that the sexpartite vault appeared in France in the second half of the twelfth century, being used in the main French cathedrals, such as Notre Dame de Paris, Bourges or Laon. At the beginning of the thirteenth century it fell into disuse in France and began to expand throughout the rest of Europe, where it was abandoned half a century later, disappearing from European Gothic for good. While the examples dating back to the 12th century display poorly developed solutions more characteristic of the Romanesque, the vaults built in the 13th century reveal enormously complex solutions, with large tas-de-charges and intelligent construction and geometric strategies that allowed auxiliary support structures to be simplified, and gave more freedom to design. These vaults reflect the beginnings of Gothic stereotomy and by studying them we have been able to learn more about the development and evolution of Early Gothic architecture in Europe.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Nel sesso maschile il carcinoma della prostata (CaP) è la neoplasia più frequente ed è tra le prime cause di morte per tumore. Ad oggi, sono disponibili diverse strategie terapeutiche per il trattamento del CaP, ma, come comprovato dall’ancora alta mortalità, spesso queste sono inefficaci, a causa soprattutto dello sviluppo di fenomeni di resistenza da parte delle cellule tumorali. La ricerca si sta quindi focalizzando sulla caratterizzazione di tali meccanismi di resistenza e, allo stesso tempo, sull’individuazione di combinazioni terapeutiche che siano più efficaci e capaci di superare queste resistenze. Le cellule tumorali sono fortemente dipendenti dai meccanismi connessi con l’omeostasi proteica (proteostasi), in quanto sono sottoposte a numerosi stress ambientali (ipossia, carenza di nutrienti, esposizione a chemioterapici, ecc.) e ad un’aumentata attività trascrizionale, entrambi fattori che causano un accumulo intracellulare di proteine anomale e/o mal ripiegate, le quali possono risultare dannose per la cellula e vanno quindi riparate o eliminate efficientemente. La cellula ha sviluppato diversi sistemi di controllo di qualità delle proteine, tra cui gli chaperon molecolari, il sistema di degradazione associato al reticolo endoplasmatico (ERAD), il sistema di risposta alle proteine non ripiegate (UPR) e i sistemi di degradazione come il proteasoma e l’autofagia. Uno dei possibili bersagli in cellule tumorali secretorie, come quelle del CaP, è rappresentato dal reticolo endoplasmatico (RE), organello intracellulare deputato alla sintesi, al ripiegamento e alle modificazioni post-traduzionali delle proteine di membrana e secrete. Alterazioni della protestasi a livello del RE inducono l’UPR, che svolge una duplice funzione nella cellula: primariamente funge da meccanismo omeostatico e di sopravvivenza, ma, quando l’omeostasi non è più ripristinabile e lo stimolo di attivazione dell’UPR cronicizza, può attivare vie di segnalazione che conducono alla morte cellulare programmata. La bivalenza, tipica dell’UPR, lo rende un bersaglio particolarmente interessante per promuovere la morte delle cellule tumorali: si può, infatti, sfruttare da una parte l’inibizione di componenti dell’UPR per abrogare i meccanismi adattativi e di sopravvivenza e dall’altra si può favorire il sovraccarico dell’UPR con conseguente induzione della via pro-apoptotica. Le catechine del tè verde sono composti polifenolici estratti dalle foglie di Camellia sinesis che possiedono comprovati effetti antitumorali: inibiscono la proliferazione, inducono la morte di cellule neoplastiche e riducono l’angiogenesi, l’invasione e la metastatizzazione di diversi tipi tumorali, tra cui il CaP. Diversi studi hanno osservato come il RE sia uno dei bersagli molecolari delle catechine del tè verde. In particolare, recenti studi del nostro gruppo di ricerca hanno messo in evidenza come il Polyphenon E (estratto standardizzato di catechine del tè verde) sia in grado, in modelli animali di CaP, di causare un’alterazione strutturale del RE e del Golgi, un deficit del processamento delle proteine secretorie e la conseguente induzione di uno stato di stress del RE, il quale causa a sua volta l’attivazione delle vie di segnalazione dell’UPR. Nel presente studio su due diverse linee cellulari di CaP (LNCaP e DU145) e in un nostro precedente studio su altre due linee cellulari (PNT1a e PC3) è stato confermato che il Polyphenon E è capace di indurre lo stress del RE e di determinare l’attivazione delle vie di segnalazione dell’UPR, le quali possono fungere da meccanismo di sopravvivenza, ma anche contribuire a favorire la morte cellulare indotta dalle catechine del tè verde (come nel caso delle PC3). Considerati questi effetti delle catechine del tè verde in qualità di induttori dell’UPR, abbiamo ipotizzato che la combinazione di questi polifenoli bioattivi e degli inibitori del proteasoma, anch’essi noti attivatori dell’UPR, potesse comportare un aggravamento dell’UPR stesso tale da innescare meccanismi molecolari di morte cellulare programmata. Abbiamo quindi studiato l’effetto di tale combinazione in cellule PC3 trattate con epigallocatechina-3-gallato (EGCG, la principale tra le catechine del tè verde) e due diversi inibitori del proteasoma, il bortezomib (BZM) e l’MG132. I risultati hanno dimostrato, diversamente da quanto ipotizzato, che l’EGCG quando associato agli inibitori del proteasoma non produce effetti sinergici, ma che anzi, quando viene addizionato al BZM, causa una risposta simil-antagonistica: si osserva infatti una riduzione della citotossicità e dell’effetto inibitorio sul proteasoma (accumulo di proteine poliubiquitinate) indotti dal BZM, inoltre anche l’induzione dell’UPR (aumento di GRP78, p-eIF2α, CHOP) risulta ridotta nelle cellule trattate con la combinazione di EGCG e BZM rispetto alle cellule trattate col solo BZM. Gli stessi effetti non si osservano invece nelle cellule PC3 trattate con l’EGCG in associazione con l’MG132, dove non si registra alcuna variazione dei parametri di vitalità cellulare e dei marcatori di inibizione del proteasoma e di UPR (rispetto a quelli osservati nel singolo trattamento con MG132). Essendo l’autofagia un meccanismo compensativo che si attiva in seguito all’inibizione del proteasoma o allo stress del RE, abbiamo valutato che ruolo potesse avere tale meccanismo nella risposta simil-antagonistica osservata in seguito al co-trattamento con EGCG e BZM. I nostri risultati hanno evidenziato, in cellule trattate con BZM, l’attivazione di un flusso autofagico che si intensifica quando viene addizionato l’EGCG. Tramite l’inibizione dell’autofagia mediante co-somministrazione di clorochina, è stato possibile stabilire che l’autofagia indotta dall’EGCG favorisce la sopravvivenza delle cellule sottoposte al trattamento combinato tramite la riduzione dell’UPR. Queste evidenze ci portano a concludere che per il trattamento del CaP è sconsigliabile associare le catechine del tè verde con il BZM e che in futuri studi di combinazione di questi polifenoli con composti antitumorali sarà importante valutare il ruolo dell’autofagia come possibile meccanismo di resistenza.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’allevamento in cattività dei rettili è in costante crescita negli ultimi anni e richiede conoscenze mediche sempre più specialistiche per far fronte ai numerosi problemi legati a questi animali. Il corretto approccio medico prevede una profonda conoscenza delle specie prese in esame dal momento che la maggior parte delle problematiche riproduttive di questi animali sono legate ad una non corretta gestione dei riproduttori. L’apparato riproduttore dei rettili è estremamente vario a seconda delle specie prese in considerazione. Sauri ed ofidi possiedono due organi copulatori denominati emipeni e posizionati alla base della coda caudalmente alla cloaca che vengono estroflessi alternativamente durante l’accoppiamento per veicolare lo spera all’interno della cloaca della femmina. In questi animali il segmento posteriore renale è chiamato segmento sessuale, perché contribuisce alla formazione del fluido seminale. Tale porzione, durante la stagione dell’accoppiamento, diventa più voluminosa e cambia drasticamente colore, tanto che può essere confusa con una manifestazione patologica. I cheloni al contrario possiedono un unico pene che non viene coinvolto nella minzione. In questi animali. I testicoli sono due e sono situati all’interno della cavità celomatica in posizione cranioventrale rispetto ai reni. I testicoli possono variare notevolmente sia come forma che come dimensione a seconda del periodo dell’anno. Il ciclo estrale dei rettili è regolato, come pure nei mammiferi, dagli ormoni steroidei. La variazione di questi ormoni a livello ematico è stata studiato da diversi autori con il risultato di aver dimostrato come la variazione dei dosaggi degli stessi determini l’alternanza delle varie fasi del ciclo riproduttivo. La relazione tra presenza di uova (anche placentari) ed alti livelli di progesterone suggerisce che questo ormone gioca un ruolo importante nelle riproduzione delle specie ovipare per esempio stimolando la vascolarizzazione degli ovidutti durante i tre mesi in cui si ha lo sviluppo delle uova. Il 17-beta estradiolo è stato descritto come un ormone vitellogenico grazie alla sua capacità di promuovere lo sviluppo dei follicoli e la formazione di strati protettivi dell’uovo. L’aumento del livello di estradiolo osservato esclusivamente nelle femmine in fase vitellogenica è direttamente responsabile della mobilizzazione delle riserve materne in questa fase del ciclo. Va sottolineato come il progesterone sia in effetti un antagonista dell’estradiolo, riducendo la vitellogenesi e intensificando gli scambi materno fetali a livello di ovidutto. Le prostaglandine (PG) costituiscono un gruppo di molecole di origine lipidica biologicamente attive, sintetizzate sotto varie forme chimiche. Sono noti numerosi gruppi di prostaglandine ed è risputo che pesci, anfibi, rettili e mammiferi sintetizzano una o più prostaglandine partendo da acidi grassi precursori. Queste sostanze anche nei rettili agiscono sulla mucosa dell’utero aumentandone le contrazioni e sui corpi lutei determinandone la lisi. La maturità sessuale dei rettili, dipende principalmente dalla taglia piuttosto che dall’età effettiva dell’animale. In cattività, l’alimentazione e le cure dell’allevatore, possono giocare un ruolo fondamentale nel raggiungimento della taglia necessaria all’animale per maturare sessualmente. Spesso, un animale d’allevamento raggiunge prima la maturità sessuale rispetto ai suoi simili in natura. La maggior parte dei rettili sono ovipari, ovvero depongono uova con guscio sulla sabbia o in nidi creati appositamente. La condizione di ovoviviparità è riscontrabile in alcuni rettili. Le uova, in questo caso, vengono ritenute all’interno del corpo, fino alla nascita della progenie. Questa può essere considerata una strategia evolutiva di alcuni animali, che in condizioni climatiche favorevoli effettuano l’ovo deposizione, ma se il clima non lo permette, ritengono le uova fino alla nascita della prole. Alcuni serpenti e lucertole sono vivipari, ciò significa che l’embrione si sviluppa all’interno del corpo dell’animale e che è presente una placenta. I piccoli fuoriescono dal corpo dell’animale vivi e reattivi. La partenogenesi è una modalità di riproduzione asessuata, in cui si ha lo sviluppo dell’uovo senza che sia avvenuta la fecondazione. Trenta specie di lucertole e alcuni serpenti possono riprodursi con questo metodo. Cnemidophorus uniparens, C. velox e C. teselatus alternano la partenogenesi a una riproduzione sessuata, a seconda della disponibilità del maschio. La maggior parte dei rettili non mostra alcuna cura materna per le uova o per i piccoli che vengono abbandonati al momento della nascita. Esistono tuttavia eccezioni a questa regola generale infatti alcune specie di pitoni covano le uova fino al momento della schiusa proteggendole dai predatori e garantendo la giusta temperatura e umidità. Comportamenti di guardia al nido sono poi stati documentati in numerosi rettili, sia cheloni che sauri che ofidi. Nella maggior parte delle tartarughe, la riproduzione è legata alla stagione. Condizioni favorevoli, possono essere la stagione primaverile nelle zone temperate o la stagione umida nelle aree tropicali. In cattività, per riprodurre queste condizioni, è necessario fornire, dopo un periodo di ibernazione, un aumento del fotoperiodo e della temperatura. L’ atteggiamento del maschio durante il corteggiamento è di notevole aggressività, sia nei confronti degli altri maschi, con i quali combatte copiosamente, colpendoli con la corazza e cercando di rovesciare sul dorso l’avversario, sia nei confronti della femmina. Infatti prima della copulazione, il maschio insegue la femmina, la sperona, la morde alla testa e alle zampe e infine la immobilizza contro un ostacolo. Il comportamento durante la gravidanza è facilmente riconoscibile. La femmina tende ad essere molto agitata, è aggressiva nei confronti delle altre femmine e inizia a scavare buche due settimane prima della deposizione. La femmina gravida costruisce il nido in diverse ore. Scava, con gli arti anteriori, buche nel terreno e vi depone le uova, ricoprendole di terriccio e foglie con gli arti posteriori. A volte, le tartarughe possono trattenere le uova, arrestando lo sviluppo embrionale della prole per anni quando non trovano le condizioni adatte a nidificare. Lo sperma, inoltre, può essere immagazzinato nell’ovidotto fino a sei anni, quindi la deposizione di uova fertilizzate può verificarsi senza che sia avvenuto l’accoppiamento durante quel ciclo riproduttivo. I comportamenti riproduttivi di tutte le specie di lucertole dipendono principalmente dalla variazione stagionale, correlata al cambiamento di temperatura e del fotoperiodo. Per questo, se si vuole far riprodurre questi animali in cattività, è necessario valutare per ogni specie una temperatura e un’illuminazione adeguata. Durante il periodo riproduttivo, un atteggiamento caratteristico di diverse specie di lucertole è quello di riprodurre particolari danze e movimenti ritmici della testa. In alcune specie, possiamo notare il gesto di estendere e retrarre il gozzo per mettere in evidenza la sua brillante colorazione e richiamare l’attenzione della femmina. L’aggressività dei maschi, durante la stagione dell’accoppiamento, è molto evidente, in alcuni casi però, anche le femmine tendono ad essere aggressive nei confronti delle altre femmine, specialmente durante l’ovo deposizione. La fertilizzazione è interna e durante la copulazione, gli spermatozoi sono depositati nella porzione anteriore della cloaca femminile, si spostano successivamente verso l’alto, dirigendosi nell’ovidotto, in circa 24-48 ore; qui, fertilizzano le uova che sono rilasciate nell’ovidotto dall’ovario. Negli ofidi il corteggiamento è molto importante e i comportamenti durante questa fase possono essere diversi da specie a specie. I feromoni specie specifici giocano un ruolo fondamentale nell’attrazione del partner, in particolar modo in colubridi e crotalidi. La femmina di queste specie emette una traccia odorifera, percepita e seguita dal maschio. Prima dell’accoppiamento, inoltre, il maschio si avvicina alla femmina e con la sua lingua bifida o con il mento, ne percorre tutto il corpo per captare i feromoni. Dopo tale comportamento, avviene la copulazione vera e propria con la apposizione delle cloache; gli emipeni vengono utilizzati alternativamente e volontariamente dal maschio. Durante l’ovulazione, il serpente aumenterà di volume nella sua metà posteriore e contrazioni muscolari favoriranno lo spostamento delle uova negli ovidotti. In generale, se l’animale è oviparo, avverrà una muta precedente alla ovo deposizione, che avviene prevalentemente di notte. Gli spermatozoi dei rettili sono morfologicamente simili a quelli di forme superiori di invertebrati. La fecondazione delle uova, da parte di spermatozoi immagazzinati nel tratto riproduttivo femminile, è solitamente possibile anche dopo mesi o perfino anni dall’accoppiamento. La ritenzione dei gameti maschili vitali è detta amphigonia retardata e si ritiene che questa caratteristica offra molti benefici per la sopravvivenza delle specie essendo un adattamento molto utile alle condizioni ambientali quando c’è una relativa scarsità di maschi conspecifici disponibili. Nell’allevamento dei rettili in cattività un accurato monitoraggio dei riproduttori presenta una duplice importanza. Permette di sopperire ad eventuali errori di management nel caso di mancata fertilizzazione e inoltre permette di capire quale sia il grado di sviluppo del prodotto del concepimento e quindi di stabilire quale sia il giorno previsto per la deposizione. Le moderne tecniche di monitoraggio e l’esperienza acquisita in questi ultimi anni permettono inoltre di valutare in modo preciso lo sviluppo follicolare e quindi di stabilire quale sia il periodo migliore per l’accoppiamento. Il dimorfismo sessuale nei serpenti è raro e anche quando presente è poco evidente. Solitamente nei maschi, la coda risulta essere più larga rispetto a quella della femmina in quanto nel segmento post-cloacale vi sono alloggiati gli emipeni. Il maschio inoltre, è generalmente più piccolo della femmina a parità di età. Molti cheloni sono sessualmente dimorfici sebbene i caratteri sessuali secondari siano poco apprezzabili nei soggetti giovani e diventino più evidenti dopo la pubertà. In alcune specie si deve aspettare per più di 10 anni prima che il dimorfismo sia evidente. Le tartarughe di sesso maschile tendono ad avere un pene di grosse dimensioni che può essere estroflesso in caso di situazioni particolarmente stressanti. I maschi sessualmente maturi di molte specie di tartarughe inoltre tendono ad avere una coda più lunga e più spessa rispetto alle femmine di pari dimensioni e la distanza tra il margine caudale del piastrone e l’apertura cloacale è maggiore rispetto alle femmine. Sebbene la determinazione del sesso sia spesso difficile nei soggetti giovani molti sauri adulti hanno dimorfismo sessuale evidente. Nonostante tutto comunque anche tra i sauri esistono molte specie come per esempio Tiliqua scincoides, Tiliqua intermedia, Gerrhosaurus major e Pogona vitticeps che anche in età adulta non mostrano alcun carattere sessuale secondario evidente rendendone molto difficile il riconoscimento del sesso. Per garantire un riconoscimento del sesso degli animali sono state messe a punto diverse tecniche di sessaggio che variano a seconda della specie presa in esame. L’eversione manuale degli emipeni è la più comune metodica utilizzata per il sessaggio dei giovani ofidi ed in particolare dei colubridi. I limiti di questa tecnica sono legati al fatto che può essere considerata attendibile al 100% solo nel caso di maschi riconosciuti positivi. L’eversione idrostatica degli emipeni esattamente come l’eversione manuale degli emipeni si basa sull’estroflessione di questi organi dalla base della coda, pertanto può essere utilizzata solo negli ofidi e in alcuni sauri. La procedura prevede l’iniezione di fluido sterile (preferibilmente soluzione salina isotonica) nella coda caudalmente all’eventuale posizione degli emipeni. Questa tecnica deve essere eseguita solo in casi eccezionali in quanto non è scevra da rischi. L’utilizzo di sonde cloacali è il principale metodo di sessaggio per gli ofidi adulti e per i sauri di grosse dimensioni. Per questa metodica si utilizzano sonde metalliche dello spessore adeguato al paziente e con punta smussa. Nei soggetti di genere maschile la sonda penetra agevolmente al contrario di quello che accade nelle femmine. Anche gli esami radiografici possono rendersi utili per il sessaggio di alcune specie di Varani (Varanus achanturus, V. komodoensis, V. olivaceus, V. gouldi, V. salvadorii ecc.) in quanto questi animali possiedono zone di mineralizzazione dei tessuti molli (“hemibacula”) che possono essere facilmente individuate nei maschi. Diversi studi riportano come il rapporto tra estradiolo e androgeni nel plasma o nel liquido amniotico sia un possibile metodo per identificare il genere sessuale delle tartarughe. Per effettuare il dosaggio ormonale, è necessario prelevare un campione di sangue di almeno 1 ml ad animale aspetto che rende praticamente impossibile utilizzare questo metodo di sessaggio nelle tartarughe molto piccole e nei neonati. L’ecografia, volta al ritrovamento degli emipeni, sembra essere un metodo molto preciso, per la determinazione del sesso nei serpenti. Uno studio compiuto presso il dipartimento di Scienze Medico Veterinarie dell’Università di Parma, ha dimostrato come questo metodo abbia una sensibilità, una specificità e un valore predittivo positivo e negativo pari al 100%. La radiografia con mezzo di contrasto e la tomografia computerizzata possono essere utilizzate nel sessaggio dei sauri, con buoni risultati. Uno studio, compiuto dal dipartimento di Scienze Medico Veterinarie, dell’Università di Parma, ha voluto mettere a confronto diverse tecniche di sessaggio nei sauri, tra cui l’ecografia, la radiografia con e senza mezzo di contrasto e la tomografia computerizzata con e senza mezzo di contrasto. I risultati ottenuti, hanno dimostrato come l’ecografia non sia il mezzo più affidabile per il riconoscimento degli emipeni e quindi del sesso dell’animale, mentre la radiografia e la tomografia computerizza con mezzo di contrasto siano tecniche affidabili e accurate in queste specie. Un metodo valido e facilmente realizzabile per il sessaggio dei cheloni anche prepuberi è la cistoscopia. In un recente studio la cistoscopia è stata effettuata su quindici cheloni deceduti e venticinque cheloni vivi, anestetizzati. In generale, questo metodo si è dimostrato non invasivo per le tartarughe, facilmente ripetibile in diversi tipi di tartarughe e di breve durata. Tra le principali patologie riproduttive dei rettili le distocie sono sicuramente quelle che presentano una maggior frequenza. Quando si parla di distocia nei rettili, si intendono tutte quelle situazioni in cui si ha una mancata espulsione e deposizione del prodotto del concepimento entro tempi fisiologici. Questa patologia è complessa e può dipendere da diverse cause. Inoltre può sfociare in malattie sistemiche a volte molto severe. Le distocie possono essere classificate in ostruttive e non ostruttive in base alle cause. Si parla di distocia ostruttiva quando si verificano delle condizioni per cui viene impedito il corretto passaggio delle uova lungo il tratto riproduttivo (Fig.13). Le cause possono dipendere dalla madre o dalle caratteristiche delle uova. Nel caso di distocia non ostruttiva le uova rinvenute sono solitamente di dimensioni normali e la conformazione anatomica della madre è fisiologica. L’eziologia è da ricercare in difetti comportamentali, ambientali e patologici. Non esistono sintomi specifici e patognomonici di distocia. La malattia diviene evidente e conclamata solamente in presenza di complicazioni. Gli approcci terapeutici possibili sono vari a seconda della specie animale e della situazione. Fornire un’area adeguata per la nidiata: se la distocia non è ostruttiva si può cercare di incoraggiare l’animale a deporre autonomamente le uova creando un idoneo luogo di deposizione. Il trattamento medico prevede la stimolazione della deposizione delle uova ritenute mediante l’induzione con ossitocina. L’ossitocina viene somministrata alle dosi di 1/3 UI/kg per via intramuscolare. Uno studio condotto presso l’Università veterinaria di Parma ha comparato le somministrazioni di ossitocina per via intramuscolare e per via intravenosa, confrontando le tempistiche con le quali incominciano le contrazioni e avviene la completa ovodeposizione e dimostrando come per via intravenosa sia possibile somministrare dosi più basse rispetto a quelle riportate solitamente in letteratura ottenendo comunque un ottimo risultato. Nel caso in cui il trattamento farmacologico dovesse fallire o non fosse attuabile, oppure in casi di distocia ostruttiva è possibile ricorrere alla chirurgia. Per stasi follicolare si intende la incapacità di produrre sufficiente quantità di progesterone da corpi lutei perfettamente funzionanti. Come per la distocia, l’eziologia della stasi follicolare è variegata e molto ampia: le cause possono essere sia ambientali che patologiche. La diagnosi clinica viene fatta essenzialmente per esclusione. Come per la distocia, anche in questo caso l’anamnesi e la raccolta del maggior quantitativo di informazioni è fondamentale per indirizzarsi verso il riconoscimento della patologia. Per prolasso si intende la fuoriuscita di un organo attraverso un orifizio del corpo. Nei rettili, diversi organi possono prolassare attraverso la cloaca: la porzione terminale dell’apparato gastroenterico, la vescica urinaria, il pene nel maschio (cheloni) e gli ovidutti nella femmina. In sauri e ofidi gli emipeni possono prolassare dalle rispettive tasche in seguito ad eccesiva attività sessuale97. La corretta identificazione del viscere prolassato è estremamente importante e deve essere effettuata prima di decidere qualsiasi tipologia di trattamento ed intervento. Nei casi acuti e non complicati è possibile la riduzione manuale dell’organo, dopo un accurato lavaggio e attenta pulizia. Se questo non dovesse essere possibile, l’utilizzo di lubrificanti e pomate antibiotiche garantisce all’organo una protezione efficiente. Nel caso in cui non si sia potuto intervenire celermente e l’organo sia andato incontro a infezione e congestione venosa prolungata con conseguente necrosi, l’unica soluzione è l’amputazione

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Nel Capitolo I abbiamo osservato come la legittimazione abbia per oggetto la fonte di produzione del diritto, mentre la legalità l’atto emanato dalla fonte nell’esercizio del potere. La legittimazione è fondamento del potere, attiene alla sua titolarità e giustifica l’obbedienza e l’uso della forza. La legalità si riferisce all’esercizio del potere, regolandolo. Si è visto come «quando si esige la legittimazione del potere, si chiede che colui che lo detiene abbia il diritto di averlo. Quando si invoca la legalità del potere, si domanda che chi lo detiene lo eserciti non secondo il proprio capriccio ma in conformità di regole stabilite ed entro i limiti di queste. Il contrario del potere legittimo è il potere di fatto, il contrario del potere legale è il potere arbitrario» . Si è poi precisato che legittimazione e legalità sono i fondamenti alla base dello Stato democratico: laddove non v’è legittimazione non vi può essere neppure democrazia, distinguendo la legittimazione formale, che riguarda chi è legittimato ad agire, ad esercitare il potere, compiendo atti giuridici prescrittivi; dalla legittimazione sostanziale, che riguarda invece che cosa non può e che cosa non può non essere deciso, ossia i limiti e i vincoli imposti all’esercizio del potere . La legittimazione è però presente in tutte le forme di Stato, tanto in quelli autoritari, quanto in quelli democratici. Ciò che distingue tra autoritarietà e democraticità dello Stato è il tipo di atto attraverso il quale si manifesta la legittimazione del potere. Il potere autoritario riceve la propria legittimazione attraverso atti di fede, quello democratico con atti di fiducia. Gli atti di fede possono solo essere spezzati, rotti. Al contrario, gli atti di fiducia possono essere rinnovati o revocati, e pertanto hanno bisogno di norme legali che ne regolino il funzionamento. In tal senso, modelli autoritari e democratici differiscono ulteriormente: nei primi, legittimato il potere, è legittimo tutto ciò che di esso è manifestazione; si può dire che la legittimazione resta tutta assorbita nella legalità. Diversamente, nei modelli democratici, è necessario vi siano norme che disciplinano quell’atto di fiducia legittimante il potere, ma non solo, ve ne devono anche essere altre che regolino l’esercizio del potere stesso. Non solo, ma la legittimazione per essere democratica deve avvenire periodicamente e ha bisogno di un pubblico attivo, informato, consapevole dei suoi diritti, perché è la democrazia ad aver bisogno di un pubblico, di un consenso sociale, che attraverso la propria legittimazione del potere controlli chi quel potere è chiamato ad esercitarlo. Si comprende, allora, perché il principio di legalità in sé e per sé non può garantire la democrazia. Esso garantisce la conformità alla legge, la non arbitrarietà nell’esercizio del potere, ma nulla dice su chi quella legge ha il potere di emanarla, e infatti l’art. 1 del Codice Rocco, durante il fascismo, non garantiva certo le libertà democratiche. Allo stesso modo, la legittimazione sociale in sé e per sé non garantisce la democrazia, perché anche forme di Stato autoritarie, plebiscitarie, hanno un consenso sociale che le sorregge e legittima tutto ciò che chi esercita il potere decide di fare, almeno fino a quando continuano ad avervi fede. Nel Capitolo II abbiamo mostrato come, attraverso la riserva di legge, la Costituzione garantisca entrambi i fondamenti democratici: quello della legalità nell’esercizio della potestà punitiva e quello della legittimazione del Parlamento che la esercita. Dunque, legalità e legittimazione periodica sono un binomio indissolubile, perché possa aversi uno Stato democratico; inoltre è necessario che l’esercizio del potere avvenga “in pubblico” e che l’opinione pubblica abbia una coscienza critica che le consenta di valutare e orientare le proprie scelte. È stato poi sostenuto nel Capitolo III come lo stesso Parlamento non possa – in democrazia – essere libero di sanzionare con pena tutto ciò che vuole, ma sia vincolato direttamente dalla Costituzione rigida e almeno indirettamente dal consenso sociale, che dovrebbe impedire che sia trasformato in illecito penale tutto ciò per la collettività non dovrebbe essere sanzionato come tale. In questo l’informazione, attraverso i mezzi di comunicazione, rappresenta un postulato necessario per ogni modello democratico in grado di influenzare i cittadini nella percezione della realtà. In quest’ultimo Capitolo IV, infine, abbiamo messo in luce come una distorta percezione della realtà, da parte del consenso sociale, alteri “patologicamente” la legittimazione democratica, facendole perdere ogni sua funzione di garanzia nel delimitare il potere politico.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’utilizzo di nanomateriali, ovvero una nuova classe di sostanze composte da particelle ultrafini con dimensioni comprese fra 1 e 100 nm (American Society for Testing Materials - ASTM), è in costante aumento a livello globale. La particolarità di tali sostanze è rappresentata da un alto rapporto tra la superficie e il volume delle particelle, che determina caratteristiche chimico-fisiche completamente differenti rispetto alle omologhe macrosostanze di riferimento. Tali caratteristiche sono tali da imporre una loro classificazione come nuovi agenti chimici (Royal Society & Royal Academy of Engineering report 2004). Gli impieghi attuali dei nanomateriali risultano in continua evoluzione, spaziando in diversi ambiti, dall’industria farmaceutica e cosmetica, all’industria tessile, elettronica, aerospaziale ed informatica. Diversi sono anche gli impieghi in campo biomedico; tra questi la diagnostica e la farmacoterapia. È quindi prevedibile che in futuro una quota sempre maggiore di lavoratori e consumatori risulteranno esposti a tali sostanze. Allo stato attuale non vi è una completa conoscenza degli effetti tossicologici ed ambientali di queste sostanze, pertanto, al fine di un loro utilizzo in totale sicurezza, risulta necessario capirne meglio l’impatto sulla salute, le vie di penetrazione nel corpo umano e il rischio per i lavoratori conseguente al loro utilizzo o lavorazione. La cute rappresenta la prima barriera nei confronti delle sostanze tossiche che possono entrare in contatto con l’organismo umano. Successivamente agli anni ‘60, quando si riteneva che la cute rappresentasse una barriera totalmente impermeabile, è stato dimostrato come essa presenti differenti gradi di permeabilità nei confronti di alcuni xenobiotici, dipendente dalle caratteristiche delle sostanze in esame, dal sito anatomico di penetrazione, dal grado di integrità della barriera stessa e dall’eventuale presenza di patologie della cute. La mucosa del cavo orale funge da primo filtro nei confronti delle sostanze che entrano in contatto con il tratto digestivo e può venir coinvolta in contaminazioni di superficie determinate da esposizioni occupazionali e/o ambientali. È noto che, rispetto alla cute, presenti una permeabilità all’acqua quattro volte maggiore, e, per tale motivo, è stata studiata come via di somministrazione di farmaci, ma, ad oggi, pochi sono gli studi che ne hanno valutato le caratteristiche di permeazione nei confronti delle nanoparticelle (NPs). Una terza importante barriera biologica è quella che ricopre il sistema nervoso centrale, essa è rappresentata da tre foglietti di tessuto connettivo, che assieme costituiscono le meningi. Questi tre foglietti rivestono completamente l’encefalo permettendone un isolamento, tradizionalmente ritenuto completo, nei confronti degli xenobiotici. L’unica via di assorbimento diretto, in questo contesto, è rappresentata dalla via intranasale. Essa permette un passaggio diretto di sostanze dall’epitelio olfattivo all’encefalo, eludendo la selettiva barriera emato-encefalica. Negli ultimi anni la letteratura scientifica si è arricchita di studi che hanno indagato le caratteristiche di assorbimento di farmaci attraverso questa via, ma pochissimi sono gli studi che hanno indagato la possibile penetrazione di nanoparticelle attraverso questa via, e nessuno, in particolar modo, ha indagato le caratteristiche di permeazione delle meningi. L’attività di ricerca svolta nell’ambito del presente dottorato ha avuto per finalità l’indagine delle caratteristiche di permeabilità e di assorbimento della cute, della mucosa del cavo orale e delle meningi nei confronti di alcune nanoparticelle, scelte fra quelle più rappresentative in relazione alla diffusione d’utilizzo a livello globale. I risultati degli esperimenti condotti hanno dimostrato, in vitro, che l’esposizione cutanea a Pt, Rh, Co3O4 e Ni NPs determinano permeazione in tracce dei medesimi metalli attraverso la cute, mentre per le TiO2 NPs tale permeazione non è stata dimostrata. È stato riscontrato, inoltre, che la mucosa del cavo orale e le meningi sono permeabili nei confronti dell’Ag in forma nanoparticellare.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El arrecife artificial de Tabarca se diseñó e instaló principalmente con el objetivo de impedir la pesca de arrastre ilegal sobre las praderas de Posidonia oceanica. Además se diseñó un arrecife alveolar experimental para estudiar sus efectos sobre la ictiofauna litoral y sus posibilidades como lugar de pesca alternativo a la flota artesanal de Tabarca. La ictiofauna asociada al arrecife artificial de Tabarca se estudió mediante censos visuales durante tres años consecutivos entre 1990 y 1992, con una frecuencia estacional. Los resultados muestran una estructura de la comunidad condicionada por el diseño y emplazamiento de los módulos. La dinámica temporal manifiesta una clara diferencia según consideremos el poblamiento total o sólo el residente: el primero refleja una pauta muy fluctuante, poco predecible; el poblamiento residente muestra una tendencia hacia la estructuración, con un aumento progresivo de especies sedentarias predadoras, y un incremento significativo de la biomasa. Estos resultados refuerzan las interpretaciones que dan un papel condicionante al tamaño del arrecife artificial y a su localización.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La Vega Baja del Segura (Alicante) se caracteriza por la baja resistencia portante de los suelos y en consecuencia por las grandes deformaciones que sufren las construcciones que sobre ellos se levantan. La gran demanda turística de vías de comunicación con la costa sur de la provincia de Alicante ha obligado a construir diversas carreteras cuyos terraplenes alcanzan alturas superiores a los 8 m, así como deformaciones decimétricas y en algunos casos excepcionales de magnitud métrica. Las líneas continuas de asiento es una técnica innovadora que se lleva utilizando durante algunos años en la Vega Baja y que evita los laboriosos procedimientos de auscultación topográfica, sirviendo de instrumento de seguimiento geométrico de los mismos y permitiendo la representación gráfica del terraplén original y de su deformada. Esta técnica permite además a la Administración establecer los volúmenes de tierra necesarios para compensar el hundimiento de los terraplenes de forma exacta. Con el presente trabajo se pretende dar a conocer la metodología de las líneas continuas de asientos, así como mostrar algún ejemplo real de aplicación de las mismas, mostrando la evolución geométrica del terraplén en el tiempo y mostrando el procedimiento de cálculo de volúmenes.