1000 resultados para Densidad de plantación
Resumo:
La estimación de la biomasa de la vegetación terrestre en bosque tropical no sólo es un área de investigación en rápida expansión, sino también es un tema de gran interés para reducir las emisiones de carbono asociadas a la deforestación y la degradación forestal (REDD+). Las estimaciones de densidad de carbono sobre el suelo (ACD) en base a inventarios de campo y datos provenientes de sensores aerotransportados, en especial con sensores LiDAR, han conducido a un progreso sustancial en el cartografiado a gran escala de las reservas de carbono forestal. Sin embargo, estos mapas de carbono tienen incertidumbres considerables, asociadas generalmente al proceso de calibración del modelo de regresión utilizado para producir los mapas. En esta tesis se establece una metodología para la calibración y validación de un modelo general de estimación de ACD usando LiDAR en un sector del Parque Nacional Yasuní en Ecuador. En el proceso de calibración del modelo se considera el tamaño y la ubicación de las parcelas, la influencia de la topografía y la distribución espacial de la biomasa. Para el análisis de los datos se utilizan técnicas geoestadísticas en combinación con variables geomorfométricas derivadas de datos LiDAR, y se propone un esquema de muestreo estratificado por posiciones topográficas (valle, ladera y cima). La validación del modelo general para toda la zona de estudio presentó valores de RMSE = 5.81 Mg C ha-1, R2 = 0.94 y sesgo = 0.59, mientras que, al considerar las posiciones topográficas, el modelo presentó valores de RMSE = 1.67 Mg C ha-1, R2 = 0.98 y sesgo = 0.23 para el valle; RMSE = 3.13 Mg C ha-1, R2 = 0.98 y sesgo = - 0.34 para la ladera; y RMSE = 2.33 Mg C ha-1, R2 = 0.97 y sesgo = 0.74 para la cima. Los resultados obtenidos demuestran que la metodología de muestreo estratificado por posiciones topográficas propuesto, permite calibrar de manera efectiva el modelo general con las estimaciones de ACD en campo, logrando reducir el RMSE y el sesgo. Los resultados muestran el potencial de los datos LiDAR para caracterizar la estructura vertical de la vegetación en un bosque altamente diverso, permitiendo realizar estimaciones precisas de ACD, y conocer patrones espaciales continuos de la distribución de la biomasa aérea y del contenido de carbono en la zona de estudio. ABSTRACT Estimating biomass of terrestrial vegetation in tropical forest is not only a rapidly expanding research area, but also a subject of tremendous interest for reducing carbon emissions associated with deforestation and forest degradation (REDD+). The aboveground carbon density estimates (ACD) based on field inventories and airborne sensors, especially LiDAR sensors have led to a substantial progress in large-scale mapping of forest carbon stocks. However, these carbon maps have considerable uncertainties generally associated with the calibration of the regression model used to produce these maps. This thesis establishes a methodology for calibrating and validating a general ACD estimation model using LiDAR in Ecuador´s Yasuní National Park. The size and location of the plots are considered in the model calibration phase as well as the influence of topography and spatial distribution of biomass. Geostatistical analysis techniques are used in combination with geomorphometrics variables derived from LiDAR data, and then a stratified sampling scheme considering topographic positions (valley, slope and ridge) is proposed. The validation of the general model for the study area showed values of RMSE = 5.81 Mg C ha-1, R2 = 0.94 and bias = 0.59, while considering the topographical positions, the model showed values of RMSE = 1.67 Mg C ha-1, R2 = 0.98 and bias = 0.23 for the valley; RMSE = 3.13 Mg C ha-1, R2 = 0.98 and bias = - 0.34 for the slope; and RMSE = 2.33 Mg C ha-1, R2 = 0.97 and bias = 0.74 for the ridge. The results show that the stratified sampling methodology taking into account topographic positions, effectively calibrates the general model with field estimates of ACD, reducing RMSE and bias. The results show the potential of LiDAR data to characterize the vertical structure of vegetation in a highly diverse forest, allowing accurate estimates of ACD, and knowing continuous spatial patterns of biomass distribution and carbon stocks in the study area.
Resumo:
Se ha procedido al análisis estadístico de un banco de datos de algo más de nueve mil probetas de tamaño estructural ensayadas a lo largo de la década final del s. XX y la inicial del s. XXI, provenientes de masas forestales de coníferas españolas. Las especies estudiadas (pinus sylsvestris, p. halepensis, p. pinaster, p. radiata, p. nigra) representan más del 80% de la superficie forestal española cubierta por coníferas, y ninguna especie de relevancia por volumen potencial de corta a medio plazo ha quedado excluida (quizá con la única excepción de p. pinea, y, con matices juniperus thurifera). Por lo tanto, puede considerarse una información razonablemente representativa de la población de coníferas españolas (en adelante, población objetivo), si bien los procedimientos de muestreo presentan marcadas diferencias en función de las especies. Los procedimientos de ensayo se han atenido, esencialmente, a la normativa europea de referencia, así como a la normativa española de clasificación de madera aserrada, básicamente UNE 56544, con los matices propios de las sucesivas ediciones de las indicadas normas durante un período de unos veinte años. El estudio se ha realizado con el objeto de caracterizar el estado de naturaleza de los principales parámetros resistentes la población objetivo (densidad, módulo de elasticidad longitudinal, y tensión de rotura en flexión pura), así como identificar posibles inconsistencias en la normativa vigente relacionada. Los resultados se han elaborado de forma operativa para su utilización, en una primera aproximación, en la ejecución de cálculos directos de fiabilidad estructural, tal como se plantean en las normativas ISO 2394, ISO 12491, ISO 13822, UNE EN 1990, Código Técnico de la Edificación español y Código Modelo Probabilístico. Inequívocamente, las variables resistentes de referencia de las coníferas españolas susceptibles de uso estructural presentan una variabilidad significativamente superior a la habitual en coníferas de origen en el Centro y Norte de Europa, así como en Norteamérica (en adelante, poblaciones de comparación). Esta diferencia es extrema en el caso de la resistencia, importante en el caso de la rigidez, y prácticamente testimonial en el caso de la densidad. Por otra parte, la rigidez y la densidad de la población objetivo es mucho mayor, para el mismo valor de la resistencia, que las de las poblaciones de comparación. Asimismo, las correlaciones entre las tres variables básicas son inferiores en la población objetivo respecto a la de comparación. Estos hechos llevan a que la aplicación del sistema de clases resistentes en uso conduzca a situaciones de dimensionado poco racionales, y marcadamente antieconómicas. Si bien el objeto del estudio no es el establecimiento de una “jerarquía” estructural de especies, sí deben subrayarse algunos aspectos particulares por especies. El p. nigra tiene los mayores valores centrales y los menores de dispersión de toda la población objetivo, y mayores valores centrales que cualquier referencia de la población de comparación: para la misma fiabilidad objetivo en supuestos habituales, en p.nigra puede ser necesario en torno a un 20% menos de volumen de madera que en p. sylvestris, y en torno a un 40% que en p. radiata . El p. radiata y el p. pinaster presentan los menores valores de centralidad y los mayores de dispersión, de toda la muestra objetivo en formatos aserrados (con la excepción de la densidad: el p. radiata presenta valores muy bajos, pero atípicamente baja variabilidad). Especies habitualmente “no consideradas” como el p. pinea, presentan valores notablemente altos de centralidad, especialmente en la variable densidad. Otro caso de interés es p. halepensis, con prestaciones estructurales muy elevadas, teniendo en cuenta la proveniencia de masas carentes de un manejo adecuado (a efectos de producción maderable). Al contrario que en las poblaciones de comparación, la densidad de las coníferas españolas se representa claramente por distribuciones lognormales, frente a las distribuciones normales que se consideran en la literatura para la misma variable básica. Esto no tiene consecuencias relevantes en la fiabilidad estructural de las uniones, debido a los bajos coeficientes de variación (entre el 10 y 13%, típicamente). Para la tensión de rotura en flexión, parece haber una marcada diferencia entre el tipo de distribución que representa a las poblaciones no clasificadas o rechazadas (que es claramente Lognormal) y la que representa a las poblaciones clasificadas (que parece ser de tipo Weibull de tres parámetros). La distinción va más allá de la sutileza matemática: si la distribución fuese lognormal para todos los casos, la ineficiencia de la aplicación del sistema de clases resistentes aún sería más acusada que lo anteriormente indicado. La distribución normal, sólo representa adecuadamente el estado de naturaleza del módulo de elasticidad y la tensión de rotura de maderas no escuadradas (cilindradas, descortezadas, o simplemente desramadas), y del módulo de elasticidad de las muestras rechazadas. Las coníferas no clasificadas, arrojan valores relativamente elevados de resistencia, lo que hace pensar en la conveniencia de la definición de un “protocolo de mínimos” para posibilitar su uso en el marco normativo actual. Se ha ejemplificado cómo de la aplicación de técnicas probabilísticas utilizando como fundamento los resultados del análisis realizado, resulta un ahorro material potencialmente notable en la población objetivo (en la horquilla del 30 al 60%, dependiendo del estado límite que gobierne el dimensionamiento), respecto a la aplicación directa de los protocolos normativos a partir de la aplicación de la norma de clasificación española. Complementariamente, se han elaborado modelos de variabilidad de los parámetros de las distribuciones propuestas, al objeto de facilitar la aplicación de técnicas de actualización bayesiana. Estas técnicas tienen particular relevancia en el entorno español, por dos razones. Una de ellas, es que suponen, de hecho, la única manera de tratar la cuestión de la seguridad de estructuras prexistentes en un marco matemático-formal consistente con la normativa. La otra, es que permiten la utilización de maderas procedentes de medios de producción con niveles de control de calidad mínimos, incluso casi inexistentes, con inversiones en coste de ensayos comparativamente irrelevantes. ABSTRACT A group of databases making a total of ca. 9.000 beams produced by sawing coniferous species from Spain, tested according EN 384 (1) and visually graded according Spanish standards were analyzed. The main goal was to reach a detailed comprehension about the true state of nature of the three reference structural properties (density, MOR and MOE), in the conditions the material reaches the real market. This goal has been addressed through the detailed adjustment of the proper probabilistic model to the data available. The most important outcome has been the proposal of a set of distribution parameters for the target species, ready to be used in direct probabilistic calculation. This use is exemplified through structural reliability calculations, establishing a priori data for Bayesian reliability updating, Spanish code calibration suggestions, and parameters proposal for the Probabilistic Model Code (2).
Resumo:
La competitividad del transporte de mercancías depende del estado y funcionamiento de las redes existentes y de sus infraestructuras, no del modo de transporte. En concreto, la rentabilidad o la reducción de los costes de producción del transporte marítimo se vería incrementado con el uso de buques de mayor capacidad y con el desarrollo de plataformas portuarias de distribución o puertos secos, ya que el 90% del comercio entre la Unión Europea y terceros países se realiza a través de sus puertos a un promedio de 3,2 billones de toneladas de mercancías manipuladas cada año y el 40% del tráfico intraeuropeo utiliza el transporte marítimo de corta distancia. A pesar de que los puertos europeos acogen anualmente a más de 400 millones de pasajeros, los grandes desarrollos se han producido en los puertos del norte de Europa (Róterdam, Amberes, Ámsterdam). Los países del Sur de Europa deben buscar nuevas fórmulas para ser más competitivos, ya sea mediante creación de nuevas infraestructuras o mediante refuerzo de las existentes, ofreciendo los costes de los puertos del Norte. El fomento del transporte marítimo y fluvial como alternativa al transporte por carretera, especialmente el transporte marítimo de corta distancia, ha sido impulsado por la Comisión Europea (CE) desde 2003 a través de programas de apoyo comunitario de aplicación directa a las Autopistas del Mar, a modo de ejemplo, cabría citar los programas Marco Polo I y II, los cuales contaron con una dotación presupuestaria total de 855 millones de euros para el período 2003 – 2013; en ese período de tiempo se establecieron objetivos de reducción de congestión vial y mejora del comportamiento medio ambiental del sistema de transporte de mercancías dentro de la comunidad y la potenciación de la intermodalidad. El concepto de Autopista del Mar surge en el Libro Blanco de Transportes de la Comisión Europea “La política europea de transportes de cara al 2010: La hora de la verdad” del 12 de diciembre de 2001, en el marco de una política europea para fomento y desarrollo de sistemas de transportes sostenibles. Las Autopistas del Mar consisten en rutas marítimas de corta distancia entre dos puntos, de menor distancia que por vía terrestre, en las que a través del transporte intermodal mejoran significativamente los tiempos y costes de la cadena logística, contribuyen a la reducción de accidentes, ruidos y emisiones de CO2 a la atmósfera, permite que los conductores pierdan horas de trabajo al volante y evita el deterioro de las infraestructuras terrestres, con el consiguiente ahorro en mantenimiento. La viabilidad de una Autopista del Mar depende tanto de factores de ubicación geográficos, como de características propias del puerto, pasando por los diferentes requerimientos del mercado en cada momento (energéticos, medio ambientales y tecnológicos). Existe un elemento nuevo creado por la Comisión Europea: la red transeuropea de transportes (RTE-T). En el caso de España, con sus dos accesos por los Pirineos (La Junquera e Irún) como únicos pasos terrestres de comunicación con el continente y con importantes limitaciones ferroviarias debido a los tres anchos de vía distintos, le resta competitividad frente al conjunto europeo; por el contrario, España es el país europeo con más kilómetros de costa (con más de 8.000 km) y con un emplazamiento geográfico estratégico, lo que le convierte en una plataforma logística para todo el sur de Europa, por lo que las Autopistas del Mar tendrán un papel importante y casi obligado para el desarrollo de los grandes corredores marítimos que promueve Europa. De hecho, Gijón y Vigo lo han hecho muy bien con sus respectivas líneas definidas como Autopistas del Mar y que conectan con el puerto francés de Nantes-Saint Nazaire, ya que desde ahí los camiones pueden coger rutas hacia el Norte. Paralelamente, la Unión Europea ha iniciado los pasos para el impulso de la primera Autopista del Mar que conectará España con el mercado de Reino Unido, concretamente los Puertos de Bilbao y Tilbury. Además, España e Italia sellaron un acuerdo internacional para desarrollar Autopistas del Mar entre ambos países, comprometiéndose a impulsar una docena de rutas entre puertos del litoral mediterráneo español y el italiano. Actualmente, están en funcionando los trayectos como Barcelona-Génova, Valencia-Civitavecchia y Alicante- Nápoles, notablemente más cortos por mar que por carretera. Bruselas identificó cuatro grandes corredores marítimos que podrían concentrar una alta densidad de tráfico de buques, y en dos de ellos España ya tenía desde un principio un papel crucial. La Comisión diseñó el 14 de abril de 2004, a través del proyecto West-Mos, una red de tráfico marítimo que tiene como vías fundamentales la denominada Autopista del Báltico (que enlaza Europa central y occidental con los países bálticos), la Autopista de Europa suroriental (que une el Adriático con el Jónico y el Mediterráneo más oriental) y también la Autopista de Europa occidental y la Autopista de Europa suroccidental (que enlazan España con Reino Unido y la Francia atlántica y con la Francia mediterránea e Italia, respectivamente). Para poder establecer Autopistas del Mar entre la Península Ibérica y el Norte de Europa primará especialmente la retirada de camiones en la frontera pirenaica, donde el tráfico pesado tiene actualmente una intensidad media diaria de 8.000 unidades, actuando sobre los puntos de mayor congestión, como por ejemplo los Alpes, los Pirineos, el Canal de la Mancha, las carreteras fronterizas de Francia y Euskadi, y proponiendo el traslado de las mercancías en barcos o en trenes. Por su parte, para contar con los subsidios y apoyos europeos las rutas seleccionadas como Autopistas del Mar deben mantener una serie de criterios de calidad relacionados con la frecuencia, coste “plataforma logística a plataforma logística”, simplicidad en procedimientos administrativos y participación de varios países, entre otros. Los estudios consideran inicialmente viables los tramos marítimos superiores a 450 millas, con un volumen de unas 15.000 plataformas al año y que dispongan de eficientes comunicaciones desde el puerto a las redes transeuropeas de autopistas y ferrocarril. Otro objetivo de las Autopistas del Mar es desarrollar las capacidades portuarias de forma que se puedan conectar mejor las regiones periféricas a escala del continente europeo. En lo que a Puertos se refiere, las terminales en los muelles deben contar con una línea de atraque de 250 m., un calado superior a 8 m., una rampa “ro-ro” de doble calzada, grúas portainer, y garantizar operatividad para un mínimo de dos frecuencias de carga semanales. El 28 de marzo de 2011 se publicó el segundo Libro Blanco sobre el futuro del transporte en Europa “Hoja de ruta hacia un espacio único europeo de transporte: por una política de transportes competitiva y sostenible”, donde se definió el marco general de las acciones a emprender en los próximos diez años en el ámbito de las infraestructuras de transporte, la legislación del mercado interior, la reducción de la dependencia del carbono, la tecnología para la gestión del tráfico y los vehículos limpios, así como la estandarización de los distintos mercados. Entre los principales desafíos se encuentran la eliminación de los cuellos de botella y obstáculos diversos de nuestra red europea de transporte, minimizar la dependencia del petróleo, reducir las emisiones de GEI en un 60% para 2050 con respecto a los niveles de 1990 y la inversión en nuevas tecnologías e infraestructuras que reduzcan estas emisiones de transporte en la UE. La conexión entre la UE y el norte de África provoca elevados niveles de congestión en los puntos más críticos del trayecto: frontera hispano-francesa, corredor del Mediterráneo y el paso del estrecho. A esto se le añade el hecho de que el sector del transporte por carretera está sujeto a una creciente competencia de mercado motivada por la eliminación de las barreras europeas, mayores exigencias de los cargadores, mayores restricciones a los conductores y aumento del precio del gasóleo. Por otro lado, el mercado potencial de pasajeros tiene una clara diferenciación en tipos de flujos: los flujos en el período extraordinario de la Operación Paso del Estrecho (OPE), enfocado principalmente a marroquíes que vuelven a su país de vacaciones; y los flujos en el período ordinario, enfocado a la movilidad global de la población. Por tanto, lo que se pretende conseguir con este estudio es analizar la situación actual del tráfico de mercancías y pasajeros con origen o destino la península ibérica y sus causas, así como la investigación de las ventajas de la creación de una conexión marítima (Autopista del Mar) con el Norte de África, basándose en los condicionantes técnicos, administrativos, económicos, políticos, sociales y medio ambientales. The competitiveness of freight transport depends on the condition and operation of existing networks and infrastructure, not the mode of transport. In particular, profitability could be increased or production costs of maritime transport could be reduced by using vessels with greater capacity and developing port distribution platforms or dry ports, seeing as 90% of trade between the European Union and third countries happens through its ports. On average 3,2 billion tonnes of freight are handled annualy and 40% of intra-European traffic uses Short Sea Shipping. In spite of European ports annually hosting more than 400 million passengers, there have been major developments in the northern European ports (Rotterdam, Antwerp, Amsterdam). Southern European countries need to find new ways to be more competitive, either by building new infrastructure or by strengthening existing infrastructure, offering costs northern ports. The use of maritime and river transport as an alternative to road transport, especially Short Sea Shipping, has been driven by the European Commission (EC) from 2003 through community support programs for the Motorways of the Sea. These programs include, for example, the Marco Polo I and II programs, which had a total budget of 855 million euros for the period 2003-2013. During this time objectives were set for reducing road congestion, improving the environmental performance of the freight transport system within the community and enhancing intermodal transport. The “Motorway of the Sea” concept arises in the European Commission’s Transport White Paper "European transport policy for 2010: time to decide" on 12 December 2001, as part of a European policy for the development and promotion of sustainable transport systems. A Motorway of the Sea is defined as a short sea route between two points, covering less distance than by road, which provides a significant improvement in intermodal transport times and to the cost supply chain. It contributes to reducing accidents, noise and CO2 emissions, allows drivers to shorten their driving time and prevents the deterioration of land infrastructure thereby saving on maintenance costs. The viability of a Motorway of the Sea depends as much on geographical location factors as on characteristics of the port, taking into account the different market requirements at all times (energy, environmental and technological). There is a new element created by the European Commission: the trans-European transport network (TEN-T). In the case of Spain, with its two access points in the Pyrenees (La Junquera and Irun) as the only land crossings connected to the mainland and major railway limitations due to the three different gauges, it appears less competitive compared to Europe as a whole. However, Spain is the European country with the most kilometers of coastline (over 8,000 km) and a strategic geographical location, which makes it a logistics platform for the all of Southern Europe. This is why the Motorways of the Sea will have an important role, and an almost necessary one to develop major maritime corridors that Europe supports. In fact, Gijon and Vigo have done very well with their respective sea lanes defined as Motorways of the Sea and which connect with the French port of Nantes-Saint Nazaire, as from there trucks can use nort-heading routes. In parallel, the European Union has taken the first steps to boost the first Motorway of the Sea linking Spain to the UK market, specifically the ports of Bilbao and Tilbury. Furthermore, Spain and Italy sealed an international agreement to develop Motorways of the Sea between both countries, pledging to develop a dozen routes between ports on the Spanish and Italian Mediterranean coasts. Currently, there are sea lanes already in use such as Barcelona-Genova, Valencia-Civitavecchia and Alicante-Naples, these are significantly shorter routes by sea than by road. Brussels identified four major maritime corridors that could hold heavy concentrate shipping traffic, and Spain had a crucial role in two of these from the beginning. On 14 April 2004 the Commission planned through the West-Mos project, a network of maritime traffic which includes the essential sea passages the so-called Baltic Motorway (linking Central and Western Europe with the Baltic countries), the southeast Europe Motorway (linking the Adriatic to the Ionian and eastern Mediterranean Sea), the Western Europe Motorway and southwestern Europe Motorway (that links Spain with Britain and the Atlantic coast of France and with the French Mediterranean coast and Italy, respectively). In order to establish Motorways of the Sea between the Iberian Peninsula and Northern Europe especially, it is necessary to remove trucks from the Pyrenean border, where sees heavy traffic (on average 8000 trucks per day) and addressing the points of greatest congestion, such as the Alps, the Pyrenees, the English Channel, the border roads of France and Euskadi, and proposing the transfer of freight on ships or trains. For its part, in order to receive subsidies and support from the European Commission, the routes selected as Motorways of the Sea should maintain a series of quality criteria related to frequency, costs "from logistics platform to logistics platform," simplicity in administrative procedures and participation of several countries, among others. To begin with, studies consider viable a maritime stretch of at least 450 miles with a volume of about 15,000 platforms per year and that have efficient connections from port to trans-European motorways and rail networks. Another objective of the Motorways of the Sea is to develop port capacity so that they can better connect peripheral regions across the European continent. Referring ports, the terminals at the docks must have a berthing line of 250 m., a draft greater than 8 m, a dual carriageway "ro-ro" ramp, portainer cranes, and ensure operability for a minimum of two loads per week. On 28 March 2011 the second White Paper about the future of transport in Europe "Roadmap to a Single European Transport Area – Towards a competitive and resource efficient transport system" was published. In this Paper the general framework of actions to be undertaken in the next ten years in the field of transport infrastructure was defined, including internal market legislation, reduction of carbon dependency, traffic management technology and clean vehicles, as well as the standardization of different markets. The main challenges are how to eliminate bottlenecks and various obstacles in our European transport network, minimize dependence on oil, reduce GHG emissions by 60% by 2050 compared to 1990 levels and encourage investment in new technologies and infrastructure that reduce EU transport emissions. The connection between the EU and North Africa causes high levels of congestion on the most critical points of the journey: the Spanish-French border, the Mediterranean corridor and Gibraltar Strait. In addition to this, the road transport sector is subject to increased market competition motivated by the elimination of European barriers, greater demands of shippers, greater restrictions on drivers and an increase in the price of diesel. On the other hand, the potential passenger market has a clear differentiation in type of flows: flows in the special period of the Crossing the Straits Operation (CSO), mainly focused on Moroccans who return home on vacation; and flows in the regular session, focused on the global mobile population. Therefore, what I want to achieve with this study is present an analysis of the current situation of freight and passengers to or from the Iberian Peninsula and their causes, as well as present research on the advantages of creating a maritime connection (Motorways of the Sea) with North Africa, based on the technical, administrative, economic, political, social and environmental conditions.
Resumo:
Los fieltros son una familia de materiales textiles constituidos por una red desordenada de fibras conectadas por medio de enlaces térmicos, químicos o mecánicos. Presentan menor rigidez y resistencia (al igual que un menor coste de procesado) que sus homólogos tejidos, pero mayor deformabilidad y capacidad de absorción de energía. Los fieltros se emplean en diversas aplicaciones en ingeniería tales como aislamiento térmico, geotextiles, láminas ignífugas, filtración y absorción de agua, impacto balístico, etc. En particular, los fieltros punzonados fabricados con fibras de alta resistencia presentan una excelente resistencia frente a impacto balístico, ofreciendo las mismas prestaciones que los materiales tejidos con un tercio de la densidad areal. Sin embargo, se sabe muy poco acerca de los mecanismos de deformación y fallo a nivel microscópico, ni sobre como influyen en las propiedades mecánicas del material. Esta carencia de conocimiento dificulta la optimización del comportamiento mecánico de estos materiales y también limita el desarrollo de modelos constitutivos basados en mecanismos físicos, que puedan ser útiles en el diseño de componentes estructurales. En esta tesis doctoral se ha llevado a cabo un estudio minucioso con el fin de determinar los mecanismos de deformación y las propiedades mecánicas de fieltros punzonados fabricados con fibras de polietileno de ultra alto peso molecular. Los procesos de deformación y disipación de energía se han caracterizado en detalle por medio de una combinación de técnicas experimentales (ensayos mecánicos macroscópicos a velocidades de deformación cuasi-estáticas y dinámicas, impacto balístico, ensayos de extracción de una o múltiples fibras, microscopía óptica, tomografía computarizada de rayos X y difracción de rayos X de gran ángulo) que proporcionan información de los mecanismos dominantes a distintas escalas. Los ensayos mecánicos macroscópicos muestran que el fieltro presenta una resistencia y ductilidad excepcionales. El estado inicial de las fibras es curvado, y la carga se transmite por el fieltro a través de una red aleatoria e isótropa de nudos creada por el proceso de punzonamiento, resultando en la formación de una red activa de fibra. La rotación y el estirado de las fibras activas es seguido por el deslizamiento y extracción de la fibra de los puntos de anclaje mecánico. La mayor parte de la resistencia y la energía disipada es proporcionada por la extracción de las fibras activas de los nudos, y la fractura final tiene lugar como consecuencia del desenredo total de la red en una sección dada donde la deformación macroscópica se localiza. No obstante, aunque la distribución inicial de la orientación de las fibras es isótropa, las propiedades mecánicas resultantes (en términos de rigidez, resistencia y energía absorbida) son muy anisótropas. Los ensayos de extracción de múltiples fibras en diferentes orientaciones muestran que la estructura de los nudos conecta más fibras en la dirección transversal en comparación con la dirección de la máquina. La mejor interconectividad de las fibras a lo largo de la dirección transversal da lugar a una esqueleto activo de fibras más denso, mejorando las propiedades mecánicas. En términos de afinidad, los fieltros deformados a lo largo de la dirección transversal exhiben deformación afín (la deformación macroscópica transfiere directamente a las fibras por el material circundante), mientras que el fieltro deformado a lo largo de la dirección de la máquina presenta deformación no afín, y la mayor parte de la deformación macroscópica no es transmitida a las fibras. A partir de estas observaciones experimentales, se ha desarrollado un modelo constitutivo para fieltros punzonados confinados por enlaces mecánicos. El modelo considera los efectos de la deformación no afín, la conectividad anisótropa inducida durante el punzonamiento, la curvatura y re-orientación de la fibra, así como el desenredo y extracción de la fibra de los nudos. El modelo proporciona la respuesta de un mesodominio del material correspondiente al volumen asociado a un elemento finito, y se divide en dos bloques. El primer bloque representa el comportamiento de la red y establece la relación entre el gradiente de deformación macroscópico y la respuesta microscópica, obtenido a partir de la integración de la respuesta de las fibras en el mesodominio. El segundo bloque describe el comportamiento de la fibra, teniendo en cuenta las características de la deformación de cada familia de fibras en el mesodominio, incluyendo deformación no afín, estiramiento, deslizamiento y extracción. En la medida de lo posible, se ha asignado un significado físico claro a los parámetros del modelo, por lo que se pueden identificar por medio de ensayos independientes. Las simulaciones numéricas basadas en el modelo se adecúan a los resultados experimentales de ensayos cuasi-estáticos y balísticos desde el punto de vista de la respuesta mecánica macroscópica y de los micromecanismos de deformación. Además, suministran información adicional sobre la influencia de las características microstructurales (orientación de la fibra, conectividad de la fibra anisótropa, afinidad, etc) en el comportamiento mecánico de los fieltros punzonados. Nonwoven fabrics are a class of textile material made up of a disordered fiber network linked by either thermal, chemical or mechanical bonds. They present lower stiffness and strength (as well as processing cost) than the woven counterparts but much higher deformability and energy absorption capability and are used in many different engineering applications (including thermal insulation, geotextiles, fireproof layers, filtration and water absorption, ballistic impact, etc). In particular, needle-punched nonwoven fabrics manufactured with high strength fibers present an excellent performance for ballistic protection, providing the same ballistic protection with one third of the areal weight as compared to dry woven fabrics. Nevertheless, very little is known about their deformation and fracture micromechanisms at the microscopic level and how they contribute to the macroscopic mechanical properties. This lack of knowledge hinders the optimization of their mechanical performance and also limits the development of physically-based models of the mechanical behavior that can be used in the design of structural components with these materials. In this thesis, a thorough study was carried out to ascertain the micromechanisms of deformation and the mechanical properties of a needle-punched nonwoven fabric made up by ultra high molecular weight polyethylene fibers. The deformation and energy dissipation processes were characterized in detail by a combination of experimental techniques (macroscopic mechanical tests at quasi-static and high strain rates, ballistic impact, single fiber and multi fiber pull-out tests, optical microscopy, X-ray computed tomography and wide angle X-ray diffraction) that provided information of the dominant mechanisms at different length scales. The macroscopic mechanical tests showed that the nonwoven fabric presented an outstanding strength and energy absorption capacity. It was found that fibers were initially curved and the load was transferred within the fabric through the random and isotropic network of knots created by needlepunching, leading to the formation of an active fiber network. Uncurling and stretching of the active fibers was followed by fiber sliding and pull-out from the entanglement points. Most of the strength and energy dissipation was provided by the extraction of the active fibers from the knots and final fracture occurred by the total disentanglement of the fiber network in a given section at which the macroscopic deformation was localized. However, although the initial fiber orientation distribution was isotropic, the mechanical properties (in terms of stiffness, strength and energy absorption) were highly anisotropic. Pull-out tests of multiple fibers at different orientations showed that structure of the knots connected more fibers in the transverse direction as compared with the machine direction. The better fiber interconnection along the transverse direction led to a denser active fiber skeleton, enhancing the mechanical response. In terms of affinity, fabrics deformed along the transverse direction essentially displayed affine deformation {i.e. the macroscopic strain was directly transferred to the fibers by the surrounding fabric, while fabrics deformed along the machine direction underwent non-affine deformation, and most of the macroscopic strain was not transferred to the fibers. Based on these experimental observations, a constitutive model for the mechanical behavior of the mechanically-entangled nonwoven fiber network was developed. The model accounted for the effects of non-affine deformation, anisotropic connectivity induced by the entanglement points, fiber uncurling and re-orientation as well as fiber disentanglement and pull-out from the knots. The model provided the constitutive response for a mesodomain of the fabric corresponding to the volume associated to a finite element and is divided in two blocks. The first one was the network model which established the relationship between the macroscopic deformation gradient and the microscopic response obtained by integrating the response of the fibers in the mesodomain. The second one was the fiber model, which took into account the deformation features of each set of fibers in the mesodomain, including non-affinity, uncurling, pull-out and disentanglement. As far as possible, a clear physical meaning is given to the model parameters, so they can be identified by means of independent tests. The numerical simulations based on the model were in very good agreement with the experimental results of in-plane and ballistic mechanical response of the fabrics in terms of the macroscopic mechanical response and of the micromechanisms of deformation. In addition, it provided additional information about the influence of the microstructural features (fiber orientation, anisotropic fiber connectivity, affinity) on the mechanical performance of mechanically-entangled nonwoven fabrics.
Resumo:
Los bosques húmedos de montaña se encuentran reconocidos como uno de los ecosistemas más amenazados en el mundo, llegando inclusive a ser considerado como un “hotspot” por su alta diversidad y endemismo. La acelerada pérdida de cobertura vegetal de estos bosques ha ocasionado que, en la actualidad, se encuentren restringidos a una pequeña fracción de su área de distribución histórica. Pese a esto, los estudios realizados sobre cual es efecto de la deforestación, fragmentación, cambios de uso de suelo y su efecto en las comunidades de plantas presentes en este tipo de vegetación aún son muy escuetos, en comparación a los realizados con sus similares amazónicos. En este trabajo, el cual se encuentra dividido en seis capítulos, abordaremos los siguientes objetivos: a) Comprender cuál es la dinámica que han seguido los diferentes tipos de bosques montanos andinos de la cuenca del Rio Zamora, Sur de Ecuador durante entre 1976 y 2002. b) Proveer de evidencia de las tasas de deforestación y fragmentación de todos los tipos diferentes de bosques montanos andinos presentes en la cuenca del Rio Zamora, Sur de Ecuador entre 1976 y 2002. c) Determinar qué factores inducen a la fragmentación de bosques de montaña en la cuenca alta del río Zamora entre 1976 y 2002. d) Determinar cuáles son y cómo afectan los factores ambientales y socioeconómicos a la dinámica de la deforestación y regeneración (pérdida y recuperación del hábitat) sufrida por los bosques de montaña dentro de la zona de estudio y e) Determinar si la deforestación y fragmentación actúan sobre la diversidad y estructura de las comunidades de tres tipos de organismos (comunidades de árboles, comunidades de líquenes epífitos y comunidades de hepáticas epífitas). Este estudio se centró en el cuenca alta del río Zamora, localizada al sur de Ecuador entre las coordenadas 3º 00´ 53” a 4º 20´ 24.65” de latitud sur y 79º 49´58” a 78º 35´ 38” de longitud oeste, que cubre alrededor de 4300 km2 de territorio situado entre las capitales de las provincias de Loja y Zamora-Chinchipe. Con objeto de predecir la dinámica futura de la deforestación en la región de Loja y cómo se verán afectados los diferentes tipos de hábitat, así como para detectar los factores que más influyen en dicha dinámica, se han construido modelos basados en la historia de la deforestación derivados de fotografías aéreas e imágenes satelitales de tres fechas (1976, 1989 y 2002). La cuantificación de la deforestación se realizó mediante la tasa de interés compuesto y para la caracterización de la configuración espacial de los fragmentos de bosque nativo se calcularon índices de paisaje los cuales fueron calculados utilizando el programa Fragstats 3.3. Se ha clasificado el recubrimiento del terreno en forestal y no forestal y se ha modelado su evolución temporal con Modelos Lineales Generalizados Mixtos (GLMM), empleando como variables explicativas tanto variables ambientales espacialmente explícitas (altitud, orientación, pendiente, etc) como antrópicas (distancia a zonas urbanizadas, deforestadas, caminos, entre otras). Para medir el efecto de la deforestación sobre las comunidades modelo (de árboles, líquenes y hepáticas) se monitorearon 11 fragmentos de vegetación de distinto tamaño: dos fragmentos de más de cien hectáreas, tres fragmentos de entre diez y noventa ha y seis fragmentos de menos de diez hectáreas. En ellos se instalaron un total de 38 transectos y 113 cuadrantes de 20 x 20 m a distancias que se alejaban progresivamente del borde en 10, 40 y 80 m. Nuestros resultados muestran una tasa media anual de deforestación del 1,16% para todo el período de estudio, que el tipo de vegetación que más alta tasa de destrucción ha sufrido, es el páramo herbáceo, con un 2,45% anual. El análisis de los patrones de fragmentación determinó un aumento en 2002 de más del doble de fragmentos presentes en 1976, lo cual se repite en el análisis del índice de densidad promedio. El índice de proximidad media entre fragmentos muestra una reducción progresiva de la continuidad de las áreas forestadas. Si bien las formas de los fragmentos se han mantenido bastante similares a lo largo del período de estudio, la conectividad entre estos ha disminuido en un 84%. Por otro lado, de nuestros análisis se desprende que las zonas con mayor probabilidad de deforestarse son aquellas que están cercanas a zonas previamente deforestadas; la cercanía a las vías también influye significativamente en la deforestación, causando un efecto directo en la composición y estructura de las comunidades estudiadas, que en el caso de los árboles viene mediado por el tamaño del fragmento y en el caso del componente epífito (hepáticas y líquenes), viene mediado tanto por el tamaño del fragmento como por la distancia al borde del mismo. Se concluye la posibilidad de que, de mantenerse esta tendencia, este tipo de bosques desaparecerá en corto tiempo y los servicios ecosistémicos que prestan, se verán seriamente comprometidos. ABSTRACT Mountain rainforests are recognized as one of the most threatened ecosystems in the world, and have even come to be considered as a “hotspot” due to their high degree of diversity and endemism. The accelerated loss of plant cover of these forests has caused them to be restricted today to a small fraction of their area of historic distribution. In spite of this, studies done on the effect of deforestation, fragmentation, changes in soil use and their effect on the plant communities present in this type of vegetation are very brief compared to those done on their analogues in the Amazon region. In this study, which is divided into six chapters, we will address the following objectives: a) To understand what the dynamic followed by the different types of Andean mountain forests in the Zamora River watershed of southern Ecuador has been between 1976 and 2002. b) To provide evidence of the rates of deforestation and fragmentation of all the different types of Andean mountain forests existing in the upper watershed of the Zamora River between 1976 and 2002. c) To determine the factors that induces fragmentation of all different types of Andean mountain forests existing in the upper watershed of the Zamora River between 1976 and 2002. d) To determine what the environmental and anthropogenic factors are driving the dynamic of deforestation and regeneration (loss and recuperation of the habitat) suffered by the mountain forests in the area of the study and e) To determine if the deforestation and fragmentation act upon the diversity and structure of three model communities: trees, epiphytic lichens and epiphytic liverworts. This study is centered on the upper Zamora River watershed, located in southern Ecuador between 3º 00´ 53” and 4º 20´ 24.65 south latitude and 79º 49´ 58” to 78º 35´ 38” west longitude, and covers around 4,300 km2 of territory located between Loja and Zamora-Chinchipe provinces. For the purpose of predicting the future dynamic of deforestation in the Loja region and how different types of habitats will be affected, as well as detecting the environmental and socioeconomic factors that influence landscape dynamics, models were constructed based on deforestation history, derived from aerial photographs and satellite images for three dates (1976, 1989 and 2002). Quantifying the deforestation was done using the compound interest rate; to characterize the spatial configuration of fragments of native forest, landscape indices were calculated with Fragstats 3.3 program. Land cover was classified as forested and not forested and its evolution over time was modeled with Generalized Linear Mixed Models (GLMM), using spatially explicit environmental variables (altitude, orientation, slope, etc.) as well as anthropic variables (distance to urbanized, deforested areas and roads, among others) as explanatory variables. To measure the effects of fragmentation on three types of model communities (forest trees and epiphytic lichen and liverworts), 11 vegetation fragments of different sizes were monitored: two fragments of more than one hundred hectares, three fragments of between ten and ninety ha and six fragments of fewer than ten hectares . In these fragments, a total of 38 transects and 113 20 x 20 m quadrats were installed at distances that progressively moved away from the edge of the fragment by 10, 40 and 80 m. Our results show an average annual rate of deforestation of 1.16% for the entire period of the study, and that the type of vegetation that suffered the highest rate of destruction was grassy paramo, with an annual rate of 2.45%. The analysis of fragmentation patterns determined the number of fragments in 2002 more than doubled the number of fragments present in 1976, and the same occurred for the average density index. The variation of the average proximity index among fragments showed a progressive reduction of the continuity of forested areas. Although fragment shapes have remained quite similar over the period of the study, connectivity among them has diminished by 84%. On the other hand, it emerged from our analysis that the areas of greatest probability of deforestation were those that are close to previously deforested areas; proximity to roads also significantly favored the deforestation causing a direct effect on the composition of our model communities, that in the case of forest trees is determined by the size of the fragment, and in the case of the epiphyte communities (liverworts and lichens), is determined, by the size of the fragment as well as the distance to edge. A subject under discussion is the possibility that if this tendency continues, this type of forest will disappear in a short time, and the ecological services it provides, will be seriously endangered.
Resumo:
El control de calidad en pinturas, barnices y recubrimientos afines está relacionado con su composición, formulación y caracterización. Al hablar de recubrimientos nos referimos a pinturas, temple, barnices, esmaltes, lacas, imprimaciones, e incluso recubrimientos electrolíticos. Se puede definir una pintura líquida como una mezcla heterogénea de componentes que una vez aplicada y seca se transforma en una película continua de espesor más o menos uniforme, sin pegajosidad al tacto y con las características o aptitud al uso con la que ha sido diseñada. Los componentes de la pintura varían en gran manera en función del tipo de acabado que se requiera y de las condiciones de aplicación y secado. El proceso de fabricación de pinturas es totalmente físico y se efectúa en cuatro fases: dispersión, molido, dilución y ajuste de viscosidad. Hay distintos tipos de pinturas al agua: temple, pintura al cemento, pintura a la cal, pintura al silicato y pintura plástica. El desarrollo y aplicación cada vez mayor de las pinturas hidrosolubles en todos los sectores permite reducir la emisión de grandes cantidades de disolventes orgánicos a la atmósfera y reduce en gran medida los riesgos de incendio. Por su utilización hay tres tipos de productos hidrosolubles: pinturas plásticas para decoración (emulsiones y dispersiones), pinturas electroforéticas (anaforesis y cataforesis) y pinturas hidrosolubles industriales (resinas en solución y en dispersión). Entre otros componentes formadores de la película se destaca el papel de los aceites y los pigmentos en sus distintas tipologías. En función del ratio pigmento/ resina en peso las pinturas se clasifican en acabados, imprimaciones, aparejos y masillas. Se desarrolla el procedimiento operativo para fabricar pintura al agua y distintos procedimientos matemáticos para calcular composiciones adecuadas de base de la molienda. A continuación se exponen distintos ensayos de control de calidad en pintura referidos a distintos aspectos: contenido de producto, estado de conservación en el envase y estabilidad al almacenaje, determinación de la densidad, porcentaje de sólidos, poder cubriente y rendimiento superficial específico; de los ensayos en pintura húmeda se destaca, entre otros aspectos la medida del índice de nivelación y la tendencia al descuelgue; de los ensayos en pintura aplicada y seca, se determina la resistencia al frote en húmedo; también se hace referencia a la viscosidad y la tensión superficial y su influencia en las pinturas, así como algunas cuestiones sobre el diseño de pinturas y afines, y a defectos en las pinturas, sus causas y posibles soluciones. Para terminar, se desarrollan algunos aspectos medioambientales relacionados con las pinturas y sus componentes.
Resumo:
La actividad volcánica interviene en multitud de facetas de la propia actividad humana, no siempre negativas. Sin embargo, son más los motivos de peligrosidad y riesgo que incitan al estudio de la actividad volcánica. Existen razones de seguridad que inciden en el mantenimiento del seguimiento y monitorización de la actividad volcánica para garantizar la vida y la seguridad de los asentamientos antrópicos en las proximidades de los edificios volcánicos. En esta tesis se define e implementa un sistema de monitorización de movimientos de la corteza en las islas de Tenerife y La Palma, donde el impacto social que representa un aumento o variación de la actividad volcánica en las islas es muy severo. Aparte de la alta densidad demográfica del Archipiélago, esta población aumenta significativamente, en diferentes periodos a lo largo del año, debido a la actividad turística que representa la mayor fuente de ingresos de las islas. La población y los centros turísticos se diseminan predominantemente a lo largo de las costas y también a lo largo de los flancos de los edificios volcánicos. Quizá el mantenimiento de estas estructuras sociales y socio-económicas son los motivos más importantes que justifican una monitorización de la actividad volcánica en las Islas Canarias. Recientemente se ha venido trabajando cada vez más en el intento de predecir la actividad volcánica utilizando los nuevos sistemas de monitorización geodésica, puesto que la actividad volcánica se manifiesta anteriormente por deformación de la corteza terrestre y cambios en la fuerza de la gravedad en la zona donde más tarde se registran eventos volcánicos. Los nuevos dispositivos y sensores que se han desarrollado en los últimos años en materias como la geodesia, la observación de la Tierra desde el espacio y el posicionamiento por satélite, han permitido observar y medir tanto la deformación producida en el terreno como los cambios de la fuerza de la gravedad antes, durante y posteriormente a los eventos volcánicos que se producen. Estos nuevos dispositivos y sensores han cambiado las técnicas o metodologías geodésicas que se venían utilizando hasta la aparición de los mismos, renovando métodos clásicos y desarrollando otros nuevos que ya se están afianzando como metodologías probadas y reconocidas para ser usadas en la monitorización volcánica. Desde finales de la década de los noventa del siglo pasado se han venido desarrollando en las Islas Canarias varios proyectos que han tenido como objetivos principales el desarrollo de nuevas técnicas de observación y monitorización por un lado y el diseño de una metodología de monitorización volcánica adecuada, por otro. Se presenta aquí el estudio y desarrollo de técnicas GNSS para la monitorización de deformaciones corticales y su campo de velocidades para las islas de Tenerife y La Palma. En su implementación, se ha tenido en cuenta el uso de la infraestructura geodésica y de monitorización existente en el archipiélago a fin de optimizar costes, además de complementarla con nuevas estaciones para dar una cobertura total a las dos islas. Los resultados obtenidos en los proyectos, que se describen en esta memoria, han dado nuevas perspectivas en la monitorización geodésica de la actividad volcánica y nuevas zonas de interés que anteriormente no se conocían en el entorno de las Islas Canarias. Se ha tenido especial cuidado en el tratamiento y propagación de los errores durante todo el proceso de observación, medida y proceso de los datos registrados, todo ello en aras de cuantificar el grado de fiabilidad de los resultados obtenidos. También en este sentido, los resultados obtenidos han sido verificados con otros procedentes de sistemas de observación radar de satélite, incorporando además a este estudio las implicaciones que el uso conjunto de tecnologías radar y GNSS tendrán en un futuro en la monitorización de deformaciones de la corteza terrestre. ABSTRACT Volcanic activity occurs in many aspects of human activity, and not always in a negative manner. Nonetheless, research into volcanic activity is more likely to be motivated by its danger and risk. There are security reasons that influence the monitoring of volcanic activity in order to guarantee the life and safety of human settlements near volcanic edifices. This thesis defines and implements a monitoring system of movements in the Earth’s crust in the islands of Tenerife and La Palma, where the social impact of an increase (or variation) of volcanic activity is very severe. Aside from the high demographic density of the archipelago, the population increases significantly in different periods throughout the year due to tourism, which represents a major source of revenue for the islands. The population and the tourist centres are mainly spread along the coasts and also along the flanks of the volcanic edifices. Perhaps the preservation of these social and socio-economic structures is the most important reason that justifies monitoring volcanic activity in the Canary Islands. Recently more and more work has been done with the intention of predicting volcanic activity, using new geodesic monitoring systems, since volcanic activity is evident prior to eruption because of a deformation of the Earth’s crust and changes in the force of gravity in the zone where volcanic events will later be recorded. The new devices and sensors that have been developed in recent years in areas such as geodesy, the observation of the Earth from space, and satellite positioning have allowed us to observe and measure the deformation produced in the Earth as well as the changes in the force of gravity before, during, and after the volcanic events occur. The new devices and sensors have changed the geodetic techniques and methodologies that were used previously. The classic methods have been renovated and other newer ones developed that are now vouched for as proven recognised methodologies to be used for volcanic monitoring. Since the end of the 1990s, in the Canary Islands various projects have been developed whose principal aim has been the development of new observation and monitoring techniques on the one hand, and the design of an appropriate volcanic monitoring methodology on the other. The study and development of GNSS techniques for the monitoring of crustal deformations and their velocity field is presented here. To carry out the study, the use of geodetic infrastructure and existing monitoring in the archipelago have been taken into account in order to optimise costs, besides complementing it with new stations for total coverage on both islands. The results obtained in the projects, which are described below, have produced new perspectives in the geodetic monitoring of volcanic activity and new zones of interest which previously were unknown in the environment of the Canary Islands. Special care has been taken with the treatment and propagation of errors during the entire process of observing, measuring, and processing the recorded data. All of this was done in order to quantify the degree of trustworthiness of the results obtained. Also in this sense, the results obtained have been verified with others from satellite radar observation systems, incorporating as well in this study the implications that the joint use of radar technologies and GNSS will have for the future of monitoring deformations in the Earth’s crust.
Resumo:
El concepto tradicional de reglas de ensamblaje refleja la idea de que las especies no co-ocurren al azar sino que están restringidos en su co-ocurrencia por la competencia interespecífica o por un filtrado ambiental. En está tesis abordé la importancia de los procesos que determinan el ensamble de la comunidad en la estructuración de los Bosques Secos en el Sur del Ecuador. Este estudio se realizó en la región biogeográfica Tumbesina, donde se encuentra la mayor concentración de bosques secos tropicales bien conservados del sur de Ecuador, y que constituyen una de las áreas de endemismo más importantes del mundo. El clima se caracteriza por una estación seca que va desde mayo a diciembre y una estación lluviosa de enero a abril, su temperatura anual varía entre 20°C y 26°C y una precipitación promedio anual entre 300 y 700 mm. Mi primer tema fue orientado a evaluar si la distribución de los rasgos funcionales a nivel comunitario es compatible con la existencia de un filtro ambiental (filtrado del hábitat) o con la existencia de un proceso de limitación de la semejanza funcional impuesta por la competencia inter-específica entre 58 especies de plantas leñosas repartidas en 109 parcelas (10x50m). Para ello, se analizó la distribución de los valores de cinco rasgos funcionales (altura máxima, densidad de la madera, área foliar específica, tamaño de la hoja y de masa de la semilla), resumida mediante varios estadísticos (rango, varianza, kurtosis y la desviación estándar de la distribución de distancias funcionales a la especies más próxima) y se comparó con la distribución esperada bajo un modelo nulo con ausencia de competencia. Los resultados obtenidos apoyan que tanto el filtrado ambiental como la limitación a la semejanza afectan el ensamble de las comunidades vegetales de los bosques secos Tumbesinos. Un segundo tema fue identificar si la diversidad funcional está condicionada por los gradientes ambientales, y en concreto si disminuye en los ambientes más estresantes a causa del filtrado ambiental, y si por el contrario aumenta en los ambientes más benignos donde la competencia se vuelve más importante, teniendo en cuenta las posibles modificaciones a este patrón general a causa de las interacciones de facilitación. Para abordar este estudio analizamos tanto las variaciones en la diversidad funcional (respecto a los de los cinco rasgos funcionales empleados en el primer capítulo de la tesis) como las variaciones de diversidad filogenética a lo largo de un gradiente de estrés climático en los bosques tumbesinos, y se contrastaron frente a las diversidades esperadas bajo un modelo de ensamblaje completamente aleatorio de la comunidad. Los análisis mostraron que tan sólo la diversidad de tamaños foliares siguió el patrón de variación esperado, disminuyendo a medida que aumentó el estrés abiótico mientras que ni el resto de rasgos funcionales ni la diversidad funcional multivariada ni la diversidad filogenética mostraron una variación significativa a lo largo del gradiente ambiental. Un tercer tema fue evaluar si los procesos que organizan la estructura funcional de la comunidad operan a diferentes escalas espaciales. Para ello cartografié todos los árboles y arbustos de más de 5 cm de diámetro en una parcela de 9 Ha de bosque seco y caractericé funcionalmente todas las especies. Dicha parcela fue dividida en subparcelas de diferente tamaño, obteniéndose subparcelas a seis escalas espaciales distintas. Los resultados muestran agregación de estrategias funcionales semejantes a escalas pequeñas, lo que sugiere la existencia bien de filtros ambientales actuando a escala fina o bien de procesos competitivos que igualan la estrategia óptima a dichas escalas. Finalmente con la misma información de la parcela permanente de 9 Ha. Nos propusimos evaluar el efecto y comportamiento de las especies respecto a la organización de la diversidad taxonómica, funcional y filogenética. Para ello utilicé tres funciones sumario espaciales: ISAR- para el nivel taxonómico, IFDAR para el nivel funcional y IPSVAR para el nivel filogenética y las contrastamos frente a modelos nulos que describen la distribución espacial de las especies individuales. Los resultados mostraron que en todas las escalas espaciales consideradas para ISAR, IFDAR y IPSVAR, la mayoría de las especies se comportaron como neutras, es decir, que están rodeados por la riqueza de diversidad semejante a la esperada. Sin embargo, algunas especies aparecieron como acumuladoras de diversidad funcional y filogenética, lo que sugiere su implicación en procesos competitivos de limitación de la semejanza. Una pequeña proporción de las especies apareció como repelente de la diversidad funcional y filogenética, lo que sugiere su implicación en un proceso de filtrado de hábitat. En este estudio pone de relieve cómo el análisis de las dimensiones alternativas de la biodiversidad, como la diversidad funcional y filogenética, puede ayudarnos a entender la co-ocurrencia de especies en diversos ensambles de comunidad. Todos los resultados de este estudio aportan nuevas evidencias de los procesos de ensamblaje de la comunidad de los Bosques Estacionalmente secos y como las variables ambientales y la competencia juegan un papel importante en la estructuración de la comunidad. ABSTRACT The traditional concept of the rules assembly for species communities reflects the idea that species do not co-occur at random but are restricted in their co-occurrence by interspecific competition or an environmental filter. In this thesis, I addressed the importance of the se processes in the assembly of plant communities in the dry forests of southern Ecuador. This study was conducted in the biogeographic region of Tumbesina has the largest concentration of well-conserved tropical dry forests of southern Ecuador, and is recognized as one of the most important areas of endemism in the world. The climate is characterized by a dry season from May to December and a rainy season from January to April. The annual temperature varies between 20 ° C and 26 ° C and an average annual rainfall between 300 and 700 mm. I first assessed whether the distribution of functional traits at the level of the community is compatible with the existence of an environmental filter (imposed by habitat) or the existence of a limitation on functional similarity imposed by interspecific competition. This analysis was conducted for 58 species of woody plants spread over 109 plots of 10 x 50 m. Specifically, I compared the distribution of values of five functional traits (maximum height, wood density, specific leaf area, leaf size and mass of the seed), via selected statistical properties (range, variance, kurtosis and analyzed the standard deviation of the distribution of the closest functional species) distances and compared with a expected distribution under a null model of no competition. The results support that both environmental filtering and a limitation on trait similarity affect the assembly of plant communities in dry forests Tumbesina. My second chapter evaluated whether variation in functional diversity is conditioned by environmental gradients. In particular, I tested whether it decreases in the most stressful environments because of environmental filters, or if, on the contrary, functional diversity is greater in more benign environments where competition becomes more important (notwithstanding possible changes to this general pattern due to facilitation). To address this theme I analyzed changes in both the functional diversity (maximum height, wood density, specific leaf area, leaf size and mass of the seed) and the phylogenetic diversity, along a gradient of climatic stress in Tumbes forests. The observed patterns of variation were contrasted against the diversity expected under a completely random null model of community assembly. Only the diversity of leaf sizes followed the hypothesis decreasing in as trait variation abiotic stress increased, while the other functional traits multivariate functional diversity and phylogenetic diversity no showed significant variation along the environmental gradient. The third theme assess whether the processes that organize the functional structure of the community operate at different spatial scales. To do this I mapped all the trees and shrubs of more than 5 cm in diameter within a plot of 9 hectares of dry forest and functionally classified each species. The plot was divided into subplots of different sizes, obtaining subplots of six different spatial scales. I found aggregation of similar functional strategies at small scales, which may indicate the existence of environmental filters or competitive processes that correspond to the optimal strategy for these fine scales. Finally, with the same information from the permanent plot of 9 ha, I evaluated the effect and behavior of individual species on the organization of the taxonomic, functional and phylogenetic diversity. The analysis comprised three spatial summary functions: ISAR- for taxonomic level analysis, IFDAR for functional level analysis, and IPSVAR for phylogenetic level analysis, in each case the pattern of diversity was contrasted against null models that randomly reallocate describe the spatial distribution of individual species and their traits. For all spatial scales considering ISAR, IFDAR and IPSVAR, most species behaved as neutral, i.e. they are surrounded by the diversity of other traits similar to that expected under a null model. However, some species appeared as accumulator of functional and phylogenetic diversity, suggesting that they may play a role in competitive processes that limiting similarity. A small proportion of the species appeared as repellent of functional and phylogenetic diversity, suggesting their involvement in a process of habitat filtering. These analysis highlights that the analysis of alternative dimensions of biodiversity, such as functional and phylogenetic diversity, can help us understand the co-occurrence of species in the assembly of biotic communities. All results of this study provide further evidence of the processes of assembly of the community of the seasonally dry forests as environmental variables and competition play an important role in structuring the community.
Resumo:
Muchos estudios han descrito la composición y diversidad de los bosques montanos tropicales, pero los patrones espaciales y las diferentes tipos de relaciones de estos, entre especies o entre grupos funcionales ha sido poco documentada. El presente trabajo se realizó en tres parcelas completamente censadas del bosque de la Estación Biológica “Chamusquin” (Zamora Chinchipe, Ecuador), y se plantea como objetivo principal conocer la estructura espacial y dinámica del bosque montano tropical del sur del Ecuador, así como las interacciones bióticas y limitaciones abióticas que influyen en esta dinámica, para ello se planteó cuatro objetivos de estudio que son: conocer los patrones espaciales de los gremios ecológicos dentro de la zona de estudio; conocer la influencia de la dependencia negativa de la densidad sobre dos especies de helechos arborescentes (Cyatheaceae); conocer si existen especies o grupos ecológicos acumuladoras o repulsoras de diversidad en el área de estudio; y conocer cómo influyen la diversidad filogenética y la densidad del vecindario en la incidencia de herbivoría y parasitismo sobre las fases iniciales del establecimiento forestal (brinzales) así como en la supervivencia de los mismos Como paso previo para el análisis del resto de objetivos, dentro de cada parcela se marcaron todos los individuos con DAP ≥5 cm y se tomaron sus coordenadas (X, Y). Además se tomaron datos de variables superficiales y muestras del suelo. Las especies encontradas se clasificaron de acuerdo a sus características biológicas, asignándolas a cada uno de los cuatro gremios forestales usualmente distinguidos en los bosques tropicales: tolerantes a la sombra (TS), tolerantes parciales a la sombra (TPS), pioneras de vida larga (PVL) y pioneras de vida corta (PVC). Para el estudio del primer objetivo tas se emplearon funciones K de Ripley inhomogéneas, ajustando la heterogeneidad en base a la variación espacial de las variables ambientales registradas . Los resultados demostraron que tanto la frecuencia relativa como el patrón espacial de las diferentes estrategias funcionales varían a lo largo de la sucesión y que éste además está influido por la variación ambiental. En adición, tanto el patrón espacial como la respuesta a la variación ambiental de los diferentes gremios es distinta entre adultos y juveniles. Todo ello sugiere que el ensamblaje de la diversidad en los bosque montanos andinos está controlado por procesos deterministas más que por procesos neutrales. Para responder el segundo objetivo se estudiaron los efectos de la dependencia negativa de la densidad (DND) y la heterogeneidad ambiental en las poblaciones de dos especies de helechos arborescentes abundantes, Cyathea caracasana y Alsophila engelii, y cómo estos efectos cambian a través de un gradiente sucesional. Los patrones de especies albergan información sobre procesos tales como la competencia que puede ser revelado fácilmente utilizando técnicas de análisis de patrones punto. Sin embargo, su detección puede ser difícil debido a los efectos de factores de confusión heterogeneidad del hábitat. Aquí, empleamos funciones K y funciones de correlación de par homogéneas y no homogéneas para cuantificar el cambio en el patrón espacial de diferentes clases de tamaño con un diseño de casos-controles para estudiar las asociaciones entre helechos arborescentes jóvenes y adultos. Usando estimaciones espaciales de la biomasa de los cuatro tipos de gremios ecológicos (PVC, PVL, TPS, TS) como covariables, hemos ajustado modelos de Poisson heterogéneos a los patrones de puntos de de los helechos juveniles y los adultos y hemos explorado además la existencia de dependencia del hábitat en estos patrones. Nuestro estudio reveló efectos de la DND para C. caracasana y un fuerte filtrado ambiental que subyace al patrón de A. engelii. Encontramos también que las poblaciones de adultos y juveniles de ambas especies respondieron de manera diferente a la heterogeneidad del hábitat y en la mayoría de los casos esta heterogeneidad se asoció con la distribución espacial de la biomasa de los cuatro tipos de gremios. Estos resultados muestran la eficacia de controlar los efectos de la heterogeneidad ambiental para evitar su confusión con los patrones derivados de interacciones biológicas cuando se estudia la DND y demuestran la utilidad de los mapas de covariables derivados de comunidades biológicas como resumen de la heterogeneidad ambiental. Para nuestro tercer objetivo nos centramos en explorar cómo influyen las especies más abundantes en la organización espacial de la diversidad a lo largo de un gradiente sucesional en el bosque montano del sur del Ecuador. Para ello utilizamos la función ISAR (Individual Species Area Relationship). Encontramos que la frecuencia de especies neutras, repulsoras y acumuladoras de diversidad taxonómica varía dependiendo del grado de sucesión. Además se comprobó que la mayoría de los gremios forestales se comportó de forma neutral, pero la proporción de acumuladores, aumentó al avanzar la sucesión hacia estados más maduros, lo que indica el establecimiento de fuertes procesos competitivos a medida que avanza la sucesión y la mayor importancia del papel de las especies individuales en dichos estados. Finalmente, examinamos el efecto de la vecindad taxonómica y filogenética, así como la estrategia de vida, sobre la incidencia de la herbivoría y el parasitismo en las poblaciones de brinzales de tres fragmentos forestales en una secuencia sucesional del bosque montano húmedo. Evaluamos además los efectos de herbivoría, parasitismo, estrategia de vida y diferentes indicadores de la vecindad sobre la supervivencia de los brinzales. Por último contrastamos la posible existencia de una tendencia compensatoria de la comunidad (CCT) a nivel de fragmento forestal. Nuestros análisis no consiguieron detectar una CCT pero si pusieron de manifiesto la existencia de efectos locales de dependencia negativa de la densidad. Por ejemplo, la presencia de herbivoría y parasitismo sobre los brinzales se relacionó significativamente con una menor supervivencia de estos. Por otro lado, indicadores del efecto de la vecindad como la densidad de brinzales del mismo género y el área basal de árboles vecinos del mismo género incrementaron la prevalencia de la herbivoría o el parasitismo en los brinzales. El incremento de la incidencia de la herbivoría o el parasitismo no está exclusivamente ligado a tener una vecindad taxonómicamente idéntica (vecinos de la misma especie) sino que categorías taxonómicas más laxas como el "género" o simplemente relaciones de semejanza filogenética son capaces de predecir los efectos negativos de la vecindad. Los efectos detectados variaron en los diferentes grupos funcionales distinguidos. Los resultados que hemos obtenido en este trabajo parecen indicar que el funcionamiento de las comunidades de brinzales del bosque montano tropical no difiere mucho del reportado para comunidades de plántulas en otros bosques tropicales y cumple las predicciones de la hipótesis de Janzen y Connell, aunque matizadas por la mayor resistencia de los brinzales al efecto de herbivoría y parasitismo. ABSTRACT Many studies have described the composition and diversity of tropical montane forests, but the different spatial patterns and types of relationships between species or between functional groups has been poorly documented. This work was made in three completely surveyed forest plots at Biological Station "Chamusquin" (Zamora Chinchipe, Ecuador). Our main objective was to know the spatial structure and dynamics of the tropical montane forest in southern Ecuador, as well as the biotic interactions and abiotic constraints affecting this dynamic. More specifically, we aimed to understand the spatial patterns of ecological guilds; to explore the influence of negative density dependence on two species of tree ferns (Cyatheaceae); to determine whether some species or ecological groups structure spatially plant diversity in these forests; and to test the effects of biological neighborhood on the incidence of herbivory and parasitism and on the survival of saplings. We mapped within each plot all trees with DBH ≥5 cm. Besides, surface data variables and soil samples they were taken. The species found were classified according to their biological characteristics in four forest guilds: shade-tolerant (ST), partial shade tolerant (PST), long-lived pioneer (LLP) and short-lived pioneer (SLP). To analyze the spatial patterns of the ecological guilds, we employed the inhomogeneous version of Ripley's K-function and adjusted heterogeneity surfaces based on the spatial variation of the measured environmental variables. The results showed that both the relative frequency of each functional guild as well as their spatial pattern varied throughout succession and that the spatial pattern is explained by environmental variation. In addition, both spatial pattern and the response to spatial variation of each guild varied throughout ontogeny. All in all suggest that diversity assembly in the studied forests is ruled by deterministic instead of neutral processes. We also addressed the negative effects of density dependence (NDD) and environmental heterogeneity in populations of two species of abundant tree ferns, Cyathea caracasana and Alsophila engelii, and how these effects change across a successional gradient.. Here, we used homogeneous and inhomogeneous K and pair-correlation functions to quantify the change in the spatial pattern of different size classes with a case-control design to study associations between young and adult tree ferns. Using spatial estimates of the biomass of the four types of ecological guilds (SLP, LLP, PST, ST) as co-variables, we fitted heterogeneous Poisson models to juvenile and adult tree fern point patterns and explored the existence of habitat dependence. Our study revealed NDD effects for C. caracasana and strong environmental filtering underlying the pattern of A. engelii. We found that adult and juvenile populations of both species responded differently to habitat heterogeneity and in most cases this heterogeneity was associated with the spatial distribution of biomass of the four functional tree types. These findings show the effectiveness of factoring out environmental heterogeneity to avoid confounding factors when studying NDD and demonstrate the usefulness of covariate maps derived from mapped communities. For our third objective we focused on exploring how the most abundant species influence the spatial organization of tree diversity in these forests. For this, we used the individual species-area relationship function (ISAR). We found that the proportion of accumulator, repeller and neutral species, varied depending on the degree of succession. We found also that most guilds behaved neutrally but the proportion of accumulator guilds increased as succession advanced to more mature stages. This point, to the existence of strong competitive effects mediated by individual species in these mature forests. Finally, we examined the effects of life strategies and taxonomic and phylogenetic neighborhood on the incidence of herbivory and parasitism in the communities of saplings in the same forest fragments. We evaluated also the effects of life strategies, herbivory, parasitism and some indicators of neighborhood on sapling survival. Finally we tested for the existences of a compensatory community trend at plot scale. We did not found a CCT but we found proof of local NND effects. For instance, the prevalence of herbivory and parasitism were related to lower sapling survival. On the other hand the density of con-generic saplings and the basal area of neighbor con-generic trees were related to a higher prevalence of herbivory or parasitism in the saplings. We demonstrated that the increase in the prevalence of herbivory or parasitism it s not exclusive of a conspecific neighborhood but instead larger taxonomic categories such as "genus" or simple phylogenetic relationships are also able to predict NND effects. The NND effects varied among functional guilds. Our results show that the dynamic of sapling communities in Ecuadorian montane forests is similar to seedling dynamics in other tropical forest and follows the predictions of Janzen-Connell hypothesis, although softened by the strong resilience of saplings in comparison to seedlings.
Resumo:
En la actualidad se está desarrollando la electrónica para el diseño de sistemas de conversión de potencia de alta frecuencia, que reduce notablemente el peso y el ruido de los dispositivos convertidores y aumenta a su vez la densidad de potencia sin afectar negativamente al rendimiento, coste o fiabilidad de dichos dispositivos. La disciplina que se encarga de investigar y crear estos sistemas es la electrónica de potencia. Este documento recoge la metodología empleada para el diseño, análisis y simulación de un convertidor DC/DC de 10 kW de aplicación aeronáutica. Este dispositivo forma parte de un proyecto en el que colaboran el Centro de Electrónica Industrial de la Universidad Politécnica de Madrid (CEI - UPM) y las empresas Indra y Airbus. Su objetivo es el diseño y construcción de un rectificador trifásico que proporcione una salida continua de 28 V y 10 kW de potencia. Durante su aplicación final, se dispondrá de dos dispositivos idénticos al diseñado en este proyecto, aportando cada uno de ellos 5 kW, sin embargo, debido a la importancia en seguridad en las aplicaciones aeronáuticas, cada rectificador debe ser capaz de aportar 10 kW de potencia en caso de fallo en uno de ellos. En primer lugar, este trabajo explica el diseño elegido para dicho convertidor, que sigue una topología Dual Active Bridge (DAB), en creciente interés para el desarrollo de dispositivos de potencia en alta frecuencia por sus mejoras en eficiencia y densidad de potencia. Esta topología consiste en dos puentes completos de dispositivos de conmutación, en este caso MOSFET, con un transformador entre medias diseñado para proporcionar la tensión de salida deseada. La topología ha sido modificada para satisfacer especificaciones del proyecto y cumplir las expectativas del diseño preliminar, que se centra en la transición suave de corriente en el transformador, siendo clave el diseño de un filtro resonante en serie con el transformador que proporciona una corriente senoidal con valor nulo en los instantes de conmutación de los MOSFET. Una vez introducida la topología, el siguiente capítulo se centra en el procedimiento de selección de componentes internos del convertidor: destacando el análisis de condensadores y MOSFET. Para su selección, se han estudiado las exigencias eléctricas en los puntos en los que estarán instalados, conociendo así las tensiones y corrientes que deberán soportar. Para asegurar un diseño seguro, los componentes han sido seleccionados de forma que durante su funcionamiento se les exija como máximo el 70% de sus capacidades eléctricas y físicas. Además, a partir de los datos aportados por los fabricantes ha sido posible estimar las pérdidas durante su funcionamiento. Este proyecto tiene un enfoque de aplicación aeronáutica, lo que exige un diseño robusto y seguro, que debe garantizar una detección rápida de fallos, de modo que sea capaz de aislar la anomalía de forma eficaz y no se propague a otros componentes del dispositivo. Para asegurarlo, se ha realizado la selección de sensores de tensión y corriente, que permiten la detección de fallos y la monitorización del convertidor. Al final de este apartado se muestra el esquema de alimentación, se analiza el consumo de los MOSFET y los sensores y se recopilan las pérdidas estimadas por los componentes internos del convertidor. Una vez terminado el diseño y selección de componentes, se muestran las simulaciones realizadas para prever el comportamiento del convertidor. Se presenta el modelo construido y las modificaciones instaladas para las diferentes simulaciones. Se destacan el diseño del regulador que introduce la entrada de corriente del convertidor para analizar su arranque, la construcción de una máquina de estados para analizar la detección de tensiones y corrientes fuera del intervalo correspondiente del correcto funcionamiento, y el modelo de MOSFET para simular los fallos posibles en estos dispositivos. También se analiza la influencia de la oscilación de la carga en los valores de tensión y en la resonancia del convertidor. Tras la simulación del equipo se describen las pruebas realizadas en los componentes magnéticos construidos dentro del periodo de elaboración de este trabajo: el transformador y la bobina externa, diseñada para mejorar el filtro resonante. La etapa final de este trabajo se ha centrado en la elaboración de un código de generación de señales PWM que controlen el funcionamiento de los MOSFET. Para esto se ha programado una tarjeta de control del procesador digital de señales (DSP)Delfino (TMS320F28335) instalado en una placa de experimentación (TMS320C2000), desarrollado por la empresa Texas Instruments, que facilita el acceso a los terminales GPIO y ADC del DSP durante el desarrollo del código, anexo a este documento.
Resumo:
Una red de sensores inalámbrica es un conjunto de dispositivos electrónicos que se comunican entre sí sin la necesidad de una infraestructura, recogiendo información del entorno en el que han sido desplegados, procesándola y transmitiéndola hasta una estación base mediante saltos sucesivos entre los nodos de la red (multi-salto). Durante las dos últimas décadas, este campo ha sido muy desarrollado en la comunidad científica, debido a las ventajas que ofrece el despliegue de una red inalámbrica en un entorno con el fin de estudiarlo y/o controlarlo. La ausencia de una infraestructura, junto con el reducido tamaño de los nodos, permite este estudio sin que dicho entorno se vea significativamente afectado por factores externos como pueda ser la presencia humana, permitiendo además aumentar el número de nodos que componen la red o cambiar la posición de algunos de ellos sin que sea necesario reconfigurarla manualmente. El principal reto que presentan las redes de sensores inalámbricas es su autonomía. En general, se requiere que un nodo tenga la capacidad de funcionar durante largos períodos de tiempo (varios meses o incluso un año) antes de que su batería se agote. Esto hace de la gestión del consumo energético un aspecto crítico en el diseño de la red y sus nodos. En el presente trabajo se busca optimizar este consumo mediante la gestión del proceso de comunicación y enrutamiento de la red. Con este fin, se implementa el protocolo CTP (Collection Tree Protocol) en la plataforma Cookies desarrollada en el Centro de Electrónica Industrial (CEI) de la UPM. CTP es un protocolo de rutado centrado en los datos, que utiliza una topología en árbol, con el nodo coordinador o estación base como raíz del mismo, para la transmisión de la información desde los sensores hasta la estación base. Además, no utiliza direcciones predeterminadas, dotando a la red de la flexibilidad requerida para hacer frente a inconsistencias y/o variaciones en la densidad y tamaño de la red. La ruta escogida se basa en un gradiente de rutado decreciente, ETX (Expected Transmission Count), que representa la calidad de la conexión entre un nodo y su nodo padre. Este gradiente de enrutamiento se obtiene mediante una conversión directa a partir del LQI (Link Quality Indication) definido por el estándar IEEE 802.15.4. Esta conversión directa supone una aproximación utilizando valores umbral del LQI. Un nodo escogerá el siguiente salto que realizará el paquete a enviar seleccionando de entre sus vecinos a aquél que tenga el menor ETX, evitando de esta forma la aparición de bucles. Otro de los aspectos que supone un gran consumo es el proceso de mantenimiento de la estructura de la red, pues requiere el envío periódico de señales de control o beacons a lo largo de toda la red. El protocolo CTP aprovecha el algoritmo de goteo (Trickle Algorithm), para gestionar el mantenimiento: durante la formación de la red y cuando se detecte alguna inconsistencia, se incrementa la frecuencia de emisión de los beacons, permitiendo así una rápida propagación de las señales de control para crear o reparar las conexiones entre los nodos. En cambio, cuando la topología de la red es estable, esta frecuencia de emisión se reduce significativamente, limitándose a asegurar que la topología se mantiene estable y favoreciendo así el ahorro de energía.
Resumo:
El presente trabajo tiene dos objetivos diferenciados. El primero de ellos tiene un punto de vista más ingenieril que es el de obtener una gama cromática extensa y parametrizar los colores para su reproducción en aplicaciones industriales. El segundo, desarrollar y proponer un modelo numérico óptico de interferencia en láminas delgadas que describa y relacione el espesor de la capa de óxido obtenida por marcado láser con el color obtenido en la superficie procesada. Para desarrollar ambos estudios ha sido necesaria una extensa búsqueda bibliográfica para comprender el proceso de formación de la capa de óxido y los compuestos que se generaban en la misma. Como objetivo para la gama cromática se buscaba obtener un total de doce colores. No se han obtenido dos de los colores primarios considerados pero sí una extensa gama de colores intermedios, muy superior en número objetivo, que evidencian el potencial que tiene el procesado láser para la obtención de colores en la superficie de acero inoxidable. Para conseguir obtener la gama cromática ha sido necesaria la realización de ensayos para parametrizar el haz láser. Se ha estudiado la estabilidad de la potencia media de pulso, se ha calculado indirectamente la cintura del haz y se ha medido el tamaño del spot láser a distintas cotas respecto del plano focal. El modelo óptico de interferencia en capa delgada ha sido comparado con un ensayo en el que se midieron las reflectancias en muestras de acero procesadas con láser. Este ensayo ha permitido dilucidar que la composición de la capa de óxido introducida en el modelo que más se aproxima a los resultados, entre las tres composiciones consideradas, se compone de un 50% de cromita y 50% de magnetita, considerando una relación lineal y directamente proporcional entre la proporción de los mismos y sus propiedades ópticas. A nivel cualitativo, se pueden relacionar los colores encontrados en los aceros con el modelo óptico en función de las reflectancias predominantes para cada espesor de capa de óxido de forma que exista una relación directa entre tamaño de la capa de óxido y densidad de energía depositada en la muestra. Aunque ajustar y validar un modelo óptico está fuera del alcance del proyecto, el resultado anterior permite justificar y afirmar que el fenómeno de interferencia óptica está presente entre los fenómenos que generan el color en la superficie del acero tras procesado láser. También se comprueba en el trabajo, a través de un ensayo que mide la rugosidad superficial de las muestras obtenidas, que la rugosidad es un parámetro que afecta en gran medida al resultado que se obtiene tras el procesado láser. El presente trabajo tiene un gran interés industrial. El marcado láser presenta una gran versatilidad por las distintas aplicaciones en las que puede emplearse. Es muy utilizado para crear métodos de identificación por su flexibilidad y rapidez y su carácter indeleble, económico y prácticamente ausente de mantenimiento. La alta inversión inicial es rentable para grandes niveles de producción por su velocidad de producción, repetitividad y facilidad de automatización. Puede ejercer una influencia importante en el control del stocks y en el seguimiento del ciclo de vida del producto. La amplia gama cromática obtenida en este trabajo amplía las posibilidades de este proceso en la práctica industrial y, por tanto, su valor como proceso.
Resumo:
Uno de los principales retos de la sociedad actual es la evolución de sectores como el energético y el de la automoción a un modelo sostenible, responsable con el medio ambiente y con la salud de los ciudadanos. Una de las posibles alternativas, es la célula de combustible de hidrógeno, que transforma la energía química del combustible (hidrógeno) en corriente continua de forma limpia y eficiente. De entre todos los tipos de célula, gana especial relevancia la célula de membrana polimérica (PEM), que por sus características de peso, temperatura de trabajo y simplicidad; se presenta como una gran alternativa para el sector de la automoción entre otros. Por ello, el objetivo de este trabajo es ahondar en el conocimiento de la célula de combustible PEM. Se estudiarán los fundamentos teóricos que permitan comprender su funcionamiento, el papel de cada uno de los elementos de la célula y cómo varían sus características el funcionamiento general de la misma. También se estudiará la caracterización eléctrica, por su papel crucial en la evaluación del desempeño de la célula y para la comparación de modificaciones introducidas en ella. Además, se realizará una aplicación práctica en colaboración con los proyectos de fin de máster y doctorado de otros estudiantes del Politécnico de Milán, para implementar las técnicas aprendidas de caracterización eléctrica en una célula trabajando con diferentes tipos de láminas de difusión gaseosa (GDL y GDM) preparadas por estudiantes. Los resultados de la caracterización, permitirán analizar las virtudes de dos modificaciones en la composición clásica de la célula, con el fin de mejorar la gestión del agua que se produce en la zona catódica durante la reacción, disminuyendo los problemas de difusión a altas densidades de corriente y la consiguiente pérdida de potencial en la célula. Las dos modificaciones son: la inclusión de una lámina de difusión microporosa (MPL) a la lámina macroporosa habitual (GDL), y el uso de diversos polímeros con mejores propiedades hidrófobas en el tratamiento de dichas láminas de difusión. La célula de combustible es un sistema de conversión de energía electroquímico, en el que se trasforma de forma directa, energía química en energía eléctrica de corriente continua. En el catalizador de platino del ánodo se produce la descomposición de los átomos de hidrógeno. Los protones resultantes viajarán a través de la membrana de conducción protónica (que hace las veces de electrolito y supone el alma de la célula PEM) hasta el cátodo. Los electrones, en cambio, alcanzarán el cátodo a través de un circuito externo produciendo trabajo. Una vez ambas especies se encuentran en el cátodo, y junto con el oxígeno que sirve como oxidante, se completa la reacción, produciéndose agua. El estudio termodinámico de la reacción que se produce en la célula nos permite calcular el trabajo eléctrico teórico producido por el movimiento de cargas a través del circuito externo, y con él, una expresión del potencial teórico que presentará la célula, que variará con la temperatura y la presión; Para una temperatura de 25°C, este potencial teórico es de 1.23 V, sin embargo, el potencial de la célula en funcionamiento nunca presenta este valor. El alejamiento del comportamiento teórico se debe, principalmente, a tres tipos de pérdidas bien diferenciadas: Pérdidas de activación: El potencial teórico representa la tensión de equilibrio, para la que no se produce un intercambio neto de corriente. Por tanto, la diferencia de potencial entre el ánodo y el cátodo debe alejarse del valor teórico para obtener una corriente neta a través del circuito externo. Esta diferencia con el potencial teórico se denomina polarización de activación, y conlleva una pérdida de tensión en la célula. Así pues estas pérdidas tienen su origen en la cinética de la reacción electroquímica. Pérdidas óhmicas: Es una suma de las resistencias eléctricas en los elementos conductores, la resistencia en la membrana electrolítica a la conducción iónica y las resistencias de contacto. Pérdidas por concentración: Estas pérdidas se producen cuando los gases reactivos en el área activa son consumidos en un tiempo menor del necesario para ser repuestos. Este fenómeno es crítico a altas densidades de corriente, cuando los gases reactivos son consumidos con gran velocidad, por lo que el descenso de concentración de reactivos en los electrodos puede provocar una caída súbita de la tensión de la célula. La densidad de corriente para la cual se produce esta caída de potencial en unas condiciones determinadas se denomina densidad límite de corriente. Así pues, estas pérdidas tienen su origen en los límites de difusión de las especies reactivas a través de la célula. Además de la membrana electrolítica y el catalizador, en la célula de combustible podemos encontrar como principales componentes los platos bipolares, encargados de conectar la célula eléctricamente con el exterior y de introducir los gases reactivos a través de sus conductos; y las láminas difusivas, que conectan eléctricamente el catalizador con los platos bipolares y sirven para distribuir los gases reactivos de forma que lleguen a todo el área activa, y para evacuar el exceso de agua que se acumula en el área activa.La lámina difusiva, más conocida como GDL, será el argumento principal de nuestro estudio. Está conformada por un tejido de fibra de carbono macroporosa, que asegure el contacto eléctrico entre el catalizador y el plato bipolar, y es tratada con polímeros para proporcionarle propiedades hidrófobas que le ayuden en la evacuación de agua. La evacuación del agua es tan importante, especialmente en el cátodo, porque de lo contrario, la cantidad de agua generada por la reacción electroquímica, sumada a la humedad que portan los gases, puede provocar inundaciones en la zona activa del electrodo. Debido a las inundaciones, el agua obstruye los poros del GDL, dificultando la difusión de especies gaseosas y aumentando las pérdidas por concentración. Por otra parte, si demasiada agua se evacúa del electrodo, se puede producir un aumento de las pérdidas óhmicas, ya que la conductividad protónica de la membrana polimérica, es directamente proporcional a su nivel de humidificación. Con el fin de mejorar la gestión del agua de la célula de combustible, se ha añadido una capa microporosa denominada MPL al lado activo del GDL. Esta capa, constituida por una mezcla de negro de carbón con el polímero hidrófobo como aglutinante, otorga al GDL un mejor acabado superficial que reduce la resistencia de contacto con el electrodo, además la reducción del tamaño de las gotas de agua al pasar por el MPL mejora la difusión gaseosa por la disminución de obstrucciones en el GDL. Es importante tener cuidado en los tratamientos de hidrofobización de estos dos elementos, ya que, cantidades excesivas de polímero hidrófobo podrían reducir demasiado el tamaño de los poros, además de aumentar las pérdidas resistivas por su marcado carácter dieléctrico. Para el correcto análisis del funcionamiento de una célula de combustible, la herramienta fundamental es su caracterización eléctrica a partir de la curva de polarización. Esta curva representa la evolución del potencial de la célula respecto de la densidad de corriente, y su forma viene determinada principalmente por la contribución de las tres pérdidas mencionadas anteriormente. Junto con la curva de polarización, en ocasiones se presenta la curva de densidad de potencia, que se obtiene a partir de la misma. De forma complementaria a la curva de polarización, se puede realizar el estudio del circuito equivalente de la célula de combustible. Este consiste en un circuito eléctrico sencillo, que simula las caídas de potencial en la célula a través de elementos como resistencias y capacitancias. Estos elementos representas pérdidas y limitaciones en los procesos químicos y físicos en la célula. Para la obtención de este circuito equivalente, se realiza una espectroscopia de impedancia electroquímica (en adelante EIS), que consiste en la identificación de los diferentes elementos a partir de los espectros de impedancia, resultantes de introducir señales de corriente alternas sinusoidales de frecuencia variable en la célula y observar la respuesta en la tensión. En la siguiente imagen se puede observar un ejemplo de la identificación de los parámetros del circuito equivalente en un espectro de impedancia. Al final del trabajo, se han realizado dos aplicaciones prácticas para comprobar la influencia de las características hidrófobas y morfológicas de los medios difusores en la gestión del agua en el cátodo y, por tanto, en el resultado eléctrico de la célula; y como aplicación práctica de las técnicas de construcción y análisis de las curvas de polarización y potencia y de la espectroscopia de impedancia electroquímica. El primer estudio práctico ha consistido en comprobar los beneficios de la inclusión de un MPL al GDL. Para ello se han caracterizado células funcionando con GDL y GDM (GDL+MPL) tratados con dos tipos diferentes de polímeros, PTFE y PFPE. Además se han realizado las pruebas para diferentes condiciones de funcionamiento, a saber, temperaturas de 60 y 80°C y niveles de humidificación relativa de los gases reactivos de 80%-60% y 80%- 100% (A-C). Se ha comprobado con las curvas de polarización y potencia, cómo la inclusión de un MPL en el lado activo del GDL reporta una mejora del funcionamiento de trabajo en todas las condiciones estudiadas. Esta mejora se hace más patente para altas densidades de corriente, cuando la gestión del agua resulta más crítica, y a bajas temperaturas ya que un menor porcentaje del agua producida se encuentra en estado de vapor, produciéndose inundaciones con mayor facilidad. El segundo estudio realizado trata de la influencia del agente hidrofobizante utilizado en los GDMs. Se pretende comprobar si algún otro polímero de los estudiados, mejora las prestaciones del comúnmente utilizado PTFE. Para ello se han caracterizado células trabajando en diferentes condiciones de trabajo (análogas a las del primer estudio) con GDMs tratados con PTFE, PFPE, FEP y PFA. Tras el análisis de las curvas de polarización y potencia, se observa un gran comportamiento del FEP para todas las condiciones de trabajo, aumentando el potencial de la célula para cada densidad de corriente respecto al PTFE y retrasando la densidad de corriente límite. El PFPE también demuestra un gran aumento del potencial y la densidad de potencia de la célula, aunque presenta mayores problemas de difusión a altas densidades de corriente. Los resultados del PFA evidencian sus problemas en la gestión del agua a altas densidades de corriente, especialmente para altas temperaturas. El análisis de los espectros de impedancia obtenidos con la EIS confirma los resultados de las curvas de polarización y evidencian que la mejor alternativa al PTFE para el tratamiento del GDM es el FEP, que por sus mejores características hidrófobas reduce las pérdidas por concentración con una mejor gestión del agua en el cátodo.
Resumo:
El plástico se ha convertido en el material del siglo XXI. Se adapta a múltiples aplicaciones, por eso se emplea para todo tipo de propósitos, entre los cuales destaca el empaquetado por su versatilidad, flexibilidad y durabilidad. Un efecto directo de su continuo uso es la producción de residuos poliméricos, que tras su utilización, se desechan. A partir de ese momento, solo existen dos vías de acción: reciclado y vertido. El vertido de residuos se ha convertido en un grave problema del día a día. En consecuencia, se deben tomar medidas para evitar su acumulación, que implica grandes problemas medioambientales que afectan tanto a personas como a fauna y flora. Por consiguiente, para evitar el desaprovechamiento de una buena parte de los residuos, de aquellos que son plásticos, se lleva a cabo su reciclado. Existen tres tipos de reciclado para los materiales poliméricos: el mecánico o convencional, el químico y la valorización energética. El más sostenible de todos ellos es el reciclado mecánico que además es el empleado para la elaboración de las probetas de este estudio. El reciclado convencional posee varias etapas, entre las cuales destacan fundir el plástico y procesarlo posteriormente. El producto final aparece en forma de pellets, que pueden ser transformados según el uso ulterior. El polímero generado posee una calidad inferior a la de los materiales vírgenes, dado que durante su utilización ha podido ser contaminado por otras substancias. Por tanto, no puede emplearse para muchos de sus pasados usos si no es reforzado con algún otro material. Es entonces cuando surgen los ecocomposites o biocomposites. Los ecocomposites son unos materiales compuestos de matriz polimérica, que presentan especiales ventajas medioambientales, porque utilizan refuerzos celulósicos de fuentes renovables y/o matrices de plásticos reciclados. En nuestro caso, la matriz es una mezcla de residuos plásticos agrarios (RAP) y urbanos, que principalmente están formados por polietileno de alta densidad (HDPE). Por sí solos estos plásticos reciclados, no poseen las cualidades necesarias para su utilización. Por consiguiente, se refuerzan con fibras de celulosa. Estas hebras añadidas también son residuales ya que carecen de las propiedades adecuadas para la fabricación de papel y, en lugar de ser incineradas o desechadas, se emplean en los ecocomposites como ayuda para soportar los esfuerzos mecánicos. Otro beneficio medioambiental del uso de la celulosa, es que hace que los ecocomposites sean más biodegradables en comparación con las fibras minerales que se añaden en los otros composites. Cabe mencionar que, al tratarse de un material totalmente reciclado, también genera una serie de ventajas económicas y sociales. El reciclado mecánico necesita de trabajadores que lleven a cabo la labor. De este modo, aparecen nuevos puestos de trabajo que dan solución a problemas sociales de la población. El reciclado de plásticos irá aumentando durante los próximos años dado que en 2014 la Comunidad Europea fijó como objetivo una economía circular que implica procesar todos los residuos para evitar su acumulación. En la actualidad, aún no se reciclan gran cantidad de plásticos agrarios. Sin embargo, con este compromiso se espera un aumento del volumen de PE agrícola reciclado mecánicamente, ya que el origen del material obtenido a partir de ellos es ecológico y favorece el cuidado del medio ambiente, al emplear materiales de desecho en la generación de los nuevos. Combinando los plásticos reciclados y la celulosa, se crea un material respetuoso con el medio ambiente. No obstante, existe un motivo mayor para su fabricación: se trata de un compuesto con propiedades mecánicas optimizadas que se adapta a numerosas aplicaciones como mobiliario urbano, señales de tráfico… Sus características aúnan los beneficios de unir ambos materiales. Por un lado, la baja densidad, las posibilidades de reciclado y la alta resistencia al impacto aportadas por el plástico. Por el otro, las hebras celulósicas mejoran notablemente el módulo de Young, la rigidez y el límite de tensión que son capaces de soportar con respecto a probetas de misma forma pero sin fibras. Estas propiedades no son las únicas que se modifican al combinar las dos substancias. El refuerzo, al tratarse de un material hidrófilo, tenderá a atrapar la humedad ambiental. Como consecuencia, se producirá un hinchamiento que es posible que repercuta en la estabilidad dimensional del material durante su uso. Asimismo, si la celulosa está en contacto continuo con agua, modifica su naturaleza ya que se producen una serie de cambios en su estructura. El agua genera también la rotura de las interacciones fibra-matriz en la interfase del material compuesto, lo que reduce grandemente las propiedades del ecocomposite. Así pues, la absorción de agua es uno de los principales problemas de estos materiales y limita sus aplicaciones y también la reciclabilidad de los residuos celulósicos y plásticos. Por lo tanto, el principal objetivo de este proyecto es la caracterización tanto de la cinética como del mecanismo de la absorción de agua en los ecocomposites a través de varias técnicas y ensayos siempre con el fin último de reducir la absorción de agua y mejorar las propiedades y las aplicaciones de estos materiales reciclados. Se estudiaron ecocomposites obtenidos a partir de residuos plásticos agrarios y urbanos, con una cantidad variable de celulosa residual, entre 25 y 35%. A algunos de ellos se les había añadido un peróxido orgánico en proporción del 0,025% o 0,05% en peso. Una parte de los materiales había sido sometida a un envejecimiento acelerado de 100, 250 o 500 horas en cámara climática, donde se exponen a calor y humedad. La proporción no constante de celulosa se empleó para descubrir cuánto afecta su variación en la absorción de agua. El peróxido estaba presente como ayuda para entrecruzar la matriz con el refuerzo, que ya se había comprobado que mejoraba las propiedades mecánicas del material, y se pretendía investigar si también podía causar una mejora en la absorción de agua, o bien suponía un empeoramiento. Por último, se pretendía estudiar si el envejecimiento de estos materiales altera la absorción de agua. La absorción se caracterizó principalmente a través de tres procedimientos, todos ellos basados en la medición de ciertas propiedades tras la inmersión de las muestras en viales con agua destilada. Por un lado, se controló la absorción midiendo la ganancia de masa de las muestras mediante una balanza analítica. Por otro lado, se midió el hinchamiento de las probetas a lo largo del tiempo. Finalmente, se caracterizó el agua absorbida y se midió la absorción mediante espectrofotometría infrarroja por transformada de Fourier (FTIR), lo que suministró información sobre los tipos de agua absorbida y los mecanismos de absorción. En el estudio del hinchamiento y de la absorción por gravimetría se tomaron todas las muestras, con una y dos replicaciones. Para la espectrofotometría se analizaron los filmes de código 43500, 43505, 43520 y 43525. La absorción de agua es un fenómeno que se puede explicar en muchos casos a través de la segunda ley de Fick. Para poder emplear esta ley, se toman como hipótesis que la difusión es no estacionaria, la presión y la temperatura son constantes y se trata de difusión unidireccional. Para la aplicación de esta teoría, es necesario que las muestras sean láminas bidimensionales de espesor despreciable. Los coeficientes de difusión se pueden calcular mediante una serie de métodos propuestos por Crank en The Mathematics of Diffusion [5] que recopilan soluciones a esta segunda ley de Fick. La absorción de agua fue aumentando con el tiempo. Inicialmente, el gradiente es superior; esto es, se absorbió más durante las primeras horas de inmersión. Para que la difusión sea Fickiana, el proceso debe ser reversible y alcanzarse un valor de equilibrio de absorción. Nuestros resultados indican que esto no se cumple para largos tiempos de inmersión ya que la teoría predice que la masa absorbida tiende a un valor constante en el equilibrio, mientras que los datos experimentales muestran una tendencia de la absorción a crecer indefinidamente Para tiempos cortos inferiores a 50h, al tratarse de pocas horas de inmersión, el material no se degrada, por lo que el proceso puede describirse como Fickiano. Se calcularon los coeficientes de difusión aparentes y valor estable de cantidad de agua al que tiende la absorción cuando el comportamiento es Fickiano. Los resultados indican que la celulosa afecta considerablemente a la absorción, favoreciéndola cuanto mayor es el porcentaje de fibras. Asimismo, el peróxido no tiene un efecto reseñable en la absorción, porque aúna dos efectos contrarios: favorece el entrecruzamiento de la interfase matriz-refuerzo y degrada parcialmente el material, sobre todo las impurezas de polipropileno en el rHDPE. Finalmente, el envejecimiento muestra una tendencia a facilitar la absorción, pero es importante señalar que esta tendencia desaparece cuando se utiliza peróxido en la composición del ecocomposite, por lo que el peróxido puede aumentar la duración del material. Por último, la espectroscopía FTIR fue muy útil para conocer los tipos de agua que se encuentran en el interior del material, ya que el espectro infrarrojo del agua absorbida depende de cómo se encuentre unida al material. La espectroscopía FTIR ha permitido también observar la cinética de absorción de los diferentes tipos de agua por separado. La absorción del agua libre y el agua ligada se describe bien mediante un modelo Fickiano. La bondad del ajuste para un comportamiento Fickiano es alta. Así pues, los resultados obtenidos aportan información sobre la cinética y los mecanismos de absorción de agua y han mostrado que la absorción depende del contenido en celulosa y no empeora por la adición de peróxido. Por el contrario, el peróxido añadido parece reducir la absorción en materiales envejecidos, lo que puede contribuir a aumentar la duración de estos materiales y mejorar así la reciclabilidad de los residuos empleados.
Resumo:
En este trabajo se estudia la modelización y optimización de procesos industriales de separación mediante el empleo de mezclas de líquidos iónicos como disolventes. Los disolventes habitualmente empleados en procesos de absorción o extracción suelen ser componentes orgánicos muy volátiles y dañinos para la salud humana. Las innovadoras propiedades que presentan los líquidos iónicos, los convierten en alternativas adecuadas para solucionar estos problemas. La presión de vapor de estos compuestos es muy baja y apenas varía con la temperatura. Por tanto, estos compuestos apenas se evaporan incluso a temperaturas altas. Esto supone una gran ventaja en cuanto al empleo de estos compuestos como disolventes industriales ya que permite el reciclaje continuo del disolvente al final del proceso sin necesidad de introducir disolvente fresco debido a la evaporación del mismo. Además, al no evaporarse, estos compuestos no suponen un peligro para la salud humana por inhalación; al contrario que otros disolventes como el benceno. El único peligro para la salud que tienen estos compuestos es por tanto el de contacto directo o ingesta, aunque de hecho muchos Líquidos Iónicos son inocuos con lo cual no existe peligro para la salud ni siquiera a través de estas vías. Los procesos de separación estudiados en este trabajo, se rigen por la termodinámica de fases, concretamente el equilibrio líquido-vapor. Para la predicción de los equilibrios se ha optado por el empleo de modelos COSMO (COnductor-like Screening MOdel). Estos modelos tienen su origen en el empleo de la termodinámica de solvatación y en la mecánica cuántica. En el desarrollo de procesos y productos, químicos e ingenieros frecuentemente precisan de la realización de cálculos de predicción de equilibrios de fase. Previamente al desarrollo de los modelos COSMO, se usaban métodos de contribución de grupos como UNIFAC o modelos de coeficientes de actividad como NRTL.La desventaja de estos métodos, es que requieren parámetros de interacción binaria que únicamente pueden obtenerse mediante ajustes por regresión a partir de resultados experimentales. Debido a esto, estos métodos apenas tienen aplicabilidad para compuestos con grupos funcionales novedosos debido a que no se dispone de datos experimentales para llevar a cabo los ajustes por regresión correspondientes. Una alternativa a estos métodos, es el empleo de modelos de solvatación basados en la química cuántica para caracterizar las interacciones moleculares y tener en cuenta la no idealidad de la fase líquida. Los modelos COSMO, permiten la predicción de equilibrios sin la necesidad de ajustes por regresión a partir de resultados experimentales. Debido a la falta de resultados experimentales de equilibrios líquido-vapor de mezclas en las que se ven involucrados los líquidos iónicos, el empleo de modelos COSMO es una buena alternativa para la predicción de equilibrios de mezclas con este tipo de materiales. Los modelos COSMO emplean las distribuciones superficiales de carga polarizada (sigma profiles) de los compuestos involucrados en la mezcla estudiada para la predicción de los coeficientes de actividad de la misma, definiéndose el sigma profile de una molécula como la distribución de probabilidad de densidad de carga superficial de dicha molécula. Dos de estos modelos son COSMO-RS (Realistic Solvation) y COSMO-SAC (Segment Activity Coefficient). El modelo COSMO-RS fue la primera extensión de los modelos de solvatación basados en continuos dieléctricos a la termodinámica de fases líquidas mientras que el modelo COSMO-SAC es una variación de este modelo, tal y como se explicará posteriormente. Concretamente en este trabajo se ha empleado el modelo COSMO-SAC para el cálculo de los coeficientes de actividad de las mezclas estudiadas. Los sigma profiles de los líquidos iónicos se han obtenido mediante el empleo del software de química computacional Turbomole y el paquete químico-cuántico COSMOtherm. El software Turbomole permite optimizar la geometría de la molécula para hallar la configuración más estable mientras que el paquete COSMOtherm permite la obtención del perfil sigma del compuesto mediante el empleo de los datos proporcionados por Turbomole. Por otra parte, los sigma profiles del resto de componentes se han obtenido de la base de datos Virginia Tech-2005 Sigma Profile Database. Para la predicción del equilibrio a partir de los coeficientes de actividad se ha empleado la Ley de Raoult modificada. Se ha supuesto por tanto que la fracción de cada componente en el vapor es proporcional a la fracción del mismo componente en el líquido, dónde la constante de proporcionalidad es el coeficiente de actividad del componente en la mezcla multiplicado por la presión de vapor del componente y dividido por la presión del sistema. Las presiones de vapor de los componentes se han obtenido aplicando la Ley de Antoine. Esta ecuación describe la relación entre la temperatura y la presión de vapor y se deduce a partir de la ecuación de Clausius-Clapeyron. Todos estos datos se han empleado para la modelización de una separación flash usando el algoritmo de Rachford-Rice. El valor de este modelo reside en la deducción de una función que relaciona las constantes de equilibrio, composición total y fracción de vapor. Para llevar a cabo la implementación del modelado matemático descrito, se ha programado un código empleando el software MATLAB de análisis numérico. Para comprobar la fiabilidad del código programado, se compararon los resultados obtenidos en la predicción de equilibrios de mezclas mediante el código con los resultados obtenidos mediante el simulador ASPEN PLUS de procesos químicos. Debido a la falta de datos relativos a líquidos iónicos en la base de datos de ASPEN PLUS, se han introducido estos componentes como pseudocomponentes, de manera que se han introducido únicamente los datos necesarios de estos componentes para realizar las simulaciones. El modelo COSMO-SAC se encuentra implementado en ASPEN PLUS, de manera que introduciendo los sigma profiles, los volúmenes de la cavidad y las presiones de vapor de los líquidos iónicos, es posible predecir equilibrios líquido-vapor en los que se ven implicados este tipo de materiales. De esta manera pueden compararse los resultados obtenidos con ASPEN PLUS y como el código programado en MATLAB y comprobar la fiabilidad del mismo. El objetivo principal del presente Trabajo Fin de Máster es la optimización de mezclas multicomponente de líquidos iónicos para maximizar la eficiencia de procesos de separación y minimizar los costes de los mismos. La estructura de este problema es la de un problema de optimización no lineal con variables discretas y continuas, es decir, un problema de optimización MINLP (Mixed Integer Non-Linear Programming). Tal y como se verá posteriormente, el modelo matemático de este problema es no lineal. Por otra parte, las variables del mismo son tanto continuas como binarias. Las variables continuas se corresponden con las fracciones molares de los líquidos iónicos presentes en las mezclas y con el caudal de la mezcla de líquidos iónicos. Por otra parte, también se ha introducido un número de variables binarias igual al número de líquidos iónicos presentes en la mezcla. Cada una de estas variables multiplican a las fracciones molares de sus correspondientes líquidos iónicos, de manera que cuando dicha variable es igual a 1, el líquido se encuentra en la mezcla mientras que cuando dicha variable es igual a 0, el líquido iónico no se encuentra presente en dicha mezcla. El empleo de este tipo de variables obliga por tanto a emplear algoritmos para la resolución de problemas de optimización MINLP ya que si todas las variables fueran continuas, bastaría con el empleo de algoritmos para la resolución de problemas de optimización NLP (Non-Linear Programming). Se han probado por tanto diversos algoritmos presentes en el paquete OPTI Toolbox de MATLAB para comprobar cuál es el más adecuado para abordar este problema. Finalmente, una vez validado el código programado, se han optimizado diversas mezclas de líquidos iónicos para lograr la máxima recuperación de compuestos aromáticos en un proceso de absorción de mezclas orgánicas. También se ha usado este código para la minimización del coste correspondiente a la compra de los líquidos iónicos de la mezcla de disolventes empleada en la operación de absorción. En este caso ha sido necesaria la introducción de restricciones relativas a la recuperación de aromáticos en la fase líquida o a la pureza de la mezcla obtenida una vez separada la mezcla de líquidos iónicos. Se han modelizado los dos problemas descritos previamente (maximización de la recuperación de Benceno y minimización del coste de operación) empleando tanto únicamente variables continuas (correspondientes a las fracciones o cantidades molares de los líquidos iónicos) como variables continuas y binarias (correspondientes a cada uno de los líquidos iónicos implicados en las mezclas).