37 resultados para feminismo de la diferencia
Resumo:
El objeto de estudio del presente trabajo ha sido identificar las variables que determinan ganar o perder en los momentos críticos en los partidos de baloncesto en función de la localización del partido. Se han analizado un total de 41 momentos críticos, correspondientes a 30 partidos de la liga regular de la ACB de la temporada 2007-2008, que cumplen, según la literatura, con la noción de momento crítico y corresponden a los tiempos extras y los últimos 5 minutos de partidos donde la diferencia de puntos es menor o igual a 6. Los resultados muestran mejores valores en los equipos ganadores cuando juegan como local, en los rebotes defensivos y los tiros libres anotados; y cuando juegan como visitante en los lanzamientos de 2 puntos fallados.
Resumo:
Las consecuencias de la diferencia de edad cronológica existente entre dos sujetos de un mismo grupo de edad Gutiérrez (2013) son conocidas como efecto de la edad relativa (RAE) y ha sido ampliamente estudiado en varios países y deportes, entre ellos el fútbol y el baloncesto. El semestre del año en el que se nace afecta mucho a lo largo de la vida de todo deportista, ya que las diferencias madurativas existentes entre los jugadores de un mismo grupo de edad influyen para llegar al profesionalismo. Esto ocurre tanto en fútbol como en baloncesto. El presente estudio pretende analizar el efecto de la edad relativa en el fútbol y el baloncesto élite español y sus diferencias. Se ha utilizado una muestra de 1224 jugadores de ACB y LFP, selecciones cadete y juvenil de los dos deportes desde el 2004 hasta el 2013 en los años que se clasificaron para jugar el campeonato de Europa. Los resultados muestran la existencia del efecto de la edad relativa en ambos deportes, y un efecto mayor en edades más tempranas. También se puede observar la diferencia en ambos deportes, siendo más en ACB que en la LFP los seleccionados en edades tempranas. En cambio, de las selecciones de la LFP han logrado más que en ACB el éxito profesional, considerándose como llegar a primera, ya sea en España u otros países.
Resumo:
El ganado porcino ibérico aprovecha los recursos naturales de la dehesa mediante montanera, principalmente la bellota y los pastos existentes. La línea 133 de los seguros agrarios españoles recoge el seguro de compensación por pérdida de pastos, solo para bovino reproductor y de lidia, ovino, caprino y equino, no incluyen los cerdos en montanera. Emplea un Índice de Vegetación de la Diferencia Normalizada (NDVI) medido por satélite sobre pastos desarbolados. El objetivo es comprobar si se puede utilizar un índice de vegetación para estimar la producción de pasto y bellota. Se han tomado datos del aforo de montaneras desde 1999 al 2005, y del pasto en dehesas de Salamanca (Vitigudino), Cáceres (Trujillo) y Córdoba (Pozoblanco) durante 2010 al 2012. Con los datos de 2010 y 2011 se estableció una función de producción del pasto fresco en función del NDVI, mostrando un coeficiente de correlación de 0,975, altamente significativa. Los datos obtenidos en 2012 se utilizaron para validar la función de producción de pasto fresco. La comparación entre los valores observados y simulados para 2012 ha mostrado un coeficiente de correlación de 0,734. Como conclusión, el NDVI puede ser un buen estimador de la cantidad de pasto fresco en dehesas españolas.
Resumo:
Hoy en día el ruido presente en los aeropuertos se ha convertido en un problema importante en las poblaciones cercanas a éstos por el incremento del tráfico aéreo año tras año. Gracias a que los aviones son cada vez menos ruidosos y el esfuerzo por parte de los gestores aeroportuarios en disminuir el ruido en su entorno los niveles de presión sonora se han rebajado con el paso del tiempo. A pesar de esa reducción de nivel de presión sonora existen algunas maniobras especialmente ruidosas que generan gran molestia a la población. Una de esas maniobras es el uso del sistema de frenado de reversa. Este sistema consiste en desviar el flujo de aire que sale del motor, produciéndose una rápida reducción de la velocidad, con el inconveniente de la gran generación de ruido. El uso de este sistema está prohibido en los grandes aeropuertos europeos bajo condiciones normales, pero a pesar de eso algunas aeronaves lo utilizan y no son sancionadas por no existir forma de comprobar que la reversa ha sido activada sin acceder a la caja negra del avión. En el año 2013 la Universidad Politécnica de Madrid patenta un sistema para detectar la activación del freno de reversa mediante procedimientos acústicos, concretamente con técnicas basadas en la estimación de la potencia acústica. Dicho sistema hace uso de dos micrófonos de medida para captar las ondas de presión sonora, y localizar su proveniencia para poder estimar la potencia acústica utilizando un modelo matemático inverso. Esos micrófonos han de estar durante periodos de tiempo indeterminados al aire libre, por ese motivo es necesario el diseño de algún tipo de sistema para proteger la instrumentación de la intemperie. Aunque existen soluciones comerciales generalistas para la medida de ruido en exteriores, dichas soluciones tienen un coste muy elevado que dificulta que el sistema de detección patentado pueda ser desarrollado comercialmente, por ello la motivación de este proyecto surge con la intención de diseñar elementos que puedan ser utilizados de manera conjunta con el sistema de detección de ruido de reversa para que en un futuro se pueda llegar a comercializar un producto completo con esta tecnología. El objetivo principal de este proyecto es diseñar y caracterizar desde el punto de vista acústico un sistema microfónico de intemperie, para cuantificar el efecto que provoca el uso del sistema que se va a implementar sobre la localización de eventos sonoros para que posteriormente se pueda valorar si desde el punto de vista técnico el prototipo diseñado puede ser utilizado junto con el sistema de detección de la reversa. Este Trabajo Fin de Máster se centrará en el diseño y caracterización de un sistema de localización de eventos sonoros, basado en la medida de la diferencia de tiempos de llegada de la onda acústica a dos micrófonos, así como en el diseño y medida del efecto que tiene un sistema de intemperie diseñado específicamente para esta aplicación, con la intención de que sea utilizado en las líneas de investigación abiertas del Grupo de Instrumentación y Acústica Aplicada de la Universidad Politécnica de Madrid. En el informe primero se hará una introducción en la que se expondrá la base teórica de la localización sonora y los métodos que generalmente se utilizan para su medida. También se realizará un análisis de los sistemas de medición acústica en intemperie para aplicar dichos conocimientos en el diseño que se propondrá más tarde. A continuación se expondrá la metodología propuesta para la caracterización del sistema implementado, consistente en una combinación de medidas de laboratorio con ensayos in situ. También se definirán los parámetros a definir que se consideran indispensables para conocer el correcto funcionamiento de un sistema de localización. Posteriormente se realizará un análisis de los resultados obtenidos en las mediciones, realizando comparaciones entre las distintas configuraciones adoptadas y valorando críticamente el funcionamiento del sistema de intemperie diseñado. Por último, se comentarán las conclusiones obtenidas tras el estudio, desarrollo y análisis de resultados obtenidos en este trabajo fin de máster. También se propondrán trabajos para el futuro que permitan perfeccionar el sistema diseñado frente a las condiciones de intemperie, y que además permitan aumentar su rango de funcionamiento.
Resumo:
Dado el impacto que las redes sociales tienen en la vida diaria de los países desarrollados o en vías de desarrollo, éstas han pasado a tener un papel clave en dicho desarrollo social. Dicha consideración no sólo debe centrarse en cómo las personas forman las redes, sino las herramientas que emplean y la forma en la que estas deben ser tratadas por las organizaciones para conseguir una posición preferencial con los usuarios que forman las redes (considerando el creciente número de éstos todos los días). El presente trabajo trata de exponer la diferencia entre medios sociales y redes sociales, estableciendo una diferencia clara entre entre ambos, define lo que son los medios sociales (Social Media en Inglés), qué se debe considerar para que el uso de los mismos tenga una carácter exitoso en sus operaciones y cómo las organizaciones perciben la diferencia competitiva que éstos aportan en sus actividades. Una vez definida, destacamos la importancia de la consideración de estos nuevos medios en las estrategias de la compañías. Para ello, debemos ver el ecosistema de los medios sociales de forma general, y focalizarnos en la relación marca-compañía con el usuario/cliente. La inclusión de los medios sociales en las estrategias de las compañías, primero de forma independiente y, posteriormente, de forma integrada, hace que los modelos de negocio de las compañías se vayan adaptando a los tiempos. Se describe el cambio de paradigma de los modelos de negocio afectados por la introducción de los medios sociales, los elementos y tipos de modelos de negocio que se pueden tener, así como la adaptación de los modelos establecidos a los nuevos modelos. Posteriormente se ve cómo las compañías incluyen los medios sociales en su estrategia, a través de una planificación de medios sociales,partiendo de qué es una estrategia y cómo debe evaluarse. Una vez se ha definido el contexto (qué son los medios sociales, redes sociales, modelo de negocio, estrategia; así como sus características), se definen los bloques funcionales de los medios sociales, con su paralelismo en términos de la estrategia de las compañías, así como se indican determinados factores de éxito para su adopción. Hasta ahora, estamos mirando la organización de forma individual pero, dentro del mercado en el que desarrollan sus actividades, éstas deben ser evaluadas sobre el grado de desarrollo de los medios sociales en sus operaciones; y poder establecer así comparativas, con otras organizaciones, en relación a su grado de implantación. Con dicho objetivo, desarrollaremos un modelo de madurez de medios sociales (Social Media Maturity Model, SMMM o SM3), de forma teórica. ¿Cómo considerar dicho modelo de forma realista?. Basándonos en el método del estudio de casos, se realizará una análisis e investigación de diferentes organizaciones que nos indicará el grado de aproximación del modelo de madurez referenciado, con respecto a la realidad. ABSTRACT Considering the impact that social networks have in the daily life in developed or developing countries, they have come to play a key role in this social development. This consideration should not only focus on how people set up networks, but the tools they use and how these ones should be addressed by organizations to achieve a preferential position with users, forming networks (considering the increasing number of them every day). This work tries to explain the difference between social media and social networking, establishing a clear difference between them, defines what is Social Media, which should be considered for its use has a successful character in their operations and how organizations perceive the competitive edge they bring in their activities. Once they are defined, we remark the importance of considering these new media in companies strategies. For this, we see the social media ecosystem in general, and to focus on brandcompany relationship with the user/client. The inclusion of social media strategies in the companies, independently and in a integrated way, makes the business models of companies evolve along the time. It is described the paradigm shift in business models affected by the introduction of social media, elements and types of business models that can be had, and the adaptation of established models to new models. After that, it’s shown how companies include social media strategy through social media planning and building on what is a strategy and how it should be evaluated. Once the context is defined (what is social media, social networking, business model, strategy, and its features), the functional blocks of social media are defined, with its parallelism in terms of the strategy of companies and specific success factors are indicated. So far, we are looking at the organization individually but within the market in which they operate, they must be evaluated on the degree of development of social media in their operations; and to establish and compare with other organizations in relation to their degree of implementation. With this goal, we will develop a maturity model for social media (Social Media Maturity Model, SMMM or SM3), theoretically. How to consider the model realistically?. Based on the case study method, the analysis and research of different organizations that it will indicate the accuracy of the maturity model referenced with respect to the actually performed.
Resumo:
Un suelo sometido a carga tangencial repetida se comporta de diferente manera al principio de la solicitación que después de un número de ciclos de carga. La respuesta del suelo es cada vez menos rígida, adquiriendo más deformación ante la misma solicitación, esto es debido al fenómeno de degradación de la estructura del suelo producido por la actuación de una carga continua en el tiempo. Ésta, por sí sola, no es capaz de alterar la disposición de las partículas de suelo, pero al repetirse regularmente implica su actuación en cada nuevo ciclo de carga sobre un suelo ya solicitado al mismo esfuerzo, durante un corto espacio de tiempo antes y que, por tanto, o no ha recuperado aún su posicionamiento inicial o ha producido una pequeña alteración en la estructura del suelo que la diferencia de la situación anterior. La generación de presión en el agua intersticial de un suelo saturado al aplicar tensión de corte predispone al suelo a un comportamiento diferente ante nuevas situaciones de carga y constituye así el principal factor causante del fenómeno de degradación de un suelo blando. En este artículo se estudia el fenómeno de degradación y se proponen dependencias con las variables que intervienen en el problema.
Resumo:
El mercado ibérico de futuros de energía eléctrica gestionado por OMIP (“Operador do Mercado Ibérico de Energia, Pólo Português”, con sede en Lisboa), también conocido como el mercado ibérico de derivados de energía, comenzó a funcionar el 3 de julio de 2006. Se analiza la eficiencia de este mercado organizado, por lo que se estudia la precisión con la que sus precios de futuros predicen el precio de contado. En dicho mercado coexisten dos modos de negociación: el mercado continuo (modo por defecto) y la contratación mediante subasta. En la negociación en continuo, las órdenes anónimas de compra y de venta interactúan de manera inmediata e individual con órdenes contrarias, dando lugar a operaciones con un número indeterminado de precios para cada contrato. En la negociación a través de subasta, un precio único de equilibrio maximiza el volumen negociado, liquidándose todas las operaciones a ese precio. Adicionalmente, los miembros negociadores de OMIP pueden liquidar operaciones “Over-The-Counter” (OTC) a través de la cámara de compensación de OMIP (OMIClear). Las cinco mayores empresas españolas de distribución de energía eléctrica tenían la obligación de comprar electricidad hasta julio de 2009 en subastas en OMIP, para cubrir parte de sus suministros regulados. De igual manera, el suministrador de último recurso portugués mantuvo tal obligación hasta julio de 2010. Los precios de equilibrio de esas subastas no han resultado óptimos a efectos retributivos de tales suministros regulados dado que dichos precios tienden a situarse ligeramente sesgados al alza. La prima de riesgo ex-post, definida como la diferencia entre los precios a plazo y de contado en el periodo de entrega, se emplea para medir su eficiencia de precio. El mercado de contado, gestionado por OMIE (“Operador de Mercado Ibérico de la Energía”, conocido tradicionalmente como “OMEL”), tiene su sede en Madrid. Durante los dos primeros años del mercado de futuros, la prima de riesgo media tiende a resultar positiva, al igual que en otros mercados europeos de energía eléctrica y gas natural. En ese periodo, la prima de riesgo ex-post tiende a ser negativa en los mercados de petróleo y carbón. Los mercados de energía tienden a mostrar niveles limitados de eficiencia de mercado. La eficiencia de precio del mercado de futuros aumenta con el desarrollo de otros mecanismos coexistentes dentro del mercado ibérico de electricidad (conocido como “MIBEL”) –es decir, el mercado dominante OTC, las subastas de centrales virtuales de generación conocidas en España como Emisiones Primarias de Energía, y las subastas para cubrir parte de los suministros de último recurso conocidas en España como subastas CESUR– y con una mayor integración de los mercados regionales europeos de energía eléctrica. Se construye un modelo de regresión para analizar la evolución de los volúmenes negociados en el mercado continuo durante sus cuatro primeros años como una función de doce indicadores potenciales de liquidez. Los únicos indicadores significativos son los volúmenes negociados en las subastas obligatorias gestionadas por OMIP, los volúmenes negociados en el mercado OTC y los volúmenes OTC compensados por OMIClear. El número de creadores de mercado, la incorporación de agentes financieros y compañías de generación pertenecientes a grupos integrados con suministradores de último recurso, y los volúmenes OTC compensados por OMIClear muestran una fuerte correlación con los volúmenes negociados en el mercado continuo. La liquidez de OMIP está aún lejos de los niveles alcanzados por los mercados europeos más maduros (localizados en los países nórdicos (Nasdaq OMX Commodities) y Alemania (EEX)). El operador de mercado y su cámara de compensación podrían desarrollar acciones eficientes de marketing para atraer nuevos agentes activos en el mercado de contado (p.ej. industrias consumidoras intensivas de energía, suministradores, pequeños productores, compañías energéticas internacionales y empresas de energías renovables) y agentes financieros, captar volúmenes del opaco OTC, y mejorar el funcionamiento de los productos existentes aún no líquidos. Resultaría de gran utilidad para tales acciones un diálogo activo con todos los agentes (participantes en el mercado, operador de mercado de contado, y autoridades supervisoras). Durante sus primeros cinco años y medio, el mercado continuo presenta un crecimento de liquidez estable. Se mide el desempeño de sus funciones de cobertura mediante la ratio de posición neta obtenida al dividir la posición abierta final de un contrato de derivados mensual entre su volumen acumulado en la cámara de compensación. Los futuros carga base muestran la ratio más baja debido a su buena liquidez. Los futuros carga punta muestran una mayor ratio al producirse su menor liquidez a través de contadas subastas fijadas por regulación portuguesa. Las permutas carga base liquidadas en la cámara de compensación ubicada en Madrid –MEFF Power, activa desde el 21 de marzo de 2011– muestran inicialmente valores altos debido a bajos volúmenes registrados, dado que esta cámara se emplea principalmente para vencimientos pequeños (diario y semanal). Dicha ratio puede ser una poderosa herramienta de supervisión para los reguladores energéticos cuando accedan a todas las transacciones de derivados en virtud del Reglamento Europeo sobre Integridad y Transparencia de los Mercados de Energía (“REMIT”), en vigor desde el 28 de diciembre de 2011. La prima de riesgo ex-post tiende a ser positiva en todos los mecanismos (futuros en OMIP, mercado OTC y subastas CESUR) y disminuye debido a la curvas de aprendizaje y al efecto, desde el año 2011, del precio fijo para la retribución de la generación con carbón autóctono. Se realiza una comparativa con los costes a plazo de generación con gas natural (diferencial “clean spark spread”) obtenido como la diferencia entre el precio del futuro eléctrico y el coste a plazo de generación con ciclo combinado internalizando los costes de emisión de CO2. Los futuros eléctricos tienen una elevada correlación con los precios de gas europeos. Los diferenciales de contratos con vencimiento inmediato tienden a ser positivos. Los mayores diferenciales se dan para los contratos mensuales, seguidos de los trimestrales y anuales. Los generadores eléctricos con gas pueden maximizar beneficios con contratos de menor vencimiento. Los informes de monitorización por el operador de mercado que proporcionan transparencia post-operacional, el acceso a datos OTC por el regulador energético, y la valoración del riesgo regulatorio pueden contribuir a ganancias de eficiencia. Estas recomendaciones son también válidas para un potencial mercado ibérico de futuros de gas, una vez que el hub ibérico de gas –actualmente en fase de diseño, con reuniones mensuales de los agentes desde enero de 2013 en el grupo de trabajo liderado por el regulador energético español– esté operativo. El hub ibérico de gas proporcionará transparencia al atraer más agentes y mejorar la competencia, incrementando su eficiencia, dado que en el mercado OTC actual no se revela precio alguno de gas. ABSTRACT The Iberian Power Futures Market, managed by OMIP (“Operador do Mercado Ibérico de Energia, Pólo Português”, located in Lisbon), also known as the Iberian Energy Derivatives Market, started operations on 3 July 2006. The market efficiency, regarding how well the future price predicts the spot price, is analysed for this energy derivatives exchange. There are two trading modes coexisting within OMIP: the continuous market (default mode) and the call auction. In the continuous trading, anonymous buy and sell orders interact immediately and individually with opposite side orders, generating trades with an undetermined number of prices for each contract. In the call auction trading, a single price auction maximizes the traded volume, being all trades settled at the same price (equilibrium price). Additionally, OMIP trading members may settle Over-the-Counter (OTC) trades through OMIP clearing house (OMIClear). The five largest Spanish distribution companies have been obliged to purchase in auctions managed by OMIP until July 2009, in order to partly cover their portfolios of end users’ regulated supplies. Likewise, the Portuguese last resort supplier kept that obligation until July 2010. The auction equilibrium prices are not optimal for remuneration purposes of regulated supplies as such prices seem to be slightly upward biased. The ex-post forward risk premium, defined as the difference between the forward and spot prices in the delivery period, is used to measure its price efficiency. The spot market, managed by OMIE (Market Operator of the Iberian Energy Market, Spanish Pool, known traditionally as “OMEL”), is located in Madrid. During the first two years of the futures market, the average forward risk premium tends to be positive, as it occurs with other European power and natural gas markets. In that period, the ex-post forward risk premium tends to be negative in oil and coal markets. Energy markets tend to show limited levels of market efficiency. The price efficiency of the Iberian Power Futures Market improves with the market development of all the coexistent forward contracting mechanisms within the Iberian Electricity Market (known as “MIBEL”) – namely, the dominant OTC market, the Virtual Power Plant Auctions known in Spain as Energy Primary Emissions, and the auctions catering for part of the last resort supplies known in Spain as CESUR auctions – and with further integration of European Regional Electricity Markets. A regression model tracking the evolution of the traded volumes in the continuous market during its first four years is built as a function of twelve potential liquidity drivers. The only significant drivers are the traded volumes in OMIP compulsory auctions, the traded volumes in the OTC market, and the OTC cleared volumes by OMIClear. The amount of market makers, the enrolment of financial members and generation companies belonging to the integrated group of last resort suppliers, and the OTC cleared volume by OMIClear show strong correlation with the traded volumes in the continuous market. OMIP liquidity is still far from the levels reached by the most mature European markets (located in the Nordic countries (Nasdaq OMX Commodities) and Germany (EEX)). The market operator and its clearing house could develop efficient marketing actions to attract new entrants active in the spot market (e.g. energy intensive industries, suppliers, small producers, international energy companies and renewable generation companies) and financial agents as well as volumes from the opaque OTC market, and to improve the performance of existing illiquid products. An active dialogue with all the stakeholders (market participants, spot market operator, and supervisory authorities) will help to implement such actions. During its firs five and a half years, the continuous market shows steady liquidity growth. The hedging performance is measured through a net position ratio obtained from the final open interest of a month derivatives contract divided by its accumulated cleared volume. The base load futures in the Iberian energy derivatives exchange show the lowest ratios due to good liquidity. The peak futures show bigger ratios as their reduced liquidity is produced by auctions fixed by Portuguese regulation. The base load swaps settled in the clearing house located in Spain – MEFF Power, operating since 21 March 2011, with a new denomination (BME Clearing) since 9 September 2013 – show initially large values due to low registered volumes, as this clearing house is mainly used for short maturity (daily and weekly swaps). The net position ratio can be a powerful oversight tool for energy regulators when accessing to all the derivatives transactions as envisaged by European regulation on Energy Market Integrity and Transparency (“REMIT”), in force since 28 December 2011. The ex-post forward risk premium tends to be positive in all existing mechanisms (OMIP futures, OTC market and CESUR auctions) and diminishes due to the learning curve and the effect – since year 2011 – of the fixed price retributing the indigenous coal fired generation. Comparison with the forward generation costs from natural gas (“clean spark spread”) – obtained as the difference between the power futures price and the forward generation cost with a gas fired combined cycle plant taking into account the CO2 emission rates – is also performed. The power futures are strongly correlated with European gas prices. The clean spark spreads built with prompt contracts tend to be positive. The biggest clean spark spreads are for the month contract, followed by the quarter contract and then by the year contract. Therefore, gas fired generation companies can maximize profits trading with contracts of shorter maturity. Market monitoring reports by the market operator providing post-trade transparency, OTC data access by the energy regulator, and assessment of the regulatory risk can contribute to efficiency gains. The same recommendations are also valid for a potential Iberian gas futures market, once an Iberian gas hub – currently in a design phase, with monthly meetings amongst the stakeholders in a Working Group led by the Spanish energy regulatory authority since January 2013 – is operating. The Iberian gas hub would bring transparency attracting more shippers and improving competition and thus its efficiency, as no gas price is currently disclosed in the existing OTC market.
Resumo:
El Hayedo de Montejo es un espacio emblemático de la Comunidad Madrid que posee la peculiaridad de ser uno de los hayedos más meridionales de Europa. El Grupo deInvestigación de Genética, Fisiología e Historia Forestal de la Escuela de Ingeniería de Montes (ETSIM) de la Universidad Politécnica de Madrid (UPM) lleva cerca de 30 años estudiándolo para saber cómo funciona y asegurar su conservación. El objetivo de este trabajo es realizar una evaluación del estado de conservación de este espacio protegido. De la aplicación en el Hayedo de Montejo se observa que a pesar de llevar este paraje 30 años con un modelo de gestión muy riguroso encaminado a la conservación, el resultado para las zonas de hayedo en sentido estricto ha sido de Desfavorable-Inadecuado, si bien en detalle, una pequeña parte ha resultado Favorable (22 % de su superficie). Para las teselas del hábitat de rebollar la valoración global ha sido entre Favorable y Desfavorable-Inadecuado. No se puede determinar un estado de conservación global puesto que la diferencia de superficie entre zonas con estado de conservación favorable y las que lo están en desfavorable-inadecuado es mínima y el método no permite inclinar la valoración hacia uno u otro. En las teselas de brezal no se ha podido determinar un estado de conservación global por falta de datos para evaluar un parámetro determinante en dicho estado de conservación. Las zonas de brezal del Hayedo están siendo poco a poco colonizadas por el arbolado (rebollos y robles albares), por tanto, en un futuro cabría esperar que el tipo de hábitat Brezales secos europeos dejase de tener representación en este espacio.
Resumo:
El primer procesamiento estricto realizado con el software científico Bernese y contemplando las más estrictas normas de cálculo recomendadas internacionalmente, permitió obtener un campo puntual de alta exactitud, basado en la integración y estandarización de los datos de una red GPS ubicada en Costa Rica. Este procesamiento contempló un total de 119 semanas de datos diarios, es decir unos 2,3 años, desde enero del año 2009 hasta abril del año 2011, para un total de 30 estaciones GPS, de las cuales 22 están ubicadas en el territorio nacional de Costa Rica y 8 internaciones pertenecientes a la red del Sistema Geocéntrico para las Américas (SIRGAS). Las denominadas soluciones semilibres generaron, semana a semana, una red GPS con una alta exactitud interna definida por medio de los vectores entre las estaciones y las coordenadas finales de la constelación satelital. La evaluación semanal dada por la repetibilidad de las soluciones brindó en promedio errores de 1,7 mm, 1,4 mm y 5,1 mm en las componentes [n e u], confirmando una alta consistencia en estas soluciones. Aunque las soluciones semilibres poseen una alta exactitud interna, las mismas no son utilizables para fines de análisis cinemático, pues carecen de un marco de referencia. En Latinoamérica, la densificación del Marco Internacional Terrestre de Referencia (ITRF), está representado por la red de estaciones de operación continua GNSS de SIRGAS, denominada como SIRGAS-CON. Por medio de las denominadas coordenadas semanales finales de las 8 estaciones consideradas como vínculo, se refirió cada una de las 119 soluciones al marco SIRGAS. La introducción del marco de referencia SIRGAS a las soluciones semilibres produce deformaciones en estas soluciones. Las deformaciones de las soluciones semilibres son producto de las cinemática de cada una de las placas en las que se ubican las estaciones de vínculo. Luego de efectuado el amarre semanal a las coordenadas SIRGAS, se hizo una estimación de los vectores de velocidad de cada una de las estaciones, incluyendo las de amarre, cuyos valores de velocidad se conocen con una alta exactitud. Para la determinación de las velocidades de las estaciones costarricenses, se programó una rutina en ambiente MatLab, basada en una ajuste por mínimos cuadrados. Los valores obtenidos en el marco de este proyecto en comparación con los valores oficiales, brindaron diferencias promedio del orden de los 0,06 cm/a, -0,08 cm/a y -0,10 cm/a respectivamente para las coordenadas [X Y Z]. De esta manera se logró determinar las coordenadas geocéntricas [X Y Z]T y sus variaciones temporales [vX vY vZ]T para el conjunto de 22 estaciones GPS de Costa Rica, dentro del datum IGS05, época de referencia 2010,5. Aunque se logró una alta exactitud en los vectores de coordenadas geocéntricas de las 22 estaciones, para algunas de las estaciones el cálculo de las velocidades no fue representativo debido al relativo corto tiempo (menos de un año) de archivos de datos. Bajo esta premisa, se excluyeron las ocho estaciones ubicadas al sur de país. Esto implicó hacer una estimación del campo local de velocidades con solamente veinte estaciones nacionales más tres estaciones en Panamá y una en Nicaragua. El algoritmo usado fue el denominado Colocación por Mínimos Cuadrados, el cual permite la estimación o interpolación de datos a partir de datos efectivamente conocidos, el cual fue programado mediante una rutina en ambiente MatLab. El campo resultante se estimó con una resolución de 30' X 30' y es altamente constante, con una velocidad resultante promedio de 2,58 cm/a en una dirección de 40,8° en dirección noreste. Este campo fue validado con base en los datos del modelo VEMOS2009, recomendado por SIRGAS. Las diferencias de velocidad promedio para las estaciones usadas como insumo para el cálculo del campo fueron del orden los +0,63 cm/a y +0,22 cm/a para los valores de velocidad en latitud y longitud, lo que supone una buena determinación de los valores de velocidad y de la estimación de la función de covarianza empírica, necesaria para la aplicación del método de colocación. Además, la grilla usada como base para la interpolación brindó diferencias del orden de -0,62 cm/a y -0,12 cm/a para latitud y longitud. Adicionalmente los resultados de este trabajo fueron usados como insumo para hacer una aproximación en la definición del límite del llamado Bloque de Panamá dentro del territorio nacional de Costa Rica. El cálculo de las componentes del Polo de Euler por medio de una rutina programa en ambiente MatLab y aplicado a diferentes combinaciones de puntos no brindó mayores aportes a la definición física de este límite. La estrategia lo que confirmó fue simplemente la diferencia en la dirección de todos los vectores velocidad y no permitió reveló revelar con mayor detalle una ubicación de esta zona dentro del territorio nacional de Costa Rica. ABSTRACT The first strict processing performed with the Bernese scientific software and contemplating the highest standards internationally recommended calculation, yielded a precise field of high accuracy, based on the integration and standardization of data from a GPS network located in Costa Rica. This processing watched a total of 119 weeks of daily data, is about 2.3 years from January 2009 to April 2011, for a total of 30 GPS stations, of which 22 are located in the country of Costa Rica and 8 hospitalizations within the network of Geocentric System for the Americas (SIRGAS). The semi-free solutions generated, every week a GPS network with high internal accuracy defined by vectors between stations and the final coordinates of the satellite constellation. The weekly evaluation given by repeatability of the solutions provided in average errors of 1.7 mm 1.4 mm and 5.1 mm in the components [n e u], confirming a high consistency in these solutions. Although semi-free solutions have a high internal accuracy, they are not used for purposes of kinematic analysis, because they lack a reference frame. In Latin America, the densification of the International Terrestrial Reference Frame (ITRF), is represented by a network of continuously operating GNSS stations SIRGAS, known as SIRGAS-CON. Through weekly final coordinates of the 8 stations considered as a link, described each of the solutions to the frame 119 SIRGAS. The introduction of the frame SIRGAS to semi-free solutions generates deformations. The deformations of the semi-free solutions are products of the kinematics of each of the plates in which link stations are located. After SIRGAS weekly link to SIRGAS frame, an estimate of the velocity vectors of each of the stations was done. The velocity vectors for each SIRGAS stations are known with high accuracy. For this calculation routine in MatLab environment, based on a least squares fit was scheduled. The values obtained compared to the official values, gave average differences of the order of 0.06 cm/yr, -0.08 cm/yr and -0.10 cm/yr respectively for the coordinates [XYZ]. Thus was possible to determine the geocentric coordinates [XYZ]T and its temporal variations [vX vY vZ]T for the set of 22 GPS stations of Costa Rica, within IGS05 datum, reference epoch 2010.5. The high accuracy vector for geocentric coordinates was obtained, however for some stations the velocity vectors was not representative because of the relatively short time (less than one year) of data files. Under this premise, the eight stations located in the south of the country were excluded. This involved an estimate of the local velocity field with only twenty national stations plus three stations in Panama and Nicaragua. The algorithm used was Least Squares Collocation, which allows the estimation and interpolation of data from known data effectively. The algorithm was programmed with MatLab. The resulting field was estimated with a resolution of 30' X 30' and is highly consistent with a resulting average speed of 2.58 cm/y in a direction of 40.8° to the northeast. This field was validated based on the model data VEMOS2009 recommended by SIRGAS. The differences in average velocity for the stations used as input for the calculation of the field were of the order of +0.63 cm/yr, +0.22 cm/yr for the velocity values in latitude and longitude, which is a good determination velocity values and estimating the empirical covariance function necessary for implementing the method of application. Furthermore, the grid used as the basis for interpolation provided differences of about -0.62 cm/yr, -0.12 cm/yr to latitude and longitude. Additionally, the results of this investigation were used as input to an approach in defining the boundary of Panama called block within the country of Costa Rica. The calculation of the components of the Euler pole through a routine program in MatLab and applied to different combinations of points gave no further contributions to the physical definition of this limit. The strategy was simply confirming the difference in the direction of all the velocity vectors and not allowed to reveal more detail revealed a location of this area within the country of Costa Rica.
Resumo:
En la actualidad las industrias químicas, farmacéuticas y clínicas, originan contaminantes en aguas superficiales, aguas subterráneas y suelos de nuestro país, como es el caso del fenol, contaminante orgánico común y altamente dañino para los organismos, incluso a bajas concentraciones. Existen en el mercado diferentes metodologías para minimizar la contaminación pero muchos de estos procesos tienen un alto coste, generación de contaminantes, etc. La adsorción de contaminantes por medio de arcillas es un método ampliamente utilizado, encontrándose eficaz y económico. Pero la dificultad de adsorber un contaminante orgánico como el fenol motiva la creación de un material llamado organoarcillas. Las organoarcillas son arcillas modificadas con un surfactante, a su vez, los surfactantes son moléculas orgánicas que confieren a la superficie de la arcilla carga catiónica en lugar de aniónica, haciendo más fácil la adsorción de fenol. Para esta tesis se ha elegido el caolín como material adsorbente, fácilmente disponible y relativamente de bajo coste. Se ha trabajado con: arenas de caolín, material directo de la extracción, y caolín lavado, originado del proceso de lavado de las arenas de caolín. Ambos grupos se diferencian fundamentalmente por su contenido en cuarzo, ampliamente mayor en las arenas de caolín. Con el objetivo de desarrollar un material a partir del caolín y arenas de éste con capacidad de retención de contaminates, en concreto, fenol, se procedió a modificar los materiales de partida mediante tratamientos térmicos, mecánicos y/o químicos, dando lugar a compuestos con mayor superficie química reactiva. Para ello se sometió el caolín y las arenas caoliníferas a temperaturas de 750ºC durante 3h, a moliendas hasta alcanzar su amorfización, y/o a activaciones con HCl 6M o con NaOH 5M durante 3h a 90ºC. En total se obtuvieron 18 muestras, en las que se estudiaron las características físico-químicas, mineralógicas y morfológicas de cada una de ellas con el fin de caracterizarlas después de haber sufrido los tratamientos y/o activaciones químicas. Los cambios producidos fueron estudiados mediante pH, capacidad de intercambio catiónico (CEC), capacidad de adsorción de agua (WCU y CWC), distribución de tamaño de partícula (PSD), área de superficie específica (SBET), difracción de rayos X (XRD), espectroscopía infrarroja por transformada de Fourier (FTIR), métodos térmicos (TG, DTG y DTA), y microscopía electrónica de transmisión y barrido (SEM y TEM). Además se analizó los cambios producidos por los tratamientos en función de las pérdidas de Al y Si que acontece en las 18 muestras. Los resultados para los materiales derivados de la arenas caoliníferas fueron similares a los obtenidos para los caolines lavados, la diferencia radica en la cantidad de contenido de caolinita en los diferente grupos de muestras. Apoyándonos en las técnicas de caracterización se puede observar que los tratamientos térmico y molienda produce materiales amorfos, este cambio en la estructura inicial sumado a las activaciones ácida y alcalina dan lugar a pérdidas de Si y Al, ocasionando que sus propiedades físico-químicas, mineralógicas y morfológicas se vean alteradas. Un fuerte aumento es observado en las áreas superficiales y en la CEC en determinadas muestras, además entre los cambios producidos se encuentra la producción de diferentes zeolitas en porcentajes distintos con el tratamiento alcalino. Para la obtención de las organoarcillas, las 18 muestras se sometieron a la surfactación con hexadeciltrimetil amonio (HDTMA) 20 mM durante 24h a 60ºC, esta concentración de tensioactivo fue más alta que la CEC de cada muestra. Los camext bios anteriormente producidos por los tratamientos y activaciones, afectan de forma diferente en la adsorción de HDTMA, variando por tanto la adsorción del surfactante en la superficie de las muestras. Se determinó el tensioactivo en superficie por FTIR, además se realizó un análisis de componentes principales (PCA) para examinar la dependencia entre las relaciones Si/Al de las muestras en la capacidad de adsorción de tensioactivo, y para el estudio de la adsorción de HDTMA en las muestras se realizaron además del análisis termogravimétrico, aproximaciones con los modelos de Freundllich y Langmuir. Se persigue conocer las diferentes formas y maneras que tiene el tensioactivo de fijarse en la superficie de las muestras. En las organoarcillas resultantes se cuantificó el fenol adsorbido cuando éstas fueron puestas en contacto con diferentes concentraciones de fenol: 50, 500, 1000, 2000, y 2500 mg/l durante 24h. El contaminante sorbido se calculó por medio de cromatografía de gases, y se realizaron aproximaciones con los modelos de Freundllich y Langmuir. El comportamiento de adsorción de fenol en arcillas orgánicas es regido por las características de las muestras. De forma general se puede decir que las muestras de caolines lavados tienen más capacidad de adsorción de fenol que las muestras de arenas de caolín y que la activación alcalina ha proporcionado una mejora en la adsorción de fenol en los dos grupos. En consecuencia se han obtenido materiales adsorbentes heterogéneos y por tanto, con propiedades diferentes. Se ha evaluado el comportamiento global de las arenas de caolín por un lado y del caolín lavado por otro. Las arenas de caolín presentan altos niveles de cuarzo y su uso para ciertos tipos de industrias no son recomendados en ocasiones por el alto costo que el proceso de limpieza y purificación implicaría. Por ello es importante reseñar en este proyecto las aplicaciones que ofrecen algunas muestras de este grupo. Los ensayos acontecidos en esta tesis han dado lugar a las siguientes publicaciones: • Pérdida de Al y Si en caolines modificados térmica- o mecánicamente y activados por tratamientos químicos. A. G. San Cristóbal, C Vizcayno, R. Castelló. Macla 9, 113-114. (2008). • Acid activation of mechanically and thermally modfied kaolins. A. G. San Cristóbal, R. Castelló, M. A. Martín Luengo, C Vizcayno. Mater. Res. Bull. 44 (2009) 2103-2111. • Zeolites prepared from calcined and mechanically modified kaolins. A comparative study. A. G San Cristóbal, R. Castelló, M. A. Martín Luengo, C Vizcayno. Applied Clay Science 49 (2010) 239-246. • Study comparative of the sorption of HDTMA on natural and modified kaolin. A. G San Cristóbal, R. Castelló, J. M. Castillejo, C Vizcayno. Aceptada en Clays and Clay minerals. • Capacity of modified kaolin sand and washed kaolin to adsorb phenol. A. G San Cristóbal, R. Castelló, C Vizcayno. Envío a revista sujeto a la publicación del artículo anterior. ABSTRACT Today’s chemical, pharmaceutical and clinical industries generate pollutants that affect the soils and surface and ground waters of our country. Among these, phenol is a common organic pollutant that is extremely harmful to living organisms, even at low concentrations. Several protocols exist to minimize the effects of pollutants, but most are costly procedures or even generate other pollutants. The adsorption of hazardous materials onto clays is perhaps the most used, efficient and cost-saving method available. However, organic compounds such as phenol are difficult to adsorb and this has led to the development of materials known as organoclays, which are much better at remediating organic compounds. Organoclays are clays that have been modified using a surfactant. In turn, surfactants are organic molecules that confer a cationic rather than anionic charge to the clay surface, improving it’s capacity to adsorb phenol. For this doctorate project, kaolin was selected as an adsorbent material for the removal of phenol given its easy sourcing and relatively low cost. The materials investigated were kaolin sand, a directly extracted material, and washed kaolin, which is the byproduct of the kaolin sand washing process. The main difference between the materials is their quartz content, which is much higher in the kaolin sands. To generate a product from kaolin or kaolin sand capable of retaining organic pollutants such as phenol, both materials were subjected to several heat, chemical and/or mechanical treatments to give rise to compounds with a greater reactive surface area. To this end the two starting materials underwent heating at 750ºC for 3 h, grinding to the point of amorphization and/or activation with HCl 6M or NaOH 5M for 3 h at 90ºC. These treatments gave rise to 18 processed samples, which were characterized in terms of their morphological, mineralogical, and physical-chemical properties. The behaviour of these new materials was examined in terms of their pH, cation exchange capacity (CEC), water adsorption capacity (WCU and WCC), particle size distribution (PSD), specific surface area (SBET), and their X-ray diffraction (XRD), Fourier transform infrared spectroscopy (FTIR), thermal (DTG, DTA) and scanning and transmission electron microscopy (SEM and TEM) properties. The changes conferred by the different treatments were also examined in terms of Al and Si losses. Results for the materials derived from kaolin sands and washed kaolin were similar, with differences attributable to the kaolinite contents of the samples. The treatments heat and grinding produced amorphous materials, which when subjected to acid or alkali activation gave rise to Si and Al losses. This in turn led to a change in physico- chemical, mineralogical and morphological properties. Some samples showed a highly increased surface area and CEC. Further, among the changes produced, alkali treatment led to the generation of zeolites in different proportions depending on the sample. To produce the organoclays, the 18 samples were surfacted with hexadecyltrimethylammonium (HDTMA) 20 mM for 24 h at 60ºC. This surfactant concentration is higher than the CEC of each sample. The amount of HDTMA adsorbed onto the surface of each sample determined by FTIR varied according to treatment. A principle components analysis (PCA) was performed to examine correlations between sample Si/Al ratios and surfactant adsorption capacity. In addition, to explore HDTMA adsorption by the samples, DTG and DTA data were fitted to Freundllich and Langmuir models. The mechanisms of surfactant attachment to the sample surface were also addressed. The amount of phenol adsorbed by the resultant organoclays was determined when exposed to different phenol concentrations: 50, 500, 1000, 2000, and 2500 mg/l for 24 h. The quantity of adsorbed pollutant was estimated by gas chromatography and the data fitted to the models of Freundllich and Langmuir. Results indicate that the phenol adsorption capacity of the surfacted samples is dependent on the sample’s characteristics. In general, the washed kaolin samples showed a greater phenol adsorption capacity than the kaolon sands and alkali activation improved this capacity in the two types of sample. In conclusion, the treatments used gave rise to adsorbent materials with varying properties. Kaolin sands showed high quartz levels and their use in some industries is not recommended due to the costs involved in their washing and purification. The applications suggested by the data obtained for some of the kaolin sand samples indicate the added value of this industrial by-product. The results of this research project have led to the following publications: • Pérdida de Al y Si en caolines modificados térmica- o mecánicamente y activados por tratamientos químicos. A. G. San Cristóbal, C Vizcayno, R. Castelló. Macla 9, 113-114. (2008). • Acid activation of mechanically and thermally modfied kaolins. A. G. San Cristóbal, R. Castelló, M. A. Martín Luengo, C Vizcayno. Mater. Res. Bull. 44 (2009) 2103-2111. • Zeolites prepared from calcined and mechanically modified kaolins. A comparative study. A. G. San Cristóbal, R. Castelló, M. A. Martín Luengo, C Vizcayno. Applied Clay Science 49 (2010) 239-246. • Study comparative of the sorption of HDTMA on natural and modified kaolin. A. G. San Cristóbal, R. Castelló, J. M. Castillejo, C Vizcayno Accepted in Clays and Clay minerals. • Capacity of modified kaolin sand and washed kaolin to adsorb phenol. A. G San Cristóbal, R. Castelló, C Vizcayno. Shipment postponed, subject to the publication of the previous article.
Resumo:
Las imágenes satelitales son una importante fuente de información para el seguimiento de la vegetación y de la cartografía de la tierra en varias escalas. Varios índices de vegetación se han empleado para evaluar la calidad y cantidad de la vegetación utilizando datos satelitales. Dado que las características de las bandas espectrales del infrarrojo cercano (NIR, radiación reflejada en la longitud de onda 800 nm) y el rojo (RED, radiación reflejada en la longitud de onda 670 nm) son muy distintas según el tipo de sensor, los valores del Índice de Vegetación de la Diferencia Normalizada (NDVI) variarán según el tamaño del píxel y de la heterogeneidad y la escala de las superficies. Se seleccionaron dos zonas de dehesa (Salamanca y Córdoba) y se tomaron imágenes mensuales del satélite DEIMOS-1 con una resolución espacial de 22 m × 22 m. El objetivo de este estudio es establecer una comparación entre diferentes resoluciones, mediante los valores de NDVI obtenidos en diferentes épocas del año en el que la actividad fotosintética de las plantas varía. Los resultados a diferentes escalas mostraron un comportamiento fractal del NDVI por lo que puede concluirse que las áreas de pasto herbáceo evaluadas presentan un comportamiento homogéneo.
Resumo:
La presente tesis constituye un avance en el estudio de los métodos para cuantificar la fibra soluble y los efectos de las fracciones de fibra y las fuentes de fibra sobre la digestión de las diferentes fracciones de fibra (soluble e insoluble) en el conejo. Hay un efecto positivo de la fibra soluble sobre la salud intestinal de los conejos y, por ende, una reducción de la mortalidad en animales destetados. Pese a esto, no está claro si estos efectos se deben específicamente a la fracción soluble. Por lo que los objetivos generales de esta tesis fueron: 1) comparar diferentes metodologías químicas e in vitro para cuantificar la fibra soluble y estudiar las posibles interferencias en la cuantificación de la fibra soluble por las mucinas, y viceversa, 2) determinar los efectos de la fibra, el lugar de fermentación, el método para valorar la fibra soluble e insoluble, y la corrección de la fibra soluble por el contenido intestinal de mucinas sobre la digestibilidad de las distintas fracciones de la fibra y 3) evaluar los efectos individuales de las fracciones soluble e insoluble de la fibra de pulpa de remolacha y de manzana, sobre la digestibilidad de la fibra soluble e insoluble y los parámetros digestivos. Para ello se llevaron a cabo 4 estudios. En el primer estudio se compararon diferentes metodologías químicas e in vitro para valorar la fibra soluble de diferentes alimentos y se estudió la posible interferencia en la determinación de la fibra soluble y mucinas. Para ello se utilizaron seis ingredientes (pulpa de remolacha, pectinas de pulpa de remolacha, pulpa de remolacha lavada, paja de cereal, cascarilla de girasol y lignocelulosa) y siete piensos de conejos con diferentes niveles de fibra soluble. En un primer experimento se analizó la fibra dietética total (FDT), la fibra dietética insoluble (FDI), la fibra dietética soluble (FDS), la fibra neutro detergente corregida por cenizas y proteínas (aFNDmo-pb), y la digestibilidad in vitro 2 pasos pepsina/pancreatina (residuo corregido por cenizas y proteína, ivMSi2) de los ingredientes y piensos. Además la fibra soluble se calculó mediante la diferencia entre FDT-FDI (FDSFDI), FDT- ivMSi2 (FDSivMSi2), y FDT - aFNDmo-pb (FDSaFNDmo-pb). Cuando la fibra soluble se determinó directamente como FDS o se calculó como FDT-FDI no se observaron diferencias (109 g/kg MS, en promedio). Sin embargo, cuando la fibra soluble se calculó como FDT - aFNDmo-pb su valor fue un 40% menor (153 g/kg MS. P < 0,05), mientras que la FDSFDI (124 g/kg MS) no fue diferente a ninguna de las otras metodologías. La correlación entre los tres métodos fue elevada (r > 0,96. P < 0,001. n = 13), pero disminuyó o incluso desapareció cuando la pulpa o las pectinas de la remolacha fueron excluidas del análisis. En un segundo experimento, se comparó el método ivDMi2 usando crisoles (método de referencia) con una modificación del mismo usando bolsas ANKOM digeridas individualmente o en colectivo para simplificar la determinación de la FDSivMSi2. La FDSivMSi2 no difirió entre los métodos comparados. En un tercer experimento, se analizó la posible interferencia entre la determinación de la fibra soluble y las mucinas intestinales. Se observó un contenido de FDT y de mucinas elevado en las muestras de pectinas de remolacha (994 y 709 g/kg MS), así como en el moco intestinal de conejo (571 y 739 g/kg MS) cuando se aplicó el método de mucinas por precipitación con etanol. Sin embargo, después de aplicar una pectinasa en el material precipitado, la cantidad de mucinas recuperadas en las muestras de pectinas de remolacha fue cercana a cero, mientras que en el moco intestinal fue similar a los resultados previos al uso de la enzima. Con los resultados de este ensayo se estimaron los carbohidratos de mucinas retenidos en los contenidos digestivos y se propuso una corrección para la determinación de la digestibilidad de la FDT y fibra soluble. En conclusión, la contaminación de las mucinas de la digesta con fibra soluble se soluciona usando pectinasas. El segundo estudio se centró en estudiar: 1) el efecto del tipo de fibra, 2) el sitio de fermentación, 3) el método para cuantificar fibra y 4) la corrección por mucinas sobre la digestibilidad de la fibra. Para ello se formularon tres piensos con diferentes niveles de fibra soluble (FDT-aFNDmo-pb). Un pienso bajo en fibra soluble (LSF. 85 g/kg DM), un pienso medio en fibra soluble (MSF. 102 g/kg DM), y un pienso alto en fibra soluble (HSF. 145 g/kg DM). Estos piensos se obtuvieron reemplazando un 50% del heno del alfalfa en el pienso MSF por una mezcla de pulpa de manzana y remolacha (HSF) o por una mezcla de cascarilla de avena y proteína de soja (LSF). Se utilizaron 30 conejas canuladas para determinar la digestibilidad ileal y fecal. La digestibilidad cecal se calculó mediante diferencia entre la digestibilidad fecal e ileal. La fibra insoluble se determinó como aFNDmo-pb, IDF, e ivMSi2, mientras que la fibra soluble se calculó como FDSFDI, FDSaFNDmo-pb, y FDSivMSi2. La digestibilidad de la FDT y la fibra soluble se corrigieron por las mucinas. La concentración de mucinas en la digesta ileal y fecal, aumento desde el grupo LSF hasta el grupo con el pienso HSF (P < 0,01). La corrección por mucinas aumentó las digestibilidades de la FDT y la fibra soluble a nivel ileal, mientras que a nivel cecal las redujo. (P < 0.01). El coeficiente de digestibilidad ileal de FDT aumentó desde el grupo LSF al grupo HSF (0,12 vs. 0,281. P < 0,01), sin diferencias en el coeficiente de digestibilidad cecal (0,264), por lo que la tendencia a nivel fecal entre los grupos se mantuvo. El coeficiente de digestibilidad ileal de la fibra insoluble aumento desde el grupo con el pienso LSF al grupo con el pienso HSF (0,113 vs. 0,210. P < 0,01), sin diferencias a nivel cecal (0,139) y sin efecto del método usado, resultando en una digestibilidad elevada a nivel fecal, con tendencias similares a las observadas a nivel ileal. El coeficiente de digestibilidad de la FND fue elevada en comparación con la FDI o la ivMSi2 (P > 0.01). El coeficiente de la digestibilidad ileal de la fibra soluble fue mayor en el grupo LSF respecto al grupo LSF (0,436 vs. 0,145. P < 0,01) y el método no afectó a esta determinación. El coeficiente de la digestibilidad cecal de la fibra soluble se redujo desde el grupo LSF hasta el grupo HSF (0,721 vs. 0,492. P < 0,05). El valor más bajo de digestibilidad cecal y fecal de fibra soluble fue medido con el método FDSaFNDmo-pb (P < 0,01). Se observó una alta correlación entre las digestibilidades de la fibra soluble determinada como FDSFDI, FDSaFNDmo-pb, y FDSivMSi2, por lo tanto la información proporcionada por una u otra metodología fueron similares. Sin embargo, cuando se compararon con efectos fisiológicos (producción de mucinas y peso del ciego y pH del ciego de un trabajo previo), la FDSaFNDmo-pb globalmente mostró estar mejor correlacionado con estos parámetros fisiológicos. En conclusión, la corrección por mucinas es necesaria para determinar la digestibilidad ileal de la FDT y fibra soluble, mientras que la elección de uno u otro método es menos relevante. La inclusión de pulpa de manzana y remolacha incrementa la cantidad de FDT que desaparece antes de llegar al ciego. En el tercer estudio se estudió el efecto de la fracción fibrosa soluble e insoluble de la pulpa de remolacha y el método de cuantificación de la fibra soluble e insoluble sobre la digestibilidad de la fibra y algunos parámetros digestivos. Para ello se formularon cuatro piensos con niveles similares de fibra insoluble (315g aFNDmo-pb/kg MS) y proteína (167 g/kg MS). El pienso control contuvo el nivel más bajo de fibra soluble (30,3 g/kg, con cascarilla de girasol y paja como fuente de fibra). Un segundo pienso se obtuvo mediante la sustitución de 60 g de almidón/kg del pienso control por pectinas de remolacha (82,9 g fibra soluble/kg MS). Los otras dos piensos resultaron de la sustitución parcial de las fuentes de fibra del pienso control por la fracción insoluble de la pulpa de remolacha y la pulpa de remolacha entera (42.2 y 82.3 g fibra soluble/kg MS, respectivamente). Cincuenta y seis conejos en cebo (14/pienso), de 2,4 0.21 kg de peso, fueron usados para determinar la digestibilidad ileal y fecal de la FDT, FDI, aFNDmo-pb, FDSFDI, y FDSaFNDmo-pb. La concentración de mucinas en el íleon y heces se utilizaron para corregir la digestibilidad de la FDT y fibra soluble. También se midió el peso de diferentes segmentos del tracto digestivo y el pH del contenido digestivo. Los conejos alimentados con el pienso de fibra insoluble de pulpa de remolacha mostraron los consumos más bajos con respecto a los demás grupos (124 vs. 139 g/d, respectivamente. P < 0,05). El flujo de mucinas ileales fue más alto (P < 0.05) en el grupo alimentado con el pienso de pectinas de remolacha (9,0 g/d en promedio) que los del grupo control (4,79 g/d), mostrando los otros dos grupos valores intermedios, sin detectarse diferencias a nivel fecal. La digestibilidad ileal de la FDT (corregida por mucinas) y la fibra insoluble no se vieron afectadas por el tipo de pienso. El método usado para determinar la fibra insoluble afectó su digestibilidad ileal (0,123 para FDI vs. 0,108 para aFNDmo-pb. P < 0.01). De todas formas, los métodos no afectaron al cálculo de la fibra fermentada antes del ciego (4,9 g/d en promedio). Los conejos alimentados con el pienso de pulpa de remolacha y con el pienso con la fracción insoluble de la pulpa de remolacha mostraron las digestibilidades fecales más altas de la fibra insoluble (0,266 en promedio vs. 0,106 del grupo control), mientras que en los animales del pienso con pectinas esta digestibilidad fue un 47% mayor respecto al pienso control (P < 0,001). La digestibilidad fecal de la fibra insoluble fue un 20% más alta cuando se usó la FND en lugar de FDI para determinarla (P < 0.001). Esto hizo variar la cantidad de fibra insoluble fermentada a lo largo del tracto digestivo (9,5 ó 7,5 g/d cuando fue calculada como FDI o aFNDmo-pb, respectivamente. P < 0,001). Las digestibilidades ileales de la fibra soluble fueron positivas cuando los análisis de fibra soluble de los contenidos ileales fueron corregidos por mucinas, (P < 0,001) excepto para la digestibilidad ileal de la FDSIDF del grupo control. Una vez corregidas por mucinas, los conejos alimentados con los piensos que contuvieron la fracción soluble de la pulpa de remolacha (pienso de pectina y pulpa de remolacha) mostraron una mayor digestibilidad ileal de la fibra soluble, respecto al grupo control (0,483 vs. -0,010. P = 0.002), mientras que el grupo del pienso de fibra insoluble de pulpa de remolacha mostró un valor intermedio (0,274). La digestibilidad total de la fibra soluble fue similar entre todos los grupos (0.93). Los conejos alimentados con pulpa de remolacha y su fracción insoluble mostraron los pesos relativos más altos del estómago respecto a los del pienso control y de pectinas (11 y 56 % respectivamente; P < 0,05). Por otra parte, el peso relativo del ciego aumentó en los animales que consumieron tanto la fracción soluble como insoluble de la pulpa de remolacha, siendo un 16% más pesados (P < 0,001) que el grupo control. El pH del contenido cecal fue más bajo en los animales del grupo de pulpa de remolacha que en los del grupo control (5,64 vs. 6,03; P < 0,001), mientras que los del grupo de pectinas y de fibra insoluble de pulpa de remolacha mostraron valores intermedios. En conclusión, el efecto positivo de la pulpa de remolacha en el flujo de mucinas a nivel ileal se debe a la fracción soluble e insoluble de la pulpa de remolacha. La mitad de la fibra soluble de la pulpa de remolacha desaparece antes de llegar al ciego, independientemente si esta proviene de pectinas puras o de la pulpa de remolacha. El pH cecal esta mejor correlacionado con la cantidad de FDT que desaparece antes del ciego más que con la que se degrada en el ciego. En el último estudio se estudiaron los efectos de la fibra soluble e insoluble de la pulpa de manzana sobre la digestibilidad de la fibra y algunos parámetros digestivos. Cuatro dietas fueron formuladas con niveles similares de fibra insoluble (aFNDmo-pb 32,4%) y proteína (18,6% ambos en base seca). El pienso control contuvo el nivel más bajo de fibra soluble (46 g de fibra soluble/kg, con cascarilla de girasol y paja de cereales como la fuentes de fibra). Un segundo pienso fue obtenido mediante la sustitución de 60 g de almidón/kg del pienso control por pectinas de manzana (105 g fibra soluble/kg). Los otros dos piensos se obtuvieron por la substitución de parte de las fuentes de fibra del pienso control por pulpa de manzana o pulpa de manzana despectinizada (93 y 71 g de fibra soluble/kg, respectivamente). La digestibilidad fecal fue determinada en 23 conejos/pienso con 1.68 ± 0.23 kg de peso vivo, los cuales fueron sacrificados a los 60 d edad para recolectar su contenido digestivo para determinar digestibilidad ileal y otros parámetros digestivos. La fibra soluble de manzana (pectinas y pulpa entera) estimuló el flujo ileal de mucinas (P = 0,002), pero no asi la pulpa despectinizada. La corrección por mucinas incrementó la digestibilidad de la FDT y la fibra soluble a nivel fecal, y especialmente a nivel ileal. Cerca de la mitad de la fibra soluble proveniente de los piensos con cualquiera de las fracciones de la pulpa de manzana fue degradada a nivel ileal, sin mostrar diferencias entre los grupos (46 y 86% en promedio a nivel ileal y fecal respectivamente). La inclusión de pulpa despectinizada de manzana mejoró la digestibilidad de la FND a nivel fecal (P < 0,05) pero no a nivel ileal. El contenido cecal de los conejos alimentados con la pulpa de manzana tuvieron el pH cecal más ácido que los del pienso control (5,55 vs. 5,95. P < 0,001), mientras que los animales con el pienso de pectinas de manzana y de pulpa de manzana despectinizada mostraron valores intermedios. En conclusión los efectos positivo de la pulpa de manzana en el flujo de mucinas se debió principalmente a la fracción soluble de la pulpa de manzana. La mitad de la fibra soluble fue degradada antes del ciego independientemente de si esta provino de las pectinas o de la pulpa de manzana. El pH cecal estuvo mejor correlacionado con la cantidad de FDT fermentada en todo el tracto digestivo y antes de llegar al ciego que con la que se degradó en el ciego. Al integrar los resultados de los estudio 2, 3 y 4 se concluyó que la corrección de mucinas de los contenidos digestivos al determinar FDT y fibra soluble es necesaria para ajustar los cálculos de su digestibilidad. Esta corrección es mucho más importante a nivel ileal y en dietas bajas en fibra soluble. Por otra parte, la FDT desapareció en proporciones importantes antes de llegar al ciego, especialmente en piensos que contienen pulpa de remolacha o de manzana o alguna fracción soluble o insoluble de las mismas y estas diferencias observadas entre los piensos a nivel ileal se correlacionaron mejor con el pH cecal, lo que indicaría que la FDT se solubilizó antes de llegar al ciego y una vez en esté fermentó. Estos resultados implican que determinar la fibra soluble como FDSaFNDmo-pb es la mejor opción y que en la determinación de la digestibilidad de la FDT y fibra soluble se debe considerar la corrección por mucinas especialmente a nivel ileal y en piensos bajos en fibra soluble. ABSTRACT The present thesis constitutes a step forward in advancing the knowledge of the methods to quantify soluble fibre and the effects of the fibre fractions and source of fibre on the site the digestion of different fractions of fibre (soluble and insoluble) in the rabbit. There is a positive effect of soluble fibre on rabbit digestive health and therefore on the reduction of mortality in weaning rabbits. Nevertheless, it is no so clear that the effects of soluble fibre on rabbits are due particularly to this fraction. This thesis aims: 1) to compare the quantification of soluble fibre in feeds using different chemical and in vitro approaches, and to study the potential interference between soluble fibre and mucin determinations, 2) to identify the effects of type of fibre, site of fermentation, method to quantify insoluble and soluble fibre, and correction of the intestinal soluble fibre content for intestinal mucin on the digestibility of fibre fractions and 3) to evaluate the individual effect of soluble and insoluble fibre from sugar beet pulp and apple pulp on ileal and faecal soluble and insoluble digestibility and digestive traits. These objectives were developed in four studies: The first study compared the quantification of soluble fibre in feeds using different chemical and in vitro approaches, and studied the potential interference between soluble fibre and mucin determinations. Six ingredients, sugar beet pulp (SBP), SBP pectins, insoluble SBP, wheat straw, sunflower hulls and lignocellulose, and seven rabbit diets, differing in soluble fibre content, were evaluated. In experiment 1, ingredients and diets were analysed for total dietary fibre (TDF), insoluble dietary fibre (IDF), soluble dietary fibre (SDF), aNDFom (corrected for protein, aNDFom-cp) and 2-step pepsin/pancreatin in vitro DM indigestibility (corrected for ash and protein, ivDMi2). Soluble fibre was estimated by difference using three procedures: TDF - IDF (SDFIDF), TDF - ivDMi2 (SDFivDMi2), and TDF - aNDFom-cp (SDFaNDFom-cp). Soluble fibre determined directly (SDF) or by difference, as SDFivDMi2 were not different (109 g/kg DM, on average). However, when it was calculated as SDFaNDFom-cp the value was 40% higher (153 g/kg DM, P < 0.05), whereas SDFIDF (124 g/kg DM) did not differ from any of the other methods. The correlation between the four methods was high (r ≥ 0.96. P ≤ 0.001. n = 13), but it decreased or even disappeared when SBP pectins and SBP were excluded and a lower and more narrow range of variation of soluble fibre was used. In experiment 2, the ivDMi2 using crucibles (reference method) were compared to those made using individual or collective ankom bags in order to simplify the determination of SDFivDMi2. The ivDMi2 was not different when using crucibles or individual or collective ankom bags. In experiment 3, the potential interference between soluble fibre and intestinal mucin determinations was studied using rabbit intestinal raw mucus, digesta and SBP pectins, lignocelluloses and a rabbit diet. An interference was observed between the determinations of soluble fibre and crude mucin, as the content of TDF and apparent crude mucin were high in SBP pectins (994 and 709 g/kg DM) and rabbit intestinal raw mucus (571 and 739 g/kg DM). After a pectinase treatment, the coefficient of apparent mucin recovery of SBP pectins was close to zero, whereas that of rabbit mucus was not modified. An estimation of the crude mucin carbohydrates retained in digesta TDF is proposed to correct TDF and soluble fibre digestibility. In conclusion, the values of soluble fibre depend on the methodology used. The contamination of crude mucin with soluble fibre is avoided using pectinase. The second study focused on the effect of type of fibre, site of fermentation, method for quantifying insoluble and soluble dietary fibre, and their correction for intestinal mucin on fibre digestibility. Three diets differing in soluble fibre were formulated (85 g/kg DM soluble fibre, in the low soluble fibre [LSF] diet; 102 g/kg DM in the medium soluble fibre [MSF] diet; and 145 g/kg DM in the high soluble fibre [HSF] diet). They were obtained by replacing half of the dehydrated alfalfa in the MSF diet with a mixture of beet and apple pulp (HSF diet) or with a mix of oat hulls and soybean protein (LSF diet). Thirty rabbits with ileal T-cannulas were used to determine total tract apparent digestibility (CTTAD) and ileal apparent digestibility (CIAD). Caecal digestibility was determined by difference between CTTAD and CIAD. Insoluble fibre was measured as aNDFom-cp, IDF, and ivDMi2, whereas soluble fibre was calculated as SDFaNDFom-cp, SDFIDF, SDFivDMi2. The intestinal mucin content was used to correct the TDF and soluble fibre digestibility. Ileal and faecal concentration of mucin increased from the LSF to the HSF diet group (P < 0.01). Once corrected for intestinal mucin, The CTTAD and CIAD of TDF and soluble fibre increased whereas caecal digestibility decreased (P < 0.01). The CIAD of TDF increased from the LSF to the HSF diet group (0.12 vs. 0.281. P < 0.01), with no difference in the caecal digestibility (0.264), resulting in a higher CTTAD from the LSF to the HSF diet group (P < 0.01). The CIAD of insoluble fibre increased from the LSF to the HSF diet group (0.113 vs. 0.21. P < 0.01), with no difference in the caecal digestibility (0.139) and no effect of fibre method, resulting in a higher CTTAD for rabbits fed the HSF diet compared with the MSF and LSF diets groups (P < 0.01). The CTTAD of aNDFom-cp was higher compared with IDF or ivDMi2 (P < 0.01). The CIAD of soluble fibre was higher for the HSF than for the LSF diet group (0.436 vs. 0.145. P < 0.01) and fibre method did not affect it. Caecal soluble fibre digestibility decreased from the LSF to the HSF diet group (0.721 vs. 0.492. P < 0.05). The lowest caecal and faecal soluble fibre digestibility was measured using SDFaNDFom-cp (P < 0.01). There was a high correlation among the digestibilities of soluble fibre measured as SDFaNDFom-cp, SDFIDF, and SDFivDMi2. Therefore, these methodologies provide similar information. However, the method that seems to be globally better related to the physiological traits (ileal flow of mucins, and relative weight of the caecum and caecal pH from previous work) was the SDFaNDFom-cp. In conclusion, a correction for intestinal mucin is necessary for ileal TDF and soluble fibre digestibility whereas the selection of the fibre method has a minor relevance. The inclusion of sugar beet and apple pulp increased the amount of TDF fermented in the small intestine. The third study examined the effect of fibre fractions of sugar beet pulp (SBP) and the method for quantifying soluble and insoluble fibre on soluble and insoluble fibre digestibility and digestive traits. Four diets were formulated with similar level of insoluble fibre (aNDFom-cp: 315 g/kg DM) and protein (167 g/kg DM). Control diet contained the lowest level of soluble fibre (30.3 g/kg DM, including sunflower hulls and straw as sole sources of fibre). A second diet was obtained by replacing 60 g starch/kg of control diet with SBP pectins (82.9 g soluble fibre/kg DM). Two more diets were obtained by replacing part of the fibrous sources of the control diet with either insoluble SBP fibre or SBP (42.2 and 82.3 g soluble fibre/kg DM, respectively). Fifty six (14/diet) rabbits weighing 2.40 0.213 kg were used to determine faecal and ileal digestibility of total dietary fibre (TDF), insoluble dietary fibre (IDF), neutral detergent fibre corrected for ash and CP (aNDFom-cp) and soluble fibre estimated as SDFaNDFom-cp and SDFIDF. Faecal and ileal mucin content was used to correct TDF and soluble fibre digestibility. It was also recorded weight of digestive segments and digesta pH. Rabbits fed insoluble SBP showed the lowest feed intake with respect to the other 3 diets (124 vs. 139 g/d, respectively. P < 0.05). Ileal mucin flow was higher (P < 0.05) in animals fed pectin and SBP diets (9.0 g/d, as average) than those fed control diet (4.79 g/d), showing InsSBP group an intermediate value. No differences on mucin content were detected at faecal level. There was no diet effect on the CIAD of TDF (corrected for mucin) and insoluble fibre. Fibre methodology influenced the CIAD of insoluble fibre (0.123 for IDF vs. 0.108 for aNDFom-cp. P < 0.01). Anyway, the amount of insoluble fibre fermented before the caecum did not differ between both methods (4.9 g/d, on average). Rabbits fed insoluble SBP and SBP diets showed the highest CTTAD of insoluble fibre (0.266 on average vs. 0.106 for control group), whereas those fed pectin diet had an intermediate value (0.106. P < 0.001). The CTTAD of insoluble fibre measured with IDF was higher than that measured with aNDFom-cp (by 20%. P < 0.001). It led that the amount of insoluble fibre fermented along the digestive tract were different (9.5 or 7.5 g/d when calculated as IDF or aNDFom-cp, respectively; P < 0.001). When the CIAD of soluble fibre was corrected for mucin they became positive (P < 0.001) except for control group measured as SDFIDF. Once corrected for mucin content, rabbits fed soluble fibre from SBP (pectin and SBP groups) showed higher CIAD of soluble fibre than control group (0.483 vs. -0.019. respectively), whereas the value for insoluble SBP group was intermediate 0.274. The CTTAD of soluble fibre (mucin corrected) was similar among diets 0.93. Rabbits fed with SBP and insoluble SBP diets showed higher total digestive tract and stomach relative weight than those fed pectin and control diets (by 11 and 56 %. respectively, P < 0.05). The caecal relative weight did not differ in rabbits fed pectin, insoluble SBP, and SBP diets (62 g/kg BW, as average) and they were on average 16% higher (P < 0.001) than in control group. Caecal content of rabbits fed SBP diet was more acid than those fed control diet (5.64 vs. 6.03. P < 0.001), whereas those from pectin and insoluble SBP diets showed intermediate values. In conclusion, the positive effect of SBP fibre on ileal mucin flow was due to both its soluble and insoluble fibre fraction. Half of the soluble SBP fibre was degraded before the caecum independently it came from pectin or SBP. The caecal pH correlated better with the ileal amount of fermented TDF in the digestive tract rather than with that fermented in the caecum. The last study examined the effect of soluble and insoluble fibre of apple pulp on fibre digestibility and digestive traits. Four diets were formulated with similar level of insoluble fibre (aNDFom-cp: 324 g/kg DM) and protein (18.6 g/kg DM). Control diet contained the lowest level of soluble fibre (46 g soluble fibre/kg DM, including oat hulls and straw as sole sources of fibre). A second diet was obtained by replacing 60 g starch/kg of control diet with apple pectins (105 g soluble fibre/kg DM). Two more diets were obtained by substituting part of the fibrous sources of the control diet by either apple pulp or depectinized apple pulp (93 and 71 g soluble fibre/kg, respectively). The CTTAD was determined in 23 rabbits/diet weighing 1.68 0.23 kg BW, and 23 rabbits/diet were slaughtered at 60 d of age to collect ileal digesta to determine CIAD and record other digestive traits. Soluble fibre from apple stimulated ileal flow of mucin (P = 0.002), but depectinized apple pulp did not. The correction for mucin increased the digestibility of crude protein, total dietary fibre, and soluble fibre at faecal, but especially at ileal level, depending in this case on the diet. Around half of the soluble fibre in diets containing any fibre fraction from apple was degraded at ileal level, with no differences among these diets (0.46 vs. 0.066 for control group, P=0.046). Faecal soluble fibre digestibility was 0.86 on average for all groups). Inclusion of the apple insoluble fibre improved NDF digestibility at faecal (0.222 vs. 0.069. P < 0.05) but not at ileal level. Caecal content of rabbits fed apple pulp diet was more acid than those fed control diet (5.55 vs. 5.95. P < 0.001), whereas those from pectin and depectinised apple pulp diets showed intermediate values. In conclusion, the positive effect of apple fibre on ileal mucin flow was mainly due to its soluble fibre fraction. Half of the soluble apple fibre was degraded before the caecum independently it came from pectin or apple pulp. The caecal pH correlated better with the total and ileal amount of fermented TDF in the digestive tract rather than with that fermented in the caecum. The results obtained in the studies 2, 3 and 4 were considered together. These results showed that the mucin correction is necessary when the TDF and soluble fibre digestibility is determined, and it correction is more important at ileal level and in diets with low level of soluble fibre. On another hand, incrementing the soluble fibre using sugar beet and apple pulp increased the amount of TDF disappear before the caecum. Moreover, the caecal pH correlated better with the ileal amount of fermented TDF in the digestive tract rather than with that fermented in the caecum. This suggests that an ileal fibre solubilisation may occur rather than ileal fermentation. Therefore the implications of this work were that: the estimation of soluble fibre as SDFaNDFom-cp is an adequate method considering its correlation with the physiological effects; and the TDF and soluble fibre digestibility must be corrected with intestinal mucins, especially when the ileal digestibility is determined.
Resumo:
El riesgo asociado a la rotura de un depósito de agua en entorno urbano (como la ocurrida, por ejemplo, en la Ciudad Autónoma de Melilla en Noviembre de 1997) y los potenciales daños que puede causar, pone en duda la seguridad de este tipo de infraestructuras que, por necesidades del servicio de abastecimiento de agua, se construyen habitualmente en puntos altos y cercanos a los núcleos de población a los que sirven. Sin embargo, la baja probabilidad de que se produzca una rotura suele rebajar los niveles de alerta asociados a los depósitos, haciéndose hincapié en la mejora de los métodos constructivos sin elaborar metodologías que, como en el caso de las presas y las balsas de riego, establezcan la necesidad de clasificar el riesgo potencial de estas infraestructuras en función de su emplazamiento y de estudiar la posible construcción de medidas mitigadoras de una posible rotura. Por otro lado, para establecer los daños que pueden derivarse de una rotura de este tipo, se hace imprescindible la modelización bidimensional de la ola de rotura por cuanto la malla urbana a la que afectaran no es susceptible de simulaciones unidimensionales, dado que no hay un cauce que ofrezca un camino preferente al agua. Este tipo de simulación requiere de una inversión económica que no siempre está disponible en la construcción de depósitos de pequeño y mediano tamaño. Esta tesis doctoral tiene como objetivo el diseño de una metodología simplificada que, por medio de graficas y atendiendo a las variables principales del fenómeno, pueda estimar un valor para el riesgo asociado a una posible rotura y sirva como guía para establecer si un deposito (existente o de nueva implantación) requiere de un modelo de detalle para estimar el riesgo y si es conveniente implantar alguna medida mitigadora de la energía producida en una rotura de este tipo. Con carácter previo se ha establecido que las variables que intervienen en la definición de riesgo asociado a la rotura, son el calado y la velocidad máxima en cada punto sensible de sufrir daños (daños asociados al vuelco y arrastre de personas principalmente), por lo que se ha procedido a estudiar las ecuaciones que rigen el problema de la rotura del depósito y de la transmisión de la onda de rotura por la malla urbana adyacente al mismo, así como los posibles métodos de resolución de las mismas y el desarrollo informático necesario para una primera aproximación a los resultados. Para poder analizar las condiciones de contorno que influyen en los valores resultantes de velocidad y calado, se ha diseñado una batería de escenarios simplificados que, tras una modelización en detalle y un análisis adimensional, han dado como resultado que las variables que influyen en los valores de calado y velocidad máximos en cada punto son: la altura de la lamina de agua del depósito, la pendiente del terreno, la rugosidad, la forma del terreno (en términos de concavidad) y la distancia del punto de estudio al deposito. Una vez definidas las variables que influyen en los resultados, se ha llevado a cabo una segunda batería de simulaciones de escenarios simplificados que ha servido para la discusión y desarrollo de las curvas que se presentan como producto principal de la metodología simplificada. Con esta metodología, que solamente necesita de unos cálculos simples para su empleo, se obtiene un primer valor de calado y velocidad introduciendo la altura de la lámina de agua máxima de servicio del depósito cuyo riesgo se quiere evaluar. Posteriormente, y utilizando el ábaco propuesto, se obtienen coeficientes correctores de los valores obtenidos para la rugosidad y pendiente media del terreno que se esta evaluando, así como para el grado de concavidad del mismo (a través de la pendiente transversal). Con los valores obtenidos con las curvas anteriores se obtienen los valores de calado y velocidad en el punto de estudio y, aplicando la formulación propuesta, se obtiene una estimación del riesgo asociado a la rotura de la infraestructura. Como corolario a la metodología mencionada, se propone una segunda serie de gráficos para evaluar, también de forma simplificada, la reducción del riesgo que se obtendría con la construcción de alguna medida mitigadora como puede ser un dique o murete perimetral al depósito. Este método de evaluación de posible medidas mitigadoras, aporta una guía para analizar la posibilidad de disminuir el riesgo con la construcción de estos elementos, o la necesidad de buscar otro emplazamiento que, si bien pueda ser no tan favorable desde el punto de vista de la explotación del depósito, presente un menor riesgo asociado a su rotura. Como complemento a la metodología simplificada propuesta, y además de llevar a cabo la calibración de la misma con los datos obtenidos tras la rotura del depósito de agua de Melilla, se ha realizado una serie de ejemplos de utilización de la metodología para, además de servir de guía de uso de la misma, poder analizar la diferencia entre los resultados que se obtendrían con una simulación bidimensional detallada de cada uno de los casos y el método simplificado aplicado a los mismos. The potential risk of a catastrophic collapse of a water supply reservoir in an urban area (such as the one occurred in Melilla in November 1997) and the damages that can cause, make question the security in this kind of infrastructures, which, by operational needs, are frequently built in high elevations and close to the urban areas they serve to. Since the likelihood of breakage is quite low, the alert levels associated to those infrastructures have also been downgraded focussing on the improvement of the constructive methods without developing methodologies (like the ones used in the case of dams or irrigation ponds) where there is a need of classifying the potential risk of those tanks and also of installing mitigating measures. Furthermore, to establish the damages related to a breakage of this kind, a twodimensional modelling of the breakage wave becomes imperative given that the urban layout does not provide a preferential way to the water. This kind of simulation requires financial investment that is not always available in the construction of small and medium sized water tanks. The purpose of this doctoral thesis is to design a simplified methodology, by means of charts and attending to the main variables of the phenomenon, that could estimate a value to the risk associated to a possible breakage. It can also be used as a guidance to establish if a reservoir (existing or a new one) requires a detailed model to estimate the risk of a breakage and the benefits of installing measures to mitigate the breakage wave effects. Previously, it has been established that the variables involved in the risk associated to a breakage are the draft and the maximum speed in every point susceptible to damages (mainly damages related to people). Bellow, the equations ruling the problem of the reservoir breakage have been studied as well as the transmission of the breakage wave through the urban network of the city and the possible methods to solve the equations and the computer development needed to a first approach to the results. In order to be able to analyse the boundary conditions affecting the values resulting (speed and draft), a set of scenarios have been designed. After a detailed modelling and a dimensionless analysis it has been proved that the variables that influence the operational draughts and the maximum speed in every point are the water level in the tank, the slope, the roughness and form (in terms of concavity) of the terrain and the distance between the tank and the control point. Having defined the involving variables, a second set of simulations of the simplified scenarios has been carried out and has helped to discuss and develop the curves that are here presented as the final product of the simplified methodology. This methodology only needs some simple calculations and gives a first value of draft and speed by introducing the maximum water level of the tank being evaluated. Subsequently, using the suggested charts, the method gives correction coefficients of the measured values for roughness and average slope of the assessed terrain as well as the degree of concavity (through transverse gradient).With the values from the previous curves (operational draughts and speed at the point of survey) and applying the proposed formulation, an estimation of the risk associated to the breakage of the infrastructure is finally obtained. As a corollary of the mentioned methodology, another set of diagrams is proposed in order to evaluate, in a simplified manner also, the risk reduction that could be gained with the construction of some mitigating measures such as dikes or retaining walls around the reservoir. This evaluating method provides a guide to analyse the possibility to reduce the risk, constructing those elements or even looking for a different site that could be worse in terms of exploitation of the tank but much safer. As a complement to the simplified methodology here proposed, and apart from completing its calibration with the obtained data after the reservoir breakage in Melilla, a number of examples of the use of the methodology have been made to be used as a user guide of the methodology itself, as well as giving the possibility of analysing the different results that can be obtained from a thorough two-dimensional simulation or from the simplified method applied to the examples.
Resumo:
Las patologías de la voz se han transformado en los últimos tiempos en una problemática social con cierto calado. La contaminación de las ciudades, hábitos como el de fumar, el uso de aparatos de aire acondicionado, etcétera, contribuyen a ello. Esto alcanza más relevancia en profesionales que utilizan su voz de manera frecuente, como, por ejemplo, locutores, cantantes, profesores o teleoperadores. Por todo ello resultan de especial interés las técnicas de ayuda al diagnóstico que son capaces de extraer conclusiones clínicas a partir de una muestra de la voz grabada con un micrófono, frente a otras invasivas que implican la exploración utilizando laringoscopios, fibroscopios o videoendoscopios, técnicas en cualquier caso mucho más molestas para los pacientes al exigir la introducción parcial del instrumental citado por la garganta, en actuaciones consideradas de tipo quirúrgico. Dentro de aquellas técnicas se ha avanzado mucho en un período de tiempo relativamente corto. En lo que se refiere al diagnóstico de patologías, hemos pasado en los últimos quince años de trabajar principalmente con parámetros extraídos de la señal de voz –tanto en el dominio del tiempo como en el de la frecuencia– y con escalas elaboradas con valoraciones subjetivas realizadas por expertos a hacerlo también con parámetros procedentes de estimaciones de la fuente glótica. La importancia de utilizar la fuente glótica reside, a grandes rasgos, en que se trata de una señal vinculada directamente al estado de la estructura laríngea del locutor y también en que está generalmente menos influida por el tracto vocal que la señal de voz. Es conocido que el tracto vocal guarda más relación con el mensaje hablado, y su presencia dificulta el proceso de detección de patología vocal. Estas estimaciones de la fuente glótica han sido obtenidas a través de técnicas de filtrado inverso desarrolladas por nuestro grupo de investigación. Hemos conseguido, además, profundizar en la naturaleza de la señal glótica: somos capaces de descomponerla y relacionarla con parámetros biomecánicos de los propios pliegues vocales, obteniendo estimaciones de elementos como la masa, la pérdida de energía o la elasticidad del cuerpo y de la cubierta del pliegue, entre otros. De las componentes de la fuente glótica surgen también los denominados parámetros biométricos, relacionados con la forma de la señal, que constituyen por sí mismos una firma biométrica del individuo. También trabajaremos con parámetros temporales, relacionados con las diferentes etapas que se observan dentro de la señal glótica durante un ciclo de fonación. Por último, consideraremos parámetros clásicos de perturbación y energía de la señal. En definitiva, contamos ahora con una considerable cantidad de parámetros glóticos que conforman una base estadística multidimensional, destinada a ser capaz de discriminar personas con voces patológicas o disfónicas de aquellas que no presentan patología en la voz o con voces sanas o normofónicas. Esta tesis doctoral se ocupa de varias cuestiones: en primer lugar, es necesario analizar cuidadosamente estos nuevos parámetros, por lo que ofreceremos una completa descripción estadística de los mismos. También estudiaremos cuestiones como la distribución de los parámetros atendiendo a criterios como el de normalidad estadística de los mismos, ocupándonos especialmente de la diferencia entre las distribuciones que presentan sujetos sanos y sujetos con patología vocal. Para todo ello emplearemos diferentes técnicas estadísticas: generación de elementos y diagramas descriptivos, pruebas de normalidad y diversos contrastes de hipótesis, tanto paramétricos como no paramétricos, que considerarán la diferencia entre los grupos de personas sanas y los grupos de personas con alguna patología relacionada con la voz. Además, nos interesa encontrar relaciones estadísticas entre los parámetros, de cara a eliminar posibles redundancias presentes en el modelo, a reducir la dimensionalidad del problema y a establecer un criterio de importancia relativa en los parámetros en cuanto a su capacidad discriminante para el criterio patológico/sano. Para ello se aplicarán técnicas estadísticas como la Correlación Lineal Bivariada y el Análisis Factorial basado en Componentes Principales. Por último, utilizaremos la conocida técnica de clasificación Análisis Discriminante, aplicada a diferentes combinaciones de parámetros y de factores, para determinar cuáles de ellas son las que ofrecen tasas de acierto más prometedoras. Para llevar a cabo la experimentación se ha utilizado una base de datos equilibrada y robusta formada por doscientos sujetos, cien de ellos pertenecientes al género femenino y los restantes cien al género masculino, con una proporción también equilibrada entre los sujetos que presentan patología vocal y aquellos que no la presentan. Una de las aplicaciones informáticas diseñada para llevar a cabo la recogida de muestras también es presentada en esta tesis. Los distintos estudios estadísticos realizados nos permitirán identificar aquellos parámetros que tienen una mayor contribución a la hora de detectar la presencia de patología vocal. Alguno de los estudios, además, nos permitirá presentar una ordenación de los parámetros en base a su importancia para realizar la detección. Por otra parte, también concluiremos que en ocasiones es conveniente realizar una reducción de la dimensionalidad de los parámetros para mejorar las tasas de detección. Por fin, las propias tasas de detección constituyen quizá la conclusión más importante del trabajo. Todos los análisis presentes en el trabajo serán realizados para cada uno de los dos géneros, de acuerdo con diversos estudios previos que demuestran que los géneros masculino y femenino deben tratarse de forma independiente debido a las diferencias orgánicas observadas entre ambos. Sin embargo, en lo referente a la detección de patología vocal contemplaremos también la posibilidad de trabajar con la base de datos unificada, comprobando que las tasas de acierto son también elevadas. Abstract Voice pathologies have become recently in a social problem that has reached a certain concern. Pollution in cities, smoking habits, air conditioning, etc. contributes to it. This problem is more relevant for professionals who use their voice frequently: speakers, singers, teachers, actors, telemarketers, etc. Therefore techniques that are capable of drawing conclusions from a sample of the recorded voice are of particular interest for the diagnosis as opposed to other invasive ones, involving exploration by laryngoscopes, fiber scopes or video endoscopes, which are techniques much less comfortable for patients. Voice quality analysis has come a long way in a relatively short period of time. In regard to the diagnosis of diseases, we have gone in the last fifteen years from working primarily with parameters extracted from the voice signal (both in time and frequency domains) and with scales drawn from subjective assessments by experts to produce more accurate evaluations with estimates derived from the glottal source. The importance of using the glottal source resides broadly in that this signal is linked to the state of the speaker's laryngeal structure. Unlike the voice signal (phonated speech) the glottal source, if conveniently reconstructed using adaptive lattices, may be less influenced by the vocal tract. As it is well known the vocal tract is related to the articulation of the spoken message and its influence complicates the process of voice pathology detection, unlike when using the reconstructed glottal source, where vocal tract influence has been almost completely removed. The estimates of the glottal source have been obtained through inverse filtering techniques developed by our research group. We have also deepened into the nature of the glottal signal, dissecting it and relating it to the biomechanical parameters of the vocal folds, obtaining several estimates of items such as mass, loss or elasticity of cover and body of the vocal fold, among others. From the components of the glottal source also arise the so-called biometric parameters, related to the shape of the signal, which are themselves a biometric signature of the individual. We will also work with temporal parameters related to the different stages that are observed in the glottal signal during a cycle of phonation. Finally, we will take into consideration classical perturbation and energy parameters. In short, we have now a considerable amount of glottal parameters in a multidimensional statistical basis, designed to be able to discriminate people with pathologic or dysphonic voices from those who do not show pathology. This thesis addresses several issues: first, a careful analysis of these new parameters is required, so we will offer a complete statistical description of them. We will also discuss issues such as distribution of the parameters, considering criteria such as their statistical normality. We will take special care in the analysis of the difference between distributions from healthy subjects and the distributions from pathological subjects. To reach these goals we will use different statistical techniques such as: generation of descriptive items and diagramas, tests for normality and hypothesis testing, both parametric and nonparametric. These latter techniques consider the difference between the groups of healthy subjects and groups of people with an illness related to voice. In addition, we are interested in finding statistical relationships between parameters. There are various reasons behind that: eliminate possible redundancies in the model, reduce the dimensionality of the problem and establish a criterion of relative importance in the parameters. The latter reason will be done in terms of discriminatory power for the criterion pathological/healthy. To this end, statistical techniques such as Bivariate Linear Correlation and Factor Analysis based on Principal Components will be applied. Finally, we will use the well-known technique of Discriminant Analysis classification applied to different combinations of parameters and factors to determine which of these combinations offers more promising success rates. To perform the experiments we have used a balanced and robust database, consisting of two hundred speakers, one hundred of them males and one hundred females. We have also used a well-balanced proportion where subjects with vocal pathology as well as subjects who don´t have a vocal pathology are equally represented. A computer application designed to carry out the collection of samples is also presented in this thesis. The different statistical analyses performed will allow us to determine which parameters contribute in a more decisive way in the detection of vocal pathology. Therefore, some of the analyses will even allow us to present a ranking of the parameters based on their importance for the detection of vocal pathology. On the other hand, we will also conclude that it is sometimes desirable to perform a dimensionality reduction in order to improve the detection rates. Finally, detection rates themselves are perhaps the most important conclusion of the work. All the analyses presented in this work have been performed for each of the two genders in agreement with previous studies showing that male and female genders should be treated independently, due to the observed functional differences between them. However, with regard to the detection of vocal pathology we will consider the possibility of working with the unified database, ensuring that the success rates obtained are also high.
Resumo:
Uno de los principales retos de la sociedad actual es la evolución de sectores como el energético y el de la automoción a un modelo sostenible, responsable con el medio ambiente y con la salud de los ciudadanos. Una de las posibles alternativas, es la célula de combustible de hidrógeno, que transforma la energía química del combustible (hidrógeno) en corriente continua de forma limpia y eficiente. De entre todos los tipos de célula, gana especial relevancia la célula de membrana polimérica (PEM), que por sus características de peso, temperatura de trabajo y simplicidad; se presenta como una gran alternativa para el sector de la automoción entre otros. Por ello, el objetivo de este trabajo es ahondar en el conocimiento de la célula de combustible PEM. Se estudiarán los fundamentos teóricos que permitan comprender su funcionamiento, el papel de cada uno de los elementos de la célula y cómo varían sus características el funcionamiento general de la misma. También se estudiará la caracterización eléctrica, por su papel crucial en la evaluación del desempeño de la célula y para la comparación de modificaciones introducidas en ella. Además, se realizará una aplicación práctica en colaboración con los proyectos de fin de máster y doctorado de otros estudiantes del Politécnico de Milán, para implementar las técnicas aprendidas de caracterización eléctrica en una célula trabajando con diferentes tipos de láminas de difusión gaseosa (GDL y GDM) preparadas por estudiantes. Los resultados de la caracterización, permitirán analizar las virtudes de dos modificaciones en la composición clásica de la célula, con el fin de mejorar la gestión del agua que se produce en la zona catódica durante la reacción, disminuyendo los problemas de difusión a altas densidades de corriente y la consiguiente pérdida de potencial en la célula. Las dos modificaciones son: la inclusión de una lámina de difusión microporosa (MPL) a la lámina macroporosa habitual (GDL), y el uso de diversos polímeros con mejores propiedades hidrófobas en el tratamiento de dichas láminas de difusión. La célula de combustible es un sistema de conversión de energía electroquímico, en el que se trasforma de forma directa, energía química en energía eléctrica de corriente continua. En el catalizador de platino del ánodo se produce la descomposición de los átomos de hidrógeno. Los protones resultantes viajarán a través de la membrana de conducción protónica (que hace las veces de electrolito y supone el alma de la célula PEM) hasta el cátodo. Los electrones, en cambio, alcanzarán el cátodo a través de un circuito externo produciendo trabajo. Una vez ambas especies se encuentran en el cátodo, y junto con el oxígeno que sirve como oxidante, se completa la reacción, produciéndose agua. El estudio termodinámico de la reacción que se produce en la célula nos permite calcular el trabajo eléctrico teórico producido por el movimiento de cargas a través del circuito externo, y con él, una expresión del potencial teórico que presentará la célula, que variará con la temperatura y la presión; Para una temperatura de 25°C, este potencial teórico es de 1.23 V, sin embargo, el potencial de la célula en funcionamiento nunca presenta este valor. El alejamiento del comportamiento teórico se debe, principalmente, a tres tipos de pérdidas bien diferenciadas: Pérdidas de activación: El potencial teórico representa la tensión de equilibrio, para la que no se produce un intercambio neto de corriente. Por tanto, la diferencia de potencial entre el ánodo y el cátodo debe alejarse del valor teórico para obtener una corriente neta a través del circuito externo. Esta diferencia con el potencial teórico se denomina polarización de activación, y conlleva una pérdida de tensión en la célula. Así pues estas pérdidas tienen su origen en la cinética de la reacción electroquímica. Pérdidas óhmicas: Es una suma de las resistencias eléctricas en los elementos conductores, la resistencia en la membrana electrolítica a la conducción iónica y las resistencias de contacto. Pérdidas por concentración: Estas pérdidas se producen cuando los gases reactivos en el área activa son consumidos en un tiempo menor del necesario para ser repuestos. Este fenómeno es crítico a altas densidades de corriente, cuando los gases reactivos son consumidos con gran velocidad, por lo que el descenso de concentración de reactivos en los electrodos puede provocar una caída súbita de la tensión de la célula. La densidad de corriente para la cual se produce esta caída de potencial en unas condiciones determinadas se denomina densidad límite de corriente. Así pues, estas pérdidas tienen su origen en los límites de difusión de las especies reactivas a través de la célula. Además de la membrana electrolítica y el catalizador, en la célula de combustible podemos encontrar como principales componentes los platos bipolares, encargados de conectar la célula eléctricamente con el exterior y de introducir los gases reactivos a través de sus conductos; y las láminas difusivas, que conectan eléctricamente el catalizador con los platos bipolares y sirven para distribuir los gases reactivos de forma que lleguen a todo el área activa, y para evacuar el exceso de agua que se acumula en el área activa.La lámina difusiva, más conocida como GDL, será el argumento principal de nuestro estudio. Está conformada por un tejido de fibra de carbono macroporosa, que asegure el contacto eléctrico entre el catalizador y el plato bipolar, y es tratada con polímeros para proporcionarle propiedades hidrófobas que le ayuden en la evacuación de agua. La evacuación del agua es tan importante, especialmente en el cátodo, porque de lo contrario, la cantidad de agua generada por la reacción electroquímica, sumada a la humedad que portan los gases, puede provocar inundaciones en la zona activa del electrodo. Debido a las inundaciones, el agua obstruye los poros del GDL, dificultando la difusión de especies gaseosas y aumentando las pérdidas por concentración. Por otra parte, si demasiada agua se evacúa del electrodo, se puede producir un aumento de las pérdidas óhmicas, ya que la conductividad protónica de la membrana polimérica, es directamente proporcional a su nivel de humidificación. Con el fin de mejorar la gestión del agua de la célula de combustible, se ha añadido una capa microporosa denominada MPL al lado activo del GDL. Esta capa, constituida por una mezcla de negro de carbón con el polímero hidrófobo como aglutinante, otorga al GDL un mejor acabado superficial que reduce la resistencia de contacto con el electrodo, además la reducción del tamaño de las gotas de agua al pasar por el MPL mejora la difusión gaseosa por la disminución de obstrucciones en el GDL. Es importante tener cuidado en los tratamientos de hidrofobización de estos dos elementos, ya que, cantidades excesivas de polímero hidrófobo podrían reducir demasiado el tamaño de los poros, además de aumentar las pérdidas resistivas por su marcado carácter dieléctrico. Para el correcto análisis del funcionamiento de una célula de combustible, la herramienta fundamental es su caracterización eléctrica a partir de la curva de polarización. Esta curva representa la evolución del potencial de la célula respecto de la densidad de corriente, y su forma viene determinada principalmente por la contribución de las tres pérdidas mencionadas anteriormente. Junto con la curva de polarización, en ocasiones se presenta la curva de densidad de potencia, que se obtiene a partir de la misma. De forma complementaria a la curva de polarización, se puede realizar el estudio del circuito equivalente de la célula de combustible. Este consiste en un circuito eléctrico sencillo, que simula las caídas de potencial en la célula a través de elementos como resistencias y capacitancias. Estos elementos representas pérdidas y limitaciones en los procesos químicos y físicos en la célula. Para la obtención de este circuito equivalente, se realiza una espectroscopia de impedancia electroquímica (en adelante EIS), que consiste en la identificación de los diferentes elementos a partir de los espectros de impedancia, resultantes de introducir señales de corriente alternas sinusoidales de frecuencia variable en la célula y observar la respuesta en la tensión. En la siguiente imagen se puede observar un ejemplo de la identificación de los parámetros del circuito equivalente en un espectro de impedancia. Al final del trabajo, se han realizado dos aplicaciones prácticas para comprobar la influencia de las características hidrófobas y morfológicas de los medios difusores en la gestión del agua en el cátodo y, por tanto, en el resultado eléctrico de la célula; y como aplicación práctica de las técnicas de construcción y análisis de las curvas de polarización y potencia y de la espectroscopia de impedancia electroquímica. El primer estudio práctico ha consistido en comprobar los beneficios de la inclusión de un MPL al GDL. Para ello se han caracterizado células funcionando con GDL y GDM (GDL+MPL) tratados con dos tipos diferentes de polímeros, PTFE y PFPE. Además se han realizado las pruebas para diferentes condiciones de funcionamiento, a saber, temperaturas de 60 y 80°C y niveles de humidificación relativa de los gases reactivos de 80%-60% y 80%- 100% (A-C). Se ha comprobado con las curvas de polarización y potencia, cómo la inclusión de un MPL en el lado activo del GDL reporta una mejora del funcionamiento de trabajo en todas las condiciones estudiadas. Esta mejora se hace más patente para altas densidades de corriente, cuando la gestión del agua resulta más crítica, y a bajas temperaturas ya que un menor porcentaje del agua producida se encuentra en estado de vapor, produciéndose inundaciones con mayor facilidad. El segundo estudio realizado trata de la influencia del agente hidrofobizante utilizado en los GDMs. Se pretende comprobar si algún otro polímero de los estudiados, mejora las prestaciones del comúnmente utilizado PTFE. Para ello se han caracterizado células trabajando en diferentes condiciones de trabajo (análogas a las del primer estudio) con GDMs tratados con PTFE, PFPE, FEP y PFA. Tras el análisis de las curvas de polarización y potencia, se observa un gran comportamiento del FEP para todas las condiciones de trabajo, aumentando el potencial de la célula para cada densidad de corriente respecto al PTFE y retrasando la densidad de corriente límite. El PFPE también demuestra un gran aumento del potencial y la densidad de potencia de la célula, aunque presenta mayores problemas de difusión a altas densidades de corriente. Los resultados del PFA evidencian sus problemas en la gestión del agua a altas densidades de corriente, especialmente para altas temperaturas. El análisis de los espectros de impedancia obtenidos con la EIS confirma los resultados de las curvas de polarización y evidencian que la mejor alternativa al PTFE para el tratamiento del GDM es el FEP, que por sus mejores características hidrófobas reduce las pérdidas por concentración con una mejor gestión del agua en el cátodo.