530 resultados para 250109 Radiactividad atmosférica
Resumo:
Como participantes de una expedición organizada por la Escuela de Montaña de la UNC, los autores recorrieron la Quebrada del arroyo Nield, en la ruta a la cumbre del cerro Sonseado, desde 2100 y 3100 m s. m. y el Alto del Valle del Atuel, entre 2100 y 2200 m s. m. llevando a su cargo la realización de estudios florísticos. Aparte de las colecciones botánicas reunidas una lista de las cuales se da al final del trabajo, documentan los efectos de la nieve sobre la vegetación de la zona, llegando a la conclusión de que, contrariamente a lo que podría suponerse en los años de precipitaciones nivales extraordinarias en esa zona de Los Andes mendocinos, la receptividad de los campos de montaña se desmejora. Estiman que la presencia de estructuras circulares en las gramíneas podrían ser utilizadas como indicadores del nivel hipsométrico en que se inician los efectos destructores de la nieve y consideran que Adesmia obovata y Senecio Gilliesii se pueden emplear como plantas quionófobas útiles para determinar un piso de vegetación en la zona del Alto Valle del Atuel. Describen lo que designan como "vegetación planchada" que consideran como un aspecto de valor fisiográfico para las quebradas de Los Andes mendocinos entre los 2000 y 3000 m s. m., ilustrando el trabajo con fotografías.
Resumo:
La siguiente es una experiencia didáctica sobre el uso de la estadística para el análisis de los líquenes como bioindicadores de contaminación atmosférica. Se propuso la realización de un trabajo de modelización intermatemática que permitiese al alumno de 1º Año de la Escuela Secundaria la aplicación de la estadística sobre datos obtenidos en el muestreo de líquenes epífitos y su posterior análisis como bioindicadores de la calidad del aire. Se buscó favorecer de esta manera el análisis crítico del uso de la estadística por parte de los alumnos. Los resultados mostraron eficiencia en los alumnos al momento de tomar criterio por las herramientas estadísticas pertinentes para realizar el análisis de datos obtenidos y poder tomar así conclusiones válidas con respecto a las hipótesis planteadas
Resumo:
La siguiente es una experiencia didáctica sobre el uso de la estadística para el análisis de los líquenes como bioindicadores de contaminación atmosférica. Se propuso la realización de un trabajo de modelización intermatemática que permitiese al alumno de 1º Año de la Escuela Secundaria la aplicación de la estadística sobre datos obtenidos en el muestreo de líquenes epífitos y su posterior análisis como bioindicadores de la calidad del aire. Se buscó favorecer de esta manera el análisis crítico del uso de la estadística por parte de los alumnos. Los resultados mostraron eficiencia en los alumnos al momento de tomar criterio por las herramientas estadísticas pertinentes para realizar el análisis de datos obtenidos y poder tomar así conclusiones válidas con respecto a las hipótesis planteadas
Resumo:
La siguiente es una experiencia didáctica sobre el uso de la estadística para el análisis de los líquenes como bioindicadores de contaminación atmosférica. Se propuso la realización de un trabajo de modelización intermatemática que permitiese al alumno de 1º Año de la Escuela Secundaria la aplicación de la estadística sobre datos obtenidos en el muestreo de líquenes epífitos y su posterior análisis como bioindicadores de la calidad del aire. Se buscó favorecer de esta manera el análisis crítico del uso de la estadística por parte de los alumnos. Los resultados mostraron eficiencia en los alumnos al momento de tomar criterio por las herramientas estadísticas pertinentes para realizar el análisis de datos obtenidos y poder tomar así conclusiones válidas con respecto a las hipótesis planteadas
Resumo:
Abstract Air pollution is a big threat and a phenomenon that has a specific impact on human health, in addition, changes that occur in the chemical composition of the atmosphere can change the weather and cause acid rain or ozone destruction. Those are phenomena of global importance. The World Health Organization (WHO) considerates air pollution as one of the most important global priorities. Salamanca, Gto., Mexico has been ranked as one of the most polluted cities in this country. The industry of the area led to a major economic development and rapid population growth in the second half of the twentieth century. The impact in the air quality is important and significant efforts have been made to measure the concentrations of pollutants. The main pollution sources are locally based plants in the chemical and power generation sectors. The registered concerning pollutants are Sulphur Dioxide (SO2) and particles on the order of ∼10 micrometers or less (PM10). The prediction in the concentration of those pollutants can be a powerful tool in order to take preventive measures such as the reduction of emissions and alerting the affected population. In this PhD thesis we propose a model to predict concentrations of pollutants SO2 and PM10 for each monitoring booth in the Atmospheric Monitoring Network Salamanca (REDMAS - for its spanish acronym). The proposed models consider the use of meteorological variables as factors influencing the concentration of pollutants. The information used along this work is the current real data from REDMAS. In the proposed model, Artificial Neural Networks (ANN) combined with clustering algorithms are used. The type of ANN used is the Multilayer Perceptron with a hidden layer, using separate structures for the prediction of each pollutant. The meteorological variables used for prediction were: Wind Direction (WD), wind speed (WS), Temperature (T) and relative humidity (RH). Clustering algorithms, K-means and Fuzzy C-means, are used to find relationships between air pollutants and weather variables under consideration, which are added as input of the RNA. Those relationships provide information to the ANN in order to obtain the prediction of the pollutants. The results of the model proposed in this work are compared with the results of a multivariate linear regression and multilayer perceptron neural network. The evaluation of the prediction is calculated with the mean absolute error, the root mean square error, the correlation coefficient and the index of agreement. The results show the importance of meteorological variables in the prediction of the concentration of the pollutants SO2 and PM10 in the city of Salamanca, Gto., Mexico. The results show that the proposed model perform better than multivariate linear regression and multilayer perceptron neural network. The models implemented for each monitoring booth have the ability to make predictions of air quality that can be used in a system of real-time forecasting and human health impact analysis. Among the main results of the development of this thesis we can cite: A model based on artificial neural network combined with clustering algorithms for prediction with a hour ahead of the concentration of each pollutant (SO2 and PM10) is proposed. A different model was designed for each pollutant and for each of the three monitoring booths of the REDMAS. A model to predict the average of pollutant concentration in the next 24 hours of pollutants SO2 and PM10 is proposed, based on artificial neural network combined with clustering algorithms. Model was designed for each booth of the REDMAS and each pollutant separately. Resumen La contaminación atmosférica es una amenaza aguda, constituye un fenómeno que tiene particular incidencia sobre la salud del hombre. Los cambios que se producen en la composición química de la atmósfera pueden cambiar el clima, producir lluvia ácida o destruir el ozono, fenómenos todos ellos de una gran importancia global. La Organización Mundial de la Salud (OMS) considera la contaminación atmosférica como una de las más importantes prioridades mundiales. Salamanca, Gto., México; ha sido catalogada como una de las ciudades más contaminadas en este país. La industria de la zona propició un importante desarrollo económico y un crecimiento acelerado de la población en la segunda mitad del siglo XX. Las afectaciones en el aire son graves y se han hecho importantes esfuerzos por medir las concentraciones de los contaminantes. Las principales fuentes de contaminación son fuentes fijas como industrias químicas y de generación eléctrica. Los contaminantes que se han registrado como preocupantes son el Bióxido de Azufre (SO2) y las Partículas Menores a 10 micrómetros (PM10). La predicción de las concentraciones de estos contaminantes puede ser una potente herramienta que permita tomar medidas preventivas como reducción de emisiones a la atmósfera y alertar a la población afectada. En la presente tesis doctoral se propone un modelo de predicción de concentraci ón de los contaminantes más críticos SO2 y PM10 para cada caseta de monitorización de la Red de Monitorización Atmosférica de Salamanca (REDMAS). Los modelos propuestos plantean el uso de las variables meteorol ógicas como factores que influyen en la concentración de los contaminantes. La información utilizada durante el desarrollo de este trabajo corresponde a datos reales obtenidos de la REDMAS. En el Modelo Propuesto (MP) se aplican Redes Neuronales Artificiales (RNA) combinadas con algoritmos de agrupamiento. La RNA utilizada es el Perceptrón Multicapa con una capa oculta, utilizando estructuras independientes para la predicción de cada contaminante. Las variables meteorológicas disponibles para realizar la predicción fueron: Dirección de Viento (DV), Velocidad de Viento (VV), Temperatura (T) y Humedad Relativa (HR). Los algoritmos de agrupamiento K-means y Fuzzy C-means son utilizados para encontrar relaciones existentes entre los contaminantes atmosféricos en estudio y las variables meteorológicas. Dichas relaciones aportan información a las RNA para obtener la predicción de los contaminantes, la cual es agregada como entrada de las RNA. Los resultados del modelo propuesto en este trabajo son comparados con los resultados de una Regresión Lineal Multivariable (RLM) y un Perceptrón Multicapa (MLP). La evaluación de la predicción se realiza con el Error Medio Absoluto, la Raíz del Error Cuadrático Medio, el coeficiente de correlación y el índice de acuerdo. Los resultados obtenidos muestran la importancia de las variables meteorológicas en la predicción de la concentración de los contaminantes SO2 y PM10 en la ciudad de Salamanca, Gto., México. Los resultados muestran que el MP predice mejor la concentración de los contaminantes SO2 y PM10 que los modelos RLM y MLP. Los modelos implementados para cada caseta de monitorizaci ón tienen la capacidad para realizar predicciones de calidad del aire, estos modelos pueden ser implementados en un sistema que permita realizar la predicción en tiempo real y analizar el impacto en la salud de la población. Entre los principales resultados obtenidos del desarrollo de esta tesis podemos citar: Se propone un modelo basado en una red neuronal artificial combinado con algoritmos de agrupamiento para la predicción con una hora de anticipaci ón de la concentración de cada contaminante (SO2 y PM10). Se diseñó un modelo diferente para cada contaminante y para cada una de las tres casetas de monitorización de la REDMAS. Se propone un modelo de predicción del promedio de la concentración de las próximas 24 horas de los contaminantes SO2 y PM10, basado en una red neuronal artificial combinado con algoritmos de agrupamiento. Se diseñó un modelo para cada caseta de monitorización de la REDMAS y para cada contaminante por separado.
Resumo:
El fútbol es un deporte en cuya práctica existe una alta incidencia de lesión. Además, en el ámbito profesional las lesiones suponen un duro proceso de recuperación para el futbolista, una reducción del rendimiento deportivo para éste y para el equipo, y unos grandes costes económicos para el club. Dentro de esta problemática, la bibliografía consultada concluye que en las pretemporadas se produce una mayor incidencia de lesión por sobrecarga, es decir, sin contacto; un tipo de lesiones que está a nuestro alcance poder prevenir. Por ello, consideramos importante el conocer y desarrollar métodos, herramientas y principios para obtener programas preventivos efectivos, que reduzcan las elevadas cifras de incidencia de lesión mostradas por la literatura. El presente estudio observa y registra las lesiones, a través del cuestionario F-MARC, de un equipo profesional de fútbol de la Liga Española durante las pretemporadas 2008 (n=24) y 2009 (n=24). Además, durante la pretemporada 2009 se aplicó la termografía infrarroja para adquirir información sobre la asimilación de la carga de entrenamiento por parte de los jugadores, y dicha información se utilizarón para mejorar las tomas de decisiones de protocolos post-ejercicio específicos en prevención de lesiones, los cuales fueron los mismos que se utilizaron previamente en la pretemporada 2008. El estudio tiene un diseño con características pre-post sin grupo de control. Es un estudio longitudinal donde, tras un registro inicial de lesiones en la pretemporada 2008, los sujetos fueron expuestos a la variable independiente, utilización de la termografía infrarroja, en el protocolo de prevención de lesiones durante la pretemporada 2009. Los resultados de este trabajo muestran una reducción significativa de hasta el 60% en la frecuencia de lesión durante la pretemporada 2009, y un descenso de la incidencia de lesión total que pasa de 8,3 lesiones por cada 1000 horas de exposición en 2008 a 3,4 en 2009. Con ello, la probabilidad de lesión se redujo considerablemente pasando de un 85% de los jugadores lesionados en 2008 a un 26% en 2009; además, las lesiones de carácter muscular descendieron en 2009 un 70% con respecto al 2008, y los días de baja que causaron todas las lesiones pasó a reducirse un 91,8% en la pretemporada 2009. Por otro lado, el perfil térmico de los jugadores en función de su lateralidad y dominancia, guarda una gran similitud en sus temperaturas, tanto medias como máximas, con temperaturas más elevadas en la zona corporal lumbar y poplítea, y con temperaturas más bajas en tobillos y rodillas. Todas las zonas corporales estudiadas, exceptuando el tobillo (p<0,05), no presentan diferencias significativas entre ambos hemicuerpos, estableciendo un promedio de diferencia entre ambos lados de 0,06±0,16 ºC. Teniendo en cuenta estos resultados, consideramos el límite superior de normalidad de asimetría térmica bilateral en 0,3ºC para todas las zonas corporales estudiadas del miembro inferior exceptuando los tobillos. El parámetro ambiental que más relación tiene con la temperatura registrada por la cámara termográfica es la temperatura de la sala con un coeficiente de correlación cercano a r=1,00, seguido de la presión atmosférica con un coeficiente de correlación cercano r=0,50, y, por último, la humedad que no guarda ningún tipo de relación con la temperatura registrada en cada zona corporal en el rango de valores considerados en el estudio. Por otro lado, los resultados del ANOVA de un factor nos indican que existen diferencias de medias entre los tres grupos formados de temperatura ambiente de sala (1º=18º-21ºC, 2º=22º-24ºC y 3º=25º-31ºC). Además, los resultados de la prueba HSD de Tukey nos indican que existen diferencias entre cada uno de los grupos en todas las zonas corporales estudiadas exceptuando los tobillos. Por último, se propone la ecuación; TC-estándar = TC-real – [0,184 * (TS – 21ºC)] para predecir la influencia de la temperatura ambiente sobre la temperatura registrada por la cámara termográfica. Para concluir, tras los resultados obtenidos, podemos afirmar que la aplicación de un protocolo post-ejercicio de prevención de lesiones basado en la información adquirida a través de valoraciones con termografía infrarroja reduce la incidencia de lesión en el grupo de futbolistas profesionales estudiado. Tenemos que ser conscientes que nos encontramos ante un estudio de campo, donde existen muchos factores que han podido influenciar en los resultados y que son difíciles de controlar. Por lo tanto, debemos ser cautos y concluir que la información adquirida de las evaluaciones termográficas ha sido uno de los aspectos que ayudó a la reducción significativa de la incidencia de lesión en la pretemporada 2009 en el equipo de fútbol profesional español de este estudio, pero que seguramente hayan podido existir otros factores que también hayan favorecido este hecho. ABSTRACT Soccer is a sport with a high incidence of injury. Moreover, in professional soccer injuries lead to a tough recovery process for the players, a reduction athletic performance for them and for their teams, and large economic costs for the club. In this issue, the literature concludes that in the preseason a greater incidence of overuse injury occurs (ie, without contact), and this is a type of injury that we can prevent. Therefore, we consider that it is important to know and develop methods, tools and principles to obtain effective preventive programs that reduce the high injury incidence figures shown in the literature. This study observed and recorded injuries, through the questionnaire F-MARC, from a professional soccer team in the Spanish league during the preseason 2008 (n = 24) and 2009 (n = 24). Moreover, during the 2009 preseason infrared thermography was applied to acquire information about the assimilation of the training load by the players, and this information was used to improve the decision making in the specific post-exercise injury prevention protocols, which were the same used in the previous season 2008. The study had a pre-post design without control group. Is a longitudinal study where, after an initial registration of injuries in the 2008 preseason, subjects were exposed to the independent variable, using infrared thermography, included in the protocol for injury prevention during the 2009 preseason. The results of this study show a significant reduction of up to 60% in the frequency of injury during the 2009 preseason, and a decrease in total injury incidence passing from 8.3 injuries per 1000 hours of exposure in 2008 to 3.4 in 2008. With this, the likelihood of injury decreased significantly from 85% of the players injuried in 2008 to 26% in 2009, also muscle injuries in 2009 fell 70% compared to 2008, and sick leave days that caused by all the injuries happened were reduced a 91.8% in the 2009 preseason. On the other hand, the thermal profile of the players according to their laterality and dominance, is quiet similar in their temperatures, both average and maximum values, with an estimated average of the highest temperatures in the lower back and popliteal areas in the back areas, and lower temperatures in the ankles and knees. All body areas studied, except for the ankle (p <0.05), had no significant differences between both sides of the body, establishing an average difference between both sides of 0.06 ± 0.16 °C. Given these results, we consider the upper limit of normal bilateral thermal asymmetry 0.3 °C for all body areas studied in the lower limb except for ankles. The environmental parameter higher related with temperature recorded by the camera is the temperature of the room with a correlation coefficient close to r = 1.00, followed by atmospheric pressure with a correlation coefficient near r = 0.50, and finally, the humidity that, in the range of values considered in the study, it is not related with temperature in each body area. On the other hand, the results of one-way ANOVA indicate that there are differences between the three temperature of the room groups (1 ° = 18-21 °C, 2 º = 22-24 ºC and 3 º = 25-31 ºC). Moreover, the results of the Tukey HSD test indicate that there are differences between each of the groups for all body areas studied except the ankles. Finally, we propose the equation TC-standard = TC-real – [0,184 * (TS – 21ºC)] to predict the influence of temperature on the temperature recorded by the thermographic camera. In conclusion, we can say from our results that the implementation of a post-exercise injury prevention protocol based on information from assessments with infrared thermography reduces the incidence of injury in professional soccer players. We must be aware that we are facing a field study, where there are many factors that could influence the results and they are difficult to control. Therefore, we must be cautious and conclude that the information acquired from the thermographic evaluation has been one of the aspects that helped to significantly reduce the incidence of injury in the preseason 2009 in the Spanish professional football team, but probably they could exist other factors with a positive effect on the reduction of the injury rates.
Resumo:
El gran desarrollo industrial y demográfico de las últimas décadas ha dado lugar a un consumo crecientemente insostenible de energía y materias primas, que influye negativamente en el ambiente por la gran cantidad de contaminantes generados. Entre las emisiones tienen gran importancia los compuestos orgánicos volátiles (COV), y entre ellos los compuestos halogenados como el tricloroetileno, debido a su elevada toxicidad y resistencia a la degradación. Las tecnologías generalmente empleadas para la degradación de estos compuestos presentan inconvenientes derivados de la generación de productos tóxicos intermedios o su elevado coste. Dentro de los procesos avanzados de oxidación (Advanced Oxidation Processes AOP), la fotocatálisis resulta una técnica atractiva e innovadora de interés creciente en su aplicación para la eliminación de multitud de compuestos orgánicos e inorgánicos, y se ha revelado como una tecnología efectiva en la eliminación de compuestos orgánicos volátiles clorados como el tricloroetileno. Además, al poder aprovechar la luz solar como fuente de radiación UV permite una reducción significativa de costes energéticos y de operación. Los semiconductores más adecuados para su empleo como fotocatalizadores con aprovechamiento de la luz solar son aquellos que tienen una banda de energía comparable a la de los fotones de luz visible o, en su defecto, de luz ultravioleta A (Eg < 3,5 eV), siendo el más empleado el dióxido de titanio (TiO2). El objetivo principal de este trabajo es el estudio de polímeros orgánicos comerciales como soporte para el TiO2 en fotocatálisis heterogénea y su ensayo para la eliminación de tricloroetileno en aire. Para ello, se han evaluado sus propiedades ópticas y su resistencia a la fotodegradación, y se ha optimizado la fijación del fotocatalizador para conseguir un recubrimiento homogéneo, duradero y con elevada actividad fotocatalítica en diversas condiciones de operación. Los materiales plásticos ensayados fueron el polietileno (PE), copolímero de etil vinil acetato con distintos aditivos (EVA, EVA-H y EVA-SH), polipropileno (PP), polimetil (metacrilato) fabricado en colada y extrusión (PMMA-C y PMMA-E), policarbonato compacto y celular (PC-C y PC-Ce), polivinilo rígido y flexible (PVC-R y PVC-F), poliestireno (PS) y poliésteres (PET y PETG). En base a sus propiedades ópticas se seleccionaron el PP, PS, PMMA-C, EVA-SH y PVC-R, los cuales mostraron un valor de transmitancia superior al 80% en el entorno de la región estudiada (λ=365nm). Para la síntesis del fotocatalizador se empleó la tecnología sol-gel y la impregnación multicapa de los polímeros seleccionados por el método de dip-coating con secado intermedio a temperaturas moderadas. Con el fin de evaluar el envejecimiento de los polímeros bajo la radiación UV, y el efecto sobre éste del recubrimiento fotoactivo, se realizó un estudio en una cámara de exposición a la luz solar durante 150 días, evaluándose la resistencia química y la resistencia mecánica. Los resultados de espectroscopía infrarroja y del test de tracción tras el envejecimiento revelaron una mayor resistencia del PMMA y una degradación mayor en el PS, PVC-R y EVA SH, con una apreciable pérdida del recubrimiento en todos los polímeros. Los fotocatalizadores preparados sobre soportes sin tratamiento y con tres capas de óxido de titanio mostraron mejores resultados de actividad con PMMA-C, PET y PS, con buenos resultados de mineralización. Para conseguir una mayor y mejor fijación de la película al soporte se realizaron tratamientos químicos abrasivos con H2SO4 y NaOH y tratamientos de funcionalización superficial por tecnología de plasma a presión atmosférica (APP) y a baja presión (LPP). Con los tratamientos de plasma se consiguió una excelente mojabilidad de los soportes, que dio lugar a una distribución uniforme y más abundante del fotocatalizador, mientras que con los tratamientos químicos no se obtuvo una mejora significativa. Asimismo, se prepararon fotocatalizadores con una capa previa de dióxido de silicio con la intervención de surfactantes (PDDA-SiO2-3TiO2 y SiO2FC-3TiO2), consiguiéndose buenas propiedades de la película en todos los casos. Los mejores resultados de actividad con tratamiento LPP y tres capas de TiO2 se lograron con PMMA-C (91% de conversión a 30 ppm de TCE y caudal 200 ml·min-1) mejorando significativamente también la actividad fotocatalítica en PVC-R y PS. Sin embargo, el material más activo de todos los ensayados fue el PMMA-C con el recubrimiento SiO2FC-3TiO2, logrando el mejor grado de mineralización, del 45%, y una velocidad de 1,89 x 10-6 mol· m-2 · s-1, que dio lugar a la eliminación del 100 % del tricloroetileno en las condiciones anteriormente descritas. A modo comparativo se realizaron ensayos de actividad con otro contaminante orgánico tipo, el formaldehído, cuya degradación fotocatalítica fue también excelente (100% de conversión y 80% de mineralización con 24 ppm de HCHO en un caudal de aire seco de 200 ml·min-1). Los buenos resultados de actividad obtenidos confirman las enormes posibilidades que ofrecen los polímeros transparentes en el UV-A como soportes del dióxido de titanio para la eliminación fotocatalítica de contaminantes en aire. ABSTRACT The great industrial and demographic development of recent decades has led to an unsustainable increase of energy and raw materials consumption that negatively affects the environment due to the large amount of waste and pollutants generated. Between emissions generated organic compounds (VOCs), specially the halogenated ones such as trichloroethylene, are particularly important due to its high toxicity and resistance to degradation. The technologies generally used for the degradation of these compounds have serious inconveniences due to the generation of toxic intermediates turn creating the problem of disposal besides the high cost. Among the advanced oxidation processes (AOP), photocatalysis is an attractive and innovative technique with growing interest in its application for the removal of many organic and inorganic compounds, and has emerged as an effective technology in eliminating chlorinated organic compounds such as trichloroethylene. In addition, as it allows the use of sunlight as a source of UV radiation there is a significant reduction of energy costs and operation. Semiconductors suitable to be used as photocatalyst activated by sunlight are those having an energy band comparable to that of the visible or UV-A light (Eg <3,5 eV), being titanium dioxide (TiO2), the most widely used. The main objective of this study is the test of commercial organic polymers as supports for TiO2 to be applied in heterogeneous photocatalysis and its assay for removing trichloroethylene in air. To accomplish that, its optical properties and resistance to photooxidation have been evaluated, and different operating conditions have been tested in order to optimize the fixation of the photocatalyst to obtain a homogeneous coating, with durable and high photocatalytic activity. The plastic materials tested were: polyethylene (PE), ethyl vinyl acetace copolymers with different additives (EVA, EVA-H and EVA -SH), polypropylene (PP), poly methyl (methacrylate) manufactured by sheet moulding and extrusion (PMMA-C and PMMA-E), compact and cellular polycarbonates (PC-C PC-Ce), rigid and flexible polyvinyl chloride (PVC-R and PVC-F), polystyrene (PS) and polyesters (PET and PETG). On the basis of their optical properties PP, PS, PMMA-C, EVA-SH and PVC-R were selected, as they showed a transmittance value greater than 80% in the range of the studied region (λ = 365nm). For the synthesis of the photocatalyst sol-gel technology was employed with multilayers impregnation of the polymers selected by dip-coating, with intermediate TiO2 drying at moderate temperatures. To evaluate the polymers aging due to UV radiation, and the effect of photoactive coating thereon, a study in an sunlight exposure chamber for 150 days was performed, evaluating the chemical resistance and the mechanical strength. The results of infrared spectroscopy and tensile stress test after aging showed the PMMA is the most resistant sample, but a greater degradation in PS, PVC-R and EVA SH, with a visible loss of the coating in all the polymers tested. The photocatalysts prepared on the untreated substrates with three layers of TiO2 showed better activity results when PMMA-C, PET and PS where used. To achieve greater and better fixation of the film to the support, chemical abrasive treatments, with H2SO4 and NaOH, as well as surface functionalization treatments with atmospheric pressure plasma (APP) and low pressure plasma (LPP) technologies were performed. The plasma treatment showed the best results, with an excellent wettability of the substrates that lead to a better and uniform distribution of the photocatalyst compared to the chemical treatments tested, in which no significant improvement was obtained. Also photocatalysts were prepared with the a silicon dioxide previous layer with the help of surfactants (SiO2- 3TiO2 PDDA-and-3TiO2 SiO2FC), obtaining good properties of the film in all cases. The best activity results for LPP-treated samples with three layers of TiO2 were achieved with PMMA-C (91% conversion, in conditions of 30 ppm of TCE and 200 ml·min-1 air flow rate), with a significant improvement of the photocatalytic activity in PVC-R and PS samples too. However, among all the materials assayed, PMMA-C with SiO2FC-3TiO2 coating was the most active one, achieving the highest mineralization grade (45%) and a reaction rate of 1,89 x 10-6 mol· m-2 · s-1, with total trichloroethylene elimination in the same conditions. As a comparative assay, an activity test was also performed with another typical organic contaminant, formaldehyde, also with good results (100% conversion with 24 ppm of HCHO and 200 ml·min-1 gas flow rate). The good activity results obtained in this study confirm the great potential of organic polymers which are transparent in the UV-A as supports for titanium dioxide for photocatalytic removal of air organic pollutants.
Resumo:
Los polímeros cristales líquidos (LCP) son sistemas complejos que forman mesofases que presentan orden orientacional y polímeros amorfos. Con frecuencia, el estado amorfo isotrópico no puede ser estudiado debido a la rápida formación de mesofases. En este trabajo se ha sintetizado y estudiado un nuevo LCP: poli(trietilenglicol metil p, p '-bibenzoato), PTEMeB. Este polímero presenta una formación de mesofase bastante lenta haciendo posible estudiar de forma independiente tanto los estados amorfo y de cristal líquidos. La estructura y las transiciones de fase del PTEMeB han sido investigados por calorimetría (DSC), con MAXS / WAXS con temperatura variable que emplean radiación de sincrotrón y con difracción de rayos X. Estos estudios han mostrado la existencia de dos transiciones vítreas, relacionadas con las fases amorfa y cristal líquido. Se ha realizado un estudio de relajación dieléctrica en amplios intervalos de temperatura y presión. Se ha encontrado que la transición vítrea dinámica de la fase amorfa es más lenta que la del cristal líquido. El estudio de la relajación ? nos ha permitido seguir la formación isoterma de la mesofase a presión atmosférica. Además, con el estudio el comportamiento dinámico a alta presión se ha encontrado que se produce la formación rápida de la mesofase inducida por cambios bruscos de presión. Liquid crystalline polymers (LCPs) are complex systems that include features of both orientationally ordered mesophases and amorphous polymers. Frequently, the isotropic amorphous state cannot be studied due to the rapid mesophase formation. Here, a new main chain LCP, poly(triethyleneglycol methyl p,p'-bibenzoate), PTEMeB, has been synthesized. It shows a rather slow mesophase formation making possible to study independently both the amorphous and the liquid crystalline states. The structure and phase transitions of PTEMeB have been investigated by calorimetry, variable-temperature MAXS/WAXS employing synchrotron radiation, and X-ray diffraction in oriented fibers. These experiments have pointed out the presence of two glass transitions, related to the amorphous or to the liquid crystal phases. Additionally, the mesophase seems to be a coexistence of orthogonal and tilted smectic phases. A dielectric relaxation study of PTEMeB over broad ranges of temperature and pressure has been performed. The dynamic glass transition turns out to be slower for the amorphous state than for the liquid crystal. Monitoring of the α relaxation has allowed us to follow the isothermal mesophase formation at atmospheric pressure. Additionally, the dynamical behavior at high pressures has pointed out the fast formation of the mesophase induced by sudden pressure changes.
Resumo:
La Universidad Politécnica de Madrid (UPM) y la Università degli Studi di Firenze (UniFi), bajo la coordinación técnica de AMPHOS21, participan desde 2009 en el proyecto de investigación “Estrategias de Monitorización de CO2 y otros gases en el estudio de Análogos Naturales”, financiado por la Fundación Ciudad de la Energía (CIUDEN) en el marco del Proyecto Compostilla OXYCFB300 (http://www.compostillaproject.eu), del Programa “European Energy Program for Recovery - EEPR”. El objetivo principal del proyecto fue el desarrollo y puesta a punto de metodologías de monitorización superficiales para su aplicación en el seguimiento y control de los emplazamientos donde se realice el almacenamiento geológico de CO2, analizando técnicas que permitan detectar y cuantificar las posibles fugas de CO2 a la atmósfera. Los trabajos se realizaron tanto en análogos naturales (españoles e italianos) como en la Planta de Desarrollo Tecnológico de Almacenamiento de CO2 de Hontomín. Las técnicas analizadas se centran en la medición de gases y aguas superficiales (de escorrentía y manantiales). En cuanto a la medición de gases se analizó el flujo de CO2 que emana desde el suelo a la atmósfera y la aplicabilidad de trazadores naturales (como el radón) para la detección e identificación de las fugas de CO2. En cuanto al análisis químico de las aguas se analizaron los datos geoquímicos e isotópicos y los gases disueltos en las aguas de los alrededores de la PDT de Hontomín, con objeto de determinar qué parámetros son los más apropiados para la detección de una posible migración del CO2 inyectado, o de la salmuera, a los ambientes superficiales. Las medidas de flujo de CO2 se realizaron con la técnica de la cámara de acúmulo. A pesar de ser una técnica desarrollada y aplicada en diferentes ámbitos científicos se estimó necesario adaptar un protocolo de medida y de análisis de datos a las características específicas de los proyectos de captura y almacenamiento de CO2 (CAC). Donde los flujos de CO2 esperados son bajos y en caso de producirse una fuga habrá que detectar pequeñas variaciones en los valores flujo con un “ruido” en la señal alto, debido a actividad biológica en el suelo. La medida de flujo de CO2 mediante la técnica de la cámara de acúmulo se puede realizar sin limpiar la superficie donde se coloca la cámara o limpiando y esperando al reequilibrio del flujo después de la distorsión al sistema. Sin embargo, los resultados obtenidos después de limpiar y esperar muestran menor dispersión, lo que nos indica que este procedimiento es el mejor para la monitorización de los complejos de almacenamiento geológico de CO2. El protocolo de medida resultante, utilizado para la obtención de la línea base de flujo de CO2 en Hontomín, sigue los siguiente pasos: a) con una espátula se prepara el punto de medición limpiando y retirando el recubrimiento vegetal o la primera capa compacta de suelo, b) se espera un tiempo para la realización de la medida de flujo, facilitando el reequilibrio del flujo del gas tras la alteración provocada en el suelo y c) se realiza la medida de flujo de CO2. Una vez realizada la medición de flujo de CO2, y detectada si existen zonas de anomalías, se debe estimar la cantidad de CO2 que se está escapando a la atmósfera (emanación total), con el objetivo de cuantificar la posible fuga. Existen un amplio rango de metodologías para realizar dicha estimación, siendo necesario entender cuáles son las más apropiadas para obtener el valor más representativo del sistema. En esta tesis se comparan seis técnicas estadísticas: media aritmética, estimador insegado de la media (aplicando la función de Sichel), remuestreo con reemplazamiento (bootstrap), separación en diferentes poblaciones mediante métodos gráficos y métodos basados en criterios de máxima verosimilitud, y la simulación Gaussiana secuencial. Para este análisis se realizaron ocho campañas de muestreo, tanto en la Planta de Desarrollo Tecnológico de Hontomón como en análogos naturales (italianos y españoles). Los resultados muestran que la simulación Gaussiana secuencial suele ser el método más preciso para realizar el cálculo, sin embargo, existen ocasiones donde otros métodos son más apropiados. Como consecuencia, se desarrolla un procedimiento de actuación para seleccionar el método que proporcione el mejor estimador. Este procedimiento consiste, en primer lugar, en realizar un análisis variográfico. Si existe una autocorrelación entre los datos, modelizada mediante el variograma, la mejor técnica para calcular la emanación total y su intervalo de confianza es la simulación Gaussiana secuencial (sGs). Si los datos son independientes se debe comprobar la distribución muestral, aplicando la media aritmética o el estimador insesgado de la media (Sichel) para datos normales o lognormales respectivamente. Cuando los datos no son normales o corresponden a una mezcla de poblaciones la mejor técnica de estimación es la de remuestreo con reemplazamiento (bootstrap). Siguiendo este procedimiento el máximo valor del intervalo de confianza estuvo en el orden del ±20/25%, con la mayoría de valores comprendidos entre ±3,5% y ±8%. La identificación de las diferentes poblaciones muestrales en los datos de flujo de CO2 puede ayudar a interpretar los resultados obtenidos, toda vez que esta distribución se ve afectada por la presencia de varios procesos geoquímicos como, por ejemplo, una fuente geológica o biológica del CO2. Así pues, este análisis puede ser una herramienta útil en el programa de monitorización, donde el principal objetivo es demostrar que no hay fugas desde el reservorio a la atmósfera y, si ocurren, detectarlas y cuantificarlas. Los resultados obtenidos muestran que el mejor proceso para realizar la separación de poblaciones está basado en criterios de máxima verosimilitud. Los procedimientos gráficos, aunque existen pautas para realizarlos, tienen un cierto grado de subjetividad en la interpretación de manera que los resultados son menos reproducibles. Durante el desarrollo de la tesis se analizó, en análogos naturales, la relación existente entre el CO2 y los isótopos del radón (222Rn y 220Rn), detectándose en todas las zonas de emisión de CO2 una relación positiva entre los valores de concentración de 222Rn en aire del suelo y el flujo de CO2. Comparando la concentración de 220Rn con el flujo de CO2 la relación no es tan clara, mientras que en algunos casos aumenta en otros se detecta una disminución, hecho que parece estar relacionado con la profundidad de origen del radón. Estos resultados confirmarían la posible aplicación de los isótopos del radón como trazadores del origen de los gases y su aplicación en la detección de fugas. Con respecto a la determinación de la línea base de flujo CO2 en la PDT de Hontomín, se realizaron mediciones con la cámara de acúmulo en las proximidades de los sondeos petrolíferos, perforados en los ochenta y denominados H-1, H-2, H-3 y H-4, en la zona donde se instalarán el sondeo de inyección (H-I) y el de monitorización (H-A) y en las proximidades de la falla sur. Desde noviembre de 2009 a abril de 2011 se realizaron siete campañas de muestreo, adquiriéndose más de 4.000 registros de flujo de CO2 con los que se determinó la línea base y su variación estacional. Los valores obtenidos fueron bajos (valores medios entre 5 y 13 g•m-2•d-1), detectándose pocos valores anómalos, principalmente en las proximidades del sondeo H-2. Sin embargo, estos valores no se pudieron asociar a una fuente profunda del CO2 y seguramente estuvieran más relacionados con procesos biológicos, como la respiración del suelo. No se detectaron valores anómalos cerca del sistema de fracturación (falla Ubierna), toda vez que en esta zona los valores de flujo son tan bajos como en el resto de puntos de muestreo. En este sentido, los valores de flujo de CO2 aparentemente están controlados por la actividad biológica, corroborado al obtenerse los menores valores durante los meses de otoño-invierno e ir aumentando en los periodos cálidos. Se calcularon dos grupos de valores de referencia, el primer grupo (UCL50) es 5 g•m-2•d-1 en las zonas no aradas en los meses de otoño-invierno y 3,5 y 12 g•m-2•d-1 en primavera-verano para zonas aradas y no aradas, respectivamente. El segundo grupo (UCL99) corresponde a 26 g•m-2•d- 1 durante los meses de otoño-invierno en las zonas no aradas y 34 y 42 g•m-2•d-1 para los meses de primavera-verano en zonas aradas y no aradas, respectivamente. Flujos mayores a estos valores de referencia podrían ser indicativos de una posible fuga durante la inyección y posterior a la misma. Los primeros datos geoquímicos e isotópicos de las aguas superficiales (de escorrentía y de manantiales) en el área de Hontomín–Huermeces fueron analizados. Los datos sugieren que las aguas estudiadas están relacionadas con aguas meteóricas con un circuito hidrogeológico superficial, caracterizadas por valores de TDS relativamente bajos (menor a 800 mg/L) y una fácie hidrogeoquímica de Ca2+(Mg2+)-HCO3 −. Algunas aguas de manantiales se caracterizan por concentraciones elevadas de NO3 − (concentraciones de hasta 123 mg/l), lo que sugiere una contaminación antropogénica. Se obtuvieron concentraciones anómalas de of Cl−, SO4 2−, As, B y Ba en dos manantiales cercanos a los sondeos petrolíferos y en el rio Ubierna, estos componentes son probablemente indicadores de una posible mezcla entre los acuíferos profundos y superficiales. El estudio de los gases disueltos en las aguas también evidencia el circuito superficial de las aguas. Estando, por lo general, dominado por la componente atmosférica (N2, O2 y Ar). Sin embargo, en algunos casos el gas predominante fue el CO2 (con concentraciones que llegan al 63% v/v), aunque los valores isotópicos del carbono (<-17,7 ‰) muestran que lo más probable es que esté relacionado con un origen biológico. Los datos geoquímicos e isotópicos de las aguas superficiales obtenidos en la zona de Hontomín se pueden considerar como el valor de fondo con el que comparar durante la fase operacional, la clausura y posterior a la clausura. En este sentido, la composición de los elementos mayoritarios y traza, la composición isotópica del carbono del CO2 disuelto y del TDIC (Carbono inorgánico disuelto) y algunos elementos traza se pueden considerar como parámetros adecuados para detectar la migración del CO2 a los ambientes superficiales. ABSTRACT Since 2009, a group made up of Universidad Politécnica de Madrid (UPM; Spain) and Università degli Studi Firenze (UniFi; Italy) has been taking part in a joint project called “Strategies for Monitoring CO2 and other Gases in Natural analogues”. The group was coordinated by AMPHOS XXI, a private company established in Barcelona. The Project was financially supported by Fundación Ciudad de la Energía (CIUDEN; Spain) as a part of the EC-funded OXYCFB300 project (European Energy Program for Recovery -EEPR-; www.compostillaproject.eu). The main objectives of the project were aimed to develop and optimize analytical methodologies to be applied at the surface to Monitor and Verify the feasibility of geologically stored carbon dioxide. These techniques were oriented to detect and quantify possible CO2 leakages to the atmosphere. Several investigations were made in natural analogues from Spain and Italy and in the Tecnchnological Development Plant for CO2 injection al Hontomín (Burgos, Spain). The studying techniques were mainly focused on the measurements of diffuse soil gases and surface and shallow waters. The soil-gas measurements included the determination of CO2 flux and the application to natural trace gases (e.g. radon) that may help to detect any CO2 leakage. As far as the water chemistry is concerned, geochemical and isotopic data related to surface and spring waters and dissolved gases in the area of the PDT of Hontomín were analyzed to determine the most suitable parameters to trace the migration of the injected CO2 into the near-surface environments. The accumulation chamber method was used to measure the diffuse emission of CO2 at the soil-atmosphere interface. Although this technique has widely been applied in different scientific areas, it was considered of the utmost importance to adapt the optimum methodology for measuring the CO2 soil flux and estimating the total CO2 output to the specific features of the site where CO2 is to be stored shortly. During the pre-injection phase CO2 fluxes are expected to be relatively low where in the intra- and post-injection phases, if leakages are to be occurring, small variation in CO2 flux might be detected when the CO2 “noise” is overcoming the biological activity of the soil (soil respiration). CO2 flux measurements by the accumulation chamber method could be performed without vegetation clearance or after vegetation clearance. However, the results obtained after clearance show less dispersion and this suggests that this procedure appears to be more suitable for monitoring CO2 Storage sites. The measurement protocol, applied for the determination of the CO2 flux baseline at Hontomín, has included the following steps: a) cleaning and removal of both the vegetal cover and top 2 cm of soil, b) waiting to reduce flux perturbation due to the soil removal and c) measuring the CO2 flux. Once completing the CO2 flux measurements and detected whether there were anomalies zones, the total CO2 output was estimated to quantify the amount of CO2 released to the atmosphere in each of the studied areas. There is a wide range of methodologies for the estimation of the CO2 output, which were applied to understand which one was the most representative. In this study six statistical methods are presented: arithmetic mean, minimum variances unbiased estimator, bootstrap resample, partitioning of data into different populations with a graphical and a maximum likelihood procedures, and sequential Gaussian simulation. Eight campaigns were carried out in the Hontomín CO2 Storage Technology Development Plant and in natural CO2 analogues. The results show that sequential Gaussian simulation is the most accurate method to estimate the total CO2 output and the confidential interval. Nevertheless, a variety of statistic methods were also used. As a consequence, an application procedure for selecting the most realistic method was developed. The first step to estimate the total emanation rate was the variogram analysis. If the relation among the data can be explained with the variogram, the best technique to calculate the total CO2 output and its confidence interval is the sequential Gaussian simulation method (sGs). If the data are independent, their distribution is to be analyzed. For normal and log-normal distribution the proper methods are the arithmetic mean and minimum variances unbiased estimator, respectively. If the data are not normal (log-normal) or are a mixture of different populations the best approach is the bootstrap resampling. According to these steps, the maximum confidence interval was about ±20/25%, with most of values between ±3.5% and ±8%. Partitioning of CO2 flux data into different populations may help to interpret the data as their distribution can be affected by different geochemical processes, e.g. geological or biological sources of CO2. Consequently, it may be an important tool in a monitoring CCS program, where the main goal is to demonstrate that there are not leakages from the reservoir to the atmosphere and, if occurring, to be able to detect and quantify it. Results show that the partitioning of populations is better performed by maximum likelihood criteria, since graphical procedures have a degree of subjectivity in the interpretation and results may not be reproducible. The relationship between CO2 flux and radon isotopes (222Rn and 220Rn) was studied in natural analogues. In all emissions zones, a positive relation between 222Rn and CO2 was observed. However, the relationship between activity of 220Rn and CO2 flux is not clear. In some cases the 220Rn activity indeed increased with the CO2 flux in other measurements a decrease was recognized. We can speculate that this effect was possibly related to the route (deep or shallow) of the radon source. These results may confirm the possible use of the radon isotopes as tracers for the gas origin and their application in the detection of leakages. With respect to the CO2 flux baseline at the TDP of Hontomín, soil flux measurements in the vicinity of oil boreholes, drilled in the eighties and named H-1 to H-4, and injection and monitoring wells were performed using an accumulation chamber. Seven surveys were carried out from November 2009 to summer 2011. More than 4,000 measurements were used to determine the baseline flux of CO2 and its seasonal variations. The measured values were relatively low (from 5 to 13 g•m-2•day-1) and few outliers were identified, mainly located close to the H-2 oil well. Nevertheless, these values cannot be associated to a deep source of CO2, being more likely related to biological processes, i.e. soil respiration. No anomalies were recognized close to the deep fault system (Ubierna Fault) detected by geophysical investigations. There, the CO2 flux is indeed as low as other measurement stations. CO2 fluxes appear to be controlled by the biological activity since the lowest values were recorded during autumn-winter seasons and they tend to increase in warm periods. Two reference CO2 flux values (UCL50 of 5 g•m-2•d-1 for non-ploughed areas in autumn-winter seasons and 3.5 and 12 g•m-2•d-1 for in ploughed and non-ploughed areas, respectively, in spring-summer time, and UCL99 of 26 g•m-2•d-1 for autumn-winter in not-ploughed areas and 34 and 42 g•m-2•d-1 for spring-summer in ploughed and not-ploughed areas, respectively, were calculated. Fluxes higher than these reference values could be indicative of possible leakage during the operational and post-closure stages of the storage project. The first geochemical and isotopic data related to surface and spring waters and dissolved gases in the area of Hontomín–Huermeces (Burgos, Spain) are presented and discussed. The chemical and features of the spring waters suggest that they are related to a shallow hydrogeological system as the concentration of the Total Dissolved Solids approaches 800 mg/L with a Ca2+(Mg2+)-HCO3 − composition, similar to that of the surface waters. Some spring waters are characterized by relatively high concentrations of NO3 − (up to 123 mg/L), unequivocally suggesting an anthropogenic source. Anomalous concentrations of Cl−, SO4 2−, As, B and Ba were measured in two springs, discharging a few hundred meters from the oil wells, and in the Rio Ubierna. These contents are possibly indicative of mixing processes between deep and shallow aquifers. The chemistry of the dissolved gases also evidences the shallow circuits of the Hontomín– Huermeces, mainly characterized by an atmospheric source as highlighted by the contents of N2, O2, Ar and their relative ratios. Nevertheless, significant concentrations (up to 63% by vol.) of isotopically negative CO2 (<−17.7‰ V-PDB) were found in some water samples, likely related to a biogenic source. The geochemical and isotopic data of the surface and spring waters in the surroundings of Hontomín can be considered as background values when intra- and post-injection monitoring programs will be carried out. In this respect, main and minor solutes, the isotopic carbon of dissolved CO2 and TDIC (Total Dissolved Inorganic Carbon) and selected trace elements can be considered as useful parameters to trace the migration of the injected CO2 into near-surface environments.
Resumo:
Nuevas aplicaciones tecnológicas y científicas mediante amarras electrodinámicas son analizadas para misiones planetarias. i) Primero, se considera un conjunto de amarras cilíndricas en paralelo (veleros electrosolares) para una misión interplanetaria. Los iones provenientes del viento solar son repelidos por el alto potencial de dichas amarras generando empuje sobre el velero. Para conocer el intercambio de momento que provocan los iones sobre las amarras se ha considerado un modelo de potencial estacionario. Se ha analizado la transferencia orbital de la Tierra a Júpiter siguiendo un método de optimización de trayectoria indirecto. ii) Una vez que el velero se encuentra cerca de Júpiter, se ha considerado el despliegue de una amarra para diferentes objetivos científicos. iia) Una amarra podría ser utilizada para diagnóstico de plasmas, al ser una fuente efectiva de ondas, y también como un generador de auroras artificiales. Una amarra conductora que orbite en la magnetosfera jovial es capaz de producir ondas. Se han analizado las diferentes ondas radiadas por un conductor por el que circula una corriente constante que sigue una órbita polar de alta excentricidad y bajo apoápside, como ocurre en la misión Juno de la NASA. iib) Además, se ha estudiado una misión tentativa que sigue una órbita ecuatorial (LJO) por debajo de los intensos cinturones de radiación. Ambas misiones requiren potencia eléctrica para los sistemas de comunicación e instrumentos científicos. Las amarras pueden generar potencia de manera más eficiente que otros sistemas que utlizan paneles solares o sistemas de potencia de radioisótopos (RPS). La impedancia de radiación es necesaria para determinar la corriente que circula por todo el circuito de la amarra. En un modelo de plasma frío, la radiación ocurre principalmente en los modos de Alfven y magnetosónica rápida, mostrando un elevado índice de refracción. Se ha estudiado la impedancia de radiación en amarras con recubrimiento aislante para los dos modos de radiación y cada una de las misiones. A diferencia del caso ionosférico terrestre, la baja densidad y el intenso campo magnético que aparecen en el entorno de Júpiter consiguen que la girofrecuencia de los electrones sea mucho mayor que la frecuencia del plasma; esto hace que el espectro de potencia para cada modo se modifique substancialmente, aumentando la velocidad de Alfven. Se ha estimado también la impedancia de radiación para amarras sin aislante conductor. En la misión LJO, un vehículo espacial bajando lentamente la altitud de su órbita permitiría estudiar la estructura del campo magnético y composición atmosférica para entender la formación, evolución, y estructura de Júpiter. Adicionalmente, si el contactor (cátodo) se apaga, se dice que la amarra flota eléctricamente, permitiendo emisión de haz de electrones que generan auroras. El continuo apagado y encendido produce pulsos de corriente dando lugar a emisiones de señales, que pueden ser utilizadas para diagnóstico del plasma jovial. En Órbita Baja Jovial, los iones que impactan contra una amarra polarizada negativamente producen electrones secundarios, que, viajando helicoidalmente sobre las líneas de campo magnético de Júpiter, son capaces de alcanzar su atmósfera más alta, y, de esta manera, generar auroras. Se han identificado cuáles son las regiones donde la amarra sería más eficiente para producir auroras. iic) Otra aplicación científica sugerida para la misión LJO es la detección de granos cargados que orbitan cerca de Júpiter. Los electrones de alta energía en este ambiente pueden ser modelados por una distribucción no Maxwelliana conocida como distribución kappa. En escenarios con plasmas complejos, donde los campos eléctricos en Júpiter pueden acelerar las cargas hasta velocidades que superen la velocidad térmica, este tipo de distribuciones son muy útiles. En este caso las colas de las distribuciones de electrones siguen una ley de potencias. Se han estudiado las fluctuaciones de granos cargados para funciones de distribución kappa. iii) La tesis concluye con el análisis para deorbitar satélites con amarras electrodinámicas que siguen una Órbita Baja Terrestre (LEO). Una amarra debe presentar una baja probabilidad de corte por pequeño debris y además debe ser suficientemente ligero para que el cociente entre la masa de la amarra y el satélite sea muy pequeño. En este trabajo se estiman las medidas de la longitud, anchura y espesor que debe tener una amarra para minimizar el producto de la probabilidad de corte por el cociente entre las masas de la amarra y el satélite. Se presentan resultados preliminares del diseño de una amarra con forma de cinta para deorbitar satélites relativamente ligeros como Cryosat y pesados como Envisat. Las misiones espaciales a planetas exteriores y en el ámbito terrestre plantean importantes retos científico-tecnológicos que deben ser abordados y solucionados. Por ello, desde el inicio de la era espacial se han diseñando novedosos métodos propulsivos, sistemas de guiado, navegación y control más robustos, y nuevos materiales para mejorar el rendimiento de los vehículos espaciales (SC). En un gran número de misiones interplanetarias y en todas las misiones a planetas exteriores se han empleado sistemas de radioisótopos (RPS) para generar potencia eléctrica en los vehículos espaciales y en los rovers de exploración. Estos sistemas emplean como fuente de energía el escaso y costoso plutonio-238. La NASA, por medio de un informe de la National Academy of Science (5 de Mayo del 2009), expresó una profunda preocupación por la baja cantidad de plutonio almacenado, insuficiente para desarrollar todas las misiones de exploración planetaria planeadas en el futuro [81, 91]. Esta circustancia ha llevado a dicha Agencia tomar la decisión de limitar el uso de estos sistemas RPS en algunas misiones de especial interés científico y una recomendación de alta prioridad para que el Congreso de los EEUU apruebe el reestablecimiento de la producción de plutonio-238, -son necesarios cerca de 5 kg de este material radiactivo al año-, para salvaguardar las misiones que requieran dichos sistemas de potencia a partir del año 2018. Por otro lado, la Agencia estadounidense ha estado considerando el uso de fuentes de energía alternativa; como la fisión nuclear a través del ambicioso proyecto Prometheus, para llevar a cabo una misión de exploración en el sistema jovial (JIMO). Finalmente, dicha misión fue desestimada por su elevado coste. Recientemente se han estado desarrollando sistemas que consigan energía a través de los recursos naturales que nos aporta el Sol, mediante paneles solares -poco eficientes para misiones a planetas alejados de la luz solar-. En este contexto, la misión JUNO del programa Nuevas Fronteras de la NASA, cuyo lanzamiento fue realizado con éxito en Agosto de 2011, va a ser la primera misión equipada con paneles solares que sobrevolará Júpiter en el 2015 siguiendo una órbita polar. Anteriormente se habían empleado los antes mencionados RPS para las misiones Pioneer 10,11, Voyager 1,2, Ulysses, Cassini-Huygens y Galileo (todas sobrevuelos excepto Galileo). Dicha misión seguirá una órbita elíptica de alta excentricidad con un periápside muy cercano a Júpiter, y apoápside lejano, evitando que los intensos cinturones de radiación puedan dañar los instrumentos de navegación y científicos. Un tether o amarra electrodinámica es capaz de operar como sistema propulsivo o generador de potencia, pero también puede ser considerado como solución científicotecnológica en misiones espaciales tanto en LEO (Órbita Baja Terrestre) como en planetas exteriores. Siguiendo una perspectiva histórica, durante las misiones terrestres TSS-1 (1992) y TSS-1R (1996) se emplearon amarras estandard con recubrimiento aislante en toda su longitud, aplicando como terminal anódico pasivo un colector esférico para captar electrones. En una geometría alternativa, propuesta por J. R. Sanmartín et al. (1993) [93], se consideró dejar la amarra sin recubrimiento aislante (“bare tether”), y sin colector anódico esférico, de forma que recogiera electrones a lo largo del segmento que resulta polarizado positivo, como si se tratara de una sonda de Langmuir de gran longitud. A diferencia de la amarra estandard, el “bare tether” es capaz de recoger electrones a lo largo de una superficie grande ya que este segmento es de varios kilómetros de longitud. Como el radio de la amarra es del orden de la longitud de Debye y pequeño comparado con el radio de Larmor de los electrones, permite una recolección eficiente de electrones en el régimen OML (Orbital Motion Limited) de sondas de Langmuir. La corriente dada por la teoría OML varía en función del perímetro y la longitud. En el caso de una cinta delgada, el perímetro depende de la anchura, que debe ser suficientemente grande para evitar cortes producidos por debris y micrometeoritos, y suficientemente pequeño para que la amarra funcione en dicho régimen [95]. En el experimento espacial TSS-1R mencionado anteriormente, se identificó una recolección de corriente más elevada que la que predecía el modelo teórico de Parker- Murphy, debido posiblemente a que se utilizaba un colector esférico de radio bastante mayor que la longitud de Debye [79]. En el caso de una amarra “bare”, que recoge electrones a lo largo de gran parte de su longitud, se puede producir un fenómeno conocido como atrapamiento adiabático de electrones (adiabatic electron trapping) [25, 40, 60, 73, 74, 97]. En el caso terrestre (LEO) se da la condición mesotérmica en la que la amarra se mueve con una velocidad muy superior a la velocidad térmica de los iones del ambiente y muy inferior a la velocidad térmica de los electrones. J. Laframboise y L. Parker [57] mostraron que, para una función de distribución quasi-isotrópica, la densidad de electrones debe entonces ser necesariamente inferior a la densidad ambiente. Por otra parte, debido a su flujo hipersónico y a la alta polarización positiva de la amarra, la densidad de los iones es mayor que la densidad ambiente en una vasta región de la parte “ram” del flujo, violando la condición de cuasi-neutralidad,-en una región de dimensión mayor que la longitud de Debye-. La solución a esta paradoja podría basarse en el atrapamiento adiabático de electrones ambiente en órbitas acotadas entorno al tether. ABSTRACT New technological and scientific applications by electrodynamic tethers for planetary missions are analyzed: i) A set of cylindrical, parallel tethers (electric solar sail or e-sail) is considered for an interplanetary mission; ions from the solar wind are repelled by the high potential of the tether, providing momentum to the e-sail. An approximated model of a stationary potential for a high solar wind flow is considered. With the force provided by a negative biased tether, an indirect method for the optimization trajectory of an Earth-to-Jupiter orbit transfer is analyzed. ii) The deployment of a tether from the e-sail allows several scientific applications in Jupiter. iia) It might be used as a source of radiative waves for plasma diagnostics and artificial aurora generator. A conductive tether orbiting in the Jovian magnetosphere produces waves. Wave radiation by a conductor carrying a steady current in both a polar, highly eccentric, low perijove orbit, as in NASA’s Juno mission, and an equatorial low Jovian orbit (LJO) mission below the intense radiation belts, is considered. Both missions will need electric power generation for scientific instruments and communication systems. Tethers generate power more efficiently than solar panels or radioisotope power systems (RPS). The radiation impedance is required to determine the current in the overall tether circuit. In a cold plasma model, radiation occurs mainly in the Alfven and fast magnetosonic modes, exhibiting a large refraction index. The radiation impedance of insulated tethers is determined for both modes and either mission. Unlike the Earth ionospheric case, the low-density, highly magnetized Jovian plasma makes the electron gyrofrequency much larger than the plasma frequency; this substantially modifies the power spectrum for either mode by increasing the Alfven velocity. An estimation of the radiation impedance of bare tethers is also considered. iib) In LJO, a spacecraft orbiting in a slow downward spiral under the radiation belts would allow determining magnetic field structure and atmospheric composition for understanding the formation, evolution, and structure of Jupiter. Additionally, if the cathodic contactor is switched off, a tether floats electrically, allowing e-beam emission that generate auroras. On/off switching produces bias/current pulses and signal emission, which might be used for Jovian plasma diagnostics. In LJO, the ions impacting against the negative-biased tether do produce secondary electrons, which racing down Jupiter’s magnetic field lines, reach the upper atmosphere. The energetic electrons there generate auroral effects. Regions where the tether efficiently should produce secondary electrons are analyzed. iic) Other scientific application suggested in LJO is the in-situ detection of charged grains. Charged grains naturally orbit near Jupiter. High-energy electrons in the Jovian ambient may be modeled by the kappa distribution function. In complex plasma scenarios, where the Jovian high electric field may accelerate charges up superthermal velocities, the use of non-Maxwellian distributions should be considered. In these cases, the distribution tails fit well to a power-law dependence for electrons. Fluctuations of the charged grains for non-Mawellian distribution function are here studied. iii) The present thesis is concluded with the analysis for de-orbiting satellites at end of mission by electrodynamic tethers. A de-orbit tether system must present very small tether-to-satellite mass ratio and small probability of a tether cut by small debris too. The present work shows how to select tape dimensions so as to minimize the product of those two magnitudes. Preliminary results of tape-tether design are here discussed to minimize that function. Results for de-orbiting Cryosat and Envisat are also presented.
Resumo:
Como es conocido por la literatura, los dispositivos ópticos biestables pueden tener un amplio uso en campos, como las comunicaciones ópticas, donde la extracción de señales a partir del ruido es necesitada. En este trabajo se comentan los resultados que se obtienen al enlazar dos puntos mediante comunicación óptica atmosférica, al emplear en recepción un dispositivo biestable electroóptico.
Resumo:
Este proyecto trata de diseñar el sistema eléctrico y de control de potencia de una maqueta del túnel aerodinámico ACLA-16 de la Universidad Politécnica de Madrid (UPM). Dicha maqueta se utiliza para estudiar el efecto de la capa límite atmosférica, debido a su importancia en el impacto sobre estructuras civiles. Primero se desarrolla una parte teórica sobre qué son los túneles aerodinámicos, las aplicaciones que tienen y conceptos básicos acerca de la capa límite atmosférica. Luego se analiza el diseño geométrico de la maqueta del túnel y se detallan los elementos que debe tener el sistema eléctrico. Además, se realiza una simulación por ordenador con un programa de CFD (Fluent) para comparar los resultados experimentales reales con los resultados numéricos de la simulación para comprobar si se pueden extraer resultados aceptables por ordenador y así ahorrar costes y tiempo en el estudio de ensayos.
Resumo:
El principal objetivo de este trabajo es aportar conocimiento para contestar la pregunta: ¿hasta que punto los ensayos en túnel aerodinámico pueden contribuir a determinar las características que afectan la respuesta dinámica de los aerogeneradores operando en terreno complejo?. Esta pregunta no es nueva, de hecho, el debate en la comunidad científica comenzó en el primer tercio del siglo pasado y aún está intensamente vivo. El método generalmente aceptado para enfrentar el mencionado problema consiste en analizar un caso de estudio determinado en el cual se aplican tanto ensayos a escala real como análisis computacionales y ensayos en túnel aerodinámico. Esto no es ni fácil ni barato. Esta es la razón por la cual desde el experimento de Askervein en 1988, los modelizadores del flujo atmosférico tuvieron que esperar hasta 2007 a que el experimento de Bolund fuese puesto en marcha con un despliegue de medios técnicos equivalentes (teniendo en cuenta la evolución de las tecnologías de sensores y computación). El problema contempla tantos aspectos que ambas experiencias fueron restringidas a condiciones de atmósfera neutra con efectos de Coriolis despreciables con objeto de reducir la complejidad. Este es el contexto en el que se ha desarrollado la presente tesis doctoral. La topología del flujo sobre la isla de Bolund ha sido estudiada mediante la reproducción del experimento de Bolund en los túneles aerodinámicos A9 y ACLA16 del IDR. Dos modelos de la isla de Bolund fueron fabricados a dos escalas, 1:230 y 1:115. El flujo de entrada en el túnel aerodinámico simulando la capa límite sin perturbar correspondía a régimen de transición (transitionally rough regime) y fue usado como situación de referencia. El modelo a escala 1:230 fue ensayado en el túnel A9 para determinar la presión sobre su superficie. La distribución del coeficiente de presión sobre la isla proporcionó una visualización y estimación de una región de desprendimiento sobre el pequeño acantilado situado al frente de la misma. Las medidas de presión instantánea con suficiente grado de resolución temporal pusieron de manifiesto la no estacionariedad en la región de desprendimiento. El modelo a escala 1:115 fue ensayado utilizando hilo caliente de tres componentes y un sistema de velocimetría por imágenes de partículas de dos componentes. El flujo fue caracterizado por el ratio de aceleración, el incremento normalizado de energía cinética turbulenta y los ángulos de inclinación y desviación horizontal. Los resultados a lo largo de la dirección 270°y alturas de 2 m y 5 m presentaron una gran similitud con los resultados a escala real del experimento de Bolund. Los perfiles verticales en las localizaciones de las torres meteorológicas mostraron un acuerdo significativo con los resultados a escala real. El análisis de los esfuerzos de Reynolds y el análisis espectral en las localizaciones de los mástiles meteorológicos presentaron niveles de acuerdo variados en ciertas posiciones, mientras que en otras presentaron claras diferencias. El mapeo horizontal del flujo, para una dirección de viento de 270°, permitió caracterizar el comportamiento de la burbuja intermitente de recirculación sobre el pequeño acantilado existente al frente de la isla así como de la región de relajación y de la capa de cortadura en la región corriente abajo de Bolund. Se realizaron medidas de velocidad con alta resolución espacial en planos perpendiculares a la dirección del flujo sin perturbar. Estas medidas permitieron detectar y caracterizar una estructura de flujo similar a un torbellino longitudinal con regiones con altos gradientes de velocidad y alta intensidad de turbulencia. Esta estructura de flujo es, sin duda, un reto para los modelos computacionales y puede considerarse un factor de riesgo para la operación de los aerogeneradores. Se obtuvieron y analizaron distribuciones espaciales de los esfuerzos de Reynolds mediante 3CHW y PIV. Este tipo de parámetros no constituyen parte de los resultados habituales en los ensayos en túnel sobre topografías y son muy útiles para los modelizadores que utilizan simulación de grades torbellinos (LES). Se proporciona una interpretación de los resultados obtenidos en el túnel aerodinámico en términos de utilidad para los diseñadores de parques eólicos. La evolución y variación de los parámetros del flujo a lo largo de líneas, planos y superficies han permitido identificar como estas propiedades del flujo podrían afectar la localización de los aerogeneradores y a la clasificación de emplazamientos. Los resultados presentados sugieren, bajo ciertas condiciones, la robustez de los ensayos en túnel para estudiar la topología sobre terreno complejo y su comparabilidad con otras técnicas de simulación, especialmente considerando el nivel de acuerdo del conjunto de resultados presentados con los resultados a escala real. De forma adicional, algunos de los parámetros del flujo obtenidos de las medidas en túnel son difícilmente determinables en ensayos a escala real o por medios computacionales, considerado el estado del arte. Este trabajo fue realizado como parte de las actividades subvencionadas por la Comisión Europea como dentro del proyecto FP7-PEOPLE-ITN-2008WAUDIT (Wind Resource Assessment Audit and Standardization) dentro de la FP7 Marie-Curie Initial Training Network y por el Ministerio Español de Economía y Competitividad dentro del proyecto ENE2012-36473, TURCO (Determinación en túnel aerodinámico de la distribución espacial de parámetros estadísticos de la turbulencia atmosférica sobre topografías complejas) del Plan Nacional de Investigación (Subprograma de investigación fundamental no orientada 2012). El informe se ha organizado en siete capítulos y un conjunto de anexos. En el primer capítulo se introduce el problema. En el capítulo dos se describen los medios experimentales utilizados. Seguidamente, en el capítulo tres, se analizan en detalle las condiciones de referencia del principal túnel aerodinámico utilizado en esta investigación. En el capítulo tres se presentan resultados de ensayos de presión superficial sobre un modelo de la isla. Los principales resultados del experimento de Bolund se reproducen en el capítulo cinco. En el capítulo seis se identifican diferentes estructuras del flujo sobre la isla y, finalmente, en el capitulo siete, se recogen las conclusiones y una propuesta de lineas de trabajo futuras. ABSTRACT The main objective of this work is to contribute to answer the question: to which extend can the wind tunnel testing contribute to determine the flow characteristics that affect the dynamic response of wind turbines operating in highly complex terrains?. This question is not new, indeed, the debate in the scientific community was opened in the first third of the past century and it is still intensely alive. The accepted approach to face this problem consists in analysing a given case study where full-scale tests, computational modelling and wind tunnel testing are applied to the same topography. This is neither easy nor cheap. This is is the reason why since the Askervein experience in 1988, the atmospheric flow modellers community had to wait till 2007 when the Bolund experiment was setup with a deployment of technical means equivalent (considering the evolution of the sensor and computing techniques). The problem is so manifold that both experiences were restricted to neutral conditions without Coriolis effects in order to reduce the complexity. This is the framework in which this PhD has been carried out. The flow topology over the Bolund Island has been studied by replicating the Bolund experiment in the IDR A9 and ACLA16 wind tunnels. Two mock-ups of the Bolund island were manufactured at two scales of 1:230 and 1:115. The in-flow in the empty wind tunnel simulating the incoming atmospheric boundary layer was in the transitionally rough regime and used as a reference case. The 1:230 model was tested in the A9 wind tunnel to measure surface pressure. The mapping of the pressure coefficient across the island gave a visualisation and estimation of a detachment region on the top of the escarpment in front of the island. Time resolved instantaneous pressure measurements illustrated the non-steadiness in the detachment region. The 1:115 model was tested using 3C hot-wires(HW) and 2C Particle Image Velocimetry(PIV). Measurements at met masts M3, M6, M7 and M8 and along Line 270°were taken to replicate the result of the Bolund experiment. The flow was characterised by the speed-up ratio, normalised increment of the turbulent kinetic energy, inclination angle and turning angle. Results along line 270°at heights of 2 m and 5 m compared very well with the full-scale results of the Bolund experiment. Vertical profiles at the met masts showed a significant agreement with the full-scale results. The analysis of the Reynolds stresses and the spectral analysis at the met mast locations gave a varied level of agreement at some locations while clear mismatch at others. The horizontal mapping of the flow field, for a 270°wind direction, allowed to characterise the behaviour of the intermittent recirculation bubble on top of the front escarpment followed by a relaxation region and the presence of a shear layer in the lee side of the island. Further detailed velocity measurements were taken at cross-flow planes over the island to study the flow structures on the island. A longitudinal vortex-like structure with high mean velocity gradients and high turbulent kinetic energy was characterised on the escarpment and evolving downstream. This flow structure is a challenge to the numerical models while posing a threat to wind farm designers when siting wind turbines. Spatial distribution of Reynold stresses were presented from 3C HW and PIV measurements. These values are not common results from usual wind tunnel measurements and very useful for modellers using large eddy simulation (LES). An interpretation of the wind tunnel results in terms of usefulness to wind farm designers is given. Evolution and variation of the flow parameters along measurement lines, planes and surfaces indicated how the flow field could affect wind turbine siting. Different flow properties were presented so compare the level of agreement to full-scale results and how this affected when characterising the site wind classes. The results presented suggest, under certain conditions, the robustness of the wind tunnel testing for studying flow topology over complex terrain and its capability to compare to other modelling techniques especially from the level of agreement between the different data sets presented. Additionally, some flow parameters obtained from wind tunnel measurements would have been quite difficult to be measured at full-scale or by computational means considering the state of the art. This work was carried out as a part of the activities supported by the EC as part of the FP7- PEOPLE-ITN-2008 WAUDIT project (Wind Resource Assessment Audit and Standardization) within the FP7 Marie-Curie Initial Training Network and by the Spanish Ministerio de Economía y Competitividad, within the framework of the ENE2012-36473, TURCO project (Determination of the Spatial Distribution of Statistic Parameters of Flow Turbulence over Complex Topographies in Wind Tunnel) belonging to the Spanish National Program of Research (Subprograma de investigación fundamental no orientada 2012). The report is organised in seven chapters and a collection of annexes. In chapter one, the problem is introduced. In chapter two the experimental setup is described. Following, in chapter three, the inflow conditions of the main wind tunnel used in this piece of research are analysed in detail. In chapter three, preliminary pressure tests results on a model of the island are presented. The main results from the Bolund experiment are replicated in chapter five. In chapter six, an identification of specific flow strutures over the island is presented and, finally, in chapter seven, conclusions and lines for future works related to the presented one are included.
Resumo:
El autor ha trabajado como parte del equipo de investigación en mediciones de viento en el Centro Nacional de Energías Renovables (CENER), España, en cooperación con la Universidad Politécnica de Madrid y la Universidad Técnica de Dinamarca. El presente reporte recapitula el trabajo de investigación realizado durante los últimos 4.5 años en el estudio de las fuentes de error de los sistemas de medición remota de viento, basados en la tecnología lidar, enfocado al error causado por los efectos del terreno complejo. Este trabajo corresponde a una tarea del paquete de trabajo dedicado al estudio de sistemas remotos de medición de viento, perteneciente al proyecto de intestigación europeo del 7mo programa marco WAUDIT. Adicionalmente, los datos de viento reales han sido obtenidos durante las campañas de medición en terreno llano y terreno complejo, pertenecientes al también proyecto de intestigación europeo del 7mo programa marco SAFEWIND. El principal objetivo de este trabajo de investigación es determinar los efectos del terreno complejo en el error de medición de la velocidad del viento obtenida con los sistemas de medición remota lidar. Con este conocimiento, es posible proponer una metodología de corrección del error de las mediciones del lidar. Esta metodología está basada en la estimación de las variaciones del campo de viento no uniforme dentro del volumen de medición del lidar. Las variaciones promedio del campo de viento son predichas a partir de los resultados de las simulaciones computacionales de viento RANS, realizadas para el parque experimental de Alaiz. La metodología de corrección es verificada con los resultados de las simulaciones RANS y validadas con las mediciones reales adquiridas en la campaña de medición en terreno complejo. Al inicio de este reporte, el marco teórico describiendo el principio de medición de la tecnología lidar utilizada, es presentado con el fin de familiarizar al lector con los principales conceptos a utilizar a lo largo de este trabajo. Posteriormente, el estado del arte es presentado en donde se describe los avances realizados en el desarrollo de la la tecnología lidar aplicados al sector de la energía eólica. En la parte experimental de este trabajo de investigación se ha estudiado los datos adquiridos durante las dos campañas de medición realizadas. Estas campañas has sido realizadas en terreno llano y complejo, con el fin de complementar los conocimiento adquiridos en casa una de ellas y poder comparar los efectos del terreno en las mediciones de viento realizadas con sistemas remotos lidar. La primer campaña experimental se desarrollo en terreno llano, en el parque de ensayos de aerogeneradores H0vs0re, propiedad de DTU Wind Energy (anteriormente Ris0). La segunda campaña experimental se llevó a cabo en el parque de ensayos de aerogeneradores Alaiz, propiedad de CENER. Exactamente los mismos dos equipos lidar fueron utilizados en estas campañas, haciendo de estos experimentos altamente relevantes en el contexto de evaluación del recurso eólico. Un equipo lidar está basado en tecnología de onda continua, mientras que el otro está basado en tecnología de onda pulsada. La velocidad del viento fue medida, además de con los equipos lidar, con anemómetros de cazoletas, veletas y anemómetros verticales, instalados en mástiles meteorológicos. Los sensores del mástil meteorológico son considerados como las mediciones de referencia en el presente estudio. En primera instancia, se han analizado los promedios diez minútales de las medidas de viento. El objetivo es identificar las principales fuentes de error en las mediciones de los equipos lidar causadas por diferentes condiciones atmosféricas y por el flujo no uniforme de viento causado por el terreno complejo. El error del lidar ha sido estudiado como función de varias propiedades estadísticas del viento, como lo son el ángulo vertical de inclinación, la intensidad de turbulencia, la velocidad vertical, la estabilidad atmosférica y las características del terreno. El propósito es usar este conocimiento con el fin de definir criterios de filtrado de datos. Seguidamente, se propone una metodología para corregir el error del lidar causado por el campo de viento no uniforme, producido por la presencia de terreno complejo. Esta metodología está basada en el análisis matemático inicial sobre el proceso de cálculo de la velocidad de viento por los equipos lidar de onda continua. La metodología de corrección propuesta hace uso de las variaciones de viento calculadas a partir de las simulaciones RANS realizadas para el parque experimental de Alaiz. Una ventaja importante que presenta esta metodología es que las propiedades el campo de viento real, presentes en las mediciones instantáneas del lidar de onda continua, puede dar paso a análisis adicionales como parte del trabajo a futuro. Dentro del marco del proyecto, el trabajo diario se realizó en las instalaciones de CENER, con supervisión cercana de la UPM, incluyendo una estancia de 1.5 meses en la universidad. Durante esta estancia, se definió el análisis matemático de las mediciones de viento realizadas por el equipo lidar de onda continua. Adicionalmente, los efectos del campo de viento no uniforme sobre el error de medición del lidar fueron analíticamente definidos, después de asumir algunas simplificaciones. Adicionalmente, durante la etapa inicial de este proyecto se desarrollo una importante trabajo de cooperación con DTU Wind Energy. Gracias a esto, el autor realizó una estancia de 1.5 meses en Dinamarca. Durante esta estancia, el autor realizó una visita a la campaña de medición en terreno llano con el fin de aprender los aspectos básicos del diseño de campañas de medidas experimentales, el estudio del terreno y los alrededores y familiarizarse con la instrumentación del mástil meteorológico, el sistema de adquisición y almacenamiento de datos, así como de el estudio y reporte del análisis de mediciones. ABSTRACT The present report summarizes the research work performed during last 4.5 years of investigation on the sources of lidar bias due to complex terrain. This work corresponds to one task of the remote sensing work package, belonging to the FP7 WAUDIT project. Furthermore, the field data from the wind velocity measurement campaigns of the FP7 SafeWind project have been used in this report. The main objective of this research work is to determine the terrain effects on the lidar bias in the measured wind velocity. With this knowledge, it is possible to propose a lidar bias correction methodology. This methodology is based on an estimation of the wind field variations within the lidar scan volume. The wind field variations are calculated from RANS simulations performed from the Alaiz test site. The methodology is validated against real scale measurements recorded during an eight month measurement campaign at the Alaiz test site. Firstly, the mathematical framework of the lidar sensing principle is introduced and an overview of the state of the art is presented. The experimental part includes the study of two different, but complementary experiments. The first experiment was a measurement campaign performed in flat terrain, at DTU Wind Energy H0vs0re test site, while the second experiment was performed in complex terrain at CENER Alaiz test site. Exactly the same two lidar devices, based on continuous wave and pulsed wave systems, have been used in the two consecutive measurement campaigns, making this a relevant experiment in the context of wind resource assessment. The wind velocity was sensed by the lidars and standard cup anemometry and wind vanes (installed on a met mast). The met mast sensors are considered as the reference wind velocity measurements. The first analysis of the experimental data is dedicated to identify the main sources of lidar bias present in the 10 minute average values. The purpose is to identify the bias magnitude introduced by different atmospheric conditions and by the non-uniform wind flow resultant of the terrain irregularities. The lidar bias as function of several statistical properties of the wind flow like the tilt angle, turbulence intensity, vertical velocity, atmospheric stability and the terrain characteristics have been studied. The aim of this exercise is to use this knowledge in order to define useful lidar bias data filters. Then, a methodology to correct the lidar bias caused by non-uniform wind flow is proposed, based on the initial mathematical analysis of the lidar measurements. The proposed lidar bias correction methodology has been developed focusing on the the continuous wave lidar system. In a last step, the proposed lidar bias correction methodology is validated with the data of the complex terrain measurement campaign. The methodology makes use of the wind field variations obtained from the RANS analysis. The results are presented and discussed. The advantage of this methodology is that the wind field properties at the Alaiz test site can be studied with more detail, based on the instantaneous measurements of the CW lidar. Within the project framework, the daily basis work has been done at CENER, with close guidance and support from the UPM, including an exchange period of 1.5 months. During this exchange period, the mathematical analysis of the lidar sensing of the wind velocity was defined. Furthermore, the effects of non-uniform wind fields on the lidar bias were analytically defined, after making some assumptions for the sake of simplification. Moreover, there has been an important cooperation with DTU Wind Energy, where a secondment period of 1.5 months has been done as well. During the secondment period at DTU Wind Energy, an important introductory learning has taken place. The learned aspects include the design of an experimental measurement campaign in flat terrain, the site assessment study of obstacles and terrain conditions, the data acquisition and processing, as well as the study and reporting of the measurement analysis.
Resumo:
Son numerosos los expertos que predicen que hasta pasado 2050 no se utilizarán masivamente las energías de origen renovable, y que por tanto se mantendrá la emisión de dióxido de carbono de forma incontrolada. Entre tanto, y previendo que este tipo de uso se mantenga hasta un horizonte temporal aún más lejano, la captura, concentración y secuestro o reutilización de dióxido de carbono es y será una de las principales soluciones a implantar para paliar el problema medioambiental causado. Sin embargo, las tecnologías existentes y en desarrollo de captura y concentración de este tipo de gas, presentan dos limitaciones: las grandes cantidades de energía que consumen y los grandes volúmenes de sustancias potencialmente dañinas para el medioambiente que producen durante su funcionamiento. Ambas razones hacen que no sean atractivas para su implantación y uso de forma extensiva. La solución planteada en la presente tesis doctoral se caracteriza por la ausencia de residuos producidos en la operación de captura y concentración del dióxido de carbono, por no utilizar substancias químicas y físicas habituales en las técnicas actuales, por disminuir los consumos energéticos al carecer de sistemas móviles y por evitar la regeneración química y física de los materiales utilizados en la actualidad. Así mismo, plantea grandes retos a futuras innovaciones sobre la idea propuesta que busquen fundamentalmente la disminución de la energía utilizada durante su funcionamiento y la optimización de sus componentes principales. Para conseguir el objetivo antes citado, la presente tesis doctoral, una vez establecido el planteamiento del problema al que se busca solución (capítulo 1), del estudio de las técnicas de separación de gases atmosféricos utilizadas en la actualidad, así como del de los sistemas fundamentales de las instalaciones de captura y concentración del dióxido de carbono (capítulo 2) y tras una definición del marco conceptual y teórico (capítulo 3), aborda el diseño de un prototipo de ionización fotónica de los gases atmosféricos para su posterior separación electrostática, a partir del estudio, adaptación y mejora del funcionamiento de los sistemas de espectrometría de masas. Se diseñarán y desarrollarán los sistemas básicos de fotoionización, mediante el uso de fuentes de fotones coherentes, y los de separación electrostática (capítulo 4), en que se basa el funcionamiento de este sistema de separación de gases atmosféricos y de captura y concentración de dióxido de carbono para construir un prototipo a nivel laboratorio. Posteriormente, en el capítulo 5, serán probados utilizando una matriz experimental que cubra los rangos de funcionamiento previstos y aporte suficientes datos experimentales para corregir y desarrollar el marco teórico real, y con los que se pueda establecer y corregir un modelo físico– matemático de simulación (capítulo 6) aplicable a la unidad en su conjunto. Finalmente, debido a la utilización de unidades de ionización fotónica, sistemas láseres intensos y sistemas eléctricos de gran potencia, es preciso analizar el riesgo biológico a las personas y al medioambiente debido al impacto de la radiación electromagnética producida (capítulo 7), minimizando su impacto y cumpliendo con la legislación vigente. En el capítulo 8 se planteará un diseño escalable a tamaño piloto de la nueva tecnología propuesta y sus principales modos de funcionamiento, así como un análisis de viabilidad económica. Como consecuencia de la tesis doctoral propuesta y del desarrollo de la unidad de separación atmosférica y de captura y concentración de dióxido de carbono, surgen diversas posibilidades de estudio que pueden ser objeto de nuevas tesis doctorales y de futuros desarrollos de ingeniería. El capítulo 9 tratará de incidir en estos aspectos indicando líneas de investigación para futuras tesis y desarrollos industriales. ABSTRACT A large number of experts predict that until at least 2050 renewable energy sources will not be massively used, and for that reason, current Primary Energy sources based on extensive use of fossil fuel will be used maintaining out of control emissions, Carbon Dioxide above all. Meanwhile, under this scenario and considering its extension until at least 2050, Carbon Capture, Concentration, Storage and/or Reuse is and will be one of the main solutions to minimise Greenhouse Gasses environmental effect. But, current Carbon Capture and Storage technology state of development has two main problems: it is a too large energy consuming technology and during normal use it produces a large volume of environmentally dangerous substances. Both reasons are limiting its development and its extensive use. This Ph Degree Thesis document proposes a solution to get the expected effect using a new atmospheric gasses separation system with the following characteristics: absence of wastes produced, it needs no chemical and/or physical substances during its operation, it reduces to minimum the internal energy consumptions due to absence of mobile equipment and it does not need any chemical and/or physical regeneration of substances. This system is beyond the State of the Art of current technology development. Additionally, the proposed solution raises huge challenges for future innovations of the proposed idea finding radical reduction of internal energy consumption during functioning, as well as regarding optimisation of main components, systems and modes of operation. To achieve this target, once established the main problem, main challenge and potential solving solutions (Chapter 1), it is established an initial starting point fixing the Atmospheric Gasses Separation and Carbon Capture and Storage developments (Chapter 2), as well as it will be defined the theoretical and basic model, including existing and potential new governing laws and mathematical formulas to control its system functioning (Chapter 3), this document will deal with the design of an installation of an operating system based on photonic ionization of atmospheric gasses to be separated in a later separation system based on the application of electrostatic fields. It will be developed a basic atmospheric gasses ionization prototype based on intense radioactive sources capable to ionize gasses by coherent photonic radiation, and a basic design of electrostatic separation system (Chapter 4). Both basic designs are the core of the proposed technology that separates Atmospheric Gasses and captures and concentrates Carbon Dioxide. Chapter 5 will includes experimental results obtained from an experimental testing matrix covering expected prototype functioning regimes. With the obtained experimental data, theoretical model will be corrected and improved to act as the real physical and mathematical model capable to simulate real system function (Chapter 6). Finally, it is necessary to assess potential biological risk to public and environment due to the proposed use of units of intense energy photonic ionization, by laser beams or by non–coherent sources and large electromagnetic systems with high energy consumption. It is necessary to know the impact in terms of and electromagnetic radiation taking into account National Legislation (Chapter 7). On Chapter 8, an up scaled pilot plant will be established covering main functioning modes and an economic feasibility assessment. As a consequence of this PhD Thesis, a new field of potential researches and new PhD Thesis are opened, as well as future engineering and industrial developments (Chapter 9).