26 resultados para Ganancias empresarias


Relevância:

10.00% 10.00%

Publicador:

Resumo:

En las últimas décadas, ha aumentado el interés de la investigación sobre el desarrollo de la coordinación motriz en la adolescencia por ser una etapa sensible, crítica y crucial para la adquisición de hábitos y conductas saludables de vida. Estos estudios han mostrado que la adquisición de unos niveles óptimos de coordinación y competencia motriz van a ser determinantes para el bienestar del adolescente y van a estar relacionados e influidos por otras dimensiones del desarrollo de la persona. Recientes investigaciones han sacado a la luz datos alarmantes sobre el aumento de problemas de coordinación motriz en la población infantil y adolescente (Cantell, Smyth y Ahonen, 1994; Gómez, 2004; Ruiz, Graupera, Gutiérrez y Miyahara, 2003; Sudgen y Chambers, 2005) donde abrocharse los botones de una camisa o correr de forma armónica puede ser todo un mundo lleno de dificultades y consecuencias sobre otras dimensiones del desarrollo (Ramón-Otero y Ruiz, 2015). Estos problemas han sido tratados por investigadores como una “dificultad oculta” (Gómez, Ruiz y Mata, 2006), cuya manifestación está presente en las actividades de la vida cotidiana, en contextos deportivos, en juegos y/o en la clase de Educación Física (Ruiz, 2004). La preocupación por estas dificultades se ha extendido a nivel internacional, creando todo un campo de investigación que estudia el diagnóstico de éstos problemas, conocido bajo las siglas DCD (Developmental Coordination Disorder). El presente estudio se centra en la etapa adolescente, periodo de transición entre la etapa infantil y adulta, caracterizada por numerosos cambios biológicos, cognitivos y socioemocionales (Santrock, 2005), que van a determinar la adaptación con el entorno (Gallahue, Ozmun y Goodway, 2011; Gómez, Ruiz, y Mata, 2006). El propósito principal del estudio es analizar el desarrollo de la coordinación motriz en la etapa adolescente investigando las diferencias de género y de edad en relación con variables psicosociales, los hábitos de práctica y las variables antropométricas. El diseño de la investigación se estructura en dos estudios. El primero de ellos, de carácter transversal, analizó una muestra representativa de 1.966 adolescentes de 1º a 4º de la ESO. El segundo, de naturaleza longitudinal, utilizó un grupo de 89 adolescentes del estudio transversal los cuales fueron estudiados durante 4 años, desde los 12 a los 15 años. Los mismos instrumentos fueron utilizados en ambos estudios: el Test Sportcomp para la evaluación de la coordinación motriz, el test AMPET4 para valorar la motivación de logro para el aprendizaje en Educación Física, el inventario HBSC para conocer los hábitos saludables sobre la práctica de actividad física y, por ultimo, se utilizó un estadiómetro para obtener el peso y la altura y así calcular el índice de masa corporal (IMC). La toma de datos del Estudio Transversal se realizó en 2 cursos académicos (2011/12 - 2012/13), en la cual se requirieron 3 sesiones coincidiendo con la clase de Educación Física. En la primera sesión, se evaluó la coordinación motriz. En la segunda se aplicaron los cuestionarios (AMPET4 y HBSC) y, en la última sesión se midió el peso y la altura en un espacio reservado al estadiómetro. El análisis de datos fue descriptivo y diferencial de cada una de las variables estudiadas: motoras, psicosociales, de hábitos de práctica de actividad física y antropométricas. Asimismo, se llevaron a cabo pruebas de análisis univariante y multivariante, calculando el valor-p y las pruebas de efecto. Respecto al Estudio Longitudinal, la toma de datos se llevó cabo durante 4 años desde el 2011 al 2014. La evaluación de la coordinación motriz se realizó en cada uno de los 4 años. Sin embargo, los 2 cuestionarios y las medidas antropométricas fueron evaluadas en el primer y cuarto año. Los análisis de datos fueron descriptivos y comparativos entre las variables analizadas. En el caso de la coordinación motriz, se realizaron las pruebas de medidas repetidas y, en el caso de las demás variables analizadas, se realizaron Prueba T para muestras relacionadas. Los resultados globales mostraron que el índice motor en el Estudio Transversal fue progresivo en el conjunto de chicos. Sin embargo, en las chicas, el rendimiento se estabiliza a partir de los 13 años. En el caso del Estudio Longitudinal, este índice se estabiliza en los 3 primeros años y a la edad de los 14, es cuando comienzan a acusarse las diferencias de género. En el caso de los hombres el rendimiento mejora y, por el contrario, en las mujeres empeora. En el Estudio Transversal, el análisis de varianza mostraron diferencias en función de la edad [F(7, 1958) = 220.70, p < .001; η2 = .101], del género [F(7, 1958) = 29.76, p < .001; η2 = .044], así como en la interacción entre ambos [F(7, 1958)= 11.90, p < .001; η2 = .018]. Únicamente aparecieron diferencias significativas con la edad en todos los grupos de hombres, excepto entre 14 y 15 años. En el Longitudinal, los contrastes multivariados mostraron que no hubo diferencias sgnificativas en el tiempo [F(3,85) = .05, p = .987, η2= .002] mostrando un nivel de coordinación estable a lo largo de los años, aunque existieron diferencias entre chicos y chicas [F(3,85) = 4.64 p = .005] con un tamaño de efecto destacable (η2 = .141). En cuanto a la motivación de logro para prender en Educación Física, en ambos estudios, los chicos fueron los que obtuvieron puntuaciones más elevadas en todas las dimensiones positivas del test (compromiso de aprendizaje, competencia autopercibida y comparada). Sin embargo, en la dimensión negativa del test, la referida a la ansiedad y al agobio ante el fracaso, fueron las chicas las que puntuaron más alto. En el Estudio Transversal, los resultados mostraron diferencias significativas en todas las dimensiones del AMPET4 en función del nivel de coordinación motriz: compromiso con el aprendizaje [F(2, 1644) = 8.66, p < .001; η2 = .010], competencia autopercibida [F(2, 1644) = 50.94, p < .001; η2 = .048], competencia comparada [F(2, 1644) = 41.56, p < .001, η2 = .020] y ansiedad [F(2, 1644) = 16.67, p < .001, η2 = .058]. En este sentido, los grupos de mejor nivel de coordinación motriz, fueron los que mayor puntuación obtuvieron en las dimensiones positivas y los que menor, en la negativa. En el Estudio Longitudinal, también se encontraron diferencias entre el primer y cuarto año de estudio en todas las dimensiones, excepto en competencia motriz autopercibida. Estas diferencias se tradujeron en una disminución en las 3 variables significativas del primer al cuarto año. Respecto al inventario HBSC, en el Estudio Longitudinal, la prueba T mostró únicamente la existencia de diferencias significativas entre el primer y cuarto año en 2 de los 11 ítems: percepción de la forma física (p = .006) y percepción de la salud (p = .047), los cuales disminuyeron en el intervalo de tiempo del estudio. En el Transversal, las diferencias se observaron en función del género (p < .001) y de la edad (p < .001). Asimismo, se mostraron diferencias significativas en todos los ítems respecto al nivel de coordinación motriz, excepto en 2 de ellos: frecuencia tiempo libre con los amigos fuera del colegio (p = .580) y facilidad para hacer amigos en el centro escolar (p = .098). Por último, en las variables antropométricas, los resultados del Estudio Transversal y Longitudinal coinciden tanto en la estatura como en el peso, apuntando, que en ambos estudios, se produce un aumento progresivo tanto en chicos como en chicas a medida que se avanza en edad. Concretamente en el Transversal, estas diferencias en la edad se encuentran en todos los grupos en ambos géneros, excepto en el conjunto de chicas entre los 14 y los 15 años. Asimismo, ambos estudios coincidieron en que tanto las ganancias en cm y kg, como las puntuaciones medias, fueron mayores en los chicos que en las chicas. Respecto al IMC, los 2 estudios coincidieron en que la evolución es paralela, y tal y como apuntan los resultados del Transversal, no se encontraron diferencias ni en la edad (p = 792) ni en el género (p = 284). No obstante, el Longitudinal apuntó únicamente diferencias significativas entre el primer y cuarto año en el conjunto de los hombres [t(41) = -4.01, p < .001]. Finalmente, y en relación con los niveles de coordinación motriz, hubo diferencias significativas en relación con el IMC (p = .012), mostrando como el grupo de peso normal coincide con puntuaciones óptimas de coordinación motriz. A modo de conclusiones, el presente estudio revela cómo la adquisición de un nivel de coordinación óptimo va a ser fundamental para el desarrollo psicosocial, para el desarrollo de hábitos saludables de práctica y para mantener un IMC dentro de la normalidad para el género y la edad. De esta manera, el desarrollo de la coordinación motriz será un aspecto fundamental para lograr un estado de bienestar físico y mental, y unos hábitos favorables para la práctica de actividad física. ABSTRACT In the past couple of decades, adolescence stage in motor coordination gained significant interest in research especially due to its sensitive and critical importance to achieving a healthy life style. These studies observed how to acquire optimum levels of coordination and motor competence, which proved crucial to the quality of the adolescent stage in addition to being influenced by other dimensions of development for each individual. Recent research shed light to an alarming set of data, which showed increased motor coordination problems in children and adolescents (Cantell, Smyth & Ahonen, 1994; Gómez, 2004; Ruiz, Graupera, Gutierrez & Miyahara, 2003; Sugden & Chambers, 2005). For instance, even to the extent that buttoning a shirt or running in a harmonic form can lead to a whole set of consequences and difficulties on the development stage. Researchers have addressed such problems in various studies such as “dificultad oculta” (Gomez, Ruiz & Mata, 2006), which literally translates as “hidden trouble”. The studies are evidently present in the activities of daily life, sporting contexts, games and/or Physical Education (Ruiz, 2004). Concern about these difficulties spread internationally, creating a whole framework research studying the diagnosis of these problems, known under the acronym DCD (Developmental Coordination Disorder). The study focuses on the adolescent stage, transition period between childhood and adulthood characterized by numerous biological, cognitive and socio-emotional changes (Santrock, 2005), which interestingly determines an individual´s adaptation to the environment (Gallahue, Ozmun & Goodway, 2011; Gomez, Ruiz & Mata, 2006). The main purpose of the study is to analyse the development of motor coordination in the adolescent stage investigating gender differences and age in relation to psychological variables, physical activity habits and anthropometric variables. The research design is structured in two studies. The first (transversal nature), analyses a representative sample of 1,966 adolescents from 1st to 4th of Secondary Education School. The second (longitudinal nature) used a group of 89 teenagers from cross-sectional study, which were studied for four years, from 12 to 15 years. The same instruments were used in both studies, namely; “Sportcomp Test” used to evaluate of motor coordination; “AMPET4 Test” which assesses the motivational achievement of learning Physical Education; “HBSC Inventory” to find out the healthy habits gained from physical activities; And finally a “stadiometer” was used to obtain the weight and height and thus calculate the body mass index (BMI). The data collection of the cross-sectional Study was conducted in two academic years (2011/12 - 2012/13), in which 3 sessions coinciding with the Physical Education level are required. In the first session, motor coordination was evaluated; questionnaires were applied in the second session (AMPET4 and HBSC); and in the last session the weight and height were measured in a reserved space for the “stadiometer”. Notably, data analysis was descriptive and differential in each of the variable studies: motor, psychological, practical and anthropometric habits of physical activity. Thus the tests were conducted in a univariate and multivariate analysis, calculating the p-value and effect tests. Regarding the Longitudinal Study, data collection was carried out during four years from 2011 to 2014 inclusively. The assessment of motor coordination was performed on each of the four years, however, the 2 questionnaires and anthropometric measures were evaluated in the first and fourth year. Data analyses were also descriptive and comparative among the variables that were put to the test. In the case of motor coordination tests, they were done on repeated measures, whilst, in the case of other variables analysed, they were accomplished through T Tests under comparable samples. The overall results showed that the engine Motor Index in Study 1 was progressive in all male gender studies, however in the females the performance remained constant after reaching 13 years of age. For the Longitudinal Study, this index is stabilized in the first 3 years and at the age of 14 is when the gender differences take place. In the case of males, the performance improves, however, in females worsens. The cross-sectional Study, analysis of variance showed differences in terms of age [F(7, 1958) = 220.70, p < .001; η2 = .101], gender [F(7, 1958) = 29.76, p <.001; η2 = .044], as well as their interaction [F(7, 1958) = 11.90, p <.001; η2 = .018]. They only show significant differences in respect to age in the male set sample, in all groups except between 14 and 15 years old. In the Longitudinal, the multivariate contrasts showed no significant differences in time [F(3,85) = 0.05, p = 0.987, η2 = 0.002] showing a stable level of coordination over the years, but if there were differences between both genders [F(3,85) = 4.64, p = .005] it took place with a noteworthy effect size (η2 = .141). In regards, to the Motivational Achievement for learning Physical Education, in both studies the male sample administered obtained higher scores on all the positive dimensions of the test (commitment to learning, self-assessed competence, and comparable competence). However, on the negative assessment side, namely, anxiety and fear of failure, the female sample scored higher than the male one. In Study 1, the multivariate analysis showed significant differences between the psychosocial dimensions and levels of motor coordination with moderate to significant effect [Lambada de Wilks = .931, F(8, 3282) = 14.99; p = <0.001; η2 = .035]. By the same token, the groups with the best level of motor coordination were the highest scoring ones in the positive dimensions, whilst the lower performing ones, performed better in the negative dimension. In the longitudinal study, there is also differences were also found between the first and fourth years of study in all dimensions, except in self-perceived motor competition. These differences resulted in a significant decrease in the 3 variables from first to fourth year. Regarding, the “HBSC Inventory”, the T test in the longitudinal study showed uniquely the existence of significant differences between the first and fourth year in 2 of the 11 items: perception of physical fitness (p = .006) and perceived health (p = 047), which diminished in the interval time of the study. In the Cross-sectional study, the se differences were also observed in gender (p < .001) and age (p < .001). Similarly, they showed significant differences in all items in respect to the motor coordination level, except in 2 of them; frequency of free time with friends outside of school (p = .580) and the ease to make friends at the educational centre (p = 098). And last but not least, the anthropometric variables, both the results of the Transversal and Longitudinal Study matched both height and weight, pointing out that in both studies a gradual increase in both genders, as they grow older. Notably in the Cross-sectional, these differences in age are found in all groups in both genders, except for the set of girls between 14 and 15 years. Thus both studies concluded that both gains in cm and kg and the mean scores were higher amongst males compared to females. Regarding BMI, the 2 studies concluded that the evolution is parallel, and as pointed cross-sectional study there isn’t differences found in age (p = 792) or in gender (p = 284). However, the Longitudinal study uniquely shows significant difference between the first and fourth year for male set sample [t (41) = -4.01, p < .001]. Finally, in relation to levels of motor coordination, there were significant differences in relation to BMI (p = .012), showing how the “normal weight group” matches the optimal scores of motor coordination. In conclusion, this study reveals how the acquisition of an optimal level of coordination is vital for psychological development, to develop and practice healthy habits, and to maintain a BMI within the normal range for age and gender. Therefore, the development of motor coordination is fundamental to achieving a state of physical and mental wellbeing, and preferable habits to pursuing physical activity.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El departamento de QA & Testing de Indra da cobertura a las actividades de aseguramiento de calidad y testing en diferentes operaciones. La línea principal de operación está centrada en el diseño y ejecución de pruebas de aplicaciones, las cuales están orientadas a asegurar que “el sistema hace lo que tiene que hacer, y no hace lo que no debe hacer”. En la línea de movilidad (moQA) se dispone de software específico y de un rack de dispositivos para aplicaciones que deben funcionar sobre diversidad de tecnologías o dispositivos. Es precisamente en esta unidad donde se está buscando dar un nuevo enfoque al testing tradicional. En este contexto se propone como método innovador la implementación de una herramienta que permita utilizar un dispositivo, Smartphone o Tablet, en remoto desde cualquier parte del mundo. Con el objetivo principal de desarrollar un nuevo servicio que permita a la unidad de QA & Testing diferenciarse de los competidores en un mercado completamente en auge, se ha llevado a cabo este Trabajo de Fin de Grado, en el cual se realiza la implementación de un sistema de reserva de dispositivos integrado en la nube. Sin embargo, cabe destacar que esta necesidad surge también a raíz del crecimiento exponencial del departamento producido en los últimos meses y que ha provocado la adquisición de decenas de dispositivos sobrepasando el centenar. El sistema implementado busca sacar una rentabilidad mucho mayor de los mismos. A partir de la creación de esta nueva herramienta se abre un amplio abanico de posibilidades que podrían aumentar las ganancias de la inversión realizada en el rack de dispositivos. El desarrollo de este Trabajo de Fin de Grado se ha dividido en tres tareas distintas: I) Realización de un estudio de las distintas herramientas de gestión de reservas existentes, para encontrar aquella que mejor se adapte al proyecto. Posteriormente se procederá a la implantación de la misma sobre un servidor web, como parte del desarrollo de la aplicación web cliente. II) Implementación de las conexiones necesarias entre la nube y la aplicación web cliente. III) Desarrollo del script encargado de proporcionar el acceso remoto de un dispositivo desde el servidor directamente hasta el cliente. En último lugar, conociendo toda la lógica del sistema, se mostrarán los resultados y se describirán las conclusiones de la herramienta implementada.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Las futuras misiones para misiles aire-aire operando dentro de la atmósfera requieren la interceptación de blancos a mayores velocidades y más maniobrables, incluyendo los esperados vehículos aéreos de combate no tripulados. La intercepción tiene que lograrse desde cualquier ángulo de lanzamiento. Una de las principales discusiones en la tecnología de misiles en la actualidad es cómo satisfacer estos nuevos requisitos incrementando la capacidad de maniobra del misil y en paralelo, a través de mejoras en los métodos de guiado y control modernos. Esta Tesis aborda estos dos objetivos simultáneamente, al proponer un diseño integrando el guiado y el control de vuelo (autopiloto) y aplicarlo a misiles con control aerodinámico simultáneo en canard y cola. Un primer avance de los resultados obtenidos ha sido publicado recientemente en el Journal of Aerospace Engineering, en Abril de 2015, [Ibarrondo y Sanz-Aranguez, 2015]. El valor del diseño integrado obtenido es que permite al misil cumplir con los requisitos operacionales mencionados empleando únicamente control aerodinámico. El diseño propuesto se compara favorablemente con esquemas más tradicionales, consiguiendo menores distancias de paso al blanco y necesitando de menores esfuerzos de control incluso en presencia de ruidos. En esta Tesis se demostrará cómo la introducción del doble mando, donde tanto el canard como las aletas de cola son móviles, puede mejorar las actuaciones de un misil existente. Comparado con un misil con control en cola, el doble control requiere sólo introducir dos servos adicionales para accionar los canards también en guiñada y cabeceo. La sección de cola será responsable de controlar el misil en balanceo mediante deflexiones diferenciales de los controles. En el caso del doble mando, la complicación añadida es que los vórtices desprendidos de los canards se propagan corriente abajo y pueden incidir sobre las superficies de cola, alterando sus características de control. Como un primer aporte, se ha desarrollado un modelo analítico completo para la aerodinámica no lineal de un misil con doble control, incluyendo la caracterización de este efecto de acoplamiento aerodinámico. Hay dos modos de funcionamiento en picado y guiñada para un misil de doble mando: ”desviación” y ”opuesto”. En modo ”desviación”, los controles actúan en la misma dirección, generando un cambio inmediato en la sustentación y produciendo un movimiento de translación en el misil. La respuesta es rápida, pero en el modo ”desviación” los misiles con doble control pueden tener dificultades para alcanzar grandes ángulos de ataque y altas aceleraciones laterales. Cuando los controles actúan en direcciones opuestas, el misil rota y el ángulo de ataque del fuselaje se incrementa para generar mayores aceleraciones en estado estacionario, aunque el tiempo de respuesta es mayor. Con el modelo aerodinámico completo, es posible obtener una parametrización dependiente de los estados de la dinámica de corto periodo del misil. Debido al efecto de acoplamiento entre los controles, la respuesta en bucle abierto no depende linealmente de los controles. El autopiloto se optimiza para obtener la maniobra requerida por la ley de guiado sin exceder ninguno de los límites aerodinámicos o mecánicos del misil. Una segunda contribución de la tesis es el desarrollo de un autopiloto con múltiples entradas de control y que integra la aerodinámica no lineal, controlando los tres canales de picado, guiñada y cabeceo de forma simultánea. Las ganancias del autopiloto dependen de los estados del misil y se calculan a cada paso de integración mediante la resolución de una ecuación de Riccati de orden 21x21. Las ganancias obtenidas son sub-óptimas, debido a que una solución completa de la ecuación de Hamilton-Jacobi-Bellman no puede obtenerse de manera práctica, y se asumen ciertas simplificaciones. Se incorpora asimismo un mecanismo que permite acelerar la respuesta en caso necesario. Como parte del autopiloto, se define una estrategia para repartir el esfuerzo de control entre el canard y la cola. Esto se consigue mediante un controlador aumentado situado antes del bucle de optimización, que minimiza el esfuerzo total de control para maniobrar. Esta ley de alimentación directa mantiene al misil cerca de sus condiciones de equilibrio, garantizando una respuesta transitoria adecuada. El controlador no lineal elimina la respuesta de fase no-mínima característica de la cola. En esta Tesis se consideran dos diseños para el guiado y control, el control en Doble-Lazo y el control Integrado. En la aproximación de Doble-Lazo, el autopiloto se sitúa dentro de un bucle interior y se diseña independientemente del guiado, que conforma el bucle más exterior del control. Esta estructura asume que existe separación espectral entre los dos, esto es, que los tiempos de respuesta del autopiloto son mucho mayores que los tiempos característicos del guiado. En el estudio se combina el autopiloto desarrollado con una ley de guiado óptimo. Los resultados obtenidos demuestran que se consiguen aumentos muy importantes en las actuaciones frente a misiles con control canard o control en cola, y que la interceptación, cuando se lanza cerca del curso de colisión, se consigue desde cualquier ángulo alrededor del blanco. Para el misil de doble mando, la estrategia óptima resulta en utilizar el modo de control opuesto en la aproximación al blanco y utilizar el modo de desviación justo antes del impacto. Sin embargo la lógica de doble bucle no consigue el impacto cuando hay desviaciones importantes con respecto al curso de colisión. Una de las razones es que parte de la demanda de guiado se pierde, ya que el misil solo es capaz de modificar su aceleración lateral, y no tiene control sobre su aceleración axial, a no ser que incorpore un motor de empuje regulable. La hipótesis de separación mencionada, y que constituye la base del Doble-Bucle, puede no ser aplicable cuando la dinámica del misil es muy alta en las proximidades del blanco. Si se combinan el guiado y el autopiloto en un único bucle, la información de los estados del misil está disponible para el cálculo de la ley de guiado, y puede calcularse la estrategia optima de guiado considerando las capacidades y la actitud del misil. Una tercera contribución de la Tesis es la resolución de este segundo diseño, la integración no lineal del guiado y del autopiloto (IGA) para el misil de doble control. Aproximaciones anteriores en la literatura han planteado este sistema en ejes cuerpo, resultando en un sistema muy inestable debido al bajo amortiguamiento del misil en cabeceo y guiñada. Las simplificaciones que se tomaron también causan que el misil se deslice alrededor del blanco y no consiga la intercepción. En nuestra aproximación el problema se plantea en ejes inerciales y se recurre a la dinámica de los cuaterniones, eliminado estos inconvenientes. No se limita a la dinámica de corto periodo del misil, porque se construye incluyendo de modo explícito la velocidad dentro del bucle de optimización. La formulación resultante en el IGA es independiente de la maniobra del blanco, que sin embargo se ha de incluir en el cálculo del modelo en Doble-bucle. Un típico inconveniente de los sistemas integrados con controlador proporcional, es el problema de las escalas. Los errores de guiado dominan sobre los errores de posición del misil y saturan el controlador, provocando la pérdida del misil. Este problema se ha tratado aquí con un controlador aumentado previo al bucle de optimización, que define un estado de equilibrio local para el sistema integrado, que pasa a actuar como un regulador. Los criterios de actuaciones para el IGA son los mismos que para el sistema de Doble-Bucle. Sin embargo el problema matemático resultante es muy complejo. El problema óptimo para tiempo finito resulta en una ecuación diferencial de Riccati con condiciones terminales, que no puede resolverse. Mediante un cambio de variable y la introducción de una matriz de transición, este problema se transforma en una ecuación diferencial de Lyapunov que puede resolverse mediante métodos numéricos. La solución resultante solo es aplicable en un entorno cercano del blanco. Cuando la distancia entre misil y blanco es mayor, se desarrolla una solución aproximada basada en la solución de una ecuación algebraica de Riccati para cada paso de integración. Los resultados que se han obtenido demuestran, a través de análisis numéricos en distintos escenarios, que la solución integrada es mejor que el sistema de Doble-Bucle. Las trayectorias resultantes son muy distintas. El IGA preserva el guiado del misil y consigue maximizar el uso de la propulsión, consiguiendo la interceptación del blanco en menores tiempos de vuelo. El sistema es capaz de lograr el impacto donde el Doble-Bucle falla, y además requiere un orden menos de magnitud en la cantidad de cálculos necesarios. El efecto de los ruidos radar, datos discretos y errores del radomo se investigan. El IGA es más robusto, resultando menos afectado por perturbaciones que el Doble- Bucle, especialmente porque el núcleo de optimización en el IGA es independiente de la maniobra del blanco. La estimación de la maniobra del blanco es siempre imprecisa y contaminada por ruido, y degrada la precisión de la solución de Doble-Bucle. Finalmente, como una cuarta contribución, se demuestra que el misil con guiado IGA es capaz de realizar una maniobra de defensa contra un blanco que ataque por su cola, sólo con control aerodinámico. Las trayectorias estudiadas consideran una fase pre-programada de alta velocidad de giro, manteniendo siempre el misil dentro de su envuelta de vuelo. Este procedimiento no necesita recurrir a soluciones técnicamente más complejas como el control vectorial del empuje o control por chorro para ejecutar esta maniobra. En todas las demostraciones matemáticas se utiliza el producto de Kronecker como una herramienta practica para manejar las parametrizaciones dependientes de variables, que resultan en matrices de grandes dimensiones. ABSTRACT Future missions for air to air endo-atmospheric missiles require the interception of targets with higher speeds and more maneuverable, including forthcoming unmanned supersonic combat vehicles. The interception will need to be achieved from any angle and off-boresight launch conditions. One of the most significant discussions in missile technology today is how to satisfy these new operational requirements by increasing missile maneuvering capabilities and in parallel, through the development of more advanced guidance and control methods. This Thesis addresses these two objectives by proposing a novel optimal integrated guidance and autopilot design scheme, applicable to more maneuverable missiles with forward and rearward aerodynamic controls. A first insight of these results have been recently published in the Journal of Aerospace Engineering in April 2015, [Ibarrondo and Sanz-Aránguez, 2015]. The value of this integrated solution is that it allows the missile to comply with the aforementioned requirements only by applying aerodynamic control. The proposed design is compared against more traditional guidance and control approaches with positive results, achieving reduced control efforts and lower miss distances with the integrated logic even in the presence of noises. In this Thesis it will be demonstrated how the dual control missile, where canard and tail fins are both movable, can enhance the capabilities of an existing missile airframe. Compared to a tail missile, dual control only requires two additional servos to actuate the canards in pitch and yaw. The tail section will be responsible to maintain the missile stabilized in roll, like in a classic tail missile. The additional complexity is that the vortices shed from the canard propagate downstream where they interact with the tail surfaces, altering the tail expected control characteristics. These aerodynamic phenomena must be properly described, as a preliminary step, with high enough precision for advanced guidance and control studies. As a first contribution we have developed a full analytical model of the nonlinear aerodynamics of a missile with dual control, including the characterization of this cross-control coupling effect. This development has been produced from a theoretical model validated with reliable practical data obtained from wind tunnel experiments available in the scientific literature, complement with computer fluid dynamics and semi-experimental methods. There are two modes of operating a missile with forward and rear controls, ”divert” and ”opposite” modes. In divert mode, controls are deflected in the same direction, generating an increment in direct lift and missile translation. Response is fast, but in this mode, dual control missiles may have difficulties in achieving large angles of attack and high level of lateral accelerations. When controls are deflected in opposite directions (opposite mode) the missile airframe rotates and the body angle of attack is increased to generate greater accelerations in steady-state, although the response time is larger. With the aero-model, a state dependent parametrization of the dual control missile short term dynamics can be obtained. Due to the cross-coupling effect, the open loop dynamics for the dual control missile is not linearly dependent of the fin positions. The short term missile dynamics are blended with the servo system to obtain an extended autopilot model, where the response is linear with the control fins turning rates, that will be the control variables. The flight control loop is optimized to achieve the maneuver required by the guidance law without exceeding any of the missile aerodynamic or mechanical limitations. The specific aero-limitations and relevant performance indicators for the dual control are set as part of the analysis. A second contribution of this Thesis is the development of a step-tracking multi-input autopilot that integrates non-linear aerodynamics. The designed dual control missile autopilot is a full three dimensional autopilot, where roll, pitch and yaw are integrated, calculating command inputs simultaneously. The autopilot control gains are state dependent, and calculated at each integration step solving a matrix Riccati equation of order 21x21. The resulting gains are sub-optimal as a full solution for the Hamilton-Jacobi-Bellman equation cannot be resolved in practical terms and some simplifications are taken. Acceleration mechanisms with an λ-shift is incorporated in the design. As part of the autopilot, a strategy is defined for proper allocation of control effort between canard and tail channels. This is achieved with an augmented feed forward controller that minimizes the total control effort of the missile to maneuver. The feedforward law also maintains the missile near trim conditions, obtaining a well manner response of the missile. The nonlinear controller proves to eliminate the non-minimum phase effect of the tail. Two guidance and control designs have been considered in this Thesis: the Two- Loop and the Integrated approaches. In the Two-Loop approach, the autopilot is placed in an inner loop and designed separately from an outer guidance loop. This structure assumes that spectral separation holds, meaning that the autopilot response times are much higher than the guidance command updates. The developed nonlinear autopilot is linked in the study to an optimal guidance law. Simulations are carried on launching close to collision course against supersonic and highly maneuver targets. Results demonstrate a large boost in performance provided by the dual control versus more traditional canard and tail missiles, where interception with the dual control close to collision course is achieved form 365deg all around the target. It is shown that for the dual control missile the optimal flight strategy results in using opposite control in its approach to target and quick corrections with divert just before impact. However the Two-Loop logic fails to achieve target interception when there are large deviations initially from collision course. One of the reasons is that part of the guidance command is not followed, because the missile is not able to control its axial acceleration without a throttleable engine. Also the separation hypothesis may not be applicable for a high dynamic vehicle like a dual control missile approaching a maneuvering target. If the guidance and autopilot are combined into a single loop, the guidance law will have information of the missile states and could calculate the most optimal approach to the target considering the actual capabilities and attitude of the missile. A third contribution of this Thesis is the resolution of the mentioned second design, the non-linear integrated guidance and autopilot (IGA) problem for the dual control missile. Previous approaches in the literature have posed the problem in body axes, resulting in high unstable behavior due to the low damping of the missile, and have also caused the missile to slide around the target and not actually hitting it. The IGA system is posed here in inertial axes and quaternion dynamics, eliminating these inconveniences. It is not restricted to the missile short term dynamic, and we have explicitly included the missile speed as a state variable. The IGA formulation is also independent of the target maneuver model that is explicitly included in the Two-loop optimal guidance law model. A typical problem of the integrated systems with a proportional control law is the problem of scales. The guidance errors are larger than missile state errors during most of the flight and result in high gains, control saturation and loss of control. It has been addressed here with an integrated feedforward controller that defines a local equilibrium state at each flight point and the controller acts as a regulator to minimize the IGA states excursions versus the defined feedforward state. The performance criteria for the IGA are the same as in the Two-Loop case. However the resulting optimization problem is mathematically very complex. The optimal problem in a finite-time horizon results in an irresoluble state dependent differential Riccati equation with terminal conditions. With a change of variable and the introduction of a transition matrix, the equation is transformed into a time differential Lyapunov equation that can be solved with known numerical methods in real time. This solution results range limited, and applicable when the missile is in a close neighborhood of the target. For larger ranges, an approximate solution is used, obtained from solution of an algebraic matrix Riccati equation at each integration step. The results obtained show, by mean of several comparative numerical tests in diverse homing scenarios, than the integrated approach is a better solution that the Two- Loop scheme. Trajectories obtained are very different in the two cases. The IGA fully preserves the guidance command and it is able to maximize the utilization of the missile propulsion system, achieving interception with lower miss distances and in lower flight times. The IGA can achieve interception against off-boresight targets where the Two- Loop was not able to success. As an additional advantage, the IGA also requires one order of magnitude less calculations than the Two-Loop solution. The effects of radar noises, discrete radar data and radome errors are investigated. IGA solution is robust, and less affected by radar than the Two-Loop, especially because the target maneuvers are not part of the IGA core optimization loop. Estimation of target acceleration is always imprecise and noisy and degrade the performance of the two-Loop solution. The IGA trajectories are such that minimize the impact of radome errors in the guidance loop. Finally, as a fourth contribution, it is demonstrated that the missile with IGA guidance is capable of performing a defense against attacks from its rear hemisphere, as a tail attack, only with aerodynamic control. The studied trajectories have a preprogrammed high rate turn maneuver, maintaining the missile within its controllable envelope. This solution does not recur to more complex features in service today, like vector control of the missile thrust or side thrusters. In all the mathematical treatments and demonstrations, the Kronecker product has been introduced as a practical tool to handle the state dependent parametrizations that have resulted in very high order matrix equations.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En este Proyecto de Fin de Carrera se describe la implementación de un simulador del enlace descendente de un sistema LTE. Dicho simulador es capaz de modelar con precisión las variaciones rápidas del canal, que se producen debido al efecto del multitrayecto. Esto es vital a la hora de simular adecuadamente las ganancias que se logran debido a la planificación dependiente del canal que el sistema LTE es capaz de realizar. El objetivo es investigar la relación existente entre la tasa de datos binaria obtenida por una estación base y diferentes parámetros de los usuarios (como SINR o velocidad). El objetivo final del proyecto es obtener un modelo que pueda predecir la tasa binaria de la base como una función de algunos parámetros que caractericen las condiciones de los usuarios. Se ha utilizado principalmente un planificador de tipo “proportional fair” debido a sus cualidades para para obtener una tasa binaria razonablemente elevada a la vez que reparte el canal entre todos los usuarios existentes de forma equitativa.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Formula Racing Team Manager (FRTM) se trata de un juego de un solo jugador, para Android, donde el jugador tendrá como objetivo principal ascender desde la quinta división inicial hasta la primera y lograr allí ganar la clasificación por equipos ante 19 equipos manejados por el sistema. Por el camino tendrá que gestionar una gran cantidad de tareas distintas en el juego, desde la gestión del equipo en sí a la gestión estratégica de las carreras. Para conseguir el objetivo será básico lograr una buena gestión económica, la fuente principal de ganancias son los patrocinadores, pudiendo contar con un total de cuatro simultáneamente. El dinero conseguido se utilizará en mejorar el equipo (empleados, coche y pilotos) lo máximo posible para conseguir mejores resultados en carrera. Hay una gran cantidad de circuitos disponibles, todos reales, combinando circuitos históricos del calendario de Fórmula 1 con actuales y con circuitos otros populares en otras categorías (a destacar la inclusión de carreras de resistencia como las 500 millas de Indianápolis o las 24 horas de Le Mans). Será importante entender bien los parámetros de cada circuito para lograr un buen resultado en todos ellos. La temporada se divide en 20 grandes premios, formado cada uno por tres sesiones (entrenamientos, clasificación y carrera). En los entrenamientos el jugador podrá, durante dos horas, dar todas las vueltas que cree oportuno hasta que su tiempo se agote, para encontrar así la mejor configuración posible para el coche, y obtener los datos de consumos y desgastes que encuentre necesarios para emplearlos en carrera. En la sesión de clasificación (separada en tres rondas), se decidirán las posiciones de salida en carrera Antes de la carrera el jugador deberá decidir qué estrategia utilizar en ella, escogiendo la configuración del coche, los compuestos de neumáticos y las cargas de combustible a utilizar en cada parada. Durante la carrera también podrá cambiar ciertos parámetros en caso de que la situación de carrera no se adapte a sus expectativas, teniendo así un control total de lo sucedido en carrera, como si de un director deportivo de un equipo real de Fórmula 1 se tratase. Durante la carrera, se irán simulando las vueltas cuando el jugador así lo desee y lo indique mediante un reproductor disponible. Posteriormente, al terminar la carrera volverá a predominar la gestión económica del equipo por parte del jugador, teniendo que controlar los desgastes de cada una de las diez piezas distintas del coche para evitar roturas, y volviendo a poder entrenar a pilotos y empleados. El juego está disponible tanto en español como en inglés. ABSTRACT. Formula Racing Team Manager (FRTM) is a single player game, for Android, where the player has the main objective of promoting from the initial fifth division to the first one, and winning there the championship against 19 teams managed by the system. On the way, the player will have to manage a different number of tasks in the game, from the team management to the race strategic management. To complete that objective a basic key is to achieve a good economic management, the main source of incomes are the sponsors; being able to have a total of four at the same time. The money received will have to be spent on improving the team (staff, car and drivers) the best as possible to try to achieve even better race results. There are a lot of available circuits throughout the game, all of them real, combining some historical from Formula 1 calendar with actual ones, and also with some popular circuits from other categories (to highlight the inclusion of endurance races like the 500miles from Indianapolis and the 24 hours of Le Mans). It will be basic to fully understand the parameters from each circuit to achieve a good result in all of them. The season is divided in 20 Grand Prix, every one of them composed by three sessions (free practice, qualifying and race). In the Free Practice session the player will get the chance to driver all the laps he can in two hours, to try to get the best possible setup for the car and to obtain data from tyres wear and fuel consumption. On the qualifying session (composed by three rounds), the starting grid for the race will be decided. Before the race, the player will have to choose the strategy to use, deciding the car setup, the tyres compound and the fuel inputs for every pit stop to do. Also, throughout the race, the player will get the chance to change some parameters of that strategy in case of the race not going as expected. On the race, every lap will be simulated when the player decides. And, after the race is finished, the player will have to work again on the economy and team management, controlling the wear of every car part to avoid malfunctions, and being able to train drivers and staff. The game is available in both spanish and english.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El principal objetivo de esta tesis fue incrementar la eficiencia proteica en las dietas de rumiantes mediante el uso de proteínas protegidas (harina de girasol y guisante de primavera), así como mejorar la predicción de los aportes de proteína microbiana. Una partida de harinas comerciales de girasol (HG) y de guisante de primavera (GP) fueron tratadas con soluciones 4 N de ácido málico (268,2 g/L) o ácido ortofosfórico (130,6 g/L). Para cada harina, ácido y día de tratamiento, dos fracciones de 12,5 kg fueron pulverizadas sucesivamente en una hormigonera con la solución de ácido correspondiente mediante un pulverizador de campo. Las dos fracciones fueron mezcladas posteriormente y se dejaron reposar durante 1 h a temperatura ambiente. La mezcla fue luego secada en una estufa de aire forzado a 120 ºC durante 1 h. La estufa fue apagada inmediatamente después y el material tratado se mantuvo dentro de ésta hasta la mañana siguiente. El material fue removido durante el proceso de secado cada 30 min durante las primeras 2 h y cada 60 min durante las 5 h posteriores. Este proceso se repitió hasta conseguir las cantidades de harinas tratadas necesarias en los distintos ensayos. En el primer experimento (capitulo 3) se llevaron a cabo estudios de digestión ruminal e intestinal para evaluar los efectos de la aplicación de las soluciones ácidas indicadas y calor a fin de proteger las proteínas de HG y GP contra la degradación ruminal. Estos estudios se realizaron con tres corderos canulados en el rumen y en el duodeno. El estudio de digestión ruminal fue realizado en tres periodos experimentales en los que los corderos fueron alimentados sucesivamente con tres dietas isoproteicas que incluían HG y GP, sin tratar o tratadas con ácidos málico u ortofosfórico. Cada periodo experimental de 21 días incluyó sucesivamente: 10 días de adaptación a las dietas, un estudio del tránsito ruminal de las partículas de HG y GP (días 11 a 14), y la incubación de las muestras de ambos alimentos en bolsas de nailon (días 15–21). Las harinas incubadas en cada periodo experimental correspondieron a las que fueron incluidas en las dietas. Las bacterias ruminales fueron marcadas desde el día 11 hasta el día 21 del periodo experimental mediante infusión intra-ruminal continua con una fuente de 15N. Tras finalizar las incubaciones in situ el día 21 el rumen fue vaciado en cada periodo para aislar las bacterias asociadas a la fase sólida y liquida del rumen. El estudio de digestión intestinal fue realizado veinte días después del final del estudio ruminal a fin de eliminar el enriquecimiento en 15N de la digesta. En este estudio se incubaron muestras compuestas obtenidas mediante la combinación de los diferentes residuos no degradados en el rumen de forma que fuesen representativas de la composición química de la fracción no degradada en el rumen (RU). En esta fase los corderos fueron alimentados con la dieta sin tratar para determinar la digestibilidad de las harinas tanto tratadas como sin tratar mediante la técnica de las bolsas móviles. Además, las proteínas contenidas en las harinas tratadas y sin tratar, así como en las muestras correspondientes a los residuos a 0 h, las muestras compuestas anteriormente indicadas y las muestras no digeridas intestinalmente fueron extraídas y sometidas a electroforesis para determinar el sitio de digestión de las diferentes fracciones proteicas. Las estimaciones de la RU y la digestibilidad intestinal de la materia seca, la materia orgánica (solamente para RU), la proteína bruta (PB) y el almidón (solamente en GP) fueron obtenidos considerando la contaminación microbiana y las tasas de conminución y salida de partículas. Las estimaciones de RU y de la digestibilidad intestinal disminuyeron en todas las fracciones evaluadas de ambos alimentos al corregir por la contaminación microbiana acaecida en el rumen. Todas las estimaciones de RU aumentaron con los tratamientos de protección, incrementándose también la digestibilidad intestinal de la materia seca en la HG. Los bajos valores de la digestibilidad de la proteína de GP tratado y sin tratar sugieren la presencia de algún factor antitripsico no termolábil es esta harina. Los tratamientos de protección incrementaron consistentemente la fracción de materia seca y PB digerida intestinalmente en los dos alimentos, mientras que la fracción de almidón en la muestra de GP solamente aumentó numéricamente (60,5% de media). Sin embargo, los tratamientos también redujeron la fermentación de la materia orgánica, lo cual podría disminuir la síntesis de proteína microbiana. Los estudios de electroforesis muestran la práctica desaparición de la albumina por la degradación ruminal en ambos alimentos, así como que los cambios en otras proteínas de la muestra RU fueron más pronunciados en GP que en HG. La composición de las bacterias asociadas con las fases de digesta ruminal sólida (BAS) y líquida (BAL) fue estudiada para revisar la precisión de un sistema de predicción previo que determinaba la infravaloración del aporte de nutrientes correspondiente a las BAS cuando de usa 15N como marcador y las BAL como referencia microbiana (capitulo 4). Al comparar con BAS, BAL mostraron menores contenidos en materia orgánica, polisacáridos de glucosa y lípidos totales y un mayor contenido en PB, así como un mayor enriquecimiento en 15N. Los datos obtenidos en el estudio actual se ajustan bien a la ecuación previa que predice el enriquecimiento en 15N de las BAS a partir del mismo valor en BAL. Esta nueva ecuación permite establecer que se produce una infravaloración de un 22% en el aporte de PB al animal a partir de las BAS sintetizadas si las BAL son usadas como muestras de referencia. Una segunda relación calculada utilizando los valores medios por dieta expuestos en numerosos trabajos encontrados en la literatura confirma la magnitud de este error. Esta infravaloración asociada al uso de BAL como referencia fue mayor para el aporte de glucosa (43,1%) y todavía mayor para el aporte de lípidos (59,9%), como consecuencia de los menores contenidos de ambas fracciones en BAL frente a SAB. Estos errores deberían ser considerados para obtener mayor precisión en la estimación del aporte de nutrientes microbianos y mejorar la nutrición de los rumiantes. En el experimento 2 se realizó un estudio de producción (capitulo 5) para evaluar los efectos del tratamiento de las harinas HG y GP con soluciones de ácido málico o ácido ortofosfórico sobre el crecimiento, el consumo de concentrado y el rendimiento y engrasamiento de las canales de corderos de engorde. Noventa corderos machos de cruce entrefino procedentes de tres granjas comerciales (peso inicial medio = 14,6, 15,3 y 13,3 kg, respectivamente) fueron asignados aleatoriamente a cinco dietas con diferentes niveles de proteína y diferentes tratamientos con ácidos y engordados hasta un peso medio al sacrificio de 25 kg. Las fuentes de proteína en el pienso control (C; PB=18,0%) fueron harina de soja, HG y GP sin tratar. En tres de los piensos experimentales, las harinas tratadas con ácido ortofosfórico sustituyeron a las de HG y GP sin tratar (Control Ortofosfórico, PC; PB=18,0% sobre materia seca), sustituyéndose, además, la harina de soja parcialmente (Sustitución Media Ortofosfórico, MSP; PB=16,7%) o totalmente (Sustitución Total Ortofosfórico, TSP; PB=15,6%). Finalmente, en uno de los piensos el ácido ortofosfórico fue reemplazo por acido málico para proteger ambas harinas (Sustitución Media Málico, MSM; PB= 16,7%). La paja de trigo (fuente de forraje) y el concentrado fueron ofrecidos ad libitum. Dieciocho corderos fueron distribuidos en seis cubículos con tres animales para cada dieta. Los datos fueron analizados según un análisis factorial considerando el peso inicial como covariable y la granja de procedencia como bloque. Los datos de consumo de concentrado y eficiencia de conversión fueron analizados usando el cubículo como unidad experimental, mientras que los datos sobre ganancia media diaria, rendimiento a la canal, grasa dorsal y grasa pélvico renal fueron analizados usando el cordero como unidad experimental. No se encontró ningún efecto asociado con el nivel de PB sobre ninguna variable estudiada. Esto sugiere que usando proteínas protegidas es posible utilizar concentrados con 15,6% de PB (sobre materia seca) disminuyendo así la cantidad de concentrados de proteína vegetal a incluir en los piensos y la calidad de los concentrados proteicos. Los corderos alimentados con la dieta MSM tuvieron mayores ganancias medias diarias (15,2%; P= 0,042), y mejores rendimiento a la canal en caliente (1,3 unidades porcentuales; P= 0,037) que los corderos alimentados con el concentrado MSP. Esto podría ser explicado por los efectos benéficos ruminales del malato o por el mayor efecto de protección conseguido con el ácido málico. ABSTRACT The main objective of this thesis project was to increase the protein efficiency in ruminant diets by using protected protein (sunflower meal and spring pea), and improving the prediction of microbial protein supply. Commercial sunflower meal (SFM) and spring pea (SP) were treated with 4 N solutions (200 mL/kg) of malic acid (268.2 g/L) or orthophosphoric acid (130.6 g/L). Daily, two fractions of 12.5 kg of one of these meals were successively sprayed with the tested acid solution in a concrete mixer using a sprayer. Both fractions were then mixed and allowed to rest for 1 h at room temperature. The blend was then dried in a forced air oven at 120 ºC for 1 h. Then the oven was turned off and the treated material was left in the oven overnight. During the drying process, the material was stirred every 30 min during the first 2 h and then every 60 min for the subsequent 5 h. This process was repeated until the amounts of treated flour needed for the different trials performed. In the first experiment (chapter 3), ruminal and intestinal digestion trials were conducted to study the effects of the application of these acid solutions and heat to protect proteins of SFM and SP against ruminal degradation using three wethers fitted with rumen and duodenum cannulae. The ruminal digestion study was carried out in three experimental periods in which the wethers were successively fed three isoproteic diets including SFM and SP, untreated or treated with malic or orthophosphoric acids. The experimental periods of 21 days included successively: 10 days of diet adaptation, SFM and SP particle ruminal transit study (days 11–14) and ruminal nylon-bag incubations (days 15–21). The meals incubated in each experimental period were those corresponding to the associated diet. Rumen bacteria were labelled from days 11 to 21 by continuous intra-ruminal infusion of a 15N source and the rumen was emptied at the end of in situ incubations in each period to isolate solid adherent bacteria and liquid associate bacteria. The intestinal digestion trial was conducted twenty days after the end of the ruminal studies to eliminate the 15N enrichment in the digesta. The tested samples were composite samples obtained pooling the different ruminally undegraded residues to be representative of the chemical composition of the ruminally undegraded fraction (RU). Wethers were fed the untreated diet to determine the intestinal digestibility of untreated and treated meals using the mobile nylon bag technique. In addition, protein in untreated and treated meals and their 0 h, composite and intestinally undigested samples were extracted and subjected to electrophoresis to determine the digestion site of the different protein fractions. Estimates of the RU and its intestinal digestibility of dry matter, organic matter (only for RU), crude protein (CP) and starch (only in SP) were obtained considering ruminal microbial contamination and particle comminution and outflow rates. When corrected for the microbial contamination taking place in the rumen, estimates of RU and intestinal digestibility decreased in all tested fractions for both feeds. All RU estimates increased with the protective treatments, whereas intestinal digestibility-dry matter also increased in SFM. Low intestinal digestibility-CP values in untreated and treated samples suggested the presence of non-heat labile antitrypsin factors in SP. Protective treatments of both feeds led to consistent increases in the intestinal digested fraction of dry matter and CP, being only numerically different for SP-starch (60.5% as average). However, treatments also reduced the organic matter fermentation, which may decrease ruminal microbial protein synthesis. Electrophoretic studies showed albumin disappearance in both SFM and SP, whereas changes in other RU proteins were more pronounced in SP than SFM. The chemical composition of bacteria associated with solid (SAB) and liquid (LAB) rumen-digesta phases was studied to examine the accuracy of a previous regression system determining the underevaluation of SAB-nutrient supply using 15N as marker and LAB as microbial reference (chapter 4). Compared with SAB, LAB showed lower contents of organic matter, polysaccharide-glucose and total lipids and the opposite for the CP content and the 15N enrichment. Present data fitted well to the previous relationship predicting the 15N enrichment of SAB from the same value in LAB. This new equation allows establishing an underevaluation in the supply of CP from the synthesized SAB in 22.0% if LAB is used as reference. Another relationship calculated using mean diet values from the literature confirmed the magnitude of this error. This underevaluation was higher for the supply of glucose (43.1%) and still higher for the lipid supply (59.9%) as a consequence of the lower contents of these both fractions in LAB than in SAB. These errors should be considered to obtain more accurate estimates of the microbial nutrient supply and to improve ruminant nutrition. A production study was performed in experiment 2 (chapter 5) to examine the effects of treating SFM and SP meals with orthophosphoric or malic acid solutions on growth performance, concentrate intake, and carcass yield and fatness of growing-fattening lambs. Ninety "Entrefino" cross male lambs from three commercial farms (average initial body weights (BW) = 14.6, 15.3 and 13.3 kg) were randomly assigned to five diets with different acid treatment and protein levels, and fattened to an average slaughter weight of 25 kg. Protein sources in the control concentrate (C; CP=18%) were soybean meal and untreated SFM and SP. In three of the experimental concentrates, orthophosphoric acid-treated meals substituted untreated SFM and SP (Orthophosphoric Control, PC; CP=18% dry matter basis), and soybean meal was partially (Medium Substitution Orthophosphoric, MSP; CP=16.7%) or totally removed (Total Substitution Orthophosphoric, TSP; CP=15.6%). In addition, in one concentrate orthophosphoric acid was replaced by malic acid to protect these meals (Medium Substitution Malic, MSM; CP= 16.7%). Wheat straw (roughage source) and concentrate were offered ad libitum. Eighteen lambs were allocated to six pens of three animals on each diet. Data were analyzed using a factorial analysis with initial body weight BW as covariate and farm of origin as block. Data on concentrate intake and feed conversion efficiency were analyzed using pen as experimental unit, while data on average daily gain, carcass yield, dorsal fat, and kidney-pelvic-fat were analyzed with lamb as experimental unit. No effect associated with the CP level was observed on any parameter. This suggests that with protected proteins it is possible to feed concentrates with 15.6% CP (dry matter basis) reducing the quantity of vegetable protein meals to include in the concentrate as well as the quality of the protein concentrates. Lambs feed MSM had higher average daily gains (15.2%; P= 0.042), and better hot carcass yields (1.3 percentage points; P= 0.037) than lambs feed MSP. This probably can be explained by ruminal malate actions and by greater protection effects obtained with malic acid.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El trabajo contenido en esta tesis doctoral está encuadrado en el desarrollo de antenas reconfigurables electrónicamente capaces de proporcionar prestaciones competitivas a las aplicaciones cada vez más comunes que operan a frecuencias superiores a 60 GHz. En concreto, esta tesis se centra en el estudio, diseño, e implementación de las antenas reflectarray, a las que se introduce la tecnología de cristal líquido como elemento característico con el que se consigue reconfigurabilidad de haz de forma electrónica. Desde un punto de vista muy general, se puede describir un cristal líquido como un material cuya permitividad eléctrica es variable y controlada por una excitación externa, que generalmente suele corresponderse con un campo eléctrico quasi-estático (AC). Las antenas reflectarray de cristal líquido se han escogido como objeto de estudio por varias razones. La primera de ellas tiene que ver con las ventajas que los reflectarrays, y en especial aquellos realizados en configuración planar, proporcionan con respecto a otras antenas de alta ganancia como los reflectores o los “phased-arrays”. En los reflectarrays, la alimentación a través de una fuente primaria común (característica de reflectores) y el elevado número de grados de libertad de las celdas que los componen (característica de arrays) hacen que estas antenas puedan proporcionar prestaciones eléctricas iguales o mejores que las anteriores, a un coste más reducido y con estructuras de antena más compactas. La segunda razón radica en la flexibilidad que ofrece el cristal líquido a ser confinado y polarizado en recintos de geometría variada, como consecuencia de su fluidez (propiedad de los líquidos). Por ello, la tecnología de cristal líquido permite que el propio elemento reconfigurable en las celdas de reflectarray se adapte a la configuración planar de manera que en sí mismo, el cristal líquido sea una o varias de las capas características de esta configuración. Esto simplifica de forma drástica la estructura y la fabricación de este tipo de antenas, incluso si se comparan con reflectarrays reconfigurables basados en otras tecnologías como diodos, MEMS, etc. Por tanto, su coste y desarrollo es muy reducido, lo que hace que se puedan fabricar reflectarrays reconfigurables eléctricamente grandes, a bajo coste, y en producción elevada. Un ejemplo claro de una estructura similar, y que ha tenido éxito comercial, son las pantallas de cristal líquido. La tercera razón reside en el hecho de que el cristal líquido es, hasta la fecha, de las pocas tecnologías capaces de ofrecer reconfigurabilidad del haz a frecuencias superiores a 60 GHz. De hecho, el cristal líquido permite reconfigurabilidad en un amplio margen de frecuencias, que va desde DC a frecuencias del espectro visible, incluyendo las microondas y los THz. Otras tecnologías, como los materiales ferroeléctricos, el grafeno o la tecnología CMOS “on chip” permiten también conmutar el haz en estas frecuencias. Sin embargo, la tecnología CMOS tiene un elevado coste y actualmente está limitada a frecuencias inferiores a 150 GHz, y aunque los materiales ferroeléctricos o el grafeno puedan conmutar a frecuencias más altas y en un rango más amplio, tienen serias dificultades que los hacen aún inmaduros. En el caso de los materiales ferroeléctricos, los elevados voltajes para conmutar el material los hacen poco atractivos, mientras que en el caso del grafeno, su modelado aún está en discusión, y todavía no se han arrojado resultados experimentales que validen su idoneidad. Estas tres razones hacen que los reflectarrays basados en cristal líquido sean atractivos para multitud de aplicaciones de haz reconfigurable a frecuencias superiores a 60 GHz. Aplicaciones como radar de escaneo de imágenes de alta resolución, espectroscopia molecular, radiómetros para observación atmosférica, o comunicaciones inalámbricas de alta frecuencia (WiGig) son algunas de ellas. La tesis está estructurada en tres partes. En la primera de ellas se describen las características más comunes de los cristales líquidos, centrándonos en detalle en aquellas propiedades ofrecidas por este material en fase nemática. En concreto, se estudiará la anisotropía dieléctrica (Ae) de los cristales líquidos uniaxiales, que son los que se emplean en esta tesis, definida como la diferencia entre la permitividad paralela (£//) y la perpendicular (e±): Ae = e,, - e±. También se estudiará la variación de este parámetro (Ae) con la frecuencia, y el modelado electromagnético macroscópico más general que, extraído a partir de aquella, permite describir el cristal líquido para cada tensión de polarización en celdas de geometría planar. Este modelo es de suma importancia para garantizar precisión en el desfasaje proporcionado por las diferentes celdas reconfigurables para reflectarrays que se describirán en la siguiente parte de la tesis. La segunda parte de la tesis se centra en el diseño de celdas reflectarray resonantes basadas en cristal líquido. La razón por la que se escogen estos tipos de celdas reside en el hecho de que son las únicas capaces de proporcionar rangos de fase elevados ante la reducida anisotropía dieléctrica que ofrecen los cristales líquidos. El objetivo de esta parte trata, por tanto, de obtener estructuras de celdas reflectarray que sean capaces de proporcionar buenas prestaciones eléctricas a nivel de antena, mejorando sustancialmente las prestaciones de las celdas reportadas en el estado del arte, así como de desarrollar una herramienta de diseño general para aquellas. Para ello, se estudian las prestaciones eléctricas de diferentes tipos de elementos resonantes de cristal líquido que van, desde el más sencillo, que ha limitado el estado de la técnica hasta el desarrollo de esta tesis y que está formado por un sólo resonador, a elementos que constan de varios resonadores (multi-resonantes) y que pueden ser monocapa o multicapa. En un primer paso, el procedimiento de diseño de estas estructuras hace uso de un modelo convencional de cristal líquido que ha venido siendo usado en el estado del arte para este tipo de celdas, y que considera el cristal líquido como un material homogéneo e isótropo cuya permitividad varía entre (e/7) y (e±). Sin embargo, en esta parte de la tesis se demuestra que dicho modelado no es suficiente para describir de forma genérica el comportamiento del cristal líquido en las celdas tipo reflectarray. En la tesis se proponen procedimientos más exactos para el análisis y diseño basados en un modelo más general que define el cristal líquido como un material anisótropo e inhomogeneo en tres dimensiones, y se ha implementado una técnica que permite optimizar celdas multi-resonantes de forma eficiente para conseguir elevadas prestaciones en cuanto a ancho de banda, rango de fase, pérdidas, o sensibilidad al ángulo de incidencia. Los errores cometidos en el uso del modelado convencional a nivel de celda (amplitud y fase) se han analizado para varias geometrías, usando medidas de varios prototipos de antena que usan un cristal líquido real a frecuencias superiores a 100 GHz. Las medidas se han realizado en entorno periódico mediante un banco cuasi-óptico, que ha sido diseñado especialmente para este fin. Uno de estos prototipos se ha optimizado a 100 GHz para conseguir un ancho de banda relativamente elevado (10%), pérdidas reducidas, un rango de fase mayor de 360º, baja sensibilidad al ángulo de incidencia, y baja influencia de la inhomogeneidad transversal del cristal líquido en la celda. Estas prestaciones a nivel de celda superan de forma clara aquellas conseguidas por otros elementos que se han reportado en la literatura, de manera que dicho prototipo se ha usado en la última parte de la tesis para realizar diversas antenas de barrido. Finalmente, en esta parte se presenta una estrategia de caracterización de la anisotropía macroscópica a partir de medidas de los elementos de reflectarray diseñados en banco cuasi-óptico, obteniendo resultados tanto en las frecuencias de interés en RF como en AC, y comparándolas con aquellas obtenidas mediante otros métodos. La tercera parte de la tesis consiste en el estudio, diseño, fabricación y medida de antenas reconfigurables basadas en cristal líquido en configuraciones complejas. En reflectarrays pasivos, el procedimiento de diseño de la antena se limita únicamente al ajuste en cada celda de la antena de las dimensiones de las metalizaciones que se emplean para el control de fase, mediante procesos de optimización bien conocidos. Sin embargo, en el caso de reflectarrays reconfigurables basados en cristal líquido, resulta necesario un paso adicional, que consiste en calcular de forma adecuada las tensiones de control en cada celda del reflectarray para configurar la fase requerida en cada una de ellas, así como diseñar la estructura y los circuitos de control que permitan direccionar a cada elemento su tensión correspondiente. La síntesis de tensiones es por tanto igual o más importante que el diseño de la geometría de las celdas, puesto que éstas son las que están directamente relacionadas con la fase. En el estado del arte, existen varias estrategias de síntesis de tensiones que se basan en la caracterización experimental de la curva de fase respecto al voltaje. Sin embargo, esta caracterización sólo puede hacerse a un solo ángulo de incidencia y para unas determinadas dimensiones de celda, lo que produce que las tensiones sintetizadas sean diferentes de las adecuadas, y en definitiva que se alcancen errores de fase mayores de 70º. De esta forma, hasta la fecha, las prestaciones a nivel de antena que se han conseguido son reducidas en cuanto a ancho de banda, rango de escaneo o nivel de lóbulos secundarios. En esta última parte de la tesis, se introduce una nueva estrategia de síntesis de tensiones que es capaz de predecir mediante simulaciones, y con alta precisión, las tensiones que deben introducirse en cada celda teniendo en cuenta su ángulo de incidencia, sus dimensiones, la frecuencia, así como la señal de polarización definida por su frecuencia y forma de onda AC. Esta estrategia se basa en modelar cada uno de los estados de permitividad del cristal líquido como un sustrato anisótropo con inhomogeneidad longitudinal (1D), o en ciertos casos, como un tensor equivalente homogéneo. La precisión de ambos modelos electromagnéticos también se discute. Con el objetivo de obtener una herramienta eficiente de cálculo de tensiones, también se ha escrito e implementado una herramienta de análisis basada en el Método de los Momentos en el Dominio Espectral (SD-MoM) para sustratos estratificados anisótropos, que se usa en cada iteración del procedimiento de síntesis para analizar cada una de las celdas de la antena. La síntesis de tensiones se ha diseñado además para reducir al máximo el efecto del rizado de amplitud en el diagrama de radiación, que es característico en los reflectarrays que están formados por celdas con pérdidas elevadas, lo que en sí, supone un avance adicional para la obtención de mejores prestaciones de antena. Para el cálculo de los diagramas de radiación empleados en el procedimiento de síntesis, se asume un análisis elemento a elemento considerando periodicidad local, y se propone el uso de un método capaz de modelar el campo incidente de forma que se elimine la limitación de la periodicidad local en la excitación. Una vez definida la estrategia adecuada de cálculo de las tensiones a aplicar al cristal líquido en cada celda, la estructura de direccionamiento de las mismas en la antena, y diseñados los circuitos de control, se diseñan, fabrican y miden dos prototipos diferentes de antena de barrido electrónico a 100 GHz usando las celdas anteriormente presentadas. El primero de estos prototipos es un reflectarray en configuración “single offset” con capacidad de escaneo en un plano (elevación o azimut). Aunque previamente se realizan diseños de antenas de barrido en 2D a varias frecuencias en el rango de milimétricas y sub-milimétricas, y se proponen ciertas estrategias de direccionamiento que permiten conseguir este objetivo, se desarrolla el prototipo con direccionamiento en una dimensión con el fin de reducir el número de controles y posibles errores de fabricación, y así también validar la herramienta de diseño. Para un tamaño medio de apertura (con un numero de filas y columnas entre 30 y 50 elementos, lo que significa un reflectarray con un número de elementos superior a 900), la configuración “single offset” proporciona rangos de escaneo elevados, y ganancias que pueden oscilar entre los 20 y 30 dBi. En concreto, el prototipo medido proporciona un haz de barrido en un rango angular de 55º, en el que el nivel de lóbulos secundarios (SLL) permanece mejor de -13 dB en un ancho de banda de un 8%. La ganancia máxima es de 19.4 dBi. Estas prestaciones superan de forma clara aquellas conseguidas por otros autores. El segundo prototipo se corresponde con una antena de doble reflector que usa el reflectarray de cristal líquido como sub-reflector para escanear el haz en un plano (elevación o azimut). El objetivo básico de esta geometría es obtener mayores ganancias que en el reflectarray “single offset” con una estructura más compacta, aunque a expensas de reducir el rango de barrido. En concreto, se obtiene una ganancia máxima de 35 dBi, y un rango de barrido de 12º. Los procedimientos de síntesis de tensiones y de diseño de las estructuras de las celdas forman, en su conjunto, una herramienta completa de diseño precisa y eficiente de antenas reflectarray reconfigurables basados en cristales líquidos. Dicha herramienta se ha validado mediante el diseño, la fabricación y la medida de los prototipos anteriormente citados a 100 GHz, que consiguen algo nunca alcanzado anteriormente en la investigación de este tipo de antenas: unas prestaciones competitivas y una predicción excelente de los resultados. El procedimiento es general, y por tanto se puede usar a cualquier frecuencia en la que el cristal líquido ofrezca anisotropía dieléctrica, incluidos los THz. Los prototipos desarrollados en esta tesis doctoral suponen también unas de las primeras antenas de barrido real a frecuencias superiores a 100 GHz. En concreto, la antena de doble reflector para escaneo de haz es la primera antena reconfigurable electrónicamente a frecuencias superiores a 60 GHz que superan los 25 dBi de ganancia, siendo a su vez la primera antena de doble reflector que contiene un reflectarray reconfigurable como sub-reflector. Finalmente, se proponen ciertas mejoras que aún deben se deben realizar para hacer que estas antenas puedan ser un producto completamente desarrollado y competitivo en el mercado. ABSTRACT The work presented in this thesis is focused on the development of electronically reconfigurable antennas that are able to provide competitive electrical performance to the increasingly common applications operating at frequencies above 60 GHz. Specifically, this thesis presents the study, design, and implementation of reflectarray antennas, which incorporate liquid crystal (LC) materials to scan or reconfigure the beam electronically. From a general point of view, a liquid crystal can be defined as a material whose dielectric permittivity is variable and can be controlled with an external excitation, which usually corresponds with a quasi-static electric field (AC). By changing the dielectric permittivity at each cell that makes up the reflectarray, the phase shift on the aperture is controlled, so that a prescribed radiation pattern can be configured. Liquid Crystal-based reflectarrays have been chosen for several reasons. The first has to do with the advantages provided by the reflectarray antenna with respect to other high gain antennas, such as reflectors or phased arrays. The RF feeding in reflectarrays is achieved by using a common primary source (as in reflectors). This arrangement and the large number of degrees of freedom provided by the cells that make up the reflectarray (as in arrays), allow these antennas to provide a similar or even better electrical performance than other low profile antennas (reflectors and arrays), but assuming a more reduced cost and compactness. The second reason is the flexibility of the liquid crystal to be confined in an arbitrary geometry due to its fluidity (property of liquids). Therefore, the liquid crystal is able to adapt to a planar geometry so that it is one or more of the typical layers of this configuration. This simplifies drastically both the structure and manufacture of this type of antenna, even when compared with reconfigurable reflectarrays based on other technologies, such as diodes MEMS, etc. Therefore, the cost of developing this type of antenna is very small, which means that electrically large reconfigurable reflectarrays could be manufactured assuming low cost and greater productions. A paradigmatic example of a similar structure is the liquid crystal panel, which has already been commercialized successfully. The third reason lies in the fact that, at present, the liquid crystal is one of the few technologies capable of providing switching capabilities at frequencies above 60 GHz. In fact, the liquid crystal allows its permittivity to be switched in a wide range of frequencies, which are from DC to the visible spectrum, including microwaves and THz. Other technologies, such as ferroelectric materials, graphene or CMOS "on chip" technology also allow the beam to be switched at these frequencies. However, CMOS technology is expensive and is currently limited to frequencies below 150 GHz, and although ferroelectric materials or graphene can switch at higher frequencies and in a wider range, they have serious difficulties that make them immature. Ferroelectric materials involve the use of very high voltages to switch the material, making them unattractive, whereas the electromagnetic modelling of the graphene is still under discussion, so that the experimental results of devices based on this latter technology have not been reported yet. These three reasons make LC-based reflectarrays attractive for many applications that involve the use of electronically reconfigurable beams at frequencies beyond 60 GHz. Applications such as high resolution imaging radars, molecular spectroscopy, radiometers for atmospheric observation, or high frequency wireless communications (WiGig) are just some of them. This thesis is divided into three parts. In the first part, the most common properties of the liquid crystal materials are described, especially those exhibited in the nematic phase. The study is focused on the dielectric anisotropy (Ac) of uniaxial liquid crystals, which is defined as the difference between the parallel (e/7) and perpendicular (e±) permittivities: Ae = e,, - e±. This parameter allows the permittivity of a LC confined in an arbitrary volume at a certain biasing voltage to be described by solving a variational problem that involves both the electrostatic and elastic energies. Thus, the frequency dependence of (Ae) is also described and characterised. Note that an appropriate LC modelling is quite important to ensure enough accuracy in the phase shift provided by each cell that makes up the reflectarray, and therefore to achieve a good electrical performance at the antenna level. The second part of the thesis is focused on the design of resonant reflectarray cells based on liquid crystal. The reason why resonant cells have been chosen lies in the fact that they are able to provide enough phase range using the values of the dielectric anisotropy of the liquid crystals, which are typically small. Thus, the aim of this part is to investigate several reflectarray cell architectures capable of providing good electrical performance at the antenna level, which significantly improve the electrical performance of the cells reported in the literature. Similarly, another of the objectives is to develop a general tool to design these cells. To fulfill these objectives, the electrical yields of different types of resonant reflectarray elements are investigated, beginning from the simplest, which is made up of a single resonator and limits the state of the art. To overcome the electrical limitations of the single resonant cell, several elements consisting of multiple resonators are considered, which can be single-layer or multilayer. In a first step, the design procedure of these structures makes use of a conventional electromagnetic model which has been used in the literature, which considers that the liquid crystal behaves as homogeneous and isotropic materials whose permittivity varies between (e/7) y (e±). However, in this part of the thesis it is shown that the conventional modelling is not enough to describe the physical behaviour of the liquid crystal in reflectarray cells accurately. Therefore, a more accurate analysis and design procedure based on a more general model is proposed and developed, which defines the liquid crystal as an anisotropic three-dimensional inhomogeneous material. The design procedure is able to optimize multi-resonant cells efficiently to achieve good electrical performance in terms of bandwidth, phase range, losses, or sensitivity to the angle of incidence. The errors made when the conventional modelling (amplitude and phase) is considered have been also analysed for various cell geometries, by using measured results from several antenna prototypes made up of real liquid crystals at frequencies above 100 GHz. The measurements have been performed in a periodic environment using a quasi-optical bench, which has been designed especially for this purpose. One of these prototypes has been optimized to achieve a relatively large bandwidth (10%) at 100 GHz, low losses, a phase range of more than 360º, a low sensitivity to angle of incidence, and a low influence of the transversal inhomogeneity of the liquid crystal in the cell. The electrical yields of this prototype at the cell level improve those achieved by other elements reported in the literature, so that this prototype has been used in the last part of the thesis to perform several complete antennas for beam scanning applications. Finally, in this second part of the thesis, a novel strategy to characterise the macroscopic anisotropy using reflectarray cells is presented. The results in both RF and AC frequencies are compared with those obtained by other methods. The third part of the thesis consists on the study, design, manufacture and testing of LCbased reflectarray antennas in complex configurations. Note that the design procedure of a passive reflectarray antenna just consists on finding out the dimensions of the metallisations of each cell (which are used for phase control), using well-known optimization processes. However, in the case of reconfigurable reflectarrays based on liquid crystals, an additional step must be taken into account, which consists of accurately calculating the control voltages to be applied to each cell to configure the required phase-shift distribution on the surface of the antenna. Similarly, the structure to address the voltages at each cell and the control circuitry must be also considered. Therefore, the voltage synthesis is even more important than the design of the cell geometries (dimensions), since the voltages are directly related to the phase-shift. Several voltage synthesis procedures have been proposed in the state of the art, which are based on the experimental characterization of the phase/voltage curve. However, this characterization can be only carried out at a single angle of incidence and at certain cell dimensions, so that the synthesized voltages are different from those needed, thus giving rise to phase errors of more than 70°. Thus, the electrical yields of the LCreflectarrays reported in the literature are limited in terms of bandwidth, scanning range or side lobes level. In this last part of the thesis, a new voltage synthesis procedure has been defined and developed, which allows the required voltage to be calculated at each cell using simulations that take into account the particular dimensions of the cells, their angles of incidence, the frequency, and the AC biasing signal (frequency and waveform). The strategy is based on the modelling of each one of the permittivity states of the liquid crystal as an anisotropic substrate with longitudinal inhomogeneity (1D), or in certain cases, as an equivalent homogeneous tensor. The accuracy of both electromagnetic models is also discussed. The phase errors made by using the proposed voltage synthesis are better than 7º. In order to obtain an efficient tool to analyse and design the reflectarray, an electromagnetic analysis tool based on the Method of Moments in the spectral domain (SD-MoM) has also written and developed for anisotropic stratified media, which is used at each iteration of the voltage synthesis procedure. The voltage synthesis is also designed to minimize the effect of amplitude ripple on the radiation pattern, which is typical of reflectarrays made up of cells exhibiting high losses and represents a further advance in achieving a better antenna performance. To calculate the radiation patterns used in the synthesis procedure, an element-by-element analysis is assumed, which considers the local periodicity approach. Under this consideration, the use of a novel method is proposed, which avoids the limitation that the local periodicity imposes on the excitation. Once the appropriate strategy to calculate the voltages to be applied at each cell is developed, and once it is designed and manufactured both the structure to address the voltages to the antenna and the control circuits, two complete LC-based reflectarray antennas that operate at 100 GHz have been designed, manufactured and tested using the previously presented cells. The first prototype consists of a single offset reflectarray with beam scanning capabilities on one plane (elevation and azimuth). Although several LC-reflectarray antennas that provide 2-D scanning capabilities are also designed, and certain strategies to achieve the 2-D addressing of the voltage are proposed, the manufactured prototype addresses the voltages in one dimension in order to reduce the number of controls and manufacturing errors, and thereby validating the design tool. For an average aperture size (with a number of rows and columns of between 30 and 50 elements, which means a reflectarray with more than 900 cells), the single offset configuration provides an antenna gain of between 20 and 30 dBi and a large scanning range. The prototype tested at 100 GHz exhibits an electronically scanned beam in an angular range of 55º and 8% of bandwidth, in which the side lobe level (SLL) remains better than -13 dB. The maximum gain is 19.4 dBi. The electrical performance of the antenna is clearly an improvement on those achieved by other authors in the state of the art. The second prototype corresponds to a dual reflector antenna with a liquid crystal-based reflectarray used as a sub-reflector for beam scanning in one plane (azimuth or elevation). The main objective is to obtain a higher gain than that provided by the single offset configuration, but using a more compact architecture. In this case, a maximum gain of 35 dBi is achieved, although at the expense of reducing the scanning range to 12°, which is inherent in this type of structure. As a general statement, the voltage synthesis and the design procedure of the cells, jointly make up a complete, accurate and efficient design tool of reconfigurable reflectarray antennas based on liquid crystals. The tool has been validated by testing the previously mentioned prototypes at 100 GHz, which achieve something never reached before for this type of antenna: a competitive electrical performance, and an excellent prediction of the results. The design procedure is general and therefore can be used at any frequency for which the liquid crystal exhibits dielectric anisotropy. The two prototypes designed, manufactured and tested in this thesis are also some of the first antennas that currently operate at frequencies above 100 GHz. In fact, the dual reflector antenna is the first electronically scanned dual reflector antenna at frequencies above 60 GHz (the operation frequency is 100 GHz) with a gain greater than 25 dBi, being in turn the first dual-reflector antenna with a real reconfigurable sub-reflectarray. Finally, some improvements that should be still investigated to make these antennas commercially competitive are proposed.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Hoy en día, el proceso de un proyecto sostenible persigue realizar edificios de elevadas prestaciones que son, energéticamente eficientes, saludables y económicamente viables utilizando sabiamente recursos renovables para minimizar el impacto sobre el medio ambiente reduciendo, en lo posible, la demanda de energía, lo que se ha convertido, en la última década, en una prioridad. La Directiva 2002/91/CE "Eficiencia Energética de los Edificios" (y actualizaciones posteriores) ha establecido el marco regulatorio general para el cálculo de los requerimientos energéticos mínimos. Desde esa fecha, el objetivo de cumplir con las nuevas directivas y protocolos ha conducido las políticas energéticas de los distintos países en la misma dirección, centrándose en la necesidad de aumentar la eficiencia energética en los edificios, la adopción de medidas para reducir el consumo, y el fomento de la generación de energía a través de fuentes renovables. Los edificios de energía nula o casi nula (ZEB, Zero Energy Buildings ó NZEB, Net Zero Energy Buildings) deberán convertirse en un estándar de la construcción en Europa y con el fin de equilibrar el consumo de energía, además de reducirlo al mínimo, los edificios necesariamente deberán ser autoproductores de energía. Por esta razón, la envolvente del edifico y en particular las fachadas son importantes para el logro de estos objetivos y la tecnología fotovoltaica puede tener un papel preponderante en este reto. Para promover el uso de la tecnología fotovoltaica, diferentes programas de investigación internacionales fomentan y apoyan soluciones para favorecer la integración completa de éstos sistemas como elementos arquitectónicos y constructivos, los sistemas BIPV (Building Integrated Photovoltaic), sobre todo considerando el próximo futuro hacia edificios NZEB. Se ha constatado en este estudio que todavía hay una falta de información útil disponible sobre los sistemas BIPV, a pesar de que el mercado ofrece una interesante gama de soluciones, en algunos aspectos comparables a los sistemas tradicionales de construcción. Pero por el momento, la falta estandarización y de una regulación armonizada, además de la falta de información en las hojas de datos técnicos (todavía no comparables con las mismas que están disponibles para los materiales de construcción), hacen difícil evaluar adecuadamente la conveniencia y factibilidad de utilizar los componentes BIPV como parte integrante de la envolvente del edificio. Organizaciones internacionales están trabajando para establecer las normas adecuadas y procedimientos de prueba y ensayo para comprobar la seguridad, viabilidad y fiabilidad estos sistemas. Sin embargo, hoy en día, no hay reglas específicas para la evaluación y caracterización completa de un componente fotovoltaico de integración arquitectónica de acuerdo con el Reglamento Europeo de Productos de la Construcción, CPR 305/2011. Los productos BIPV, como elementos de construcción, deben cumplir con diferentes aspectos prácticos como resistencia mecánica y la estabilidad; integridad estructural; seguridad de utilización; protección contra el clima (lluvia, nieve, viento, granizo), el fuego y el ruido, aspectos que se han convertido en requisitos esenciales, en la perspectiva de obtener productos ambientalmente sostenibles, saludables, eficientes energéticamente y económicamente asequibles. Por lo tanto, el módulo / sistema BIPV se convierte en una parte multifuncional del edificio no sólo para ser física y técnicamente "integrado", además de ser una oportunidad innovadora del diseño. Las normas IEC, de uso común en Europa para certificar módulos fotovoltaicos -IEC 61215 e IEC 61646 cualificación de diseño y homologación del tipo para módulos fotovoltaicos de uso terrestre, respectivamente para módulos fotovoltaicos de silicio cristalino y de lámina delgada- atestan únicamente la potencia del módulo fotovoltaico y dan fe de su fiabilidad por un período de tiempo definido, certificando una disminución de potencia dentro de unos límites. Existe también un estándar, en parte en desarrollo, el IEC 61853 (“Ensayos de rendimiento de módulos fotovoltaicos y evaluación energética") cuyo objetivo es la búsqueda de procedimientos y metodologías de prueba apropiados para calcular el rendimiento energético de los módulos fotovoltaicos en diferentes condiciones climáticas. Sin embargo, no existen ensayos normalizados en las condiciones específicas de la instalación (p. ej. sistemas BIPV de fachada). Eso significa que es imposible conocer las efectivas prestaciones de estos sistemas y las condiciones ambientales que se generan en el interior del edificio. La potencia nominal de pico Wp, de un módulo fotovoltaico identifica la máxima potencia eléctrica que éste puede generar bajo condiciones estándares de medida (STC: irradición 1000 W/m2, 25 °C de temperatura del módulo y distribución espectral, AM 1,5) caracterizando eléctricamente el módulo PV en condiciones específicas con el fin de poder comparar los diferentes módulos y tecnologías. El vatio pico (Wp por su abreviatura en inglés) es la medida de la potencia nominal del módulo PV y no es suficiente para evaluar el comportamiento y producción del panel en términos de vatios hora en las diferentes condiciones de operación, y tampoco permite predecir con convicción la eficiencia y el comportamiento energético de un determinado módulo en condiciones ambientales y de instalación reales. Un adecuado elemento de integración arquitectónica de fachada, por ejemplo, debería tener en cuenta propiedades térmicas y de aislamiento, factores como la transparencia para permitir ganancias solares o un buen control solar si es necesario, aspectos vinculados y dependientes en gran medida de las condiciones climáticas y del nivel de confort requerido en el edificio, lo que implica una necesidad de adaptación a cada contexto específico para obtener el mejor resultado. Sin embargo, la influencia en condiciones reales de operación de las diferentes soluciones fotovoltaicas de integración, en el consumo de energía del edificio no es fácil de evaluar. Los aspectos térmicos del interior del ambiente o de iluminación, al utilizar módulos BIPV semitransparentes por ejemplo, son aún desconocidos. Como se dijo antes, la utilización de componentes de integración arquitectónica fotovoltaicos y el uso de energía renovable ya es un hecho para producir energía limpia, pero también sería importante conocer su posible contribución para mejorar el confort y la salud de los ocupantes del edificio. Aspectos como el confort, la protección o transmisión de luz natural, el aislamiento térmico, el consumo energético o la generación de energía son aspectos que suelen considerarse independientemente, mientras que todos juntos contribuyen, sin embargo, al balance energético global del edificio. Además, la necesidad de dar prioridad a una orientación determinada del edificio, para alcanzar el mayor beneficio de la producción de energía eléctrica o térmica, en el caso de sistemas activos y pasivos, respectivamente, podría hacer estos últimos incompatibles, pero no necesariamente. Se necesita un enfoque holístico que permita arquitectos e ingenieros implementar sistemas tecnológicos que trabajen en sinergia. Se ha planteado por ello un nuevo concepto: "C-BIPV, elemento fotovoltaico consciente integrado", esto significa necesariamente conocer los efectos positivos o negativos (en términos de confort y de energía) en condiciones reales de funcionamiento e instalación. Propósito de la tesis, método y resultados Los sistemas fotovoltaicos integrados en fachada son a menudo soluciones de vidrio fácilmente integrables, ya que por lo general están hechos a medida. Estos componentes BIPV semitransparentes, integrados en el cerramiento proporcionan iluminación natural y también sombra, lo que evita el sobrecalentamiento en los momentos de excesivo calor, aunque como componente estático, asimismo evitan las posibles contribuciones pasivas de ganancias solares en los meses fríos. Además, la temperatura del módulo varía considerablemente en ciertas circunstancias influenciada por la tecnología fotovoltaica instalada, la radiación solar, el sistema de montaje, la tipología de instalación, falta de ventilación, etc. Este factor, puede suponer un aumento adicional de la carga térmica en el edificio, altamente variable y difícil de cuantificar. Se necesitan, en relación con esto, más conocimientos sobre el confort ambiental interior en los edificios que utilizan tecnologías fotovoltaicas integradas, para abrir de ese modo, una nueva perspectiva de la investigación. Con este fin, se ha diseñado, proyectado y construido una instalación de pruebas al aire libre, el BIPV Env-lab "BIPV Test Laboratory", para la caracterización integral de los diferentes módulos semitransparentes BIPV. Se han definido también el método y el protocolo de ensayos de caracterización en el contexto de un edificio y en condiciones climáticas y de funcionamiento reales. Esto ha sido posible una vez evaluado el estado de la técnica y la investigación, los aspectos que influyen en la integración arquitectónica y los diferentes tipos de integración, después de haber examinado los métodos de ensayo para los componentes de construcción y fotovoltaicos, en condiciones de operación utilizadas hasta ahora. El laboratorio de pruebas experimentales, que consiste en dos habitaciones idénticas a escala real, 1:1, ha sido equipado con sensores y todos los sistemas de monitorización gracias a los cuales es posible obtener datos fiables para evaluar las prestaciones térmicas, de iluminación y el rendimiento eléctrico de los módulos fotovoltaicos. Este laboratorio permite el estudio de tres diferentes aspectos que influencian el confort y consumo de energía del edificio: el confort térmico, lumínico, y el rendimiento energético global (demanda/producción de energía) de los módulos BIPV. Conociendo el balance de energía para cada tecnología solar fotovoltaica experimentada, es posible determinar cuál funciona mejor en cada caso específico. Se ha propuesto una metodología teórica para la evaluación de estos parámetros, definidos en esta tesis como índices o indicadores que consideran cuestiones relacionados con el bienestar, la energía y el rendimiento energético global de los componentes BIPV. Esta metodología considera y tiene en cuenta las normas reglamentarias y estándares existentes para cada aspecto, relacionándolos entre sí. Diferentes módulos BIPV de doble vidrio aislante, semitransparentes, representativos de diferentes tecnologías fotovoltaicas (tecnología de silicio monocristalino, m-Si; de capa fina en silicio amorfo unión simple, a-Si y de capa fina en diseleniuro de cobre e indio, CIS) fueron seleccionados para llevar a cabo una serie de pruebas experimentales al objeto de demostrar la validez del método de caracterización propuesto. Como resultado final, se ha desarrollado y generado el Diagrama Caracterización Integral DCI, un sistema gráfico y visual para representar los resultados y gestionar la información, una herramienta operativa útil para la toma de decisiones con respecto a las instalaciones fotovoltaicas. Este diagrama muestra todos los conceptos y parámetros estudiados en relación con los demás y ofrece visualmente toda la información cualitativa y cuantitativa sobre la eficiencia energética de los componentes BIPV, por caracterizarlos de manera integral. ABSTRACT A sustainable design process today is intended to produce high-performance buildings that are energy-efficient, healthy and economically feasible, by wisely using renewable resources to minimize the impact on the environment and to reduce, as much as possible, the energy demand. In the last decade, the reduction of energy needs in buildings has become a top priority. The Directive 2002/91/EC “Energy Performance of Buildings” (and its subsequent updates) established a general regulatory framework’s methodology for calculation of minimum energy requirements. Since then, the aim of fulfilling new directives and protocols has led the energy policies in several countries in a similar direction that is, focusing on the need of increasing energy efficiency in buildings, taking measures to reduce energy consumption, and fostering the use of renewable sources. Zero Energy Buildings or Net Zero Energy Buildings will become a standard in the European building industry and in order to balance energy consumption, buildings, in addition to reduce the end-use consumption should necessarily become selfenergy producers. For this reason, the façade system plays an important role for achieving these energy and environmental goals and Photovoltaic can play a leading role in this challenge. To promote the use of photovoltaic technology in buildings, international research programs encourage and support solutions, which favors the complete integration of photovoltaic devices as an architectural element, the so-called BIPV (Building Integrated Photovoltaic), furthermore facing to next future towards net-zero energy buildings. Therefore, the BIPV module/system becomes a multifunctional building layer, not only physically and functionally “integrated” in the building, but also used as an innovative chance for the building envelope design. It has been found in this study that there is still a lack of useful information about BIPV for architects and designers even though the market is providing more and more interesting solutions, sometimes comparable to the existing traditional building systems. However at the moment, the lack of an harmonized regulation and standardization besides to the non-accuracy in the technical BIPV datasheets (not yet comparable with the same ones available for building materials), makes difficult for a designer to properly evaluate the fesibility of this BIPV components when used as a technological system of the building skin. International organizations are working to establish the most suitable standards and test procedures to check the safety, feasibility and reliability of BIPV systems. Anyway, nowadays, there are no specific rules for a complete characterization and evaluation of a BIPV component according to the European Construction Product Regulation, CPR 305/2011. BIPV products, as building components, must comply with different practical aspects such as mechanical resistance and stability; structural integrity; safety in use; protection against weather (rain, snow, wind, hail); fire and noise: aspects that have become essential requirements in the perspective of more and more environmentally sustainable, healthy, energy efficient and economically affordable products. IEC standards, commonly used in Europe to certify PV modules (IEC 61215 and IEC 61646 respectively crystalline and thin-film ‘Terrestrial PV Modules-Design Qualification and Type Approval’), attest the feasibility and reliability of PV modules for a defined period of time with a limited power decrease. There is also a standard (IEC 61853, ‘Performance Testing and Energy Rating of Terrestrial PV Modules’) still under preparation, whose aim is finding appropriate test procedures and methodologies to calculate the energy yield of PV modules under different climate conditions. Furthermore, the lack of tests in specific conditions of installation (e.g. façade BIPV devices) means that it is difficult knowing the exact effective performance of these systems and the environmental conditions in which the building will operate. The nominal PV power at Standard Test Conditions, STC (1.000 W/m2, 25 °C temperature and AM 1.5) is usually measured in indoor laboratories, and it characterizes the PV module at specific conditions in order to be able to compare different modules and technologies on a first step. The “Watt-peak” is not enough to evaluate the panel performance in terms of Watt-hours of various modules under different operating conditions, and it gives no assurance of being able to predict the energy performance of a certain module at given environmental conditions. A proper BIPV element for façade should take into account thermal and insulation properties, factors as transparency to allow solar gains if possible or a good solar control if necessary, aspects that are linked and high dependent on climate conditions and on the level of comfort to be reached. However, the influence of different façade integrated photovoltaic solutions on the building energy consumption is not easy to assess under real operating conditions. Thermal aspects, indoor temperatures or luminance level that can be expected using building integrated PV (BIPV) modules are not well known. As said before, integrated photovoltaic BIPV components and the use of renewable energy is already a standard for green energy production, but would also be important to know the possible contribution to improve the comfort and health of building occupants. Comfort, light transmission or protection, thermal insulation or thermal/electricity power production are aspects that are usually considered alone, while all together contribute to the building global energy balance. Besides, the need to prioritize a particular building envelope orientation to harvest the most benefit from the electrical or thermal energy production, in the case of active and passive systems respectively might be not compatible, but also not necessary. A holistic approach is needed to enable architects and engineers implementing technological systems working in synergy. A new concept have been suggested: “C-BIPV, conscious integrated BIPV”. BIPV systems have to be “consciously integrated” which means that it is essential to know the positive and negative effects in terms of comfort and energy under real operating conditions. Purpose of the work, method and results The façade-integrated photovoltaic systems are often glass solutions easily integrable, as they usually are custommade. These BIPV semi-transparent components integrated as a window element provides natural lighting and shade that prevents overheating at times of excessive heat, but as static component, likewise avoid the possible solar gains contributions in the cold months. In addition, the temperature of the module varies considerably in certain circumstances influenced by the PV technology installed, solar radiation, mounting system, lack of ventilation, etc. This factor may result in additional heat input in the building highly variable and difficult to quantify. In addition, further insights into the indoor environmental comfort in buildings using integrated photovoltaic technologies are needed to open up thereby, a new research perspective. This research aims to study their behaviour through a series of experiments in order to define the real influence on comfort aspects and on global energy building consumption, as well as, electrical and thermal characteristics of these devices. The final objective was to analyze a whole set of issues that influence the global energy consumption/production in a building using BIPV modules by quantifying the global energy balance and the BIPV system real performances. Other qualitative issues to be studied were comfort aspect (thermal and lighting aspects) and the electrical behaviour of different BIPV technologies for vertical integration, aspects that influence both energy consumption and electricity production. Thus, it will be possible to obtain a comprehensive global characterization of BIPV systems. A specific design of an outdoor test facility, the BIPV Env-lab “BIPV Test Laboratory”, for the integral characterization of different BIPV semi-transparent modules was developed and built. The method and test protocol for the BIPV characterization was also defined in a real building context and weather conditions. This has been possible once assessed the state of the art and research, the aspects that influence the architectural integration and the different possibilities and types of integration for PV and after having examined the test methods for building and photovoltaic components, under operation conditions heretofore used. The test laboratory that consists in two equivalent test rooms (1:1) has a monitoring system in which reliable data of thermal, daylighting and electrical performances can be obtained for the evaluation of PV modules. The experimental set-up facility (testing room) allows studying three different aspects that affect building energy consumption and comfort issues: the thermal indoor comfort, the lighting comfort and the energy performance of BIPV modules tested under real environmental conditions. Knowing the energy balance for each experimented solar technology, it is possible to determine which one performs best. A theoretical methodology has been proposed for evaluating these parameters, as defined in this thesis as indices or indicators, which regard comfort issues, energy and the overall performance of BIPV components. This methodology considers the existing regulatory standards for each aspect, relating them to one another. A set of insulated glass BIPV modules see-through and light-through, representative of different PV technologies (mono-crystalline silicon technology, mc-Si, amorphous silicon thin film single junction, a-Si and copper indium selenide thin film technology CIS) were selected for a series of experimental tests in order to demonstrate the validity of the proposed characterization method. As result, it has been developed and generated the ICD Integral Characterization Diagram, a graphic and visual system to represent the results and manage information, a useful operational tool for decision-making regarding to photovoltaic installations. This diagram shows all concepts and parameters studied in relation to each other and visually provides access to all the results obtained during the experimental phase to make available all the qualitative and quantitative information on the energy performance of the BIPV components by characterizing them in a comprehensive way.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El Camino de Santiago, ha experimentado un crecimiento exponencial, durante los últimos años, llegando a triplicarse el número de peregrinos. Esto se ha traducido en la necesidad de aumentar el número de albergues a lo largo del Camino de Santiago. Por otro lado, nos encontramos con que reducir la demanda energética y las emisiones de CO2 son algunos de los principales retos que se plantea la arquitectura actual, para cumplir los objetivos marcados por la Unión Europea en el 2020, 2030 y 2050. Surge por tanto el proceso de la rehabilitación energética, como la opción más lógica y viable para comenzar a hablar de posibles soluciones a un problema global (búsqueda de construcciones más eficaces y sostenibles) solventando a su vez una problemática concreta (creciente demanda de albergues de peregrinos). La ruta concreta seleccionada como marco para llevar a cabo el análisis ha sido la de la Vía de la Plata, hilo conductor de historia a través de nuestro país y conexión natural entre las distintas zonas climáticas españolas (mediterránea, continental y atlántica). Para ello, cuatro ciudades han sido seleccionadas como objeto de análisis: Sevilla, Cáceres, Zamora y Santiago de Compostela. El objetivo central de esta investigación ha sido la selección y análisis de una serie de estrategias para la rehabilitación energética de los albergues de la Vía de Plata. Estas estrategias han sido clasificadas atendiendo al nivel de reforma arquitectónica (bajo, medio y alto), tipo de contexto (urbano y rural), propiedades de la envolvente, proporción y orientación de los huecos y la morfología del edificio. Se ha planteado como hipótesis de trabajo que, bajo los criterios bioclimáticos adecuados, y atendiendo a unas necesidades de confort ajustadas al uso transitorio de los albergues, su demanda energética podría verse reducida en algunas de las regiones climáticas españolas analizadas, dependiendo de la estrategia seleccionada. Se ha obtenido en total una casuística de más de 600 potenciales escenarios, que ha permitido obtener una visión global del funcionamiento de los albergues a lo largo de la península, atendiendo a diferentes parámetros, principalmente enfocados en torno a criterios de confort, demanda energética y emisiones de CO2. Como tendencia general, los albergues de la mitad más septentrional, presentan menores niveles de demanda energética y emisiones de CO2 en contextos urbanos, teniendo un gran impacto en su funcionamiento las estrategias planteadas. Esta tendencia se invierte en la zona sur de la península, representada en este caso por Cáceres y Sevilla, donde las demandas son más elevados, siendo especialmente sensibles al aumento de área de hueco y las consiguientes ganancias solares. En el contexto rural serán Zamora y Santiago las que presenten niveles de demanda energética más elevados, mientras que Cáceres y Sevilla presentan los niveles más elevados de emisiones de CO2, por su demanda predominante de refrigeración, directamente relacionada con el consumo eléctrico de los albergues. El conjunto de resultados obtenidos ha servido para analizar, a diferentes escalas y con distintos enfoques, el funcionamiento de las estrategias de rehabilitación energética propuestas, para cada una de las regiones climáticas seleccionadas. ABSTRACT Saint James Way has experienced a huge increase over the last years, reaching values up to three times higher than fifteen years ago. Therefore, the need for more hostels for the pilgrims has become an issue. On the other hand, reducing the energy demand and CO2 emissions within the built environment is one of the main challenges of current architecture, in order to achieve the proposed targets for 2020, 2030 and 2050 by the European Union. In this context, energy refurbishment shows up as the most logical and viable option, to discuss about potential solutions for global concerns (more sustainable and efficient constructions) solving at the same time particular issues (growing demand of pilgrim´s hostels). The selected route to undertake this analysis is known as “Vía de la Plata”, historical connection from the South to the North of Spain and a natural link among the different climate zones (Mediterranean, continental and atlantic). The four cities selected for the analysis as the most representatives of this route were; Sevilla, Cáceres, Zamora and Santiago de Compostela. The final target of this research was to select and analyse certain strategies for the energy refurbishment of the hostels on the mentioned Way. These strategies were classified according to the level of architectural refurbishment (low, medium or high), type of context (urban or rural), properties of the envelope, proportion and orientation of the windows and the morphology of the building. The hypothesis of the research is based on the believe that, under the right environmental criteria and with comfort levels adjusted to the transient type of use of the hostels, the energy demand could be reduced in some of the analysed climate regions, depending on the selected strategies. Six hundred potential scenarios were assessed, what allowed for a general vision on the hostels performance throughout the country, according to different parameters, focused on comfort criteria, energy demands and CO2 emissions. As a general trend, the hostels on the northern part of Spain show lower levels of energy demand and CO2 emissions in urban contexts, with a great impact of the proposed strategies on reducing the original demands. This trend is reversed on the South (Cáceres and Seville), were demands are higher, specially with greater glazing ratios. Hostels in the countryside show higher levels of demand on the North of Spain (Zamora and Santiago), but the cities on the South produce higher levels of CO2 emissions as they are mainly driven by cooling demands, directly related in this analysis to the electrical consumption of the hostels. Final results were used to understand, at different scales and from different points of view, how each one of the proposed strategies performs for each one of the selected climate zones.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La presente Tesis Doctoral evalúa la contribución de una fachada activa, constituida por acristalamientos con circulación de agua, en el rendimiento energético del edificio. Con especial énfasis en la baja afección sobre su imagen, su integración ha de favorecer la calificación del edificio con el futuro estándar de Edificio de consumo de Energía Casi Nulo (EECN). El propósito consiste en cuantificar su aportación a limitar la demanda de climatización, como solución de fachada transparente acorde a las normas de la energía del 2020. En el primer capítulo se introduce el planteamiento del problema. En el segundo capítulo se desarrollan la hipótesis y el objetivo fundamental de la investigación. Para tal fin, en el tercer capítulo, se revisa el estado del arte de la tecnología y de la investigación científica, mediante el análisis de la literatura de referencia. Se comparan patentes, prototipos, sistemas comerciales asimilables, investigaciones en curso en Universidades, y proyectos de investigación y desarrollo, sobre envolventes que incorporan acristalamientos con circulación de agua. El método experimental, expuesto en el cuarto capítulo, acomete el diseño, la fabricación y la monitorización de un prototipo expuesto, durante ciclos de ensayos, a las condiciones climáticas de Madrid. Esta fase ha permitido adquirir información precisa sobre el rendimiento del acristalamiento en cada orientación de incidencia solar, en las distintas estaciones del año. En paralelo, se aborda el desarrollo de modelos teóricos que, mediante su asimilación a soluciones multicapa caracterizadas en las herramientas de simulación EnergyPlus y IDA-ICE (IDA Indoor Climate and Energy), reproducen el efecto experimental. En el quinto capítulo se discuten los resultados experimentales y teóricos, y se analiza la respuesta del acristalamiento asociado a un determinado volumen y temperatura del agua. Se calcula la eficiencia en la captación de la radiación y, mediante la comparativa con un acristalamiento convencional, se determina la reducción de las ganancias solares y las pérdidas de energía. Se comparan el rendimiento del acristalamiento, obtenido experimentalmente, con el ofrecido por paneles solares fototérmicos disponibles en el mercado. Mediante la traslación de los resultados experimentales a casos de células de tamaño habitable, se cuantifica la afección del acristalamiento sobre el consumo en refrigeración y calefacción. Diferenciando cada caso por su composición constructiva y orientación, se extraen conclusiones sobre la reducción del gasto en climatización, en condiciones de bienestar. Posteriormente, se evalúa el ahorro de su incorporación en un recinto existente, de construcción ligera, localizado en la Escuela de Arquitectura de la Universidad Politécnica de Madrid (UPM). Mediante el planteamiento de escenarios de rehabilitación energética, se estima su compatibilidad con un sistema de climatización mediante bomba de calor y extracción geotérmica. Se describe el funcionamiento del sistema, desde la perspectiva de la operación conjunta de los acristalamientos activos e intercambio geotérmico, en nuestro clima. Mediante la parametrización de sus funciones, se estima el beneficio adicional de su integración, a partir de la mejora del rendimiento de la bomba de calor COP (Coefficient of Performance) en calefacción, y de la eficiencia EER (Energy Efficiency Ratio) en refrigeración. En el recinto de la ETSAM, se ha analizado la contribución de la fachada activa en su calificación como Edificio de Energía Casi Nula, y estudiado la rentabilidad económica del sistema. En el sexto capítulo se exponen las conclusiones de la investigación. A la fecha, el sistema supone alta inversión inicial, no obstante, genera elevada eficiencia con bajo impacto arquitectónico, reduciéndose los costes operativos, y el dimensionado de los sistemas de producción, de mayor afección sobre el edificio. Mediante la envolvente activa con suministro geotérmico no se condena la superficie de cubierta, no se ocupa volumen útil por la presencia de equipos emisores, y no se reduce la superficie o altura útil a base de reforzar los aislamientos. Tras su discusión, se considera una alternativa de valor en procesos de diseño y construcción de Edificios de Energía Casi Nulo. Se proponen líneas de futuras investigación cuyo propósito sea el conocimiento de la tecnología de los acristalamientos activos. En el último capítulo se presentan las actividades de difusión de la investigación. Adicionalmente se ha proporcionado una mejora tecnológica a las fachadas activas existentes, que ha derivado en la solicitud de una patente, actualmente en tramitación. ABSTRACT This Thesis evaluates the contribution of an active water flow glazing façade on the energy performance of buildings. Special emphasis is made on the low visual impact on its image, and the active glazing implementation has to encourage the qualification of the building with the future standard of Nearly Zero Energy Building (nZEB). The purpose is to quantify the façade system contribution to limit air conditioning demand, resulting in a transparent façade solution according to the 2020 energy legislation. An initial approach to the problem is presented in first chapter. The second chapter develops the hypothesis and the main objective of the research. To achieve this purpose, the third chapter reviews the state of the art of the technology and scientific research, through the analysis of reference literature. Patents, prototypes, assimilable commercial systems, ongoing research in other universities, and finally research and development projects incorporating active fluid flow glazing are compared. The experimental method, presented in fourth chapter, undertakes the design, manufacture and monitoring of a water flow glazing prototype exposed during test cycles to weather conditions in Madrid. This phase allowed the acquisition of accurate information on the performance of water flow glazing on each orientation of solar incidence, during different seasons. In parallel, the development of theoretical models is addressed which, through the assimilation to multilayer solutions characterized in the simulation tools EnergyPlus and IDA-Indoor Climate and Energy, reproduce the experimental effect. Fifth chapter discusses experimental and theoretical results focused to the analysis of the active glazing behavior, associated with a specific volume and water flow temperature. The efficiency on harvesting incident solar radiation is calculated, and, by comparison with a conventional glazing, the reduction of solar gains and energy losses are determined. The experimental performance of fluid flow glazing against the one offered by photothermal solar panels available on the market are compared. By translating the experimental and theoretical results to cases of full-size cells, the reduction in cooling and heating consumption achieved by active fluid glazing is quantified. The reduction of energy costs to achieve comfort conditions is calculated, differentiating each case by its whole construction composition and orientation. Subsequently, the saving of the implementation of the system on an existing lightweight construction enclosure, located in the School of Architecture at the Polytechnic University of Madrid (UPM), is then calculated. The compatibility between the active fluid flow glazing and a heat pump with geothermal heat supply system is estimated through the approach of different energy renovation scenarios. The overall system operation is described, from the perspective of active glazing and geothermal heat exchange combined operation, in our climate. By parameterization of its functions, the added benefit of its integration it is discussed, particularly from the improvement of the heat pump performance COP (Coefficient of Performance) in heating and efficiency EER (Energy Efficiency Ratio) in cooling. In the case study of the enclosure in the School of Architecture, the contribution of the active glazing façade in qualifying the enclosure as nearly Zero Energy Building has been analyzed, and the feasibility and profitability of the system are studied. The sixth chapter sets the conclusions of the investigation. To date, the system may require high initial investment; however, high efficiency with low architectural impact is generated. Operational costs are highly reduced as well as the size and complexity of the energy production systems, which normally have huge visual impact on buildings. By the active façade with geothermal supply, the deck area it is not condemned. Useful volume is not consumed by the presence of air-conditioning equipment. Useful surface and room height are not reduced by insulation reinforcement. After discussion, water flow glazing is considered a potential value alternative in nZEB design and construction processes. Finally, this chapter proposes future research lines aiming to increase the knowledge of active water flow glazing technology. The last chapter presents research dissemination activities. Additionally, a technological improvement to existing active facades has been developed, which has resulted in a patent application, currently in handling process.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En esta tesis se estudia cómo lograr el equilibrio entre dos fenómenos naturales que afectan a los huecos de fachadas: la iluminación natural y la ganancia solar. Es decir, el cómo, conseguir la optimización de la iluminación natural que se introduce a través de las ventanas existentes, sin realizar una laboriosa intervención de sustitución de las mismas y el cómo, conseguir la protección de la radiación solar directa de la zona acristalada, para evitar tanto las ganancias térmicas innecesarias como el deslumbramiento que afecta a la calidad lumínica de los recintos. Para el desarrollo esta investigación se ha propuesto una metodología de estudio dividida en dos fases: La primera, de Análisis y Diagnóstico, en la que se han de definir los estándares a cumplir y las variables con las que se evaluarán las bandejas. Y, la segunda, de Evaluación y Comprobación en la que se han de establecer los criterios de valoración y ponderación de cada variable. En la primera fase, se definirán las variables físico-ambientales, para lo que se seleccionarán algunas ciudades a estudiar, a las cuales se les estudiará las necesidades de confort térmico, se determinarán las dimensiones que deben tener las protecciones solares en esas ciudades, además se determinarán las actuaciones a realizar en los huecos de fachada según sea su posición en el plano vertical de la misma. Así mismo, se plantea hacer un análisis de casos reales, para lo que se caracterizarán desde el punto de vista lumínico algunas viviendas, realizando medidas “in situ” y comparando resultados con los que se obtienen de los programas de simulación, para seleccionar las viviendas en las que la realidad y la simulación se aproximen más, una de estas viviendas servirá de modelo en las simulaciones que se realizará en la segunda fase. También, en esta primera fase, mediante un modelo neutro, se estudiará el comportamiento térmico y lumínico del tamaño del hueco en el que se insertará la bandeja posteriormente, para luego estudiar la posición de la bandeja en el plano vertical de la ventana, desde el punto de vista ergonómico. Y finalmente se estudiará, el comportamiento térmico y lumínico del modelo con la bandeja ubicada a 40, 50 y 60cm del techo. En la segunda fase, se establecerá la valoración y ponderación de las variables con las que seleccionar la bandeja que mejor equilibre los aspectos térmicos y lumínicos, teniendo en cuenta estrategias pasivas de acondicionamiento ambiental, como favorecer las ganancias solares en invierno en horas diurnas y evitar las pérdidas de calor en horas nocturnas; y en verano implementar sistemas de sombreamiento en la zona acristalada para evitar las ganancias de calor; y, tanto en verano como en invierno, aprovechar la iluminación natural, para favorecer la iluminancia útil y evitar el deslumbramiento. Una vez definidos los criterios de valoración y ponderación se aplicará a la evaluación térmica y lumínica del modelo neutro con la bandeja, consiguiendo seleccionar la bandeja con mejor comportamiento. Posteriormente se comprobará la metodología de estudio desarrollada en el modelo seleccionado, se evaluará el comportamiento térmico y lumínico, con la incorporación de algunas alternativas de bandeja. Con esta investigación se quiere demostrar que mediante la aplicación de esta metodología de estudio, es posible evaluar y seleccionar bandejas que respondan a las necesidades requeridas en distintos casos de estudio, por lo que se considera que, la bandeja puede ser un elemento arquitectónico aplicable tanto en rehabilitación como en nueva construcción, de espacios en los que sea necesario mejorar sus condiciones lumínicas y térmicas simultáneamente. ABSTRACT This thesis studies how to balance two natural events that affect the window opening of facades: daylighting and solar gain. That is to say, how to achieve optimization of natural light that gets in through the existing windows, without making a laborious intervention of replacing them and how to get protection from direct solar radiation from the glass area, to avoid unnecessary heat gain and glare affecting the light quality of the enclosures. To develop this research, it has been proposed a methodology of study divided into two phases: First phase, Analysis and Diagnostics, in which the variables with which the light shelf are evaluated will be defined along with the standards the light shelves will meet. The second phase, Assessment and Verification, in which the assessment criteria and weighting of each variable will be established. In the first phase, the physical and environmental variables shall be defined, various cities will be selected to be studied, and in each the needs of thermal comfort will be determined along with the dimensions of shading devices in the cities. In addition the actions to be taken in the window opening of the façade will be determined, depending on their position in the vertical plane. An analysis of real cases will be undertaken, which will be characterized from the luminous point of view, performing "in situ" measurements and comparing results with those obtained from simulation programs, to select places/dwellings where reality and simulation are closer, one of these places/dwellings will be a model, in the simulations to perform at the second phase. Also, in this first phase, by a neutral model, the thermal and light behavior of the size of the window opening will be studied, in which the light shelf is inserted later, the position of the light shelf in the vertical plane of the window is studied, from an ergonomic point of view. And finally to study the thermal and light behavior of the model with the light shelf located at 40, 50 and 60cm from the ceiling. In the second phase, the evaluation and weighting of the variables will be established selecting the light shelf that best balances the thermal and daylighting aspects, taking into account passive environmental conditioning strategies; such as getting solar gains in winter during daylight hours, and preventing heat loss during the night hours; and in summer implementing shading systems in the glazing area to avoid heat gains. And in both summer and winter, taking advantage of natural lighting, to improve useful illuminance and avoid glare. Once defined, the evaluation criteria and weighting will be applied to thermal and daylighting evaluation to the neutral model with the light shelf, the best performing light shelf will be selected. The study methodology developed in the selected model will be verified the thermal and daylighting performance with the addition of some light shelf alternative will also be studied. With this research, we want to show that by applying this study methodology it is possible to evaluate and select the light shelf that meets the needs required in different case studies, so it is considered that the light shelf may be an applicable architectural element in both refurbishment and new construction of spaces where necessary to improve their daylighting and thermal conditions simultaneously.