315 resultados para Ganancia
Resumo:
El plástico se ha convertido en el material del siglo XXI. Se adapta a múltiples aplicaciones, por eso se emplea para todo tipo de propósitos, entre los cuales destaca el empaquetado por su versatilidad, flexibilidad y durabilidad. Un efecto directo de su continuo uso es la producción de residuos poliméricos, que tras su utilización, se desechan. A partir de ese momento, solo existen dos vías de acción: reciclado y vertido. El vertido de residuos se ha convertido en un grave problema del día a día. En consecuencia, se deben tomar medidas para evitar su acumulación, que implica grandes problemas medioambientales que afectan tanto a personas como a fauna y flora. Por consiguiente, para evitar el desaprovechamiento de una buena parte de los residuos, de aquellos que son plásticos, se lleva a cabo su reciclado. Existen tres tipos de reciclado para los materiales poliméricos: el mecánico o convencional, el químico y la valorización energética. El más sostenible de todos ellos es el reciclado mecánico que además es el empleado para la elaboración de las probetas de este estudio. El reciclado convencional posee varias etapas, entre las cuales destacan fundir el plástico y procesarlo posteriormente. El producto final aparece en forma de pellets, que pueden ser transformados según el uso ulterior. El polímero generado posee una calidad inferior a la de los materiales vírgenes, dado que durante su utilización ha podido ser contaminado por otras substancias. Por tanto, no puede emplearse para muchos de sus pasados usos si no es reforzado con algún otro material. Es entonces cuando surgen los ecocomposites o biocomposites. Los ecocomposites son unos materiales compuestos de matriz polimérica, que presentan especiales ventajas medioambientales, porque utilizan refuerzos celulósicos de fuentes renovables y/o matrices de plásticos reciclados. En nuestro caso, la matriz es una mezcla de residuos plásticos agrarios (RAP) y urbanos, que principalmente están formados por polietileno de alta densidad (HDPE). Por sí solos estos plásticos reciclados, no poseen las cualidades necesarias para su utilización. Por consiguiente, se refuerzan con fibras de celulosa. Estas hebras añadidas también son residuales ya que carecen de las propiedades adecuadas para la fabricación de papel y, en lugar de ser incineradas o desechadas, se emplean en los ecocomposites como ayuda para soportar los esfuerzos mecánicos. Otro beneficio medioambiental del uso de la celulosa, es que hace que los ecocomposites sean más biodegradables en comparación con las fibras minerales que se añaden en los otros composites. Cabe mencionar que, al tratarse de un material totalmente reciclado, también genera una serie de ventajas económicas y sociales. El reciclado mecánico necesita de trabajadores que lleven a cabo la labor. De este modo, aparecen nuevos puestos de trabajo que dan solución a problemas sociales de la población. El reciclado de plásticos irá aumentando durante los próximos años dado que en 2014 la Comunidad Europea fijó como objetivo una economía circular que implica procesar todos los residuos para evitar su acumulación. En la actualidad, aún no se reciclan gran cantidad de plásticos agrarios. Sin embargo, con este compromiso se espera un aumento del volumen de PE agrícola reciclado mecánicamente, ya que el origen del material obtenido a partir de ellos es ecológico y favorece el cuidado del medio ambiente, al emplear materiales de desecho en la generación de los nuevos. Combinando los plásticos reciclados y la celulosa, se crea un material respetuoso con el medio ambiente. No obstante, existe un motivo mayor para su fabricación: se trata de un compuesto con propiedades mecánicas optimizadas que se adapta a numerosas aplicaciones como mobiliario urbano, señales de tráfico… Sus características aúnan los beneficios de unir ambos materiales. Por un lado, la baja densidad, las posibilidades de reciclado y la alta resistencia al impacto aportadas por el plástico. Por el otro, las hebras celulósicas mejoran notablemente el módulo de Young, la rigidez y el límite de tensión que son capaces de soportar con respecto a probetas de misma forma pero sin fibras. Estas propiedades no son las únicas que se modifican al combinar las dos substancias. El refuerzo, al tratarse de un material hidrófilo, tenderá a atrapar la humedad ambiental. Como consecuencia, se producirá un hinchamiento que es posible que repercuta en la estabilidad dimensional del material durante su uso. Asimismo, si la celulosa está en contacto continuo con agua, modifica su naturaleza ya que se producen una serie de cambios en su estructura. El agua genera también la rotura de las interacciones fibra-matriz en la interfase del material compuesto, lo que reduce grandemente las propiedades del ecocomposite. Así pues, la absorción de agua es uno de los principales problemas de estos materiales y limita sus aplicaciones y también la reciclabilidad de los residuos celulósicos y plásticos. Por lo tanto, el principal objetivo de este proyecto es la caracterización tanto de la cinética como del mecanismo de la absorción de agua en los ecocomposites a través de varias técnicas y ensayos siempre con el fin último de reducir la absorción de agua y mejorar las propiedades y las aplicaciones de estos materiales reciclados. Se estudiaron ecocomposites obtenidos a partir de residuos plásticos agrarios y urbanos, con una cantidad variable de celulosa residual, entre 25 y 35%. A algunos de ellos se les había añadido un peróxido orgánico en proporción del 0,025% o 0,05% en peso. Una parte de los materiales había sido sometida a un envejecimiento acelerado de 100, 250 o 500 horas en cámara climática, donde se exponen a calor y humedad. La proporción no constante de celulosa se empleó para descubrir cuánto afecta su variación en la absorción de agua. El peróxido estaba presente como ayuda para entrecruzar la matriz con el refuerzo, que ya se había comprobado que mejoraba las propiedades mecánicas del material, y se pretendía investigar si también podía causar una mejora en la absorción de agua, o bien suponía un empeoramiento. Por último, se pretendía estudiar si el envejecimiento de estos materiales altera la absorción de agua. La absorción se caracterizó principalmente a través de tres procedimientos, todos ellos basados en la medición de ciertas propiedades tras la inmersión de las muestras en viales con agua destilada. Por un lado, se controló la absorción midiendo la ganancia de masa de las muestras mediante una balanza analítica. Por otro lado, se midió el hinchamiento de las probetas a lo largo del tiempo. Finalmente, se caracterizó el agua absorbida y se midió la absorción mediante espectrofotometría infrarroja por transformada de Fourier (FTIR), lo que suministró información sobre los tipos de agua absorbida y los mecanismos de absorción. En el estudio del hinchamiento y de la absorción por gravimetría se tomaron todas las muestras, con una y dos replicaciones. Para la espectrofotometría se analizaron los filmes de código 43500, 43505, 43520 y 43525. La absorción de agua es un fenómeno que se puede explicar en muchos casos a través de la segunda ley de Fick. Para poder emplear esta ley, se toman como hipótesis que la difusión es no estacionaria, la presión y la temperatura son constantes y se trata de difusión unidireccional. Para la aplicación de esta teoría, es necesario que las muestras sean láminas bidimensionales de espesor despreciable. Los coeficientes de difusión se pueden calcular mediante una serie de métodos propuestos por Crank en The Mathematics of Diffusion [5] que recopilan soluciones a esta segunda ley de Fick. La absorción de agua fue aumentando con el tiempo. Inicialmente, el gradiente es superior; esto es, se absorbió más durante las primeras horas de inmersión. Para que la difusión sea Fickiana, el proceso debe ser reversible y alcanzarse un valor de equilibrio de absorción. Nuestros resultados indican que esto no se cumple para largos tiempos de inmersión ya que la teoría predice que la masa absorbida tiende a un valor constante en el equilibrio, mientras que los datos experimentales muestran una tendencia de la absorción a crecer indefinidamente Para tiempos cortos inferiores a 50h, al tratarse de pocas horas de inmersión, el material no se degrada, por lo que el proceso puede describirse como Fickiano. Se calcularon los coeficientes de difusión aparentes y valor estable de cantidad de agua al que tiende la absorción cuando el comportamiento es Fickiano. Los resultados indican que la celulosa afecta considerablemente a la absorción, favoreciéndola cuanto mayor es el porcentaje de fibras. Asimismo, el peróxido no tiene un efecto reseñable en la absorción, porque aúna dos efectos contrarios: favorece el entrecruzamiento de la interfase matriz-refuerzo y degrada parcialmente el material, sobre todo las impurezas de polipropileno en el rHDPE. Finalmente, el envejecimiento muestra una tendencia a facilitar la absorción, pero es importante señalar que esta tendencia desaparece cuando se utiliza peróxido en la composición del ecocomposite, por lo que el peróxido puede aumentar la duración del material. Por último, la espectroscopía FTIR fue muy útil para conocer los tipos de agua que se encuentran en el interior del material, ya que el espectro infrarrojo del agua absorbida depende de cómo se encuentre unida al material. La espectroscopía FTIR ha permitido también observar la cinética de absorción de los diferentes tipos de agua por separado. La absorción del agua libre y el agua ligada se describe bien mediante un modelo Fickiano. La bondad del ajuste para un comportamiento Fickiano es alta. Así pues, los resultados obtenidos aportan información sobre la cinética y los mecanismos de absorción de agua y han mostrado que la absorción depende del contenido en celulosa y no empeora por la adición de peróxido. Por el contrario, el peróxido añadido parece reducir la absorción en materiales envejecidos, lo que puede contribuir a aumentar la duración de estos materiales y mejorar así la reciclabilidad de los residuos empleados.
Resumo:
La computación ubicua está extendiendo su aplicación desde entornos específicos hacia el uso cotidiano; el Internet de las cosas (IoT, en inglés) es el ejemplo más brillante de su aplicación y de la complejidad intrínseca que tiene, en comparación con el clásico desarrollo de aplicaciones. La principal característica que diferencia la computación ubicua de los otros tipos está en como se emplea la información de contexto. Las aplicaciones clásicas no usan en absoluto la información de contexto o usan sólo una pequeña parte de ella, integrándola de una forma ad hoc con una implementación específica para la aplicación. La motivación de este tratamiento particular se tiene que buscar en la dificultad de compartir el contexto con otras aplicaciones. En realidad lo que es información de contexto depende del tipo de aplicación: por poner un ejemplo, para un editor de imágenes, la imagen es la información y sus metadatos, tales como la hora de grabación o los ajustes de la cámara, son el contexto, mientras que para el sistema de ficheros la imagen junto con los ajustes de cámara son la información, y el contexto es representado por los metadatos externos al fichero como la fecha de modificación o la de último acceso. Esto significa que es difícil compartir la información de contexto, y la presencia de un middleware de comunicación que soporte el contexto de forma explícita simplifica el desarrollo de aplicaciones para computación ubicua. Al mismo tiempo el uso del contexto no tiene que ser obligatorio, porque si no se perdería la compatibilidad con las aplicaciones que no lo usan, convirtiendo así dicho middleware en un middleware de contexto. SilboPS, que es nuestra implementación de un sistema publicador/subscriptor basado en contenido e inspirado en SIENA [11, 9], resuelve dicho problema extendiendo el paradigma con dos elementos: el Contexto y la Función de Contexto. El contexto representa la información contextual propiamente dicha del mensaje por enviar o aquella requerida por el subscriptor para recibir notificaciones, mientras la función de contexto se evalúa usando el contexto del publicador y del subscriptor. Esto permite desacoplar la lógica de gestión del contexto de aquella de la función de contexto, incrementando de esta forma la flexibilidad de la comunicación entre varias aplicaciones. De hecho, al utilizar por defecto un contexto vacío, las aplicaciones clásicas y las que manejan el contexto pueden usar el mismo SilboPS, resolviendo de esta forma la incompatibilidad entre las dos categorías. En cualquier caso la posible incompatibilidad semántica sigue existiendo ya que depende de la interpretación que cada aplicación hace de los datos y no puede ser solucionada por una tercera parte agnóstica. El entorno IoT conlleva retos no sólo de contexto, sino también de escalabilidad. La cantidad de sensores, el volumen de datos que producen y la cantidad de aplicaciones que podrían estar interesadas en manipular esos datos está en continuo aumento. Hoy en día la respuesta a esa necesidad es la computación en la nube, pero requiere que las aplicaciones sean no sólo capaces de escalar, sino de hacerlo de forma elástica [22]. Desgraciadamente no hay ninguna primitiva de sistema distribuido de slicing que soporte un particionamiento del estado interno [33] junto con un cambio en caliente, además de que los sistemas cloud actuales como OpenStack u OpenNebula no ofrecen directamente una monitorización elástica. Esto implica que hay un problema bilateral: cómo puede una aplicación escalar de forma elástica y cómo monitorizar esa aplicación para saber cuándo escalarla horizontalmente. E-SilboPS es la versión elástica de SilboPS y se adapta perfectamente como solución para el problema de monitorización, gracias al paradigma publicador/subscriptor basado en contenido y, a diferencia de otras soluciones [5], permite escalar eficientemente, para cumplir con la carga de trabajo sin sobre-provisionar o sub-provisionar recursos. Además está basado en un algoritmo recientemente diseñado que muestra como añadir elasticidad a una aplicación con distintas restricciones sobre el estado: sin estado, estado aislado con coordinación externa y estado compartido con coordinación general. Su evaluación enseña como se pueden conseguir notables speedups, siendo el nivel de red el principal factor limitante: de hecho la eficiencia calculada (ver Figura 5.8) demuestra cómo se comporta cada configuración en comparación con las adyacentes. Esto permite conocer la tendencia actual de todo el sistema, para saber si la siguiente configuración compensará el coste que tiene con la ganancia que lleva en el throughput de notificaciones. Se tiene que prestar especial atención en la evaluación de los despliegues con igual coste, para ver cuál es la mejor solución en relación a una carga de trabajo dada. Como último análisis se ha estimado el overhead introducido por las distintas configuraciones a fin de identificar el principal factor limitante del throughput. Esto ayuda a determinar la parte secuencial y el overhead de base [26] en un despliegue óptimo en comparación con uno subóptimo. Efectivamente, según el tipo de carga de trabajo, la estimación puede ser tan baja como el 10 % para un óptimo local o tan alta como el 60 %: esto ocurre cuando se despliega una configuración sobredimensionada para la carga de trabajo. Esta estimación de la métrica de Karp-Flatt es importante para el sistema de gestión porque le permite conocer en que dirección (ampliar o reducir) es necesario cambiar el despliegue para mejorar sus prestaciones, en lugar que usar simplemente una política de ampliación. ABSTRACT The application of pervasive computing is extending from field-specific to everyday use. The Internet of Things (IoT) is the shiniest example of its application and of its intrinsic complexity compared with classical application development. The main characteristic that differentiates pervasive from other forms of computing lies in the use of contextual information. Some classical applications do not use any contextual information whatsoever. Others, on the other hand, use only part of the contextual information, which is integrated in an ad hoc fashion using an application-specific implementation. This information is handled in a one-off manner because of the difficulty of sharing context across applications. As a matter of fact, the application type determines what the contextual information is. For instance, for an imaging editor, the image is the information and its meta-data, like the time of the shot or camera settings, are the context, whereas, for a file-system application, the image, including its camera settings, is the information and the meta-data external to the file, like the modification date or the last accessed timestamps, constitute the context. This means that contextual information is hard to share. A communication middleware that supports context decidedly eases application development in pervasive computing. However, the use of context should not be mandatory; otherwise, the communication middleware would be reduced to a context middleware and no longer be compatible with non-context-aware applications. SilboPS, our implementation of content-based publish/subscribe inspired by SIENA [11, 9], solves this problem by adding two new elements to the paradigm: the context and the context function. Context represents the actual contextual information specific to the message to be sent or that needs to be notified to the subscriber, whereas the context function is evaluated using the publisher’s context and the subscriber’s context to decide whether the current message and context are useful for the subscriber. In this manner, context logic management is decoupled from context management, increasing the flexibility of communication and usage across different applications. Since the default context is empty, context-aware and classical applications can use the same SilboPS, resolving the syntactic mismatch that there is between the two categories. In any case, the possible semantic mismatch is still present because it depends on how each application interprets the data, and it cannot be resolved by an agnostic third party. The IoT environment introduces not only context but scaling challenges too. The number of sensors, the volume of the data that they produce and the number of applications that could be interested in harvesting such data are growing all the time. Today’s response to the above need is cloud computing. However, cloud computing applications need to be able to scale elastically [22]. Unfortunately there is no slicing, as distributed system primitives that support internal state partitioning [33] and hot swapping and current cloud systems like OpenStack or OpenNebula do not provide elastic monitoring out of the box. This means there is a two-sided problem: 1) how to scale an application elastically and 2) how to monitor the application and know when it should scale in or out. E-SilboPS is the elastic version of SilboPS. I t is the solution for the monitoring problem thanks to its content-based publish/subscribe nature and, unlike other solutions [5], it scales efficiently so as to meet workload demand without overprovisioning or underprovisioning. Additionally, it is based on a newly designed algorithm that shows how to add elasticity in an application with different state constraints: stateless, isolated stateful with external coordination and shared stateful with general coordination. Its evaluation shows that it is able to achieve remarkable speedups where the network layer is the main limiting factor: the calculated efficiency (see Figure 5.8) shows how each configuration performs with respect to adjacent configurations. This provides insight into the actual trending of the whole system in order to predict if the next configuration would offset its cost against the resulting gain in notification throughput. Particular attention has been paid to the evaluation of same-cost deployments in order to find out which one is the best for the given workload demand. Finally, the overhead introduced by the different configurations has been estimated to identify the primary limiting factor for throughput. This helps to determine the intrinsic sequential part and base overhead [26] of an optimal versus a suboptimal deployment. Depending on the type of workload, this can be as low as 10% in a local optimum or as high as 60% when an overprovisioned configuration is deployed for a given workload demand. This Karp-Flatt metric estimation is important for system management because it indicates the direction (scale in or out) in which the deployment has to be changed in order to improve its performance instead of simply using a scale-out policy.
Resumo:
Los mecanismos de crecimiento económico que permiten generar riqueza y prosperidad en las naciones, son a su vez factores determinantes para el deterioro posterior de sus economías, al venir estrechamente ligados a los retos que todo crecimiento lleva consigo. El estudio de aspectos tan diversos como las mayores necesidades de control, la ineficiencia en los procesos de toma de decisiones, o la mayor dimensión de las estructuras, entre otros, llevan a plantear que esa ganancia en complejidad derivada del crecimiento, tiene una contraprestación en términos de eficiencia, y por tanto de productividad de los recursos. El presente estudio intenta averiguar qué correlaciones existen entre dicha utilización de los recursos -entre ellos los energéticos- y los factores socioeconómicos más característicos de las Sociedades y Economías de nuestro tiempo. Las conclusiones obtenidas caracterizan los límites del crecimiento, identifican las reacciones de la economía ante los incrementos en complejidad, y ayudan a determinar las variables que colaboran en la generación de un entorno socioeconómico sostenible. ABSTRACT Mechanisms of economic growth that can generate wealth and prosperity in the nations are also crucial to the further deterioration of their economies, due to the challenges that all growth involves. The study of such diverse aspects as the control needs, the inefficiency in decision-making process, or the size of the productive structures, among others, lead to argue that the profit derived from the growth in complexity, has a counterpart in terms of efficiency and productivity of resources. This study tries to find out what correlations exist between such use of resources, and the main characteristics of the societies and economies of our time. The conclusions distinguish the limits of growth, identify the reactions of the economy to increases in complexity, and help to determine the variables that collaborate in generating a sustainable socioeconomic environment.
Resumo:
Los objetivos de esta tesis fueron 1) obtener y validar ecuaciones de predicción para determinar in vivo la composición corporal y de la canal de conejos en crecimiento de 25 a 77 días de vida utilizando la técnica de la Impedancia Bioeléctrica (BIA), y 2) evaluar su aplicación para determinar diferencias en la composición corporal y de la canal, así como la retención de nutrientes de animales alimentados con diferentes fuentes y niveles de grasa. El primer estudio se realizó para determinar y después validar, usando datos independientes, las ecuaciones de predicción obtenidas para determinar in vivo la composición corporal de los conejos en crecimiento. Se utilizaron 150 conejos a 5 edades distintas (25, 35, 49, 63 y 77 días de vida), con un rango de pesos entre 231 y 3138 g. Para determinar los valores de resistencia (Rs,) and reactancia (Xc,) se usó un terminal (Model BIA-101, RJL Systems, Detroit, MI USA) con cuatro electrodos. Igualmente se registró la distancia entre electrodos internos (D), la longitud corporal (L) y el peso vivo (PV) de cada animal. En cada edad, los animales fueron molidos y congelados (-20 ºC) para su posterior análisis químico (MS, grasa, proteína, cenizas y EB). El contenido en grasa y energía de los animales se incrementó, mientras que los contenidos en proteína, cenizas y agua de los animales disminuyeron con la edad. Los valores medios de Rs, Xc, impedancia (Z), L y D fueron 83.5 ± 23.1 , 18.2 ± 3.8 , 85.6 ± 22.9 , 30.6 ± 6.9 cm y 10.8 ± 3.1 cm. Se realizó un análisis de regresión lineal múltiple para determinar las ecuaciones de predicción, utilizando los valores de PV, L and Z como variables independientes. Las ecuaciones obtenidas para estimar los contenidos en agua (g), PB (g), grasa (g), cenizas (g) and EB (MJ) tuvieron un coeficiente de determinación de (R2) de 0.99, 0.99, 0.97, 0.98 y 0.99, y los errores medios de predicción relativos (EMPR) fueron: 2.79, 6.15, 24.3, 15.2 y 10.6%, respectivamente. Cuando el contenido en agua se expresó como porcentaje, los valores de R2 y EMPR fueron 0.85 and 2.30%, respectivamente. Al predecir los contenidos en proteína (%MS), grasa (%MS), cenizas (%MS) y energía (kJ/100 g MS), se obtuvieron valores de 0.79, 0.83, 0.71 y 0.86 para R2, y 5.04, 18.9, 12.0 y 3.19% para EMPR. La reactancia estuvo negativamente correlacionada con el contenido en agua, cenizas y PB (r = -0.32, P < 0.0001; r = -0.20, P < 0.05; r = -0.26, P < 0.01) y positivamente correlacionada con la grasa y la energía (r = 0.23 y r = 0.24; P < 0.01). Sin embargo, Rs estuvo positivamente correlacionada con el agua, las cenizas y la PB (r = 0.31, P < 0.001; r = 0.28, P < 0.001; r = 0.37, P < 0.0001) y negativamente con la grasa y la energía (r = -0.36 y r = -0.35; P < 0.0001). Igualmente la edad estuvo negativamente correlacionada con el contenido en agua, cenizas y proteína (r = -0.79; r = -0.68 y r = -0.80; P < 0.0001) y positivamente con la grasa y la energía (r = 0.78 y r = 0.81; P < 0.0001). Se puede concluir que el método BIA es una técnica buena y no invasiva para estimar in vivo la composición corporal de conejos en crecimiento de 25 a 77 días de vida. El objetivo del segundo estudio fue determinar y validar con datos independientes las ecuaciones de predicción obtenidas para estimar in vivo la composición de la canal eviscerada mediante el uso de BIA en un grupo de conejos de 25 a 77 días, así como testar su aplicación para predecir la retención de nutrientes y calcular las eficacias de retención de la energía y del nitrógeno. Se utilizaron 75 conejos agrupados en 5 edades (25, 35, 49, 63 y 77 días de vida) con unos pesos que variaron entre 196 y 3260 g. Para determinar los valores de resistencia (Rs, ) y reactancia (Xc, ) se usó un terminal (Model BIA-101, RJL Systems, Detroit, MI USA) con cuatro electrodos. Igualmente se registró la distancia entre electrodos internos (D), la longitud corporal (L) y el peso vivo (PV) del cada animal. En cada edad, los animales fueron aturdidos y desangrados. Su piel, vísceras y contenido digestivo fueron retirados, y la canal oreada fue pesada y molida para posteriores análisis (MS, grasa, PB, cenizas y EB). Los contenidos en energía y grasa aumentaron mientras que los de agua, cenizas y proteína disminuyeron con la edad. Los valores medios de Rs, Xc, impedancia (Z), L y D fueron 95.9±23.9 , 19.5±4.7 , 98.0±23.8 , 20.6±6.3 cm y 13.7±3.1 cm. Se realizó un análisis de regresión linear múltiple para determinar las ecuaciones de predicción, utilizando los valores de PV, L and Z como variables independientes. Los coeficientes de determinación (R2) de las ecuaciones obtenidas para estimar los contenidos en agua (g), PB (g), grasa (g), cenizas (g) and EB (MJ) fueron: 0.99, 0.99, 0.95, 0.96 y 0.98, mientras que los errores medios de predicción relativos (EMPR) fueron: 4.20, 5.48, 21.9, 9.10 y 6.77%, respectivamente. Cuando el contenido en agua se expresó como porcentaje, los valores de R2 y EMPR fueron 0.79 y 1.62%, respectivamente. Cuando se realizó la predicción de los contenidos en proteína (%MS), grasa (%MS), cenizas (%MS) y energía (kJ/100 g MS), los valores de R2 fueron 0.68, 0.76, 0.66 and 0.82, y los de RMPE: 3.22, 10.5, 5.82 and 2.54%, respectivamente. La reactancia estuvo directamente correlacionada con el contenido en grasa (r = 0.24, P < 0.05), mientras que la resistencia guardó una correlación positiva con los contenidos en agua, cenizas y proteína (r = 0.55, P < 0.001; r = 0.54, P < 0.001; r = 0.40, P < 0.005) y negativa con la grasa y la energía (r = -0.44 y r = -0.55; P < 0.001). Igualmente la edad estuvo negativamente correlacionada con los contenidos en agua, cenizas y PB (r = -0.94; r = -0.85 y r = -0.75; P < 0.0001) y positivamente con la grasa y la energía (r = 0.89 y r = 0.90; P < 0.0001). Se estudió la eficacia global de retención de la energía (ERE) y del nitrógeno (ERN) durante todo el periodo de cebo (35-63 d), Los valores de ERE fueron 20.4±7.29%, 21.0±4.18% and 20.8±2.79% en los periodos 35 a 49, 49 a 63 y 35 a 63 d, respectivamente. ERN fue 46.9±11.7%, 34.5±7.32% y 39.1±3.23% para los mismos periodos. La energía fue retenida en los tejidos para crecimiento con una eficiencia del 52.5% y la eficiencia de retención de la energía como proteína y grasa fue de 33.3 y 69.9% respectivamente. La eficiencia de utilización del nitrógeno para crecimiento fue cercana al 77%. Este trabajo muestra como el método BIA es técnica buena y no invasiva para determinar in vivo la composición de la canal y la retención de nutrientes en conejos en crecimiento de 25 a 77 días de vida. En el tercer estudio, se llevaron a cabo dos experimentos con el fin de investigar los efectos del nivel de inclusión y de la fuente de grasa, sobre los rendimientos productivos, la mortalidad, la retención de nutrientes y la composición corporal total y de la canal eviscerada de conejos en crecimiento de 34 a 63 d de vida. En el Exp. 1 se formularon 3 dietas con un diseño experimental factorial 3 x 2 con el tipo de grasa utilizada: Aceite de Soja (SBO), Lecitinas de Soja (SLO) y Manteca (L) y el nivel de inclusión (1.5 y 4%) como factores principales. El Exp. 2 también fue diseñado con una estructura factorial 3 x 2, pero usando SBO, Aceite de Pescado (FO) y Aceite de Palmiste como fuentes de grasa, incluidas a los mismos niveles que en el Exp. 1. En ambos experimentos 180 animales fueron alojados en jaulas individuales (n=30) y 600 en jaulas colectivas en grupos de 5 animales (n=20). Los animales alimentados con un 4% de grasa añadida tuvieron unos consumos diarios y unos índices de conversión más bajos que aquellos alimentados con las dietas con un 1.5% de grasa. En los animales alojados en colectivo del Exp. 1, el consumo fue un 4.8% más alto en los que consumieron las dietas que contenían manteca que en los animales alimentados con las dietas SBO (P = 0.036). La inclusión de manteca tendió a reducir la mortalidad (P = 0.067) en torno al 60% y al 25% con respecto a las dietas con SBO y SLO, respectivamente. La mortalidad aumentó con el nivel máximo de inclusión de SLO (14% vs. 1%, P < 0.01), sin observarse un efecto negativo sobre la mortalidad con el nivel más alto de inclusión de las demás fuentes de grasa utilizadas. En los animales alojados colectivo del Exp. 2 se encontró una disminución del consumo (11%), peso vivo a 63 d (4.8%) y de la ganancia diaria de peso (7.8%) con la inclusión de aceite de pescado con respecto a otras dietas (P < 0.01). Los dos últimos parámetros se vieron especialmente más reducidos cuando en las dietas se incluyó el nivel más alto de FO (5.6 y 9.5%, respectivamente, (P < 0.01)). Los animales alojados individualmente mostraron unos resultados productivos muy similares. La inclusión de aceite pescado tendió (P = 0.078) a aumentar la mortalidad (13.2%) con respecto al aceite de palmiste (6.45%), siendo intermedia para las dietas que contenían SBO (8.10%). La fuente o el nivel de grasa no afectaron la composición corporal total o de la canal eviscerada de los animales. Un incremento en el nivel de grasa dio lugar a una disminución de la ingesta de nitrógeno digestible (DNi) (1.83 vs. 1.92 g/d; P = 0.068 en Exp. 1 y 1.79 vs. 1.95 g/d; P = 0.014 en Exp. 2). Debido a que el nitrógeno retenido (NR) en la canal fue similar para ambos niveles (0.68 g/d (Exp. 1) y 0.71 g/d (Exp. 2)), la eficacia total de retención del nitrógeno (ERN) aumentó con el nivel máximo de inclusión de grasa, pero de forma significativa únicamente en el Exp. 1 (34.9 vs. 37.8%; P < 0.0001), mientras que en el Exp. 2 se encontró una tendencia (36.2 vs. 38.0% en Exp. 2; P < 0.064). Como consecuencia, la excreción de nitrógeno en heces fue menor en los animales alimentados con el nivel más alto de grasa (0.782 vs. 0.868 g/d; P = 0.0001 en Exp. 1, y 0.745 vs. 0.865 g/d; P < 0.0001 en Exp.2) al igual que el nitrógeno excretado en orina (0.702 vs. 0.822 g/d; P < 0.0001 en Exp. 1 y 0.694 vs. 0.7999 g/d; P = 0.014 en Exp.2). Aunque no hubo diferencias en la eficacia total de retención de la energía (ERE), la energía excretada en heces disminuyó al aumentar el nivel de inclusión de grasa (142 vs. 156 Kcal/d; P = 0.0004 en Exp. 1 y 144 vs. 154 g/d; P = 0.050 en Exp. 2). Sin embargo, la energía excretada como orina y en forma de calor fue mayor en el los animales del Exp. 1 alimentados con el nivel más alto de grasa (216 vs. 204 Kcal/d; P < 0.017). Se puede concluir que la manteca y el aceite de palmiste pueden ser considerados como fuentes alternativas al aceite de soja debido a la reducción de la mortalidad, sin efectos negativos sobre los rendimientos productivos o la retención de nutrientes. La inclusión de aceite de pescado empeoró los rendimientos productivos y la mortalidad durante el periodo de crecimiento. Un aumento en el nivel de grasa mejoró el índice de conversión y la eficacia total de retención de nitrógeno. ABSTRACT The aim of this Thesis is: 1) to obtain and validate prediction equations to determine in vivo whole body and carcass composition using the Bioelectrical Impedance (BIA) method in growing rabbits from 25 to 77 days of age, and 2) to study its application to determine differences on whole body and carcass chemical composition, and nutrient retention of animals fed different fat levels and sources. The first study was conducted to determine and later validate, by using independent data, the prediction equations obtained to assess in vivo the whole body composition of growing rabbits. One hundred and fifty rabbits grouped at 5 different ages (25, 35, 49, 63 and 77 days) and weighing from 231 to 3138 g were used. A four terminal body composition analyser was used to obtain resistance (Rs, ) and reactance (Xc, ) values (Model BIA-101, RJL Systems, Detroit, MI USA). The distance between internal electrodes (D, cm), body length (L, cm) and live BW of each animal were also registered. At each selected age, animals were slaughtered, ground and frozen (-20 ºC) for later chemical analyses (DM, fat, CP, ash and GE). Fat and energy body content increased with the age, while protein, ash, and water decreased. Mean values of Rs, Xc, impedance (Z), L and D were 83.5 ± 23.1 , 18.2 ± 3.8 , 85.6 ± 22.9 , 30.6 ± 6.9 cm and 10.8 ± 3.1 cm. A multiple linear regression analysis was used to determine the prediction equations, using BW, L and Z data as independent variables. Equations obtained to estimate water (g), CP (g), fat (g), ash (g) and GE (MJ) content had, respectively, coefficient of determination (R2) values of 0.99, 0.99, 0.97, 0.98 and 0.99, and the relative mean prediction error (RMPE) was: 2.79, 6.15, 24.3, 15.2 and 10.6%, respectively. When water was expressed as percentage, the R2 and RMPE were 0.85 and 2.30%, respectively. When prediction of the content of protein (%DM), fat (%DM), ash (%DM) and energy (kJ/100 g DM) was done, values of 0.79, 0.83, 0.71 and 0.86 for R2, and 5.04, 18.9, 12.0 and 3.19% for RMPE, respectively, were obtained. Reactance was negatively correlated with water, ash and CP content (r = -0.32, P < 0.0001; r = -0.20, P < 0.05; r = -0.26, P < 0.01) and positively correlated with fat and GE (r = 0.23 and r = 0.24; P < 0.01). Otherwise, resistance was positively correlated with water, ash and CP (r = 0.31, P < 0.001; r = 0.28, P < 0.001; r = 0.37, P < 0.0001) and negatively correlated with fat and energy (r = -0.36 and r = -0.35; P < 0.0001). Moreover, age was negatively correlated with water, ash and CP content (r = -0.79; r = -0.68 and r = -0.80; P < 0.0001) and positively correlated with fat and energy (r = 0.78 and r = 0.81; P < 0.0001). It could be concluded that BIA is a non-invasive good method to estimate in vivo whole body composition of growing rabbits from 25 to 77 days of age. The aim of the second study was to determine and validate with independent data, the prediction equations obtained to estimate in vivo carcass composition of growing rabbits by using the results of carcass chemical composition and BIA values in a group of rabbits from 25 to 77 days. Also its potential application to predict nutrient retention and overall energy and nitrogen retention efficiencies was analysed. Seventy five rabbits grouped at 5 different ages (25, 35, 49, 63 and 77 days) with weights ranging from 196 to 3260 g were used. A four terminal body composition analyser (Model BIA-101, RJL Systems, Detroit, MI USA) was used to obtain resistance (Rs, ) and reactance (Xc, ) values. The distance between internal electrodes (D, cm), body length (L, cm) and live weight (BW, g) were also registered. At each selected age, all the animals were stunned and bled. The skin, organs and digestive content were removed, and the chilled carcass were weighed and processed for chemical analyses (DM, fat, CP, ash and GE). Energy and fat increased with the age, while CP, ash, and water decreased. Mean values of Rs, Xc, impedance (Z), L and D were 95.9±23.9 , 19.5±4.7 , 98.0±23.8 , 20.6±6.3 cm y 13.7±3.1 cm. A multiple linear regression analysis was done to determine the equations, using BW, L and Z data as parameters. Coefficient of determination (R2) of the equations obtained to estimate water (g), CP (g), fat (g), ash (g) and GE (MJ) content were: 0.99, 0.99, 0.95, 0.96 and 0.98, and relative mean prediction error (RMPE) were: 4.20, 5.48, 21.9, 9.10 and 6.77%, respectively. When water content was expressed as percentage, the R2 and RMPE were 0.79 and 1.62%, respectively. When prediction of protein (%DM), fat (%DM), ash (%DM) and energy (kJ/100 g DM) content was done, R2 values were 0.68, 0.76, 0.66 and 0.82, and RMPE: 3.22, 10.5, 5.82 and 2.54%, respectively. Reactance was positively correlated with fat content (r = 0.24, P < 0.05) while resistance was positively correlated with water, ash and protein carcass content (r = 0.55, P < 0.001; r = 0.54, P < 0.001; r = 0.40, P < 0.005) and negatively correlated with fat and energy (r = -0.44 and r = -0.55; P < 0.001). Moreover, age was negatively correlated with water, ash and CP content (r = -0.97, r = -0.95 and r = -0.89, P < 0.0001) and positively correlated with fat and GE (r = 0.95 and r = 0.97; P < 0.0001). In the whole growing period (35-63 d), overall energy retention efficiency (ERE) and nitrogen retention efficiency (NRE) were studied. The ERE values were 20.4±7.29%, 21.0±4.18% and 20.8±2.79%, from 35 to 49, 49 to 63 and from 35 to 63 d, respectively. NRE was 46.9±11.7%, 34.5±7.32% and 39.1±3.23% for the same periods. Energy was retained in body tissues for growth with an efficiency of approximately 52.5% and efficiency of the energy for protein and fat retention was 33.3 and 69.9%, respectively. Efficiency of utilization of nitrogen for growth was near to 77%. This work shows that BIA it’s a non-invasive and good method to estimate in vivo carcass composition and nutrient retention of growing rabbits from 25 to 77 days of age. In the third study, two experiments were conducted to investigate the effect of the fat addition and source, on performance, mortality, nutrient retention, and the whole body and carcass chemical composition of growing rabbits from 34 to 63 d. In Exp. 1 three diets were arranged in a 3 x 2 factorial structure with the source of fat: Soybean oil (SBO), Soya Lecithin Oil (SLO) and Lard (L) and the dietary fat inclusion level (1.5 and 4%) as the main factors. Exp. 2 had also arranged as a 3 x 2 factorial design, but using SBO, Fish Oil (FO) and Palmkernel Oil (PKO) as fat sources, and included at the same levels than in Exp. 1. In both experiments 180 animals were allocated in individual cages (n=30) and 600 in collectives cages, in groups of 5 animals (n=20). Animals fed with 4% dietary fat level showed lower DFI and FCR than those fed diets with 1.5%. In collective housing of Exp. 1, DFI was a 4.8% higher in animals fed with diets containing lard than SBO (P = 0.036), being intermediate for diet with SLO. Inclusion of lard also tended to reduce mortality (P = 0.067) around 60% and 25% with respect SBO and SLO diets, respectively. Mortality increased with the greatest level of soya lecithin (14% vs. 1%, P < 0.01). In Exp. 2 a decrease of DFI (11%), BW at 63 d (4.8%) and DWG (7.8%) were observed with the inclusion of fish oil with respect the other two diets (P < 0.01). These last two traits impaired with the highest level of fish oil (5.6 and 9.5%, respectively, (P < 0.01)). Animals housed individually showed similar performance results. The inclusion of fish oil also tended to increase (P = 0.078) mortality (13.2%) with respect palmkernel oil (6.45%), being mortality of SBO intermediate (8.10%). Fat source and level did not affect the whole body or carcass chemical composition. An increase of the fat sources addition led to a decrease of the digestible nitrogen intake (DNi) (1.83 vs. 1.92 g/d; P = 0.068 in Exp. 1 and 1.79 vs. 1.95 g/d; P = 0.014 in Exp. 2). As the nitrogen retained (NR) in the carcass was similar for both fat levels (0.68 g/d (Exp. 1) and 0.71 g/d (Exp. 2)), the overall efficiency of N retention (NRE) increased with the highest level of fat, but only reached significant level in Exp. 1 (34.9 vs. 37.8%; P < 0.0001), while in Exp. 2 a tendency was found (36.2 vs. 38.0% in Exp. 2; P < 0.064). Consequently, nitrogen excretion in faeces was lower in animals fed with the highest level of fat (0.782 vs. 0.868 g/d; P = 0.0001 in Exp. 1, and 0.745 vs. 0.865 g/d; P < 0.0001 in Exp.2). The same effect was observed with the nitrogen excreted as urine (0.702 vs. 0.822 g/d; P < 0.0001 in Exp. 1 and 0.694 vs. 0.7999 g/d; P = 0.014 in Exp.2). Although there were not differences in ERE, the energy excreted in faeces decreased as fat level increased (142 vs. 156 Kcal/d; P = 0.0004 in Exp. 1 and 144 vs. 154 g/d; P = 0.050 in Exp. 2). In Exp. 1 the energy excreted as urine and heat production was significantly higher when animals were fed with the highest level of dietary fat (216 vs. 204 Kcal/d; P < 0.017). It can be concluded that lard and palmkernel oil can be considered as alternative sources to soybean oil due to the reduction of the mortality, without negative effects on performances or nutrient retention. Inclusion of fish impaired animals´ productivity and mortality. An increase of the dietary fat level improved FCR and overall protein efficiency retention.
Resumo:
En la última década la potencia instalada de energía solar fotovoltaica ha crecido una media de un 49% anual y se espera que alcance el 16%del consumo energético mundial en el año 2050. La mayor parte de estas instalaciones se corresponden con sistemas conectados a la red eléctrica y un amplio porcentaje de ellas son instalaciones domésticas o en edificios. En el mercado ya existen diferentes arquitecturas para este tipo de instalaciones, entre las que se encuentras los módulos AC. Un módulo AC consiste en un inversor, también conocido como micro-inversor, que se monta en la parte trasera de un panel o módulo fotovoltaico. Esta tecnología ofrece modularidad, redundancia y la extracción de la máxima potencia de cada panel solar de la instalación. Además, la expansión de esta tecnología posibilitará una reducción de costes asociados a las economías de escala y a la posibilidad de que el propio usuario pueda componer su propio sistema. Sin embargo, el micro-inversor debe ser capaz de proporcionar una ganancia de tensión adecuada para conectar el panel solar directamente a la red, mientras mantiene un rendimiento aceptable en un amplio rango de potencias. Asimismo, los estándares de conexión a red deber ser satisfechos y el tamaño y el tiempo de vida del micro-inversor son factores que han de tenerse siempre en cuenta. En esta tesis se propone un micro-inversor derivado de la topología “forward” controlado en el límite entre los modos de conducción continuo y discontinuo (BCM por sus siglas en inglés). El transformador de la topología propuesta mantiene la misma estructura que en el convertidor “forward” clásico y la utilización de interruptores bidireccionales en el secundario permite la conexión directa del inversor a la red. Asimismo el método de control elegido permite obtener factor de potencia cercano a la unidad con una implementación sencilla. En la tesis se presenta el principio de funcionamiento y los principales aspectos del diseño del micro-inversor propuesto. Con la idea de mantener una solución sencilla y de bajo coste, se ha seleccionado un controlador analógico que está originalmente pensado para controlar un corrector del factor de potencia en el mismo modo de conducción que el micro-inversor “forward”. La tesis presenta las principales modificaciones necesarias, con especial atención a la detección del cruce por cero de la corriente (ZCD por sus siglas en inglés) y la compatibilidad del controlador con la inclusión de un algoritmo de búsqueda del punto de máxima potencia (MPPT por sus siglas en inglés). Los resultados experimentales muestran las limitaciones de la implementación elegida e identifican al transformador como el principal contribuyente a las pérdidas del micro-inversor. El principal objetivo de esta tesis es contribuir a la aplicación de técnicas de control y diseño de sistemas multifase en micro-inversores fotovoltaicos. En esta tesis se van a considerar dos configuraciones multifase diferentes aplicadas al micro-inversor “forward” propuesto. La primera consiste en una variación con conexión paralelo-serie que permite la utilización de transformadores con una relación de vueltas baja, y por tanto bien acoplados, para conseguir una ganancia de tensión adecuada con un mejor rendimiento. Esta configuración emplea el mismo control BCM cuando la potencia extraída del panel solar es máxima. Este método de control implica que la frecuencia de conmutación se incrementa considerablemente cuando la potencia decrece, lo que compromete el rendimiento. Por lo tanto y con la intención de mantener unos bueno niveles de rendimiento ponderado, el micro-inversor funciona en modo de conducción discontinuo (DCM, por sus siglas en inglés) cuando la potencia extraía del panel solar es menor que la máxima. La segunda configuración multifase considerada en esta tesis es la aplicación de la técnica de paralelo con entrelazado. Además se han considerado dos técnicas diferentes para decidir el número de fases activas: dependiendo de la potencia continua extraída del panel solar y dependiendo de la potencia instantánea demandada por el micro-inversor. La aplicación de estas técnicas es interesante en los sistemas fotovoltaicos conectados a la red eléctrica por la posibilidad que brindan de obtener un rendimiento prácticamente plano en un amplio rango de potencia. Las configuraciones con entrelazado se controlan en DCM para evitar la necesidad de un control de corriente, lo que es importante cuando el número de fases es alto. Los núcleos adecuados para todas las configuraciones multifase consideradas se seleccionan usando el producto de áreas. Una vez seleccionados los núcleos se ha realizado un diseño detallado de cada uno de los transformadores. Con la información obtenida de los diseños y los resultados de simulación, se puede analizar el impacto que el número de transformadores utilizados tiene en el tamaño y el rendimiento de las distintas configuraciones. Los resultados de este análisis, presentado en esta tesis, se utilizan posteriormente para comparar las distintas configuraciones. Muchas otras topologías se han presentado en la literatura para abordar los diferentes aspectos a considerar en los micro-inversores, que han sido presentados anteriormente. La mayoría de estas topologías utilizan un transformador de alta frecuencia para solventar el salto de tensión y evitar problemas de seguridad y de puesta a tierra. En cualquier caso, es interesante evaluar si topologías sin aislamiento galvánico son aptas para su utilización como micro-inversores. En esta tesis se presenta una revisión de inversores con capacidad de elevar tensión, que se comparan bajo las mismas especificaciones. El objetivo es proporcionar la información necesaria para valorar si estas topologías son aplicables en los módulos AC. Las principales contribuciones de esta tesis son: • La aplicación del control BCM a un convertidor “forward” para obtener un micro-inversor de una etapa sencillo y de bajo coste. • La modificación de dicho micro-inversor con conexión paralelo-series de transformadores que permite reducir la corriente de los semiconductores y una ganancia de tensión adecuada con transformadores altamente acoplados. • La aplicación de técnicas de entrelazado y decisión de apagado de fases en la puesta en paralelo del micro-inversor “forward”. • El análisis y la comparación del efecto en el tamaño y el rendimiento del incremento del número de transformadores en las diferentes configuraciones multifase. • La eliminación de las medidas y los lazos de control de corriente en las topologías multifase con la utilización del modo de conducción discontinuo y un algoritmo MPPT sin necesidad de medida de corriente. • La recopilación y comparación bajo las mismas especificaciones de topologías inversoras con capacidad de elevar tensión, que pueden ser adecuadas para la utilización como micro-inversores. Esta tesis está estructurada en seis capítulos. El capítulo 1 presenta el marco en que se desarrolla la tesis así como el alcance de la misma. En el capítulo 2 se recopilan las topologías existentes de micro-invesores con aislamiento y aquellas sin aislamiento cuya implementación en un módulo AC es factible. Asimismo se presenta la comparación entre estas topologías bajo las mismas especificaciones. El capítulo 3 se centra en el micro-inversor “forward” que se propone originalmente en esta tesis. La aplicación de las técnicas multifase se aborda en los capítulos 4 y 5, en los que se presentan los análisis en función del número de transformadores. El capítulo está orientado a la propuesta paralelo-serie mientras que la configuración con entrelazado se analiza en el capítulo 5. Por último, en el capítulo 6 se presentan las contribuciones de esta tesis y los trabajos futuros. ABSTRACT In the last decade the photovoltaic (PV) installed power increased with an average growth of 49% per year and it is expected to cover the 16% of the global electricity consumption by 2050. Most of the installed PV power corresponds to grid-connected systems, with a significant percentage of residential installations. In these PV systems, the inverter is essential since it is the responsible of transferring into the grid the extracted power from the PV modules. Several architectures have been proposed for grid-connected residential PV systems, including the AC-module technology. An AC-module consists of an inverter, also known as micro-inverter, which is attached to a PV module. The AC-module technology offers modularity, redundancy and individual MPPT of each module. In addition, the expansion of this technology will enable the possibility of economies of scale of mass market and “plug and play” for the user, thus reducing the overall cost of the installation. However, the micro-inverter must be able to provide the required voltage boost to interface a low voltage PV module to the grid while keeping an acceptable efficiency in a wide power range. Furthermore, the quality standards must be satisfied and size and lifetime of the solutions must be always considered. In this thesis a single-stage forward micro-inverter with boundary mode operation is proposed to address the micro-inverter requirements. The transformer in the proposed topology remains as in the classic forward converter and bidirectional switches in the secondary side allows direct connection to the grid. In addition the selected control strategy allows high power factor current with a simple implementation. The operation of the topology is presented and the main design issues are introduced. With the intention to propose a simple and low-cost solution, an analog controller for a PFC operated in boundary mode is utilized. The main necessary modifications are discussed, with the focus on the zero current detection (ZCD) and the compatibility of the controller with a MPPT algorithm. The experimental results show the limitations of the selected analog controller implementation and the transformer is identified as a main losses contributor. The main objective of this thesis is to contribute in the application of control and design multiphase techniques to the PV micro-inverters. Two different multiphase configurations have been applied to the forward micro-inverter proposed in this thesis. The first one consists of a parallel-series connected variation which enables the use of low turns ratio, i.e. well coupled, transformers to achieve a proper voltage boost with an improved performance. This multiphase configuration implements BCM control at maximum load however. With this control method the switching frequency increases significantly for light load operation, thus jeopardizing the efficiency. Therefore, in order to keep acceptable weighted efficiency levels, DCM operation is selected for low power conditions. The second multiphase variation considered in this thesis is the interleaved configuration with two different phase shedding techniques: depending on the DC power extracted from the PV panel, and depending on the demanded instantaneous power. The application of interleaving techniques is interesting in PV grid-connected inverters for the possibility of flat efficiency behavior in a wide power range. The interleaved variations of the proposed forward micro-inverter are operated in DCM to avoid the current loop, which is important when the number of phases is large. The adequate transformer cores for all the multiphase configurations are selected according to the area product parameter and a detailed design of each required transformer is developed. With this information and simulation results, the impact in size and efficiency of the number of transformer used can be assessed. The considered multiphase topologies are compared in this thesis according to the results of the introduced analysis. Several other topological solutions have been proposed to solve the mentioned concerns in AC-module application. The most of these solutions use a high frequency transformer to boost the voltage and avoid grounding and safety issues. However, it is of interest to assess if the non-isolated topologies are suitable for AC-module application. In this thesis a review of transformerless step-up inverters is presented. The compiled topologies are compared using a set benchmark to provide the necessary information to assess whether non-isolated topologies are suitable for AC-module application. The main contributions of this thesis are: • The application of the boundary mode control with constant off-time to a forward converter, to obtain a simple and low-cost single-stage forward micro-inverter. • A modification of the forward micro-inverter with primary-parallel secondary-series connected transformers to reduce the current stress and improve the voltage gain with highly coupled transformers. •The application of the interleaved configuration with different phase shedding strategies to the proposed forward micro-inverter. • An analysis and comparison of the influence in size and efficiency of increasing the number of transformers in the parallel-series and interleaved multiphase configurations. • Elimination of the current loop and current measurements in the multiphase topologies by adopting DCM operation and a current sensorless MPPT. • A compilation and comparison with the same specifications of suitable non-isolated step-up inverters. This thesis is organized in six chapters. In Chapter 1 the background of single-phase PV-connected systems is discussed and the scope of the thesis is defined. Chapter 2 compiles the existing solutions for isolated micro-inverters and transformerless step-up inverters suitable for AC-module application. In addition, the most convenient non-isolated inverters are compared using a defined benchmark. Chapter 3 focuses on the originally proposed single-stage forward micro-inverter. The application of multiphase techniques is addressed in Chapter 4 and Chapter 5, and the impact in different parameters of increasing the number of phases is analyzed. In Chapter 4 an original primary-parallel secondary-series variation of the forward micro-inverter is presented, while Chapter 5 focuses on the application of the interleaved configuration. Finally, Chapter 6 discusses the contributions of the thesis and the future work.
Resumo:
Hasta hace poco tiempo, la escalada estaba muy vinculada al montañismo y no se concebía la posibilidad de desarrollar métodos y formas de entrenamiento más allá de la propia actividad. Es la aparición de la escalada deportiva lo que permite una visión más relacionada con el deporte, visión que se afianza con la aparición de las competiciones a finales de los años ochenta. A partir de entonces se puede hablar de entrenamiento para escalada. Este entrenamiento se basa en el desarrollo de las capacidades físicas a nivel específico para la mejora del rendimiento. Un escalador debe entrenar en gran porcentaje la fuerza, la resistencia y la flexibilidad sobre el rocódromo para que la ganancia en estas capacidades sea de la forma más específica posible y transferible al gesto competitivo. Otras formas de entrenar, como el aeróbico general o la musculación se ven como trabajo complementario. Según el tipo de escalada deberán desarrollarse distintos tipos de fuerza y de resistencia, aunque todos los tipos deben trabajarse en el proceso de entrenamiento. En la competición de dificultad, las vías energéticas predominantes son las anaeróbica láctica (tolerancia al lactato) y la aeróbica (potencia). El proceso de entrenamiento debe tender al desarrollo de estas, como al desarrollo de la fuerza específica.
Resumo:
En esta tesis se estudia cómo lograr el equilibrio entre dos fenómenos naturales que afectan a los huecos de fachadas: la iluminación natural y la ganancia solar. Es decir, el cómo, conseguir la optimización de la iluminación natural que se introduce a través de las ventanas existentes, sin realizar una laboriosa intervención de sustitución de las mismas y el cómo, conseguir la protección de la radiación solar directa de la zona acristalada, para evitar tanto las ganancias térmicas innecesarias como el deslumbramiento que afecta a la calidad lumínica de los recintos. Para el desarrollo esta investigación se ha propuesto una metodología de estudio dividida en dos fases: La primera, de Análisis y Diagnóstico, en la que se han de definir los estándares a cumplir y las variables con las que se evaluarán las bandejas. Y, la segunda, de Evaluación y Comprobación en la que se han de establecer los criterios de valoración y ponderación de cada variable. En la primera fase, se definirán las variables físico-ambientales, para lo que se seleccionarán algunas ciudades a estudiar, a las cuales se les estudiará las necesidades de confort térmico, se determinarán las dimensiones que deben tener las protecciones solares en esas ciudades, además se determinarán las actuaciones a realizar en los huecos de fachada según sea su posición en el plano vertical de la misma. Así mismo, se plantea hacer un análisis de casos reales, para lo que se caracterizarán desde el punto de vista lumínico algunas viviendas, realizando medidas “in situ” y comparando resultados con los que se obtienen de los programas de simulación, para seleccionar las viviendas en las que la realidad y la simulación se aproximen más, una de estas viviendas servirá de modelo en las simulaciones que se realizará en la segunda fase. También, en esta primera fase, mediante un modelo neutro, se estudiará el comportamiento térmico y lumínico del tamaño del hueco en el que se insertará la bandeja posteriormente, para luego estudiar la posición de la bandeja en el plano vertical de la ventana, desde el punto de vista ergonómico. Y finalmente se estudiará, el comportamiento térmico y lumínico del modelo con la bandeja ubicada a 40, 50 y 60cm del techo. En la segunda fase, se establecerá la valoración y ponderación de las variables con las que seleccionar la bandeja que mejor equilibre los aspectos térmicos y lumínicos, teniendo en cuenta estrategias pasivas de acondicionamiento ambiental, como favorecer las ganancias solares en invierno en horas diurnas y evitar las pérdidas de calor en horas nocturnas; y en verano implementar sistemas de sombreamiento en la zona acristalada para evitar las ganancias de calor; y, tanto en verano como en invierno, aprovechar la iluminación natural, para favorecer la iluminancia útil y evitar el deslumbramiento. Una vez definidos los criterios de valoración y ponderación se aplicará a la evaluación térmica y lumínica del modelo neutro con la bandeja, consiguiendo seleccionar la bandeja con mejor comportamiento. Posteriormente se comprobará la metodología de estudio desarrollada en el modelo seleccionado, se evaluará el comportamiento térmico y lumínico, con la incorporación de algunas alternativas de bandeja. Con esta investigación se quiere demostrar que mediante la aplicación de esta metodología de estudio, es posible evaluar y seleccionar bandejas que respondan a las necesidades requeridas en distintos casos de estudio, por lo que se considera que, la bandeja puede ser un elemento arquitectónico aplicable tanto en rehabilitación como en nueva construcción, de espacios en los que sea necesario mejorar sus condiciones lumínicas y térmicas simultáneamente. ABSTRACT This thesis studies how to balance two natural events that affect the window opening of facades: daylighting and solar gain. That is to say, how to achieve optimization of natural light that gets in through the existing windows, without making a laborious intervention of replacing them and how to get protection from direct solar radiation from the glass area, to avoid unnecessary heat gain and glare affecting the light quality of the enclosures. To develop this research, it has been proposed a methodology of study divided into two phases: First phase, Analysis and Diagnostics, in which the variables with which the light shelf are evaluated will be defined along with the standards the light shelves will meet. The second phase, Assessment and Verification, in which the assessment criteria and weighting of each variable will be established. In the first phase, the physical and environmental variables shall be defined, various cities will be selected to be studied, and in each the needs of thermal comfort will be determined along with the dimensions of shading devices in the cities. In addition the actions to be taken in the window opening of the façade will be determined, depending on their position in the vertical plane. An analysis of real cases will be undertaken, which will be characterized from the luminous point of view, performing "in situ" measurements and comparing results with those obtained from simulation programs, to select places/dwellings where reality and simulation are closer, one of these places/dwellings will be a model, in the simulations to perform at the second phase. Also, in this first phase, by a neutral model, the thermal and light behavior of the size of the window opening will be studied, in which the light shelf is inserted later, the position of the light shelf in the vertical plane of the window is studied, from an ergonomic point of view. And finally to study the thermal and light behavior of the model with the light shelf located at 40, 50 and 60cm from the ceiling. In the second phase, the evaluation and weighting of the variables will be established selecting the light shelf that best balances the thermal and daylighting aspects, taking into account passive environmental conditioning strategies; such as getting solar gains in winter during daylight hours, and preventing heat loss during the night hours; and in summer implementing shading systems in the glazing area to avoid heat gains. And in both summer and winter, taking advantage of natural lighting, to improve useful illuminance and avoid glare. Once defined, the evaluation criteria and weighting will be applied to thermal and daylighting evaluation to the neutral model with the light shelf, the best performing light shelf will be selected. The study methodology developed in the selected model will be verified the thermal and daylighting performance with the addition of some light shelf alternative will also be studied. With this research, we want to show that by applying this study methodology it is possible to evaluate and select the light shelf that meets the needs required in different case studies, so it is considered that the light shelf may be an applicable architectural element in both refurbishment and new construction of spaces where necessary to improve their daylighting and thermal conditions simultaneously.
Resumo:
El trabajo pretende mostrar la planificación, programación y periodización de un programa de entrenamiento para el desarrollo de la hipertrofia muscular en un jugador de baloncesto en postemporada. El objeto para el desarrollo de esta propuesta teórica es un jugador con un perfil joven, cuya experiencia en la liga ACB de baloncesto es de aproximadamente un año. El objetivo para este jugador es la ganancia de masa muscular durante la postemporada, es decir, durante el periodo comprendido entre el final de una temporada y el comienzo de la pretemporada de la temporada siguiente.
Resumo:
Nowadays, a lot of applications use digital images. For example in face recognition to detect and tag persons in photograph, for security control, and a lot of applications that can be found in smart cities, as speed control in roads or highways and cameras in traffic lights to detect drivers ignoring red light. Also in medicine digital images are used, such as x-ray, scanners, etc. These applications depend on the quality of the image obtained. A good camera is expensive, and the image obtained depends also on external factor as light. To make these applications work properly, image enhancement is as important as, for example, a good face detection algorithm. Image enhancement also can be used in normal photograph, for pictures done in bad light conditions, or just to improve the contrast of an image. There are some applications for smartphones that allow users apply filters or change the bright, colour or contrast on the pictures. This project compares four different techniques to use in image enhancement. After applying one of these techniques to an image, it will use better the whole available dynamic range. Some of the algorithms are designed for grey scale images and others for colour images. It is used Matlab software to develop and present the final results. These algorithms are Successive Means Quantization Transform (SMQT), Histogram Equalization, using Matlab function and own implemented function, and V transform. Finally, as conclusions, we can prove that Histogram equalization algorithm is the simplest of all, it has a wide variability of grey levels and it is not suitable for colour images. V transform algorithm is a good option for colour images. The algorithm is linear and requires low computational power. SMQT algorithm is non-linear, insensitive to gain and bias and it can extract structure of the data. RESUMEN. Hoy en día incontable número de aplicaciones usan imágenes digitales. Por ejemplo, para el control de la seguridad se usa el reconocimiento de rostros para detectar y etiquetar personas en fotografías o vídeos, para distintos usos de las ciudades inteligentes, como control de velocidad en carreteras o autopistas, cámaras en los semáforos para detectar a conductores haciendo caso omiso de un semáforo en rojo, etc. También en la medicina se utilizan imágenes digitales, como por ejemplo, rayos X, escáneres, etc. Todas estas aplicaciones dependen de la calidad de la imagen obtenida. Una buena cámara es cara, y la imagen obtenida depende también de factores externos como la luz. Para hacer que estas aplicaciones funciones correctamente, el tratamiento de imagen es tan importante como, por ejemplo, un buen algoritmo de detección de rostros. La mejora de la imagen también se puede utilizar en la fotografía no profesional o de consumo, para las fotos realizadas en malas condiciones de luz, o simplemente para mejorar el contraste de una imagen. Existen aplicaciones para teléfonos móviles que permiten a los usuarios aplicar filtros y cambiar el brillo, el color o el contraste en las imágenes. Este proyecto compara cuatro técnicas diferentes para utilizar el tratamiento de imagen. Se utiliza la herramienta de software matemático Matlab para desarrollar y presentar los resultados finales. Estos algoritmos son Successive Means Quantization Transform (SMQT), Ecualización del histograma, usando la propia función de Matlab y una nueva función que se desarrolla en este proyecto y, por último, una función de transformada V. Finalmente, como conclusión, podemos comprobar que el algoritmo de Ecualización del histograma es el más simple de todos, tiene una amplia variabilidad de niveles de gris y no es adecuado para imágenes en color. El algoritmo de transformada V es una buena opción para imágenes en color, es lineal y requiere baja potencia de cálculo. El algoritmo SMQT no es lineal, insensible a la ganancia y polarización y, gracias a él, se puede extraer la estructura de los datos.
Resumo:
Es un tópico generalizado afirmar que asistimos a una crisis del mundo de la lectura y que el libro está en clara decadencia frente a otros objetos culturales dentro del ámbito juvenil. No obstante, los estudios empíricos (mayormente cuantitativos) no lo corroboran así, y los jóvenes siguen leyendo más que los adultos. La lectura sigue inscrita en los códigos educativos actuales como una fuente de legitimación y de ganancia de capital cultural imprescindible. Más bien a lo que se asiste es a una dislocación del orden cultural derivado, entre otras cosas, de la irrupción de las nuevas tecnologías y ofertas mediáticas. El lector joven está habituado a la hipertextualidad y a la lectura en pantalla, acumulando prácticas de lectura nuevas y singulares. Las tecnologías han roto el “orden de la lectura”, el canon clásico de consumo de libros, que acaba compitiendo con otras prácticas mediáticas y produciendo lectores de contornos múltiples y caóticos. Una especie de zapping cultural ha deformado la lectura como método de culturización y ocio desinteresado alimentando posturas apocalípticas que alertan de lo patológico del fenómeno. Es en ese momento de fragmentación y complejidad de las prácticas de lectura tradicionales en el que nos situamos.
Resumo:
Los dispositivos opto-electrónicos, tales como las células solares, las pantallas planas y los diodos LED (del inglés light emitting diodes), necesitan contactos eléctricos en la cara frontal por la que entra o sale la luz del dispositivo. Estos contactos causan pérdidas por reflexión y absorción de luz (sombra) y por resistencia eléctrica. En una primera aproximación estas pérdidas son contrapuestas, lo que mejora la sombra empeora la resistencia y viceversa. Hasta ahora esto se ha entendido como un compromiso inevitable que limita la eficiencia de conversión energética de los dispositivos opto-electrónicos: disminuir las pérdidas por resistencia eléctrica implica necesariamente aumentar las pérdidas ópticas por sombra. Esta tesis se ha encaminado a tratar de superar esta dificultad a través de la nanoestructuración de la malla de contacto frontal, con especial énfasis en el caso de las células solares de concentración. El objetivo es poder reducir simultáneamente las pérdidas por sombreado y resistencia en serie de la malla. Hemos encontrado, en base a experimentos, teoría y simulaciones, que para tamaños de linea pequeños, en el umbral del régimen de Rayleigh, pero no lo suficientemente pequeños como para que se den las resonancias plasmónicas más intensas (de tipo dipolar), los contactos hacen menos sombra de la que corresponde a su área geométrica. Se puede decir que los contactos se vuelven parcialmente invisibles. En una primera parte de introducción se ha presentado la influencia de la malla en las pérdidas por resistencia en serie producidas en la célula. Se ha analizado el peso de las distintas variables y se ha escogido la reducción del espaciado entre líneas como alternativa a desarrollar. Para no afectar a otras variables, se ha reducido acordemente la anchura de línea manteniendo el factor de sombra geométrico de las células estado del arte. Se ha calculado que para un caso ideal la ganancia puede ser de un 4% absoluto para mallas con líneas de anchura 400-600 nm distribuidas en periodos de 10-20 μm. Se ha visto como otros efectos eléctricos apuntan también a ese rango como óptimo...
Resumo:
Fundamento: El concepto de transición sanitaria trata de explicar, desde un enfoque plural, los cambios en las condiciones de salud que contribuyeron al descenso de la mortalidad que acompaño a la transición demográfica. El objetivo de este trabajo es analizar la transición sanitaria en España a lo largo del presente siglo ( 1900- 1990). Método: El estudio de los distinto componentes de la transición sanitaria (transición epidemiológica, transición de riesgos y transición de la atención sanitaria) se ha basado en las series históricas disponibles procedentes de los Movimientos Naturales de la Población, Anuarios Estadísticas y Censos de viviendas. Resultados: La evolución de las tasas de mortalidad general y mortalidad infantil refleja una tendencia descendente que se manifiesta a lo largo de todo el periodo: la mortalidad general se ha reducido un 70%. mientras que la infantil lo ha hecho en un 96%. Respecto a la esperanza de vida al nacer, la ganancia ha sido de 43 años entre 1900 (35 años) y 1990 (77 años), lo que en términos relativos supone un aumento del 130%. Conclusiones: El nuevo perfil epidemiológico que fue emergiendo durante el período considerado, aparece relacionado con mejoras en las infraestructuras sanitarias, con el aumento del gasto y de las prestaciones sanitarias. pero también con la aparición de nuevos problemas de salud relacionados con las condiciones de trabajo, el crecimiento masivo del medio urbano (a partir, sobre todo, de la década de los 60) o las modificaciones en los patrones de vida.
Resumo:
Objetivo: Conocer los resultados en términos de ganancia funcional de la aplicación de un sistema de registro electrónico basado en el índice de Barthel y la prevención de efectos adversos como método de prescripción y ejecución de cuidados estandarizados, utilizado por estudiantes de enfermería bajo la tutela de enfermeras clínicas acreditadas durante las prácticas clínicas tuteladas en la Universitat Jaume I. Material y métodos: Estudio descriptivo, prospectivo, longitudinal, multicéntrico. Se incluyen los registros electrónicos con estancia entre 5 y 9 días relacionados con las 6 camas que los estudiantes tienen asignadas en las unidades de medicina interna, cirugía y traumatología de 5 hospitales públicos y privados de la provincia de Castellón. Se estudian variables sociodemográficas y clínicas, riesgo de efectos adversos al ingreso, evolución de la capacidad funcional y ganancia funcional al alta. Se analiza la dependencia de las variables con la ganancia funcional y las diferencias entre grupos (p<0,05). Resultados: Con una muestra de 141 registros, la edad media es de 70,96 (s=15,64), sin diferencias significativas según sexos (p<0,05). El 68% (n=71) son procesos médicos con estancia media de 6,62 días (s=1,34) y complejidad media de 4,2 (s=2,6). La muestra presenta riesgo moderado-elevado de úlceras por presión (30%), caídas (68%) y desnutrición (52%). Los planes de cuidados estandarizados supone una ganancia funcional media de 7,06 puntos (s=20,09), sin diferencias significativas entre grupos (p<0,05). Discusión: La formación del estudiantado con metodología que implica toma de decisiones en la planificación de cuidados puede aportar mejoras en la calidad asistencial.
Resumo:
IDENTIFICACIÓN ZEB1 (Zinc Finger E-box Binding Homeobox) es un factor de transcripción funcionalmente asociado con la diferenciación de células como miocitos, neuronas, células de sostén y linfocitos T, además de estar involucrado en la Transición Epitelial-Mesenquimatosa (EMT) de los tumores sólidos epiteliales. Aún no se ha revelado en profundidad la participación de ZEB1 en los procesos de proliferación y diferenciación en los que participa. Estamos interesados en los mecanismos de regulación de ZEB1 y los factores que intervienen en los procesos de diferenciación y transformación celular. HIPÓTESIS 1. Las vías de señalamiento regulan el estado de fosforilación y la función de ZEB1 en la célula normal, el cual se desregularía en la célula neoplásica llevando a cambios en la función normal de ZEB1 y consecuentemente a metástasis. 2. IGF-1 es la señal que, en asociación con el supresor de tumores CCN6, juega un rol causal en la regulación de ZEB1 y esto a su vez en la metástasis del cáncer de mama. OBJETIVO GENERAL: establecer el rol funcional de ZEB1, su interrelación con otros factores y su regulación en los procesos de diferenciación y transformación celular. OBJETIVOS ESPECIFICOS (incluye Materiales y Métodos) 1. Estudiar la participación de vías de señalización sobre la función biológica de ZEB1 en células normales y neoplásicas. Analizaremos la participación de señales intracelulares en la fosforilación de ZEB1 por experimentos de ganancia/pérdida de función de la vía (por uso de inhibidores farmacologicos, mutantes silenciadoras y siRNAs), lo cual sera evaluado en EMSAs, ChIP, transfecciones, inmunofluoresc, etc. 2. Estudiar el rol de IGF-1 y CCN6 sobre la expresión y el estado de fosforilación de ZEB1 en tumores mamarios benignos, no invasivos e invasivos y metastatizantes. A) Se estudiará la expresión y localización subcelular de ZEB1 en líneas celulares de cáncer mamario y en xenotransplantes de ratón con variada expresión de CCN6. B) Investigar la relevancia de la fosforilación de ZEB1 mediada por IGF-1 en el EMT por experimentos con ganancia/pérdida de función. RESULTADOS ESPERADOS Esperamos poder delinear la/s vía/s de señalización intracelular que fosforilan ZEB1 y así conocer sobre la regulación del mismo. Podremos establecer algunas bases para entender la biología básica del cáncer de mama e identificar blancos terapéuticos. IMPORTANCIA Un amplio conocimiento de los factores de transcripción y sus vías de señalamiento es necesario para el desarrollo tanto de pruebas diagnósticas como para la identificación de nuevos blancos terapéuticos para neoplasias. De modo que resulta de gran importancia clínica determinar el rol de ZEB1, sus proteínas y vías reguladoras en el proceso de oncogénesis. El desarrollo del proyecto prevé la formación de dos tesistas. Se continuaran colaboraciones con dos grupos extranjeros y se iniciara una tercera.
Resumo:
Contiene loas, canciones, diálogos, letras, etc., y los siguientes autos: El colmenero divino (ff. 72v.-80v.) ; Los hermanos parecidos (ff. 177-185) ; No le arriendo la ganancia (ff. 312-321)