382 resultados para Ganancias empresarias
Resumo:
El transporte marítimo, responsable de la canalización del 90% de los flujos comerciales internacionales, se organiza en torno a los puertos. Éstos, que resultan plataformas indispensables para el desarrollo de la economía, compiten entre sí para maximizar el tráfico atraído hacia sus instalaciones. El papel estratégico de los puertos tiene un expreso reconocimiento en el contexto de la Unión Europea, tanto desde la óptica del comercio como bajo el prisma del transporte. No en vano, por los puertos europeos transita más del 90 % del comercio de la Unión con terceros países y aproximadamente, el 40 % del tráfico intracomunitario. Los puertos españoles configuran un eje neurálgico en el desarrollo del transporte marítimo a nivel internacional y una plataforma logística para todo el sur de Europa. Sus más de siete mil novecientos kilómetros de costa y un emplazamiento geográfico estratégico, confirman al territorio nacional como un punto de especial interés por sus establecimientos portuarios. La actividad del Sistema Portuario Español con una cifra de negocio de más de 1000 millones de euros, representa anualmente un 20 % del Producto Interior Bruto específico del sector transporte, aporta un 1.1% al Producto Interior Bruto Nacional y genera 145.000 empleos directos e indirectos. Debido a la actual coyuntura económica ahora, más que nunca, la competencia interportuaria se ha intensificado y sólo aquellos puertos que sean capaces de adaptarse a las nuevas necesidades y que puedan prestar unos servicios portuarios de calidad, fiables y a precios competitivos estarán en condiciones de mantener sus tráficos. La entrada en vigor de la Ley 33/2010, de 5 de agosto, de modificación de la Ley 48/2003, de 26 de noviembre, de régimen económico y de prestación de servicios en los puertos de interés general, marca como uno de sus objetivos principales el fomento de la eficiencia y la competitividad de nuestros puertos a través de la promoción de la competencia. La Ley avanza en la liberalización de los servicios portuarios, en particular, destaca el servicio portuario de manipulación de mercancías en donde se introducen algunas modificaciones con las que pretende dotar de transparencia, así como normalizar el acceso a la profesión y a la formación. Surge por tanto, la conveniencia de investigar las condiciones de prestación de los servicios portuarios, su impacto en la competitividad del sistema portuario y sobre cada uno de los agentes que forman parte de la cadena global del transporte marítimo. En primer lugar, la Autoridad Portuaria, como organismo público que tiene entre sus competencias la gestión y control de los servicios portuarios para lograr que se desarrollen en condiciones óptimas de eficacia, economía, productividad y seguridad. Al analizar el sector mediante el modelo de “Cinco Fuerzas de Porter” descubrimos que el creciente poder de los proveedores de servicios portuarios, especialmente el de manipulación de mercancías y el proceso de descentralización en la gestión de los puertos de interés general está restando atractivo y competitividad al sector. Además según la encuesta realizada a los representantes de las Autoridades Portuarias, existe prácticamente unanimidad acerca de la importancia de los servicios portuarios en la competitividad del puerto y la falta de transparencia existente, particularmente en el servicio de manipulación de mercancías. Por otro lado, pone de manifiesto los aspectos considerados más importantes, que son el coste y la fiabilidad en la prestación del servicio. A continuación se investiga la repercusión del coste de los servicios portuarios en el precio final del producto, es decir, cómo inciden éstos en la competitividad del tejido empresarial al que sirven los puertos y su impacto en el consumidor final. Concluyendo que el coste de los servicios portuarios tiene de media un peso del 12 % frente al coste global del transporte marítimo y aproximadamente un 0.5% respecto al precio del producto. Posteriormente se realiza una exhaustiva investigación de las principales empresas prestadoras de servicios portuarios en España, se sintetizan los principales datos y se realiza un análisis de la estructura y evolución del sector. Se observa una tendencia a la integración en grandes grupos empresariales vinculados al sector marítimo y a la concentración sectorial. Siendo conscientes de la importancia de la optimización de los servicios portuarios para las empresas operadoras de terminales y navieras, se ha procedido a contrastar la hipótesis inicial de que el servicio de manipulación de mercancías es el responsable de la mayor parte (65 %) del coste del paso de la mercancía por el puerto. Por tanto, a la vista de los resultados obtenidos, por la importancia manifestada tanto por parte de las Autoridades Portuarias como por las empresas operadoras de terminales, a partir de éste punto se particulariza la investigación para el servicio portuario de manipulación de mercancías. Se selecciona una muestra significativa de empresas estibadoras, se procede a homogeneizar sus cuentas de pérdidas y ganancias y sus balances. Posteriormente se calcula y analiza un elevado número de ratios económico-financieros que tendremos en cuenta a la hora de evaluar una solicitud para el otorgamiento de una licencia para la prestación del servicio de manipulación de mercancías. Asimismo se ha procedido a realizar una cuenta de pérdidas y ganancias y un balance modelo, tanto para la empresa media, construida a partir de los ratios medios, como para una empresa ideal desde el punto de vista empresarial, construida a partir de los mejores ratios obtenidos. Ante la necesidad detectada en el estado del arte de la falta de mecanismos para dotar de transparencia al sector, mediante esta estructura la Autoridad Portuaria dispondrá de una herramienta que le permita objetivizar el proceso de toma de decisiones a la hora de establecer sus condiciones en los Pliegos de Prescripciones Particulares y otorgar las licencias, así como evaluar la rentabilidad de la empresa a lo largo del periodo de prestación del servicio. Por un lado, una empresa prestadora de servicios portuarios, debe obtener una rentabilidad acorde con las expectativas de sus accionistas y como mínimo superior al coste de capital de la misma. Al mismo tiempo, la Administración que tutela la prestación del servicio, la Autoridad Portuaria, debe verificar la viabilidad de la propuesta, pues ello será garantía de éxito de la empresa y por tanto de continuidad de prestación del servicio en el puerto pero también debe asegurar una competitividad en costes. Al proceder a la extracción de conclusiones a partir de los ratios económico-financieros obtenidos para las empresas estibadoras (Ratio medio Beneficios/Ventas=4.68%) se pone de manifiesto que claramente el problema de ineficiencia y sobrecostes no está siendo provocado por unos elevados márgenes de rentabilidad de éstas. Por tanto, se analizan otros agentes integrantes en el proceso y se detecta la particular situación de la mano de obra del estibador portuario. Se investigan las ventajosas condiciones laborales que disfrutan y se proponen una serie de medidas que producirían una mejora en la competitividad del servicio que conllevarían una reducción de un 30 % sobre los costes totales del paso de la mercancía por el puerto. En un sector global como es el marítimo, con un escenario cada vez más dinámico y competitivo, con la presente tesis doctoral se trata de asegurar que los factores clave de éxito identificados se cumplan, siendo uno de éstos el liderazgo en costes, que necesariamente se deberá equilibrar con la viabilidad económica de la empresa en la prestación del servicio de la manera más eficiente y productiva, haciendo el puerto más atractivo tanto para los clientes actuales como potenciales.
Resumo:
El objetivo principal de esta Tesis es extender la utilización del “Soft- Computing” para el control de vehículos sin piloto utilizando visión. Este trabajo va más allá de los típicos sistemas de control utilizados en entornos altamente controlados, demonstrando la fuerza y versatilidad de la lógica difusa (Fuzzy Logic) para controlar vehículos aéreos y terrestres en un abanico de applicaciones diferentes. Para esta Tesis se ha realizado un gran número de pruebas reales en las cuales los controladores difusos han manejado una plataforma visual “pan-and-tilt”, un helicoptero, un coche comercial y hasta dos tipos de quadrirotores. El uso del método de optimización “Cross-Entropy” ha sido utilizado para mejorar el comportamiento de algunos de los controladores borrosos. Todos los controladores difusos presentados en ésta Tesis han sido implementados utilizando un código desarrollado por el candidato para tal efecto, llamado MOFS (Miguel Olivares’ Fuzzy Software). Diferentes algoritmos visuales han sido utilizados para adquirir la informaci´on visual del entorno, “Cmashift”, descomposición de la homografía y detección de marcas de realidad aumentada, entre otros. Dicha información visual ha sido utilizada como entrada de los controladores difusos para comandar los vehículos en las diferentes applicaciones autonomas. El volante de un vehículo comercial ha sido controlado para realizar pruebas de conducción autónoma en condiciones de tráfico similares a las de una ciudad. El sistema ha llegado a completar con éxito pruebas de más de 6 km sin ninguna interacción humana, mediante el seguimiento de una línea pintada en el suelo. El limitado campo visual del sistema no ha sido impedimento para alcanzar velocidades de hasta 48 km/h y ser guiado autonomamente en curvas de radio reducido. Objetos estáticos y móviles han sido seguidos desde un helicoptero no tripulado, mediante el control de una plataforma visual “pan-and-tilt”. ´Éste mismo helicoptero ha sido controlado completamente para su aterrizaje autonomo, mediante el control del movimiento lateral (roll), horizontal (pitch) y de altitud. El seguimiento de objetos volantes ha sido resulto mediante el control horizontal (pitch) y de orientación (heading) de un quadrirotor. Para tareas de evitación de obstáculos se ha implementado un controlador difuso para el manejo de la orientación (heading) de un quadrirotor. En el campo de la optimización de controladores se ha aportado al estado del arte una extensión del uso del método “Cross-Entropy”. Está Tesis presenta una novedosa implementación de dicho método para la optimización de las ganancias, la posición y medida de los conjuntos de las funciones de pertenecia y el peso de las reglas para mejorar el comportamiento de un controlador difuso. Dichos procesos de optimización se han realizado utilizando “ROS” y “Matlab Simulink” para obtener mejores resultados para la evitación de colisiones con vehículos aéreos no tripulados. Ésta Tesis demuestra que los controladores implementados con lógica difusa son altamente capaces de controlador sistemas sin tener en cuenta el modelo del vehículo a controlador en entornos altamente perturbables con un sensor de bajo coste como es una cámara. El ruido presentes causado por los cambios de iluminación en la adquisición de imágenes y la alta incertidumbre en la detección visual han sido manejados satisfactoriamente por ésta técnica de de “Soft-Computing” para distintas aplicaciones tanto con vehículos aéreos como terrestres.
Resumo:
La segmentación de imágenes es un campo importante de la visión computacional y una de las áreas de investigación más activas, con aplicaciones en comprensión de imágenes, detección de objetos, reconocimiento facial, vigilancia de vídeo o procesamiento de imagen médica. La segmentación de imágenes es un problema difícil en general, pero especialmente en entornos científicos y biomédicos, donde las técnicas de adquisición imagen proporcionan imágenes ruidosas. Además, en muchos de estos casos se necesita una precisión casi perfecta. En esta tesis, revisamos y comparamos primero algunas de las técnicas ampliamente usadas para la segmentación de imágenes médicas. Estas técnicas usan clasificadores a nivel de pixel e introducen regularización sobre pares de píxeles que es normalmente insuficiente. Estudiamos las dificultades que presentan para capturar la información de alto nivel sobre los objetos a segmentar. Esta deficiencia da lugar a detecciones erróneas, bordes irregulares, configuraciones con topología errónea y formas inválidas. Para solucionar estos problemas, proponemos un nuevo método de regularización de alto nivel que aprende información topológica y de forma a partir de los datos de entrenamiento de una forma no paramétrica usando potenciales de orden superior. Los potenciales de orden superior se están popularizando en visión por computador, pero la representación exacta de un potencial de orden superior definido sobre muchas variables es computacionalmente inviable. Usamos una representación compacta de los potenciales basada en un conjunto finito de patrones aprendidos de los datos de entrenamiento que, a su vez, depende de las observaciones. Gracias a esta representación, los potenciales de orden superior pueden ser convertidos a potenciales de orden 2 con algunas variables auxiliares añadidas. Experimentos con imágenes reales y sintéticas confirman que nuestro modelo soluciona los errores de aproximaciones más débiles. Incluso con una regularización de alto nivel, una precisión exacta es inalcanzable, y se requeire de edición manual de los resultados de la segmentación automática. La edición manual es tediosa y pesada, y cualquier herramienta de ayuda es muy apreciada. Estas herramientas necesitan ser precisas, pero también lo suficientemente rápidas para ser usadas de forma interactiva. Los contornos activos son una buena solución: son buenos para detecciones precisas de fronteras y, en lugar de buscar una solución global, proporcionan un ajuste fino a resultados que ya existían previamente. Sin embargo, requieren una representación implícita que les permita trabajar con cambios topológicos del contorno, y esto da lugar a ecuaciones en derivadas parciales (EDP) que son costosas de resolver computacionalmente y pueden presentar problemas de estabilidad numérica. Presentamos una aproximación morfológica a la evolución de contornos basada en un nuevo operador morfológico de curvatura que es válido para superficies de cualquier dimensión. Aproximamos la solución numérica de la EDP de la evolución de contorno mediante la aplicación sucesiva de un conjunto de operadores morfológicos aplicados sobre una función de conjuntos de nivel. Estos operadores son muy rápidos, no sufren de problemas de estabilidad numérica y no degradan la función de los conjuntos de nivel, de modo que no hay necesidad de reinicializarlo. Además, su implementación es mucho más sencilla que la de las EDP, ya que no requieren usar sofisticados algoritmos numéricos. Desde un punto de vista teórico, profundizamos en las conexiones entre operadores morfológicos y diferenciales, e introducimos nuevos resultados en este área. Validamos nuestra aproximación proporcionando una implementación morfológica de los contornos geodésicos activos, los contornos activos sin bordes, y los turbopíxeles. En los experimentos realizados, las implementaciones morfológicas convergen a soluciones equivalentes a aquéllas logradas mediante soluciones numéricas tradicionales, pero con ganancias significativas en simplicidad, velocidad y estabilidad. ABSTRACT Image segmentation is an important field in computer vision and one of its most active research areas, with applications in image understanding, object detection, face recognition, video surveillance or medical image processing. Image segmentation is a challenging problem in general, but especially in the biological and medical image fields, where the imaging techniques usually produce cluttered and noisy images and near-perfect accuracy is required in many cases. In this thesis we first review and compare some standard techniques widely used for medical image segmentation. These techniques use pixel-wise classifiers and introduce weak pairwise regularization which is insufficient in many cases. We study their difficulties to capture high-level structural information about the objects to segment. This deficiency leads to many erroneous detections, ragged boundaries, incorrect topological configurations and wrong shapes. To deal with these problems, we propose a new regularization method that learns shape and topological information from training data in a nonparametric way using high-order potentials. High-order potentials are becoming increasingly popular in computer vision. However, the exact representation of a general higher order potential defined over many variables is computationally infeasible. We use a compact representation of the potentials based on a finite set of patterns learned fromtraining data that, in turn, depends on the observations. Thanks to this representation, high-order potentials can be converted into pairwise potentials with some added auxiliary variables and minimized with tree-reweighted message passing (TRW) and belief propagation (BP) techniques. Both synthetic and real experiments confirm that our model fixes the errors of weaker approaches. Even with high-level regularization, perfect accuracy is still unattainable, and human editing of the segmentation results is necessary. The manual edition is tedious and cumbersome, and tools that assist the user are greatly appreciated. These tools need to be precise, but also fast enough to be used in real-time. Active contours are a good solution: they are good for precise boundary detection and, instead of finding a global solution, they provide a fine tuning to previously existing results. However, they require an implicit representation to deal with topological changes of the contour, and this leads to PDEs that are computationally costly to solve and may present numerical stability issues. We present a morphological approach to contour evolution based on a new curvature morphological operator valid for surfaces of any dimension. We approximate the numerical solution of the contour evolution PDE by the successive application of a set of morphological operators defined on a binary level-set. These operators are very fast, do not suffer numerical stability issues, and do not degrade the level set function, so there is no need to reinitialize it. Moreover, their implementation is much easier than their PDE counterpart, since they do not require the use of sophisticated numerical algorithms. From a theoretical point of view, we delve into the connections between differential andmorphological operators, and introduce novel results in this area. We validate the approach providing amorphological implementation of the geodesic active contours, the active contours without borders, and turbopixels. In the experiments conducted, the morphological implementations converge to solutions equivalent to those achieved by traditional numerical solutions, but with significant gains in simplicity, speed, and stability.
Resumo:
La apertura de los mercados internacionales de capital como consecuencia del proceso de globalización ha motivado un aumento significativo de la labor investigadora en el campo de la economía y, concretamente, en la teoría de la inversión. Los trabajos en este área tuvieron como punto de partida el artículo publicado por Harry Markowitz en 1952 en el Journal of Finance bajo el título “Portfolio Selection”. En él se pretende hacer una modelización del proceso inversionista principalmente a través de dos criterios: riesgo y retorno. Markowitz no da indicaciones en cuanto a cómo elegir la composición de una cartera optimizando simultáneamente riesgo y retorno. En su lugar, fija una de las dos variables (según la aversión al riesgo del inversor y su preferencia por las ganancias) y optimiza la otra. Sin embargo, este análisis resulta ser bastante simplista si tenemos en cuenta que los inversores, como cualquier ser humano, son decisores multicriterio: no sólo maximizarán el beneficio para un riesgo dado, sino que intentarán también minimizar el riesgo, diversificar el tipo de acciones que poseen para inmunizarse frente a crisis financieras, emplear nuevos criterios de inversión que incorporen la sostenibilidad medioambiental y el impacto que la actividad productiva tiene en la sociedad, destinar un mayor porcentaje del presupuesto a compañías poco endeudadas, que alcancen un buen rating o unos buenos índices de responsabilidad social corporativa, etc. La inclusión de estas nuevas variables en el modelo tradicional es ahora posible gracias a la teoría de la decisión multicriterio (MCDM: Multiple Criteria Decision Making). Desde los años setenta se viene desarrollando y aplicando este nuevo paradigma en áreas tan dispares como la planificación de redes de telecomunicación, la optimización de listas de espera en hospitales o la planificación logística de las grandes distribuidoras y compañías de mensajería. En el presente trabajo se pretende aplicar el paradigma MCDM a la construcción de una cartera de acciones siguiendo criterios tanto puramente financieros como de sostenibilidad medioambiental y responsabilidad social corporativa. Para ello, en esta primera parte se estudiará la teoría clásica de selección de carteras de Markowitz, explicando los parámetros que permiten caracterizar un instrumento financiero individual (retorno, riesgo, covarianza) y una cartera de instrumentos (diversificación, frontera eficiente). En la segunda parte se analizará en profundidad el concepto de desarrollo sostenible, tan extendido en la actualidad, y su transposición al plano corporativo y de gestión de carteras. Se realizará una revisión histórica del término y su encaje en el esquema de decisión de una compañía privada, así como un estudio de las herramientas para medir el cumplimiento de ciertos principios de sostenibilidad por parte de las compañías y hacer, de esta forma, cuantificables dichos conceptos con vistas a su incorporación al esquema decisional del inversor. Con posterioridad, en la tercera parte se estudiará la programación por metas como técnica de decisión multicriterio para aplicar al problema de la composición de carteras. El potencial de esta metodología radica en que permite hacer resoluble un problema, en principio, sin solución. Y es que, como no se pueden optimizar todos y cada uno de los criterios simultáneamente, la programación por metas minimizará las desviaciones respecto a determinados niveles de aspiración para ofrecer una solución lo más cercana posible a la ideal. Finalmente, se construirá un caso de estudio a partir de datos reales tanto financieros como de sostenibilidad para, posteriormente, resolver el modelo matemático construido empleando LINGO. A través de esta herramienta software se podrá simular el proceso de optimización y obtener una cartera-solución que refleje las preferencias del agente decisor.
Resumo:
El control de las centrales hidroeléctricas ha venido siendo motivo continuo de estudio. Más aún en el caso de centrales que proporcionan la energía a Islas donde se intenta sustituir la generación térmica por la convivencia de los parques eólicos y una central hidroeléctrica, puesto que el control es fundamental para el correcto funcionamiento del sistema. Varios son los trabajos que se han desarrollado en esta materia hasta la fecha pero no se han prodigado en analizar la influencia que la longitud de las conducciones forzadas tiene en el ajuste del controlador. El objetivo principal de este estudio es desarrollar unas recomendaciones relativas al ajuste de los reguladores de velocidad de los grupos hidroeléctricos en sistemas aislados con conducciones de gran longitud, aportando así valores alternativos a los propuestos por otros autores; entre otras razones porque éstos estudiaban centrales cuyas conducciones no exigían el análisis de la elasticidad de la conducción y del fluido. Dichas recomendaciones están basadas en la oportuna ubicación de los polos que representan la respuesta dinámica de los principales componentes de la central. Así, encontramos los valores de las ganancias del controlador PI que mejoran la respuesta de la central dado que la longitud de la tubería forzada es lo suficientemente grande como para que sea preciso incluir su efecto en el ajuste. Para tener en cuenta la compresibilidad del agua y de la tubería se ha empleado el modelo de parámetros concentrados. Dicho modelo se simplifica y se linealiza para su estudio, mientras que el ajuste propuesto es aplicado al modelo no lineal original.
Resumo:
Este trabajo es una contribución a los sistemas fotovoltaicos (FV) con seguimiento distribuido del punto de máxima potencia (DMPPT), una topología que se caracteriza porque lleva a cabo el MPPT a nivel de módulo, al contrario de las topologías más tradicionales que llevan a cabo el MPPT para un número más elevado de módulos, pudiendo ser hasta cientos de módulos. Las dos tecnologías DMPPT que existen en el mercado son conocidos como microinversores y optimizadores de potencia, y ofrecen ciertas ventajas sobre sistemas de MPPT central como: mayor producción en situaciones de mismatch, monitorización individual de cada módulo, flexibilidad de diseño, mayor seguridad del sistema, etc. Aunque los sistemas DMPPT no están limitados a los entornos urbanos, se ha enfatizado en el título ya que es su mercado natural, siendo difícil una justificación de su sobrecoste en grandes huertas solares en suelo. Desde el año 2010 el mercado de estos sistemas ha incrementado notablemente y sigue creciendo de una forma continuada. Sin embargo, todavía falta un conocimiento profundo de cómo funcionan estos sistemas, especialmente en el caso de los optimizadores de potencia, de las ganancias energéticas esperables en condiciones de mismatch y de las posibilidades avanzadas de diagnóstico de fallos. El principal objetivo de esta tesis es presentar un estudio completo de cómo funcionan los sistemas DMPPT, sus límites y sus ventajas, así como experimentos varios que verifican la teoría y el desarrollo de herramientas para valorar las ventajas de utilizar DMPPT en cada instalación. Las ecuaciones que modelan el funcionamiento de los sistemas FVs con optimizadores de potencia se han desarrollado y utilizado para resaltar los límites de los mismos a la hora de resolver ciertas situaciones de mismatch. Se presenta un estudio profundo sobre el efecto de las sombras en los sistemas FVs: en la curva I-V y en los algoritmos MPPT. Se han llevado a cabo experimentos sobre el funcionamiento de los algoritmos MPPT en situaciones de sombreado, señalando su ineficiencia en estas situaciones. Un análisis de la ventaja del uso de DMPPT frente a los puntos calientes es presentado y verificado. También se presenta un análisis sobre las posibles ganancias en potencia y energía con el uso de DMPPT en condiciones de sombreado y este también es verificado experimentalmente, así como un breve estudio de su viabilidad económica. Para ayudar a llevar a cabo todos los análisis y experimentos descritos previamente se han desarrollado una serie de herramientas software. Una siendo un programa en LabView para controlar un simulador solar y almacenar las medidas. También se ha desarrollado un programa que simula curvas I-V de módulos y generador FVs afectados por sombras y este se ha verificado experimentalmente. Este mismo programa se ha utilizado para desarrollar un programa todavía más completo que estima las pérdidas anuales y las ganancias obtenidas con DMPPT en instalaciones FVs afectadas por sombras. Finalmente, se han desarrollado y verificado unos algoritmos para diagnosticar fallos en sistemas FVs con DMPPT. Esta herramienta puede diagnosticar los siguientes fallos: sombras debido a objetos fijos (con estimación de la distancia al objeto), suciedad localizada, suciedad general, posible punto caliente, degradación de módulos y pérdidas en el cableado de DC. Además, alerta al usuario de las pérdidas producidas por cada fallo y no requiere del uso de sensores de irradiancia y temperatura. ABSTRACT This work is a contribution to photovoltaic (PV) systems with distributed maximum power point tracking (DMPPT), a system topology characterized by performing the MPPT at module level, instead of the more traditional topologies which perform MPPT for a larger number of modules. The two DMPPT technologies available at the moment are known as microinverters and power optimizers, also known as module level power electronics (MLPE), and they provide certain advantages over central MPPT systems like: higher energy production in mismatch situations, monitoring of each individual module, system design flexibility, higher system safety, etc. Although DMPPT is not limited to urban environments, it has been emphasized in the title as it is their natural market, since in large ground-mounted PV plants the extra cost is difficult to justify. Since 2010 MLPE have increased their market share steadily and continuing to grow steadily. However, there still lacks a profound understanding of how they work, especially in the case of power optimizers, the achievable energy gains with their use and the possibilities in failure diagnosis. The main objective of this thesis is to provide a complete understanding of DMPPT technologies: how they function, their limitations and their advantages. A series of equations used to model PV arrays with power optimizers have been derived and used to point out limitations in solving certain mismatch situation. Because one of the most emphasized benefits of DMPPT is their ability to mitigate shading losses, an extensive study on the effects of shadows on PV systems is presented; both on the I-V curve and on MPPT algorithms. Experimental tests have been performed on the MPPT algorithms of central inverters and MLPE, highlighting their inefficiency in I-V curves with local maxima. An analysis of the possible mitigation of hot-spots with DMPPT is discussed and experimentally verified. And a theoretical analysis of the possible power and energy gains is presented as well as experiments in real PV systems. A short economic analysis of the benefits of DMPPT has also been performed. In order to aide in the previous task, a program which simulates I-V curves under shaded conditions has been developed and experimentally verified. This same program has been used to develop a software tool especially designed for PV systems affected by shading, which estimates the losses due to shading and the energy gains obtained with DMPPT. Finally, a set of algorithms for diagnosing system faults in PV systems with DMPPT has been developed and experimentally verified. The tool can diagnose the following failures: fixed object shading (with distance estimation), localized dirt, generalized dirt, possible hot-spots, module degradation and excessive losses in DC cables. In addition, it alerts the user of the power losses produced by each failure and classifies the failures by their severity and it does not require the use of irradiance or temperature sensors.
Resumo:
El escaso crecimiento de los países del África subsahariana, lleva a la necesidad de plantear un tipo de modelo económico que se adapte a sus especiales características y que en definitiva, conduzca a las sociedades que viven en estos países a un aumento de su calidad de vida, mediante mejoras en todos los campos sociales tales como: la enseñanza, la salud y la nutrición, que puedan ayudar a transformar las perspectivas del crecimiento económico, especialmente en los países objeto de estudio, que se caracterizan por presentar bajos ingresos y escaso desarrollo humano. Se puede concluir, por tanto, diciendo que en definitiva, el fin es el desarrollo humano y que el crecimiento económico es un medio. El propósito del crecimiento económico debe ser enriquecer la vida de la gente. Los adelantos a corto plazo en materia de desarrollo humano son posibles, merced a un mayor crecimiento económico que a su vez no debe desligarse del respeto por el medioambiente y el entorno. Para conseguir estos objetivos, se plantea en la presente tesis un modelo económico, elaborado siguiendo las directrices de la Dinámica de Sistemas, mediante el uso del programa informático VENSIM. El modelo planteado se basa en la producción de energía eléctrica, que sería capaz de abastecer a una población y generar unos excedentes que podrían ser vendidos y las ganancias reinvertidas para impulsar el crecimiento económico de la población a la que abastece. ABSTRACT Low growth in sub-Saharan Africa, leading to the need to establish a type of economic model that suits their special characteristics and ultimately lead to societies that live in these countries to increase human capacity through improvements in all social fields such as education, health and nutrition that can help transform the prospects for economic growth, especially in the countries under study, which are characterized by low income and low human development. It can be concluded, therefore, saying that ultimately, the end is human development and economic growth is a means. The purpose of economic growth should be to enrich the lives of people. The short-term advances in human development are possible, thanks to higher economic growth which in turn should not be separated from respect for the environment and intone. To achieve these objectives, we propose in this thesis an economic model, developed under the guidance of dynamic systems, using the computer program VENSIM. The proposed model is based on the production of electricity, which would be able to supply a population and generate a surplus that could be sold and the proceeds reinvested to boost economic growth in the population it serves.
Resumo:
El mercado ibérico de futuros de energía eléctrica gestionado por OMIP (“Operador do Mercado Ibérico de Energia, Pólo Português”, con sede en Lisboa), también conocido como el mercado ibérico de derivados de energía, comenzó a funcionar el 3 de julio de 2006. Se analiza la eficiencia de este mercado organizado, por lo que se estudia la precisión con la que sus precios de futuros predicen el precio de contado. En dicho mercado coexisten dos modos de negociación: el mercado continuo (modo por defecto) y la contratación mediante subasta. En la negociación en continuo, las órdenes anónimas de compra y de venta interactúan de manera inmediata e individual con órdenes contrarias, dando lugar a operaciones con un número indeterminado de precios para cada contrato. En la negociación a través de subasta, un precio único de equilibrio maximiza el volumen negociado, liquidándose todas las operaciones a ese precio. Adicionalmente, los miembros negociadores de OMIP pueden liquidar operaciones “Over-The-Counter” (OTC) a través de la cámara de compensación de OMIP (OMIClear). Las cinco mayores empresas españolas de distribución de energía eléctrica tenían la obligación de comprar electricidad hasta julio de 2009 en subastas en OMIP, para cubrir parte de sus suministros regulados. De igual manera, el suministrador de último recurso portugués mantuvo tal obligación hasta julio de 2010. Los precios de equilibrio de esas subastas no han resultado óptimos a efectos retributivos de tales suministros regulados dado que dichos precios tienden a situarse ligeramente sesgados al alza. La prima de riesgo ex-post, definida como la diferencia entre los precios a plazo y de contado en el periodo de entrega, se emplea para medir su eficiencia de precio. El mercado de contado, gestionado por OMIE (“Operador de Mercado Ibérico de la Energía”, conocido tradicionalmente como “OMEL”), tiene su sede en Madrid. Durante los dos primeros años del mercado de futuros, la prima de riesgo media tiende a resultar positiva, al igual que en otros mercados europeos de energía eléctrica y gas natural. En ese periodo, la prima de riesgo ex-post tiende a ser negativa en los mercados de petróleo y carbón. Los mercados de energía tienden a mostrar niveles limitados de eficiencia de mercado. La eficiencia de precio del mercado de futuros aumenta con el desarrollo de otros mecanismos coexistentes dentro del mercado ibérico de electricidad (conocido como “MIBEL”) –es decir, el mercado dominante OTC, las subastas de centrales virtuales de generación conocidas en España como Emisiones Primarias de Energía, y las subastas para cubrir parte de los suministros de último recurso conocidas en España como subastas CESUR– y con una mayor integración de los mercados regionales europeos de energía eléctrica. Se construye un modelo de regresión para analizar la evolución de los volúmenes negociados en el mercado continuo durante sus cuatro primeros años como una función de doce indicadores potenciales de liquidez. Los únicos indicadores significativos son los volúmenes negociados en las subastas obligatorias gestionadas por OMIP, los volúmenes negociados en el mercado OTC y los volúmenes OTC compensados por OMIClear. El número de creadores de mercado, la incorporación de agentes financieros y compañías de generación pertenecientes a grupos integrados con suministradores de último recurso, y los volúmenes OTC compensados por OMIClear muestran una fuerte correlación con los volúmenes negociados en el mercado continuo. La liquidez de OMIP está aún lejos de los niveles alcanzados por los mercados europeos más maduros (localizados en los países nórdicos (Nasdaq OMX Commodities) y Alemania (EEX)). El operador de mercado y su cámara de compensación podrían desarrollar acciones eficientes de marketing para atraer nuevos agentes activos en el mercado de contado (p.ej. industrias consumidoras intensivas de energía, suministradores, pequeños productores, compañías energéticas internacionales y empresas de energías renovables) y agentes financieros, captar volúmenes del opaco OTC, y mejorar el funcionamiento de los productos existentes aún no líquidos. Resultaría de gran utilidad para tales acciones un diálogo activo con todos los agentes (participantes en el mercado, operador de mercado de contado, y autoridades supervisoras). Durante sus primeros cinco años y medio, el mercado continuo presenta un crecimento de liquidez estable. Se mide el desempeño de sus funciones de cobertura mediante la ratio de posición neta obtenida al dividir la posición abierta final de un contrato de derivados mensual entre su volumen acumulado en la cámara de compensación. Los futuros carga base muestran la ratio más baja debido a su buena liquidez. Los futuros carga punta muestran una mayor ratio al producirse su menor liquidez a través de contadas subastas fijadas por regulación portuguesa. Las permutas carga base liquidadas en la cámara de compensación ubicada en Madrid –MEFF Power, activa desde el 21 de marzo de 2011– muestran inicialmente valores altos debido a bajos volúmenes registrados, dado que esta cámara se emplea principalmente para vencimientos pequeños (diario y semanal). Dicha ratio puede ser una poderosa herramienta de supervisión para los reguladores energéticos cuando accedan a todas las transacciones de derivados en virtud del Reglamento Europeo sobre Integridad y Transparencia de los Mercados de Energía (“REMIT”), en vigor desde el 28 de diciembre de 2011. La prima de riesgo ex-post tiende a ser positiva en todos los mecanismos (futuros en OMIP, mercado OTC y subastas CESUR) y disminuye debido a la curvas de aprendizaje y al efecto, desde el año 2011, del precio fijo para la retribución de la generación con carbón autóctono. Se realiza una comparativa con los costes a plazo de generación con gas natural (diferencial “clean spark spread”) obtenido como la diferencia entre el precio del futuro eléctrico y el coste a plazo de generación con ciclo combinado internalizando los costes de emisión de CO2. Los futuros eléctricos tienen una elevada correlación con los precios de gas europeos. Los diferenciales de contratos con vencimiento inmediato tienden a ser positivos. Los mayores diferenciales se dan para los contratos mensuales, seguidos de los trimestrales y anuales. Los generadores eléctricos con gas pueden maximizar beneficios con contratos de menor vencimiento. Los informes de monitorización por el operador de mercado que proporcionan transparencia post-operacional, el acceso a datos OTC por el regulador energético, y la valoración del riesgo regulatorio pueden contribuir a ganancias de eficiencia. Estas recomendaciones son también válidas para un potencial mercado ibérico de futuros de gas, una vez que el hub ibérico de gas –actualmente en fase de diseño, con reuniones mensuales de los agentes desde enero de 2013 en el grupo de trabajo liderado por el regulador energético español– esté operativo. El hub ibérico de gas proporcionará transparencia al atraer más agentes y mejorar la competencia, incrementando su eficiencia, dado que en el mercado OTC actual no se revela precio alguno de gas. ABSTRACT The Iberian Power Futures Market, managed by OMIP (“Operador do Mercado Ibérico de Energia, Pólo Português”, located in Lisbon), also known as the Iberian Energy Derivatives Market, started operations on 3 July 2006. The market efficiency, regarding how well the future price predicts the spot price, is analysed for this energy derivatives exchange. There are two trading modes coexisting within OMIP: the continuous market (default mode) and the call auction. In the continuous trading, anonymous buy and sell orders interact immediately and individually with opposite side orders, generating trades with an undetermined number of prices for each contract. In the call auction trading, a single price auction maximizes the traded volume, being all trades settled at the same price (equilibrium price). Additionally, OMIP trading members may settle Over-the-Counter (OTC) trades through OMIP clearing house (OMIClear). The five largest Spanish distribution companies have been obliged to purchase in auctions managed by OMIP until July 2009, in order to partly cover their portfolios of end users’ regulated supplies. Likewise, the Portuguese last resort supplier kept that obligation until July 2010. The auction equilibrium prices are not optimal for remuneration purposes of regulated supplies as such prices seem to be slightly upward biased. The ex-post forward risk premium, defined as the difference between the forward and spot prices in the delivery period, is used to measure its price efficiency. The spot market, managed by OMIE (Market Operator of the Iberian Energy Market, Spanish Pool, known traditionally as “OMEL”), is located in Madrid. During the first two years of the futures market, the average forward risk premium tends to be positive, as it occurs with other European power and natural gas markets. In that period, the ex-post forward risk premium tends to be negative in oil and coal markets. Energy markets tend to show limited levels of market efficiency. The price efficiency of the Iberian Power Futures Market improves with the market development of all the coexistent forward contracting mechanisms within the Iberian Electricity Market (known as “MIBEL”) – namely, the dominant OTC market, the Virtual Power Plant Auctions known in Spain as Energy Primary Emissions, and the auctions catering for part of the last resort supplies known in Spain as CESUR auctions – and with further integration of European Regional Electricity Markets. A regression model tracking the evolution of the traded volumes in the continuous market during its first four years is built as a function of twelve potential liquidity drivers. The only significant drivers are the traded volumes in OMIP compulsory auctions, the traded volumes in the OTC market, and the OTC cleared volumes by OMIClear. The amount of market makers, the enrolment of financial members and generation companies belonging to the integrated group of last resort suppliers, and the OTC cleared volume by OMIClear show strong correlation with the traded volumes in the continuous market. OMIP liquidity is still far from the levels reached by the most mature European markets (located in the Nordic countries (Nasdaq OMX Commodities) and Germany (EEX)). The market operator and its clearing house could develop efficient marketing actions to attract new entrants active in the spot market (e.g. energy intensive industries, suppliers, small producers, international energy companies and renewable generation companies) and financial agents as well as volumes from the opaque OTC market, and to improve the performance of existing illiquid products. An active dialogue with all the stakeholders (market participants, spot market operator, and supervisory authorities) will help to implement such actions. During its firs five and a half years, the continuous market shows steady liquidity growth. The hedging performance is measured through a net position ratio obtained from the final open interest of a month derivatives contract divided by its accumulated cleared volume. The base load futures in the Iberian energy derivatives exchange show the lowest ratios due to good liquidity. The peak futures show bigger ratios as their reduced liquidity is produced by auctions fixed by Portuguese regulation. The base load swaps settled in the clearing house located in Spain – MEFF Power, operating since 21 March 2011, with a new denomination (BME Clearing) since 9 September 2013 – show initially large values due to low registered volumes, as this clearing house is mainly used for short maturity (daily and weekly swaps). The net position ratio can be a powerful oversight tool for energy regulators when accessing to all the derivatives transactions as envisaged by European regulation on Energy Market Integrity and Transparency (“REMIT”), in force since 28 December 2011. The ex-post forward risk premium tends to be positive in all existing mechanisms (OMIP futures, OTC market and CESUR auctions) and diminishes due to the learning curve and the effect – since year 2011 – of the fixed price retributing the indigenous coal fired generation. Comparison with the forward generation costs from natural gas (“clean spark spread”) – obtained as the difference between the power futures price and the forward generation cost with a gas fired combined cycle plant taking into account the CO2 emission rates – is also performed. The power futures are strongly correlated with European gas prices. The clean spark spreads built with prompt contracts tend to be positive. The biggest clean spark spreads are for the month contract, followed by the quarter contract and then by the year contract. Therefore, gas fired generation companies can maximize profits trading with contracts of shorter maturity. Market monitoring reports by the market operator providing post-trade transparency, OTC data access by the energy regulator, and assessment of the regulatory risk can contribute to efficiency gains. The same recommendations are also valid for a potential Iberian gas futures market, once an Iberian gas hub – currently in a design phase, with monthly meetings amongst the stakeholders in a Working Group led by the Spanish energy regulatory authority since January 2013 – is operating. The Iberian gas hub would bring transparency attracting more shippers and improving competition and thus its efficiency, as no gas price is currently disclosed in the existing OTC market.
Resumo:
El presente Trabajo fin Fin de Máster, versa sobre una caracterización preliminar del comportamiento de un robot de tipo industrial, configurado por 4 eslabones y 4 grados de libertad, y sometido a fuerzas de mecanizado en su extremo. El entorno de trabajo planteado es el de plantas de fabricación de piezas de aleaciones de aluminio para automoción. Este tipo de componentes parte de un primer proceso de fundición que saca la pieza en bruto. Para series medias y altas, en función de las propiedades mecánicas y plásticas requeridas y los costes de producción, la inyección a alta presión (HPDC) y la fundición a baja presión (LPC) son las dos tecnologías más usadas en esta primera fase. Para inyección a alta presión, las aleaciones de aluminio más empleadas son, en designación simbólica según norma EN 1706 (entre paréntesis su designación numérica); EN AC AlSi9Cu3(Fe) (EN AC 46000) , EN AC AlSi9Cu3(Fe)(Zn) (EN AC 46500), y EN AC AlSi12Cu1(Fe) (EN AC 47100). Para baja presión, EN AC AlSi7Mg0,3 (EN AC 42100). En los 3 primeros casos, los límites de Silicio permitidos pueden superan el 10%. En el cuarto caso, es inferior al 10% por lo que, a los efectos de ser sometidas a mecanizados, las piezas fabricadas en aleaciones con Si superior al 10%, se puede considerar que son equivalentes, diferenciándolas de la cuarta. Las tolerancias geométricas y dimensionales conseguibles directamente de fundición, recogidas en normas como ISO 8062 o DIN 1688-1, establecen límites para este proceso. Fuera de esos límites, las garantías en conseguir producciones con los objetivos de ppms aceptados en la actualidad por el mercado, obligan a ir a fases posteriores de mecanizado. Aquellas geometrías que, funcionalmente, necesitan disponer de unas tolerancias geométricas y/o dimensionales definidas acorde a ISO 1101, y no capaces por este proceso inicial de moldeado a presión, deben ser procesadas en una fase posterior en células de mecanizado. En este caso, las tolerancias alcanzables para procesos de arranque de viruta se recogen en normas como ISO 2768. Las células de mecanizado se componen, por lo general, de varios centros de control numérico interrelacionados y comunicados entre sí por robots que manipulan las piezas en proceso de uno a otro. Dichos robots, disponen en su extremo de una pinza utillada para poder coger y soltar las piezas en los útiles de mecanizado, las mesas de intercambio para cambiar la pieza de posición o en utillajes de equipos de medición y prueba, o en cintas de entrada o salida. La repetibilidad es alta, de centésimas incluso, definida según norma ISO 9283. El problema es que, estos rangos de repetibilidad sólo se garantizan si no se hacen esfuerzos o éstos son despreciables (caso de mover piezas). Aunque las inercias de mover piezas a altas velocidades hacen que la trayectoria intermedia tenga poca precisión, al inicio y al final (al coger y dejar pieza, p.e.) se hacen a velocidades relativamente bajas que hacen que el efecto de las fuerzas de inercia sean menores y que permiten garantizar la repetibilidad anteriormente indicada. No ocurre así si se quitara la garra y se intercambia con un cabezal motorizado con una herramienta como broca, mandrino, plato de cuchillas, fresas frontales o tangenciales… Las fuerzas ejercidas de mecanizado generarían unos pares en las uniones tan grandes y tan variables que el control del robot no sería capaz de responder (o no está preparado, en un principio) y generaría una desviación en la trayectoria, realizada a baja velocidad, que desencadenaría en un error de posición (ver norma ISO 5458) no asumible para la funcionalidad deseada. Se podría llegar al caso de que la tolerancia alcanzada por un pretendido proceso más exacto diera una dimensión peor que la que daría el proceso de fundición, en principio con mayor variabilidad dimensional en proceso (y por ende con mayor intervalo de tolerancia garantizable). De hecho, en los CNCs, la precisión es muy elevada, (pudiéndose despreciar en la mayoría de los casos) y no es la responsable de, por ejemplo la tolerancia de posición al taladrar un agujero. Factores como, temperatura de la sala y de la pieza, calidad constructiva de los utillajes y rigidez en el amarre, error en el giro de mesas y de colocación de pieza, si lleva agujeros previos o no, si la herramienta está bien equilibrada y el cono es el adecuado para el tipo de mecanizado… influyen más. Es interesante que, un elemento no específico tan común en una planta industrial, en el entorno anteriormente descrito, como es un robot, el cual no sería necesario añadir por disponer de él ya (y por lo tanto la inversión sería muy pequeña), puede mejorar la cadena de valor disminuyendo el costo de fabricación. Y si se pudiera conjugar que ese robot destinado a tareas de manipulación, en los muchos tiempos de espera que va a disfrutar mientras el CNC arranca viruta, pudiese coger un cabezal y apoyar ese mecanizado; sería doblemente interesante. Por lo tanto, se antoja sugestivo poder conocer su comportamiento e intentar explicar qué sería necesario para llevar esto a cabo, motivo de este trabajo. La arquitectura de robot seleccionada es de tipo SCARA. La búsqueda de un robot cómodo de modelar y de analizar cinemática y dinámicamente, sin limitaciones relevantes en la multifuncionalidad de trabajos solicitados, ha llevado a esta elección, frente a otras arquitecturas como por ejemplo los robots antropomórficos de 6 grados de libertad, muy populares a nivel industrial. Este robot dispone de 3 uniones, de las cuales 2 son de tipo par de revolución (1 grado de libertad cada una) y la tercera es de tipo corredera o par cilíndrico (2 grados de libertad). La primera unión, de tipo par de revolución, sirve para unir el suelo (considerado como eslabón número 1) con el eslabón número 2. La segunda unión, también de ese tipo, une el eslabón número 2 con el eslabón número 3. Estos 2 brazos, pueden describir un movimiento horizontal, en el plano X-Y. El tercer eslabón, está unido al eslabón número 4 por la unión de tipo corredera. El movimiento que puede describir es paralelo al eje Z. El robot es de 4 grados de libertad (4 motores). En relación a los posibles trabajos que puede realizar este tipo de robot, su versatilidad abarca tanto operaciones típicas de manipulación como operaciones de arranque de viruta. Uno de los mecanizados más usuales es el taladrado, por lo cual se elige éste para su modelización y análisis. Dentro del taladrado se elegirá para acotar las fuerzas, taladrado en macizo con broca de diámetro 9 mm. El robot se ha considerado por el momento que tenga comportamiento de sólido rígido, por ser el mayor efecto esperado el de los pares en las uniones. Para modelar el robot se utiliza el método de los sistemas multicuerpos. Dentro de este método existen diversos tipos de formulaciones (p.e. Denavit-Hartenberg). D-H genera una cantidad muy grande de ecuaciones e incógnitas. Esas incógnitas son de difícil comprensión y, para cada posición, hay que detenerse a pensar qué significado tienen. Se ha optado por la formulación de coordenadas naturales. Este sistema utiliza puntos y vectores unitarios para definir la posición de los distintos cuerpos, y permite compartir, cuando es posible y se quiere, para definir los pares cinemáticos y reducir al mismo tiempo el número de variables. Las incógnitas son intuitivas, las ecuaciones de restricción muy sencillas y se reduce considerablemente el número de ecuaciones e incógnitas. Sin embargo, las coordenadas naturales “puras” tienen 2 problemas. El primero, que 2 elementos con un ángulo de 0 o 180 grados, dan lugar a puntos singulares que pueden crear problemas en las ecuaciones de restricción y por lo tanto han de evitarse. El segundo, que tampoco inciden directamente sobre la definición o el origen de los movimientos. Por lo tanto, es muy conveniente complementar esta formulación con ángulos y distancias (coordenadas relativas). Esto da lugar a las coordenadas naturales mixtas, que es la formulación final elegida para este TFM. Las coordenadas naturales mixtas no tienen el problema de los puntos singulares. Y la ventaja más importante reside en su utilidad a la hora de aplicar fuerzas motrices, momentos o evaluar errores. Al incidir sobre la incógnita origen (ángulos o distancias) controla los motores de manera directa. El algoritmo, la simulación y la obtención de resultados se ha programado mediante Matlab. Para realizar el modelo en coordenadas naturales mixtas, es preciso modelar en 2 pasos el robot a estudio. El primer modelo se basa en coordenadas naturales. Para su validación, se plantea una trayectoria definida y se analiza cinemáticamente si el robot satisface el movimiento solicitado, manteniendo su integridad como sistema multicuerpo. Se cuantifican los puntos (en este caso inicial y final) que configuran el robot. Al tratarse de sólidos rígidos, cada eslabón queda definido por sus respectivos puntos inicial y final (que son los más interesantes para la cinemática y la dinámica) y por un vector unitario no colineal a esos 2 puntos. Los vectores unitarios se colocan en los lugares en los que se tenga un eje de rotación o cuando se desee obtener información de un ángulo. No son necesarios vectores unitarios para medir distancias. Tampoco tienen por qué coincidir los grados de libertad con el número de vectores unitarios. Las longitudes de cada eslabón quedan definidas como constantes geométricas. Se establecen las restricciones que definen la naturaleza del robot y las relaciones entre los diferentes elementos y su entorno. La trayectoria se genera por una nube de puntos continua, definidos en coordenadas independientes. Cada conjunto de coordenadas independientes define, en un instante concreto, una posición y postura de robot determinada. Para conocerla, es necesario saber qué coordenadas dependientes hay en ese instante, y se obtienen resolviendo por el método de Newton-Rhapson las ecuaciones de restricción en función de las coordenadas independientes. El motivo de hacerlo así es porque las coordenadas dependientes deben satisfacer las restricciones, cosa que no ocurre con las coordenadas independientes. Cuando la validez del modelo se ha probado (primera validación), se pasa al modelo 2. El modelo número 2, incorpora a las coordenadas naturales del modelo número 1, las coordenadas relativas en forma de ángulos en los pares de revolución (3 ángulos; ϕ1, ϕ 2 y ϕ3) y distancias en los pares prismáticos (1 distancia; s). Estas coordenadas relativas pasan a ser las nuevas coordenadas independientes (sustituyendo a las coordenadas independientes cartesianas del modelo primero, que eran coordenadas naturales). Es necesario revisar si el sistema de vectores unitarios del modelo 1 es suficiente o no. Para este caso concreto, se han necesitado añadir 1 vector unitario adicional con objeto de que los ángulos queden perfectamente determinados con las correspondientes ecuaciones de producto escalar y/o vectorial. Las restricciones habrán de ser incrementadas en, al menos, 4 ecuaciones; una por cada nueva incógnita. La validación del modelo número 2, tiene 2 fases. La primera, al igual que se hizo en el modelo número 1, a través del análisis cinemático del comportamiento con una trayectoria definida. Podrían obtenerse del modelo 2 en este análisis, velocidades y aceleraciones, pero no son necesarios. Tan sólo interesan los movimientos o desplazamientos finitos. Comprobada la coherencia de movimientos (segunda validación), se pasa a analizar cinemáticamente el comportamiento con trayectorias interpoladas. El análisis cinemático con trayectorias interpoladas, trabaja con un número mínimo de 3 puntos máster. En este caso se han elegido 3; punto inicial, punto intermedio y punto final. El número de interpolaciones con el que se actúa es de 50 interpolaciones en cada tramo (cada 2 puntos máster hay un tramo), resultando un total de 100 interpolaciones. El método de interpolación utilizado es el de splines cúbicas con condición de aceleración inicial y final constantes, que genera las coordenadas independientes de los puntos interpolados de cada tramo. Las coordenadas dependientes se obtienen resolviendo las ecuaciones de restricción no lineales con el método de Newton-Rhapson. El método de las splines cúbicas es muy continuo, por lo que si se desea modelar una trayectoria en el que haya al menos 2 movimientos claramente diferenciados, es preciso hacerlo en 2 tramos y unirlos posteriormente. Sería el caso en el que alguno de los motores se desee expresamente que esté parado durante el primer movimiento y otro distinto lo esté durante el segundo movimiento (y así sucesivamente). Obtenido el movimiento, se calculan, también mediante fórmulas de diferenciación numérica, las velocidades y aceleraciones independientes. El proceso es análogo al anteriormente explicado, recordando la condición impuesta de que la aceleración en el instante t= 0 y en instante t= final, se ha tomado como 0. Las velocidades y aceleraciones dependientes se calculan resolviendo las correspondientes derivadas de las ecuaciones de restricción. Se comprueba, de nuevo, en una tercera validación del modelo, la coherencia del movimiento interpolado. La dinámica inversa calcula, para un movimiento definido -conocidas la posición, velocidad y la aceleración en cada instante de tiempo-, y conocidas las fuerzas externas que actúan (por ejemplo el peso); qué fuerzas hay que aplicar en los motores (donde hay control) para que se obtenga el citado movimiento. En la dinámica inversa, cada instante del tiempo es independiente de los demás y tiene una posición, una velocidad y una aceleración y unas fuerzas conocidas. En este caso concreto, se desean aplicar, de momento, sólo las fuerzas debidas al peso, aunque se podrían haber incorporado fuerzas de otra naturaleza si se hubiese deseado. Las posiciones, velocidades y aceleraciones, proceden del cálculo cinemático. El efecto inercial de las fuerzas tenidas en cuenta (el peso) es calculado. Como resultado final del análisis dinámico inverso, se obtienen los pares que han de ejercer los cuatro motores para replicar el movimiento prescrito con las fuerzas que estaban actuando. La cuarta validación del modelo consiste en confirmar que el movimiento obtenido por aplicar los pares obtenidos en la dinámica inversa, coinciden con el obtenido en el análisis cinemático (movimiento teórico). Para ello, es necesario acudir a la dinámica directa. La dinámica directa se encarga de calcular el movimiento del robot, resultante de aplicar unos pares en motores y unas fuerzas en el robot. Por lo tanto, el movimiento real resultante, al no haber cambiado ninguna condición de las obtenidas en la dinámica inversa (pares de motor y fuerzas inerciales debidas al peso de los eslabones) ha de ser el mismo al movimiento teórico. Siendo así, se considera que el robot está listo para trabajar. Si se introduce una fuerza exterior de mecanizado no contemplada en la dinámica inversa y se asigna en los motores los mismos pares resultantes de la resolución del problema dinámico inverso, el movimiento real obtenido no es igual al movimiento teórico. El control de lazo cerrado se basa en ir comparando el movimiento real con el deseado e introducir las correcciones necesarias para minimizar o anular las diferencias. Se aplican ganancias en forma de correcciones en posición y/o velocidad para eliminar esas diferencias. Se evalúa el error de posición como la diferencia, en cada punto, entre el movimiento teórico deseado en el análisis cinemático y el movimiento real obtenido para cada fuerza de mecanizado y una ganancia concreta. Finalmente, se mapea el error de posición obtenido para cada fuerza de mecanizado y las diferentes ganancias previstas, graficando la mejor precisión que puede dar el robot para cada operación que se le requiere, y en qué condiciones. -------------- This Master´s Thesis deals with a preliminary characterization of the behaviour for an industrial robot, configured with 4 elements and 4 degrees of freedoms, and subjected to machining forces at its end. Proposed working conditions are those typical from manufacturing plants with aluminium alloys for automotive industry. This type of components comes from a first casting process that produces rough parts. For medium and high volumes, high pressure die casting (HPDC) and low pressure die casting (LPC) are the most used technologies in this first phase. For high pressure die casting processes, most used aluminium alloys are, in simbolic designation according EN 1706 standard (between brackets, its numerical designation); EN AC AlSi9Cu3(Fe) (EN AC 46000) , EN AC AlSi9Cu3(Fe)(Zn) (EN AC 46500), y EN AC AlSi12Cu1(Fe) (EN AC 47100). For low pressure, EN AC AlSi7Mg0,3 (EN AC 42100). For the 3 first alloys, Si allowed limits can exceed 10% content. Fourth alloy has admisible limits under 10% Si. That means, from the point of view of machining, that components made of alloys with Si content above 10% can be considered as equivalent, and the fourth one must be studied separately. Geometrical and dimensional tolerances directly achievables from casting, gathered in standards such as ISO 8062 or DIN 1688-1, establish a limit for this process. Out from those limits, guarantees to achieve batches with objetive ppms currently accepted by market, force to go to subsequent machining process. Those geometries that functionally require a geometrical and/or dimensional tolerance defined according ISO 1101, not capable with initial moulding process, must be obtained afterwards in a machining phase with machining cells. In this case, tolerances achievables with cutting processes are gathered in standards such as ISO 2768. In general terms, machining cells contain several CNCs that they are interrelated and connected by robots that handle parts in process among them. Those robots have at their end a gripper in order to take/remove parts in machining fixtures, in interchange tables to modify position of part, in measurement and control tooling devices, or in entrance/exit conveyors. Repeatibility for robot is tight, even few hundredths of mm, defined according ISO 9283. Problem is like this; those repeatibilty ranks are only guaranteed when there are no stresses or they are not significant (f.e. due to only movement of parts). Although inertias due to moving parts at a high speed make that intermediate paths have little accuracy, at the beginning and at the end of trajectories (f.e, when picking part or leaving it) movement is made with very slow speeds that make lower the effect of inertias forces and allow to achieve repeatibility before mentioned. It does not happens the same if gripper is removed and it is exchanged by an spindle with a machining tool such as a drilling tool, a pcd boring tool, a face or a tangential milling cutter… Forces due to machining would create such big and variable torques in joints that control from the robot would not be able to react (or it is not prepared in principle) and would produce a deviation in working trajectory, made at a low speed, that would trigger a position error (see ISO 5458 standard) not assumable for requested function. Then it could be possible that tolerance achieved by a more exact expected process would turn out into a worst dimension than the one that could be achieved with casting process, in principle with a larger dimensional variability in process (and hence with a larger tolerance range reachable). As a matter of fact, accuracy is very tight in CNC, (its influence can be ignored in most cases) and it is not the responsible of, for example position tolerance when drilling a hole. Factors as, room and part temperature, manufacturing quality of machining fixtures, stiffness at clamping system, rotating error in 4th axis and part positioning error, if there are previous holes, if machining tool is properly balanced, if shank is suitable for that machining type… have more influence. It is interesting to know that, a non specific element as common, at a manufacturing plant in the enviroment above described, as a robot (not needed to be added, therefore with an additional minimum investment), can improve value chain decreasing manufacturing costs. And when it would be possible to combine that the robot dedicated to handling works could support CNCs´ works in its many waiting time while CNCs cut, and could take an spindle and help to cut; it would be double interesting. So according to all this, it would be interesting to be able to know its behaviour and try to explain what would be necessary to make this possible, reason of this work. Selected robot architecture is SCARA type. The search for a robot easy to be modeled and kinematically and dinamically analyzed, without significant limits in the multifunctionality of requested operations, has lead to this choice. Due to that, other very popular architectures in the industry, f.e. 6 DOFs anthropomorphic robots, have been discarded. This robot has 3 joints, 2 of them are revolute joints (1 DOF each one) and the third one is a cylindrical joint (2 DOFs). The first joint, a revolute one, is used to join floor (body 1) with body 2. The second one, a revolute joint too, joins body 2 with body 3. These 2 bodies can move horizontally in X-Y plane. Body 3 is linked to body 4 with a cylindrical joint. Movement that can be made is paralell to Z axis. The robt has 4 degrees of freedom (4 motors). Regarding potential works that this type of robot can make, its versatility covers either typical handling operations or cutting operations. One of the most common machinings is to drill. That is the reason why it has been chosen for the model and analysis. Within drilling, in order to enclose spectrum force, a typical solid drilling with 9 mm diameter. The robot is considered, at the moment, to have a behaviour as rigid body, as biggest expected influence is the one due to torques at joints. In order to modelize robot, it is used multibodies system method. There are under this heading different sorts of formulations (f.e. Denavit-Hartenberg). D-H creates a great amount of equations and unknown quantities. Those unknown quatities are of a difficult understanding and, for each position, one must stop to think about which meaning they have. The choice made is therefore one of formulation in natural coordinates. This system uses points and unit vectors to define position of each different elements, and allow to share, when it is possible and wished, to define kinematic torques and reduce number of variables at the same time. Unknown quantities are intuitive, constrain equations are easy and number of equations and variables are strongly reduced. However, “pure” natural coordinates suffer 2 problems. The first one is that 2 elements with an angle of 0° or 180°, give rise to singular positions that can create problems in constrain equations and therefore they must be avoided. The second problem is that they do not work directly over the definition or the origin of movements. Given that, it is highly recommended to complement this formulation with angles and distances (relative coordinates). This leads to mixed natural coordinates, and they are the final formulation chosen for this MTh. Mixed natural coordinates have not the problem of singular positions. And the most important advantage lies in their usefulness when applying driving forces, torques or evaluating errors. As they influence directly over origin variable (angles or distances), they control motors directly. The algorithm, simulation and obtaining of results has been programmed with Matlab. To design the model in mixed natural coordinates, it is necessary to model the robot to be studied in 2 steps. The first model is based in natural coordinates. To validate it, it is raised a defined trajectory and it is kinematically analyzed if robot fulfils requested movement, keeping its integrity as multibody system. The points (in this case starting and ending points) that configure the robot are quantified. As the elements are considered as rigid bodies, each of them is defined by its respectively starting and ending point (those points are the most interesting ones from the point of view of kinematics and dynamics) and by a non-colinear unit vector to those points. Unit vectors are placed where there is a rotating axis or when it is needed information of an angle. Unit vectors are not needed to measure distances. Neither DOFs must coincide with the number of unit vectors. Lengths of each arm are defined as geometrical constants. The constrains that define the nature of the robot and relationships among different elements and its enviroment are set. Path is generated by a cloud of continuous points, defined in independent coordinates. Each group of independent coordinates define, in an specific instant, a defined position and posture for the robot. In order to know it, it is needed to know which dependent coordinates there are in that instant, and they are obtained solving the constraint equations with Newton-Rhapson method according to independent coordinates. The reason to make it like this is because dependent coordinates must meet constraints, and this is not the case with independent coordinates. When suitability of model is checked (first approval), it is given next step to model 2. Model 2 adds to natural coordinates from model 1, the relative coordinates in the shape of angles in revoluting torques (3 angles; ϕ1, ϕ 2 and ϕ3) and distances in prismatic torques (1 distance; s). These relative coordinates become the new independent coordinates (replacing to cartesian independent coordinates from model 1, that they were natural coordinates). It is needed to review if unit vector system from model 1 is enough or not . For this specific case, it was necessary to add 1 additional unit vector to define perfectly angles with their related equations of dot and/or cross product. Constrains must be increased in, at least, 4 equations; one per each new variable. The approval of model 2 has two phases. The first one, same as made with model 1, through kinematic analysis of behaviour with a defined path. During this analysis, it could be obtained from model 2, velocities and accelerations, but they are not needed. They are only interesting movements and finite displacements. Once that the consistence of movements has been checked (second approval), it comes when the behaviour with interpolated trajectories must be kinematically analyzed. Kinematic analysis with interpolated trajectories work with a minimum number of 3 master points. In this case, 3 points have been chosen; starting point, middle point and ending point. The number of interpolations has been of 50 ones in each strecht (each 2 master points there is an strecht), turning into a total of 100 interpolations. The interpolation method used is the cubic splines one with condition of constant acceleration both at the starting and at the ending point. This method creates the independent coordinates of interpolated points of each strecht. The dependent coordinates are achieved solving the non-linear constrain equations with Newton-Rhapson method. The method of cubic splines is very continuous, therefore when it is needed to design a trajectory in which there are at least 2 movements clearly differents, it is required to make it in 2 steps and join them later. That would be the case when any of the motors would keep stopped during the first movement, and another different motor would remain stopped during the second movement (and so on). Once that movement is obtained, they are calculated, also with numerical differenciation formulas, the independent velocities and accelerations. This process is analogous to the one before explained, reminding condition that acceleration when t=0 and t=end are 0. Dependent velocities and accelerations are calculated solving related derivatives of constrain equations. In a third approval of the model it is checked, again, consistence of interpolated movement. Inverse dynamics calculates, for a defined movement –knowing position, velocity and acceleration in each instant of time-, and knowing external forces that act (f.e. weights); which forces must be applied in motors (where there is control) in order to obtain requested movement. In inverse dynamics, each instant of time is independent of the others and it has a position, a velocity, an acceleration and known forces. In this specific case, it is intended to apply, at the moment, only forces due to the weight, though forces of another nature could have been added if it would have been preferred. The positions, velocities and accelerations, come from kinematic calculation. The inertial effect of forces taken into account (weight) is calculated. As final result of the inverse dynamic analysis, the are obtained torques that the 4 motors must apply to repeat requested movement with the forces that were acting. The fourth approval of the model consists on confirming that the achieved movement due to the use of the torques obtained in the inverse dynamics, are in accordance with movements from kinematic analysis (theoretical movement). For this, it is necessary to work with direct dynamics. Direct dynamic is in charge of calculating the movements of robot that results from applying torques at motors and forces at the robot. Therefore, the resultant real movement, as there was no change in any condition of the ones obtained at the inverse dynamics (motor torques and inertial forces due to weight of elements) must be the same than theoretical movement. When these results are achieved, it is considered that robot is ready to work. When a machining external force is introduced and it was not taken into account before during the inverse dynamics, and torques at motors considered are the ones of the inverse dynamics, the real movement obtained is not the same than the theoretical movement. Closed loop control is based on comparing real movement with expected movement and introducing required corrrections to minimize or cancel differences. They are applied gains in the way of corrections for position and/or tolerance to remove those differences. Position error is evaluated as the difference, in each point, between theoretical movemment (calculated in the kinematic analysis) and the real movement achieved for each machining force and for an specific gain. Finally, the position error obtained for each machining force and gains are mapped, giving a chart with the best accuracy that the robot can give for each operation that has been requested and which conditions must be provided.
Resumo:
La diabetes mellitus es una enfermedad que se caracteriza por la nula o insuficiente producción de insulina, o la resistencia del organismo a la misma. La insulina es una hormona que ayuda a que la glucosa llegue a los tejidos periféricos y al sistema nervioso para suministrar energía. Actualmente existen dos tipos de terapias aplicada en tejido subcutáneo: mediante inyección múltiple realizada con plumas, y la otra es mediante infusión continua de insulina por bomba (CSII). El mayor problema de esta terapia son los retardos por la absorción, tanto de los carbohidratos como de la insulina, y los retardos introducidos por el sensor subcutáneo de glucosa que mide la glucosa del líquido intersticial, lo deseable es controlar la glucosa en sangre. Para intentar independizar al paciente de su enfermedad se está trabajando en el desarrollo del páncreas endocrino artificial (PEA) que dotaría al paciente de una bomba de insulina, un sensor de glucosa y un controlador, el cual se encargaría de la toma de decisiones de las infusiones de insulina. Este proyecto persigue el diseño de un regulador en modo de funcionamiento en CL, con el objetivo de conseguir una regulación óptima del nivel de glucosa en sangre. El diseño de dicho regulador va a ser acometido utilizando la teoría del control por modelo interno (IMC). Esta teoría se basa en la idea de que es necesario realimentar la respuesta de un modelo aproximado del proceso que se quiere controlar. La salida del modelo, comparada con la del proceso real nos da la incertidumbre del modelo de la planta, frente a la planta real. Dado que según la teoría del modelo interno, estas diferencias se dan en las altas frecuencias, la teoría IMC propone un filtro paso bajo como regulador en serie con la inversa del modelo de la planta para conseguir el comportamiento deseado. Además se pretende implementar un Predictor Smith para minimizar los efectos del retardo de la medida del sensor. En el proyecto para conseguir la viabilidad del PEA se ha adaptado el controlador IMC clásico utilizando las ganancias estáticas de un modelo de glucosa, a partir de la ruta subcutánea de infusión y la vía subcutánea de medida. El modo de funcionamiento del controlador en SCL mejora el rango de normoglucemia, necesitando la intervención del paciente indicando anticipadamente el momento de las ingestas al controlador. El uso de un control SCL con el Predictor de Smith mejora los resultados pues se añade al controlador una variable sobre las ingestas con la participación del paciente. ABSTRACT. Diabetes mellitus is a group of metabolic diseases in which a person has high blood sugar, due to the body does not produce enough insulin, or because cells do not respond to the insulin produced. The insulin is a hormone that helps the glucose to reach to outlying tissues and the nervous system to supply energy. There are currently two types of therapies applied in subcutaneous tissue: the first one consists in using the intensive therapy with an insulin pen, and the other one is by continuous subcutaneous insulin infusion (CSII). The biggest problems of this therapy are the delays caused by the absorption of carbohydrates and insulin, and the delays introduced by the subcutaneous glucose sensor that measures glucose from interstitial fluid, it is suitable to control glucose blood. To try to improve these patients quality of life, work is being done on the development of an artificial endocrine pancreas (PEA) consisting of a subcutaneous insulin pump, a subcutaneous glucose sensor and an algorithm of glucose control, which would calculate the bolus that the pump would infuse to patient. This project aims to design a controller for closed-loop therapy, with the objective of obtain an optimal regulation of blood glucose level. The design of this controller will be formed using the theory of internal model control (IMC). This theory is based on the uncertainties given by a model to feedback the system control. Output model, in comparison with the actual process gives the uncertainty of the plant model, compared to the real plant. Since the theory of the internal model, these differences occur at high frequencies, the theory proposes IMC as a low pass filter regulator in series with the inverse model of the plant to get the required behavior. In addition, it will implement a Smith Predictor to minimize the effects of the delay measurement sensor. The project for the viability of PEA has adapted the classic IMC controller using the gains static of glucose model from the subcutaneous infusion and subcutaneous measuring. In simulation the SemiClosed-Loop controller get on the normoglycemia range, requiring patient intervention announce the bolus priming connected to intakes. Using an SCL control with the Smith Predictor improves the outcome because a variable about intakes is added to the controller through patient intervention.
Resumo:
Este trabajo es una contribución a los sistemas fotovoltaicos (FV) con seguimiento distribuido del punto de máxima potencia (DMPPT), una topología que se caracteriza porque lleva a cabo el MPPT a nivel de módulo, al contrario de las topologías más tradicionales que llevan a cabo el MPPT para un número más elevado de módulos, pudiendo ser hasta cientos de módulos. Las dos tecnologías DMPPT que existen en el mercado son conocidos como microinversores y optimizadores de potencia, y ofrecen ciertas ventajas sobre sistemas de MPPT central como: mayor producción en situaciones de mismatch, monitorización individual de cada módulo, flexibilidad de diseño, mayor seguridad del sistema, etc. Aunque los sistemas DMPPT no están limitados a los entornos urbanos, se ha enfatizado en el título ya que es su mercado natural, siendo difícil una justificación de su sobrecoste en grandes huertas solares en suelo. Desde el año 2010 el mercado de estos sistemas ha incrementado notablemente y sigue creciendo de una forma continuada. Sin embargo, todavía falta un conocimiento profundo de cómo funcionan estos sistemas, especialmente en el caso de los optimizadores de potencia, de las ganancias energéticas esperables en condiciones de mismatch y de las posibilidades avanzadas de diagnóstico de fallos. El principal objetivo de esta tesis es presentar un estudio completo de cómo funcionan los sistemas DMPPT, sus límites y sus ventajas, así como experimentos varios que verifican la teoría y el desarrollo de herramientas para valorar las ventajas de utilizar DMPPT en cada instalación. Las ecuaciones que modelan el funcionamiento de los sistemas FVs con optimizadores de potencia se han desarrollado y utilizado para resaltar los límites de los mismos a la hora de resolver ciertas situaciones de mismatch. Se presenta un estudio profundo sobre el efecto de las sombras en los sistemas FVs: en la curva I-V y en los algoritmos MPPT. Se han llevado a cabo experimentos sobre el funcionamiento de los algoritmos MPPT en situaciones de sombreado, señalando su ineficiencia en estas situaciones. Un análisis de la ventaja del uso de DMPPT frente a los puntos calientes es presentado y verificado. También se presenta un análisis sobre las posibles ganancias en potencia y energía con el uso de DMPPT en condiciones de sombreado y este también es verificado experimentalmente, así como un breve estudio de su viabilidad económica. Para ayudar a llevar a cabo todos los análisis y experimentos descritos previamente se han desarrollado una serie de herramientas software. Una siendo un programa en LabView para controlar un simulador solar y almacenar las medidas. También se ha desarrollado un programa que simula curvas I-V de módulos y generador FVs afectados por sombras y este se ha verificado experimentalmente. Este mismo programa se ha utilizado para desarrollar un programa todavía más completo que estima las pérdidas anuales y las ganancias obtenidas con DMPPT en instalaciones FVs afectadas por sombras. Finalmente, se han desarrollado y verificado unos algoritmos para diagnosticar fallos en sistemas FVs con DMPPT. Esta herramienta puede diagnosticar los siguientes fallos: sombras debido a objetos fijos (con estimación de la distancia al objeto), suciedad localizada, suciedad general, posible punto caliente, degradación de módulos y pérdidas en el cableado de DC. Además, alerta al usuario de las pérdidas producidas por cada fallo y no requiere del uso de sensores de irradiancia y temperatura. ABSTRACT This work is a contribution to photovoltaic (PV) systems with distributed maximum power point tracking (DMPPT), a system topology characterized by performing the MPPT at module level, instead of the more traditional topologies which perform MPPT for a larger number of modules. The two DMPPT technologies available at the moment are known as microinverters and power optimizers, also known as module level power electronics (MLPE), and they provide certain advantages over central MPPT systems like: higher energy production in mismatch situations, monitoring of each individual module, system design flexibility, higher system safety, etc. Although DMPPT is not limited to urban environments, it has been emphasized in the title as it is their natural market, since in large ground-mounted PV plants the extra cost is difficult to justify. Since 2010 MLPE have increased their market share steadily and continuing to grow steadily. However, there still lacks a profound understanding of how they work, especially in the case of power optimizers, the achievable energy gains with their use and the possibilities in failure diagnosis. The main objective of this thesis is to provide a complete understanding of DMPPT technologies: how they function, their limitations and their advantages. A series of equations used to model PV arrays with power optimizers have been derived and used to point out limitations in solving certain mismatch situation. Because one of the most emphasized benefits of DMPPT is their ability to mitigate shading losses, an extensive study on the effects of shadows on PV systems is presented; both on the I-V curve and on MPPT algorithms. Experimental tests have been performed on the MPPT algorithms of central inverters and MLPE, highlighting their inefficiency in I-V curves with local maxima. An analysis of the possible mitigation of hot-spots with DMPPT is discussed and experimentally verified. And a theoretical analysis of the possible power and energy gains is presented as well as experiments in real PV systems. A short economic analysis of the benefits of DMPPT has also been performed. In order to aide in the previous task, a program which simulates I-V curves under shaded conditions has been developed and experimentally verified. This same program has been used to develop a software tool especially designed for PV systems affected by shading, which estimates the losses due to shading and the energy gains obtained with DMPPT. Finally, a set of algorithms for diagnosing system faults in PV systems with DMPPT has been developed and experimentally verified. The tool can diagnose the following failures: fixed object shading (with distance estimation), localized dirt, generalized dirt, possible hot-spots, module degradation and excessive losses in DC cables. In addition, it alerts the user of the power losses produced by each failure and classifies the failures by their severity and it does not require the use of irradiance or temperature sensors.
Resumo:
En las últimas décadas, ha aumentado el interés de la investigación sobre el desarrollo de la coordinación motriz en la adolescencia por ser una etapa sensible, crítica y crucial para la adquisición de hábitos y conductas saludables de vida. Estos estudios han mostrado que la adquisición de unos niveles óptimos de coordinación y competencia motriz van a ser determinantes para el bienestar del adolescente y van a estar relacionados e influidos por otras dimensiones del desarrollo de la persona. Recientes investigaciones han sacado a la luz datos alarmantes sobre el aumento de problemas de coordinación motriz en la población infantil y adolescente (Cantell, Smyth y Ahonen, 1994; Gómez, 2004; Ruiz, Graupera, Gutiérrez y Miyahara, 2003; Sudgen y Chambers, 2005) donde abrocharse los botones de una camisa o correr de forma armónica puede ser todo un mundo lleno de dificultades y consecuencias sobre otras dimensiones del desarrollo (Ramón-Otero y Ruiz, 2015). Estos problemas han sido tratados por investigadores como una “dificultad oculta” (Gómez, Ruiz y Mata, 2006), cuya manifestación está presente en las actividades de la vida cotidiana, en contextos deportivos, en juegos y/o en la clase de Educación Física (Ruiz, 2004). La preocupación por estas dificultades se ha extendido a nivel internacional, creando todo un campo de investigación que estudia el diagnóstico de éstos problemas, conocido bajo las siglas DCD (Developmental Coordination Disorder). El presente estudio se centra en la etapa adolescente, periodo de transición entre la etapa infantil y adulta, caracterizada por numerosos cambios biológicos, cognitivos y socioemocionales (Santrock, 2005), que van a determinar la adaptación con el entorno (Gallahue, Ozmun y Goodway, 2011; Gómez, Ruiz, y Mata, 2006). El propósito principal del estudio es analizar el desarrollo de la coordinación motriz en la etapa adolescente investigando las diferencias de género y de edad en relación con variables psicosociales, los hábitos de práctica y las variables antropométricas. El diseño de la investigación se estructura en dos estudios. El primero de ellos, de carácter transversal, analizó una muestra representativa de 1.966 adolescentes de 1º a 4º de la ESO. El segundo, de naturaleza longitudinal, utilizó un grupo de 89 adolescentes del estudio transversal los cuales fueron estudiados durante 4 años, desde los 12 a los 15 años. Los mismos instrumentos fueron utilizados en ambos estudios: el Test Sportcomp para la evaluación de la coordinación motriz, el test AMPET4 para valorar la motivación de logro para el aprendizaje en Educación Física, el inventario HBSC para conocer los hábitos saludables sobre la práctica de actividad física y, por ultimo, se utilizó un estadiómetro para obtener el peso y la altura y así calcular el índice de masa corporal (IMC). La toma de datos del Estudio Transversal se realizó en 2 cursos académicos (2011/12 - 2012/13), en la cual se requirieron 3 sesiones coincidiendo con la clase de Educación Física. En la primera sesión, se evaluó la coordinación motriz. En la segunda se aplicaron los cuestionarios (AMPET4 y HBSC) y, en la última sesión se midió el peso y la altura en un espacio reservado al estadiómetro. El análisis de datos fue descriptivo y diferencial de cada una de las variables estudiadas: motoras, psicosociales, de hábitos de práctica de actividad física y antropométricas. Asimismo, se llevaron a cabo pruebas de análisis univariante y multivariante, calculando el valor-p y las pruebas de efecto. Respecto al Estudio Longitudinal, la toma de datos se llevó cabo durante 4 años desde el 2011 al 2014. La evaluación de la coordinación motriz se realizó en cada uno de los 4 años. Sin embargo, los 2 cuestionarios y las medidas antropométricas fueron evaluadas en el primer y cuarto año. Los análisis de datos fueron descriptivos y comparativos entre las variables analizadas. En el caso de la coordinación motriz, se realizaron las pruebas de medidas repetidas y, en el caso de las demás variables analizadas, se realizaron Prueba T para muestras relacionadas. Los resultados globales mostraron que el índice motor en el Estudio Transversal fue progresivo en el conjunto de chicos. Sin embargo, en las chicas, el rendimiento se estabiliza a partir de los 13 años. En el caso del Estudio Longitudinal, este índice se estabiliza en los 3 primeros años y a la edad de los 14, es cuando comienzan a acusarse las diferencias de género. En el caso de los hombres el rendimiento mejora y, por el contrario, en las mujeres empeora. En el Estudio Transversal, el análisis de varianza mostraron diferencias en función de la edad [F(7, 1958) = 220.70, p < .001; η2 = .101], del género [F(7, 1958) = 29.76, p < .001; η2 = .044], así como en la interacción entre ambos [F(7, 1958)= 11.90, p < .001; η2 = .018]. Únicamente aparecieron diferencias significativas con la edad en todos los grupos de hombres, excepto entre 14 y 15 años. En el Longitudinal, los contrastes multivariados mostraron que no hubo diferencias sgnificativas en el tiempo [F(3,85) = .05, p = .987, η2= .002] mostrando un nivel de coordinación estable a lo largo de los años, aunque existieron diferencias entre chicos y chicas [F(3,85) = 4.64 p = .005] con un tamaño de efecto destacable (η2 = .141). En cuanto a la motivación de logro para prender en Educación Física, en ambos estudios, los chicos fueron los que obtuvieron puntuaciones más elevadas en todas las dimensiones positivas del test (compromiso de aprendizaje, competencia autopercibida y comparada). Sin embargo, en la dimensión negativa del test, la referida a la ansiedad y al agobio ante el fracaso, fueron las chicas las que puntuaron más alto. En el Estudio Transversal, los resultados mostraron diferencias significativas en todas las dimensiones del AMPET4 en función del nivel de coordinación motriz: compromiso con el aprendizaje [F(2, 1644) = 8.66, p < .001; η2 = .010], competencia autopercibida [F(2, 1644) = 50.94, p < .001; η2 = .048], competencia comparada [F(2, 1644) = 41.56, p < .001, η2 = .020] y ansiedad [F(2, 1644) = 16.67, p < .001, η2 = .058]. En este sentido, los grupos de mejor nivel de coordinación motriz, fueron los que mayor puntuación obtuvieron en las dimensiones positivas y los que menor, en la negativa. En el Estudio Longitudinal, también se encontraron diferencias entre el primer y cuarto año de estudio en todas las dimensiones, excepto en competencia motriz autopercibida. Estas diferencias se tradujeron en una disminución en las 3 variables significativas del primer al cuarto año. Respecto al inventario HBSC, en el Estudio Longitudinal, la prueba T mostró únicamente la existencia de diferencias significativas entre el primer y cuarto año en 2 de los 11 ítems: percepción de la forma física (p = .006) y percepción de la salud (p = .047), los cuales disminuyeron en el intervalo de tiempo del estudio. En el Transversal, las diferencias se observaron en función del género (p < .001) y de la edad (p < .001). Asimismo, se mostraron diferencias significativas en todos los ítems respecto al nivel de coordinación motriz, excepto en 2 de ellos: frecuencia tiempo libre con los amigos fuera del colegio (p = .580) y facilidad para hacer amigos en el centro escolar (p = .098). Por último, en las variables antropométricas, los resultados del Estudio Transversal y Longitudinal coinciden tanto en la estatura como en el peso, apuntando, que en ambos estudios, se produce un aumento progresivo tanto en chicos como en chicas a medida que se avanza en edad. Concretamente en el Transversal, estas diferencias en la edad se encuentran en todos los grupos en ambos géneros, excepto en el conjunto de chicas entre los 14 y los 15 años. Asimismo, ambos estudios coincidieron en que tanto las ganancias en cm y kg, como las puntuaciones medias, fueron mayores en los chicos que en las chicas. Respecto al IMC, los 2 estudios coincidieron en que la evolución es paralela, y tal y como apuntan los resultados del Transversal, no se encontraron diferencias ni en la edad (p = 792) ni en el género (p = 284). No obstante, el Longitudinal apuntó únicamente diferencias significativas entre el primer y cuarto año en el conjunto de los hombres [t(41) = -4.01, p < .001]. Finalmente, y en relación con los niveles de coordinación motriz, hubo diferencias significativas en relación con el IMC (p = .012), mostrando como el grupo de peso normal coincide con puntuaciones óptimas de coordinación motriz. A modo de conclusiones, el presente estudio revela cómo la adquisición de un nivel de coordinación óptimo va a ser fundamental para el desarrollo psicosocial, para el desarrollo de hábitos saludables de práctica y para mantener un IMC dentro de la normalidad para el género y la edad. De esta manera, el desarrollo de la coordinación motriz será un aspecto fundamental para lograr un estado de bienestar físico y mental, y unos hábitos favorables para la práctica de actividad física. ABSTRACT In the past couple of decades, adolescence stage in motor coordination gained significant interest in research especially due to its sensitive and critical importance to achieving a healthy life style. These studies observed how to acquire optimum levels of coordination and motor competence, which proved crucial to the quality of the adolescent stage in addition to being influenced by other dimensions of development for each individual. Recent research shed light to an alarming set of data, which showed increased motor coordination problems in children and adolescents (Cantell, Smyth & Ahonen, 1994; Gómez, 2004; Ruiz, Graupera, Gutierrez & Miyahara, 2003; Sugden & Chambers, 2005). For instance, even to the extent that buttoning a shirt or running in a harmonic form can lead to a whole set of consequences and difficulties on the development stage. Researchers have addressed such problems in various studies such as “dificultad oculta” (Gomez, Ruiz & Mata, 2006), which literally translates as “hidden trouble”. The studies are evidently present in the activities of daily life, sporting contexts, games and/or Physical Education (Ruiz, 2004). Concern about these difficulties spread internationally, creating a whole framework research studying the diagnosis of these problems, known under the acronym DCD (Developmental Coordination Disorder). The study focuses on the adolescent stage, transition period between childhood and adulthood characterized by numerous biological, cognitive and socio-emotional changes (Santrock, 2005), which interestingly determines an individual´s adaptation to the environment (Gallahue, Ozmun & Goodway, 2011; Gomez, Ruiz & Mata, 2006). The main purpose of the study is to analyse the development of motor coordination in the adolescent stage investigating gender differences and age in relation to psychological variables, physical activity habits and anthropometric variables. The research design is structured in two studies. The first (transversal nature), analyses a representative sample of 1,966 adolescents from 1st to 4th of Secondary Education School. The second (longitudinal nature) used a group of 89 teenagers from cross-sectional study, which were studied for four years, from 12 to 15 years. The same instruments were used in both studies, namely; “Sportcomp Test” used to evaluate of motor coordination; “AMPET4 Test” which assesses the motivational achievement of learning Physical Education; “HBSC Inventory” to find out the healthy habits gained from physical activities; And finally a “stadiometer” was used to obtain the weight and height and thus calculate the body mass index (BMI). The data collection of the cross-sectional Study was conducted in two academic years (2011/12 - 2012/13), in which 3 sessions coinciding with the Physical Education level are required. In the first session, motor coordination was evaluated; questionnaires were applied in the second session (AMPET4 and HBSC); and in the last session the weight and height were measured in a reserved space for the “stadiometer”. Notably, data analysis was descriptive and differential in each of the variable studies: motor, psychological, practical and anthropometric habits of physical activity. Thus the tests were conducted in a univariate and multivariate analysis, calculating the p-value and effect tests. Regarding the Longitudinal Study, data collection was carried out during four years from 2011 to 2014 inclusively. The assessment of motor coordination was performed on each of the four years, however, the 2 questionnaires and anthropometric measures were evaluated in the first and fourth year. Data analyses were also descriptive and comparative among the variables that were put to the test. In the case of motor coordination tests, they were done on repeated measures, whilst, in the case of other variables analysed, they were accomplished through T Tests under comparable samples. The overall results showed that the engine Motor Index in Study 1 was progressive in all male gender studies, however in the females the performance remained constant after reaching 13 years of age. For the Longitudinal Study, this index is stabilized in the first 3 years and at the age of 14 is when the gender differences take place. In the case of males, the performance improves, however, in females worsens. The cross-sectional Study, analysis of variance showed differences in terms of age [F(7, 1958) = 220.70, p < .001; η2 = .101], gender [F(7, 1958) = 29.76, p <.001; η2 = .044], as well as their interaction [F(7, 1958) = 11.90, p <.001; η2 = .018]. They only show significant differences in respect to age in the male set sample, in all groups except between 14 and 15 years old. In the Longitudinal, the multivariate contrasts showed no significant differences in time [F(3,85) = 0.05, p = 0.987, η2 = 0.002] showing a stable level of coordination over the years, but if there were differences between both genders [F(3,85) = 4.64, p = .005] it took place with a noteworthy effect size (η2 = .141). In regards, to the Motivational Achievement for learning Physical Education, in both studies the male sample administered obtained higher scores on all the positive dimensions of the test (commitment to learning, self-assessed competence, and comparable competence). However, on the negative assessment side, namely, anxiety and fear of failure, the female sample scored higher than the male one. In Study 1, the multivariate analysis showed significant differences between the psychosocial dimensions and levels of motor coordination with moderate to significant effect [Lambada de Wilks = .931, F(8, 3282) = 14.99; p = <0.001; η2 = .035]. By the same token, the groups with the best level of motor coordination were the highest scoring ones in the positive dimensions, whilst the lower performing ones, performed better in the negative dimension. In the longitudinal study, there is also differences were also found between the first and fourth years of study in all dimensions, except in self-perceived motor competition. These differences resulted in a significant decrease in the 3 variables from first to fourth year. Regarding, the “HBSC Inventory”, the T test in the longitudinal study showed uniquely the existence of significant differences between the first and fourth year in 2 of the 11 items: perception of physical fitness (p = .006) and perceived health (p = 047), which diminished in the interval time of the study. In the Cross-sectional study, the se differences were also observed in gender (p < .001) and age (p < .001). Similarly, they showed significant differences in all items in respect to the motor coordination level, except in 2 of them; frequency of free time with friends outside of school (p = .580) and the ease to make friends at the educational centre (p = 098). And last but not least, the anthropometric variables, both the results of the Transversal and Longitudinal Study matched both height and weight, pointing out that in both studies a gradual increase in both genders, as they grow older. Notably in the Cross-sectional, these differences in age are found in all groups in both genders, except for the set of girls between 14 and 15 years. Thus both studies concluded that both gains in cm and kg and the mean scores were higher amongst males compared to females. Regarding BMI, the 2 studies concluded that the evolution is parallel, and as pointed cross-sectional study there isn’t differences found in age (p = 792) or in gender (p = 284). However, the Longitudinal study uniquely shows significant difference between the first and fourth year for male set sample [t (41) = -4.01, p < .001]. Finally, in relation to levels of motor coordination, there were significant differences in relation to BMI (p = .012), showing how the “normal weight group” matches the optimal scores of motor coordination. In conclusion, this study reveals how the acquisition of an optimal level of coordination is vital for psychological development, to develop and practice healthy habits, and to maintain a BMI within the normal range for age and gender. Therefore, the development of motor coordination is fundamental to achieving a state of physical and mental wellbeing, and preferable habits to pursuing physical activity.
Resumo:
El departamento de QA & Testing de Indra da cobertura a las actividades de aseguramiento de calidad y testing en diferentes operaciones. La línea principal de operación está centrada en el diseño y ejecución de pruebas de aplicaciones, las cuales están orientadas a asegurar que “el sistema hace lo que tiene que hacer, y no hace lo que no debe hacer”. En la línea de movilidad (moQA) se dispone de software específico y de un rack de dispositivos para aplicaciones que deben funcionar sobre diversidad de tecnologías o dispositivos. Es precisamente en esta unidad donde se está buscando dar un nuevo enfoque al testing tradicional. En este contexto se propone como método innovador la implementación de una herramienta que permita utilizar un dispositivo, Smartphone o Tablet, en remoto desde cualquier parte del mundo. Con el objetivo principal de desarrollar un nuevo servicio que permita a la unidad de QA & Testing diferenciarse de los competidores en un mercado completamente en auge, se ha llevado a cabo este Trabajo de Fin de Grado, en el cual se realiza la implementación de un sistema de reserva de dispositivos integrado en la nube. Sin embargo, cabe destacar que esta necesidad surge también a raíz del crecimiento exponencial del departamento producido en los últimos meses y que ha provocado la adquisición de decenas de dispositivos sobrepasando el centenar. El sistema implementado busca sacar una rentabilidad mucho mayor de los mismos. A partir de la creación de esta nueva herramienta se abre un amplio abanico de posibilidades que podrían aumentar las ganancias de la inversión realizada en el rack de dispositivos. El desarrollo de este Trabajo de Fin de Grado se ha dividido en tres tareas distintas: I) Realización de un estudio de las distintas herramientas de gestión de reservas existentes, para encontrar aquella que mejor se adapte al proyecto. Posteriormente se procederá a la implantación de la misma sobre un servidor web, como parte del desarrollo de la aplicación web cliente. II) Implementación de las conexiones necesarias entre la nube y la aplicación web cliente. III) Desarrollo del script encargado de proporcionar el acceso remoto de un dispositivo desde el servidor directamente hasta el cliente. En último lugar, conociendo toda la lógica del sistema, se mostrarán los resultados y se describirán las conclusiones de la herramienta implementada.
Resumo:
Las futuras misiones para misiles aire-aire operando dentro de la atmósfera requieren la interceptación de blancos a mayores velocidades y más maniobrables, incluyendo los esperados vehículos aéreos de combate no tripulados. La intercepción tiene que lograrse desde cualquier ángulo de lanzamiento. Una de las principales discusiones en la tecnología de misiles en la actualidad es cómo satisfacer estos nuevos requisitos incrementando la capacidad de maniobra del misil y en paralelo, a través de mejoras en los métodos de guiado y control modernos. Esta Tesis aborda estos dos objetivos simultáneamente, al proponer un diseño integrando el guiado y el control de vuelo (autopiloto) y aplicarlo a misiles con control aerodinámico simultáneo en canard y cola. Un primer avance de los resultados obtenidos ha sido publicado recientemente en el Journal of Aerospace Engineering, en Abril de 2015, [Ibarrondo y Sanz-Aranguez, 2015]. El valor del diseño integrado obtenido es que permite al misil cumplir con los requisitos operacionales mencionados empleando únicamente control aerodinámico. El diseño propuesto se compara favorablemente con esquemas más tradicionales, consiguiendo menores distancias de paso al blanco y necesitando de menores esfuerzos de control incluso en presencia de ruidos. En esta Tesis se demostrará cómo la introducción del doble mando, donde tanto el canard como las aletas de cola son móviles, puede mejorar las actuaciones de un misil existente. Comparado con un misil con control en cola, el doble control requiere sólo introducir dos servos adicionales para accionar los canards también en guiñada y cabeceo. La sección de cola será responsable de controlar el misil en balanceo mediante deflexiones diferenciales de los controles. En el caso del doble mando, la complicación añadida es que los vórtices desprendidos de los canards se propagan corriente abajo y pueden incidir sobre las superficies de cola, alterando sus características de control. Como un primer aporte, se ha desarrollado un modelo analítico completo para la aerodinámica no lineal de un misil con doble control, incluyendo la caracterización de este efecto de acoplamiento aerodinámico. Hay dos modos de funcionamiento en picado y guiñada para un misil de doble mando: ”desviación” y ”opuesto”. En modo ”desviación”, los controles actúan en la misma dirección, generando un cambio inmediato en la sustentación y produciendo un movimiento de translación en el misil. La respuesta es rápida, pero en el modo ”desviación” los misiles con doble control pueden tener dificultades para alcanzar grandes ángulos de ataque y altas aceleraciones laterales. Cuando los controles actúan en direcciones opuestas, el misil rota y el ángulo de ataque del fuselaje se incrementa para generar mayores aceleraciones en estado estacionario, aunque el tiempo de respuesta es mayor. Con el modelo aerodinámico completo, es posible obtener una parametrización dependiente de los estados de la dinámica de corto periodo del misil. Debido al efecto de acoplamiento entre los controles, la respuesta en bucle abierto no depende linealmente de los controles. El autopiloto se optimiza para obtener la maniobra requerida por la ley de guiado sin exceder ninguno de los límites aerodinámicos o mecánicos del misil. Una segunda contribución de la tesis es el desarrollo de un autopiloto con múltiples entradas de control y que integra la aerodinámica no lineal, controlando los tres canales de picado, guiñada y cabeceo de forma simultánea. Las ganancias del autopiloto dependen de los estados del misil y se calculan a cada paso de integración mediante la resolución de una ecuación de Riccati de orden 21x21. Las ganancias obtenidas son sub-óptimas, debido a que una solución completa de la ecuación de Hamilton-Jacobi-Bellman no puede obtenerse de manera práctica, y se asumen ciertas simplificaciones. Se incorpora asimismo un mecanismo que permite acelerar la respuesta en caso necesario. Como parte del autopiloto, se define una estrategia para repartir el esfuerzo de control entre el canard y la cola. Esto se consigue mediante un controlador aumentado situado antes del bucle de optimización, que minimiza el esfuerzo total de control para maniobrar. Esta ley de alimentación directa mantiene al misil cerca de sus condiciones de equilibrio, garantizando una respuesta transitoria adecuada. El controlador no lineal elimina la respuesta de fase no-mínima característica de la cola. En esta Tesis se consideran dos diseños para el guiado y control, el control en Doble-Lazo y el control Integrado. En la aproximación de Doble-Lazo, el autopiloto se sitúa dentro de un bucle interior y se diseña independientemente del guiado, que conforma el bucle más exterior del control. Esta estructura asume que existe separación espectral entre los dos, esto es, que los tiempos de respuesta del autopiloto son mucho mayores que los tiempos característicos del guiado. En el estudio se combina el autopiloto desarrollado con una ley de guiado óptimo. Los resultados obtenidos demuestran que se consiguen aumentos muy importantes en las actuaciones frente a misiles con control canard o control en cola, y que la interceptación, cuando se lanza cerca del curso de colisión, se consigue desde cualquier ángulo alrededor del blanco. Para el misil de doble mando, la estrategia óptima resulta en utilizar el modo de control opuesto en la aproximación al blanco y utilizar el modo de desviación justo antes del impacto. Sin embargo la lógica de doble bucle no consigue el impacto cuando hay desviaciones importantes con respecto al curso de colisión. Una de las razones es que parte de la demanda de guiado se pierde, ya que el misil solo es capaz de modificar su aceleración lateral, y no tiene control sobre su aceleración axial, a no ser que incorpore un motor de empuje regulable. La hipótesis de separación mencionada, y que constituye la base del Doble-Bucle, puede no ser aplicable cuando la dinámica del misil es muy alta en las proximidades del blanco. Si se combinan el guiado y el autopiloto en un único bucle, la información de los estados del misil está disponible para el cálculo de la ley de guiado, y puede calcularse la estrategia optima de guiado considerando las capacidades y la actitud del misil. Una tercera contribución de la Tesis es la resolución de este segundo diseño, la integración no lineal del guiado y del autopiloto (IGA) para el misil de doble control. Aproximaciones anteriores en la literatura han planteado este sistema en ejes cuerpo, resultando en un sistema muy inestable debido al bajo amortiguamiento del misil en cabeceo y guiñada. Las simplificaciones que se tomaron también causan que el misil se deslice alrededor del blanco y no consiga la intercepción. En nuestra aproximación el problema se plantea en ejes inerciales y se recurre a la dinámica de los cuaterniones, eliminado estos inconvenientes. No se limita a la dinámica de corto periodo del misil, porque se construye incluyendo de modo explícito la velocidad dentro del bucle de optimización. La formulación resultante en el IGA es independiente de la maniobra del blanco, que sin embargo se ha de incluir en el cálculo del modelo en Doble-bucle. Un típico inconveniente de los sistemas integrados con controlador proporcional, es el problema de las escalas. Los errores de guiado dominan sobre los errores de posición del misil y saturan el controlador, provocando la pérdida del misil. Este problema se ha tratado aquí con un controlador aumentado previo al bucle de optimización, que define un estado de equilibrio local para el sistema integrado, que pasa a actuar como un regulador. Los criterios de actuaciones para el IGA son los mismos que para el sistema de Doble-Bucle. Sin embargo el problema matemático resultante es muy complejo. El problema óptimo para tiempo finito resulta en una ecuación diferencial de Riccati con condiciones terminales, que no puede resolverse. Mediante un cambio de variable y la introducción de una matriz de transición, este problema se transforma en una ecuación diferencial de Lyapunov que puede resolverse mediante métodos numéricos. La solución resultante solo es aplicable en un entorno cercano del blanco. Cuando la distancia entre misil y blanco es mayor, se desarrolla una solución aproximada basada en la solución de una ecuación algebraica de Riccati para cada paso de integración. Los resultados que se han obtenido demuestran, a través de análisis numéricos en distintos escenarios, que la solución integrada es mejor que el sistema de Doble-Bucle. Las trayectorias resultantes son muy distintas. El IGA preserva el guiado del misil y consigue maximizar el uso de la propulsión, consiguiendo la interceptación del blanco en menores tiempos de vuelo. El sistema es capaz de lograr el impacto donde el Doble-Bucle falla, y además requiere un orden menos de magnitud en la cantidad de cálculos necesarios. El efecto de los ruidos radar, datos discretos y errores del radomo se investigan. El IGA es más robusto, resultando menos afectado por perturbaciones que el Doble- Bucle, especialmente porque el núcleo de optimización en el IGA es independiente de la maniobra del blanco. La estimación de la maniobra del blanco es siempre imprecisa y contaminada por ruido, y degrada la precisión de la solución de Doble-Bucle. Finalmente, como una cuarta contribución, se demuestra que el misil con guiado IGA es capaz de realizar una maniobra de defensa contra un blanco que ataque por su cola, sólo con control aerodinámico. Las trayectorias estudiadas consideran una fase pre-programada de alta velocidad de giro, manteniendo siempre el misil dentro de su envuelta de vuelo. Este procedimiento no necesita recurrir a soluciones técnicamente más complejas como el control vectorial del empuje o control por chorro para ejecutar esta maniobra. En todas las demostraciones matemáticas se utiliza el producto de Kronecker como una herramienta practica para manejar las parametrizaciones dependientes de variables, que resultan en matrices de grandes dimensiones. ABSTRACT Future missions for air to air endo-atmospheric missiles require the interception of targets with higher speeds and more maneuverable, including forthcoming unmanned supersonic combat vehicles. The interception will need to be achieved from any angle and off-boresight launch conditions. One of the most significant discussions in missile technology today is how to satisfy these new operational requirements by increasing missile maneuvering capabilities and in parallel, through the development of more advanced guidance and control methods. This Thesis addresses these two objectives by proposing a novel optimal integrated guidance and autopilot design scheme, applicable to more maneuverable missiles with forward and rearward aerodynamic controls. A first insight of these results have been recently published in the Journal of Aerospace Engineering in April 2015, [Ibarrondo and Sanz-Aránguez, 2015]. The value of this integrated solution is that it allows the missile to comply with the aforementioned requirements only by applying aerodynamic control. The proposed design is compared against more traditional guidance and control approaches with positive results, achieving reduced control efforts and lower miss distances with the integrated logic even in the presence of noises. In this Thesis it will be demonstrated how the dual control missile, where canard and tail fins are both movable, can enhance the capabilities of an existing missile airframe. Compared to a tail missile, dual control only requires two additional servos to actuate the canards in pitch and yaw. The tail section will be responsible to maintain the missile stabilized in roll, like in a classic tail missile. The additional complexity is that the vortices shed from the canard propagate downstream where they interact with the tail surfaces, altering the tail expected control characteristics. These aerodynamic phenomena must be properly described, as a preliminary step, with high enough precision for advanced guidance and control studies. As a first contribution we have developed a full analytical model of the nonlinear aerodynamics of a missile with dual control, including the characterization of this cross-control coupling effect. This development has been produced from a theoretical model validated with reliable practical data obtained from wind tunnel experiments available in the scientific literature, complement with computer fluid dynamics and semi-experimental methods. There are two modes of operating a missile with forward and rear controls, ”divert” and ”opposite” modes. In divert mode, controls are deflected in the same direction, generating an increment in direct lift and missile translation. Response is fast, but in this mode, dual control missiles may have difficulties in achieving large angles of attack and high level of lateral accelerations. When controls are deflected in opposite directions (opposite mode) the missile airframe rotates and the body angle of attack is increased to generate greater accelerations in steady-state, although the response time is larger. With the aero-model, a state dependent parametrization of the dual control missile short term dynamics can be obtained. Due to the cross-coupling effect, the open loop dynamics for the dual control missile is not linearly dependent of the fin positions. The short term missile dynamics are blended with the servo system to obtain an extended autopilot model, where the response is linear with the control fins turning rates, that will be the control variables. The flight control loop is optimized to achieve the maneuver required by the guidance law without exceeding any of the missile aerodynamic or mechanical limitations. The specific aero-limitations and relevant performance indicators for the dual control are set as part of the analysis. A second contribution of this Thesis is the development of a step-tracking multi-input autopilot that integrates non-linear aerodynamics. The designed dual control missile autopilot is a full three dimensional autopilot, where roll, pitch and yaw are integrated, calculating command inputs simultaneously. The autopilot control gains are state dependent, and calculated at each integration step solving a matrix Riccati equation of order 21x21. The resulting gains are sub-optimal as a full solution for the Hamilton-Jacobi-Bellman equation cannot be resolved in practical terms and some simplifications are taken. Acceleration mechanisms with an λ-shift is incorporated in the design. As part of the autopilot, a strategy is defined for proper allocation of control effort between canard and tail channels. This is achieved with an augmented feed forward controller that minimizes the total control effort of the missile to maneuver. The feedforward law also maintains the missile near trim conditions, obtaining a well manner response of the missile. The nonlinear controller proves to eliminate the non-minimum phase effect of the tail. Two guidance and control designs have been considered in this Thesis: the Two- Loop and the Integrated approaches. In the Two-Loop approach, the autopilot is placed in an inner loop and designed separately from an outer guidance loop. This structure assumes that spectral separation holds, meaning that the autopilot response times are much higher than the guidance command updates. The developed nonlinear autopilot is linked in the study to an optimal guidance law. Simulations are carried on launching close to collision course against supersonic and highly maneuver targets. Results demonstrate a large boost in performance provided by the dual control versus more traditional canard and tail missiles, where interception with the dual control close to collision course is achieved form 365deg all around the target. It is shown that for the dual control missile the optimal flight strategy results in using opposite control in its approach to target and quick corrections with divert just before impact. However the Two-Loop logic fails to achieve target interception when there are large deviations initially from collision course. One of the reasons is that part of the guidance command is not followed, because the missile is not able to control its axial acceleration without a throttleable engine. Also the separation hypothesis may not be applicable for a high dynamic vehicle like a dual control missile approaching a maneuvering target. If the guidance and autopilot are combined into a single loop, the guidance law will have information of the missile states and could calculate the most optimal approach to the target considering the actual capabilities and attitude of the missile. A third contribution of this Thesis is the resolution of the mentioned second design, the non-linear integrated guidance and autopilot (IGA) problem for the dual control missile. Previous approaches in the literature have posed the problem in body axes, resulting in high unstable behavior due to the low damping of the missile, and have also caused the missile to slide around the target and not actually hitting it. The IGA system is posed here in inertial axes and quaternion dynamics, eliminating these inconveniences. It is not restricted to the missile short term dynamic, and we have explicitly included the missile speed as a state variable. The IGA formulation is also independent of the target maneuver model that is explicitly included in the Two-loop optimal guidance law model. A typical problem of the integrated systems with a proportional control law is the problem of scales. The guidance errors are larger than missile state errors during most of the flight and result in high gains, control saturation and loss of control. It has been addressed here with an integrated feedforward controller that defines a local equilibrium state at each flight point and the controller acts as a regulator to minimize the IGA states excursions versus the defined feedforward state. The performance criteria for the IGA are the same as in the Two-Loop case. However the resulting optimization problem is mathematically very complex. The optimal problem in a finite-time horizon results in an irresoluble state dependent differential Riccati equation with terminal conditions. With a change of variable and the introduction of a transition matrix, the equation is transformed into a time differential Lyapunov equation that can be solved with known numerical methods in real time. This solution results range limited, and applicable when the missile is in a close neighborhood of the target. For larger ranges, an approximate solution is used, obtained from solution of an algebraic matrix Riccati equation at each integration step. The results obtained show, by mean of several comparative numerical tests in diverse homing scenarios, than the integrated approach is a better solution that the Two- Loop scheme. Trajectories obtained are very different in the two cases. The IGA fully preserves the guidance command and it is able to maximize the utilization of the missile propulsion system, achieving interception with lower miss distances and in lower flight times. The IGA can achieve interception against off-boresight targets where the Two- Loop was not able to success. As an additional advantage, the IGA also requires one order of magnitude less calculations than the Two-Loop solution. The effects of radar noises, discrete radar data and radome errors are investigated. IGA solution is robust, and less affected by radar than the Two-Loop, especially because the target maneuvers are not part of the IGA core optimization loop. Estimation of target acceleration is always imprecise and noisy and degrade the performance of the two-Loop solution. The IGA trajectories are such that minimize the impact of radome errors in the guidance loop. Finally, as a fourth contribution, it is demonstrated that the missile with IGA guidance is capable of performing a defense against attacks from its rear hemisphere, as a tail attack, only with aerodynamic control. The studied trajectories have a preprogrammed high rate turn maneuver, maintaining the missile within its controllable envelope. This solution does not recur to more complex features in service today, like vector control of the missile thrust or side thrusters. In all the mathematical treatments and demonstrations, the Kronecker product has been introduced as a practical tool to handle the state dependent parametrizations that have resulted in very high order matrix equations.
Resumo:
En este Proyecto de Fin de Carrera se describe la implementación de un simulador del enlace descendente de un sistema LTE. Dicho simulador es capaz de modelar con precisión las variaciones rápidas del canal, que se producen debido al efecto del multitrayecto. Esto es vital a la hora de simular adecuadamente las ganancias que se logran debido a la planificación dependiente del canal que el sistema LTE es capaz de realizar. El objetivo es investigar la relación existente entre la tasa de datos binaria obtenida por una estación base y diferentes parámetros de los usuarios (como SINR o velocidad). El objetivo final del proyecto es obtener un modelo que pueda predecir la tasa binaria de la base como una función de algunos parámetros que caractericen las condiciones de los usuarios. Se ha utilizado principalmente un planificador de tipo “proportional fair” debido a sus cualidades para para obtener una tasa binaria razonablemente elevada a la vez que reparte el canal entre todos los usuarios existentes de forma equitativa.