38 resultados para fibrado vectorial
Resumo:
Este trabajo esta orientado a resolver el problema de la caracterización de la copa de arboles frutales para la aplicacion localizada de fitosanitarios. Esta propuesta utiliza un mapa de profundidad (Depth image) y una imagen RGB combinadas (RGB-D), proporcionados por el sensor Kinect de Microsoft, para aplicar pesticidas de forma localizada. A través del mapa de profundidad se puede estimar la densidad de la copa y a partir de esta información determinar qué boquillas se deben abrir en cada momento. Se desarrollaron algoritmos implementados en Matlab que permiten además de la adquisición de las imágenes RGB-D, aplicar plaguicidas sólo a hojas y/o frutos según se desee. Estos algoritmos fueron implementados en un software que se comunica con el entorno de desarrollo "Kinect Windows SDK", encargado de extraer las imágenes desde el sensor Kinect. Por otra parte, para identificar hojas, se implementaron algoritmos de clasificación e identificación. Los algoritmos de clasificación utilizados fueron "Fuzzy C-Means con Gustafson Kessel" (FCM-GK) y "K-Means". Los centroides o prototipos de cada clase generados por FCM-GK fueron usados como semilla para K-Means, para acelerar la convergencia del algoritmo y mantener la coherencia temporal en los grupos generados por K-Means. Los algoritmos de clasificación fueron aplicados sobre las imágenes transformadas al espacio de color L*a*b*; específicamente se emplearon los canales a*, b* (canales cromáticos) con el fin de reducir el efecto de la luz sobre los colores. Los algoritmos de clasificación fueron configurados para buscar cuatro grupos: hojas, porosidad, frutas y tronco. Una vez que el clasificador genera los prototipos de los grupos, un clasificador denominado Máquina de Soporte Vectorial, que utiliza como núcleo una función Gaussiana base radial, identifica la clase de interés (hojas). La combinación de estos algoritmos ha mostrado bajos errores de clasificación, rendimiento del 4% de error en la identificación de hojas. Además, estos algoritmos de procesamiento de hasta 8.4 imágenes por segundo, lo que permite su aplicación en tiempo real. Los resultados demuestran la viabilidad de utilizar el sensor "Kinect" para determinar dónde y cuándo aplicar pesticidas. Por otra parte, también muestran que existen limitaciones en su uso, impuesta por las condiciones de luz. En otras palabras, es posible usar "Kinect" en exteriores, pero durante días nublados, temprano en la mañana o en la noche con iluminación artificial, o añadiendo un parasol en condiciones de luz intensa.
Resumo:
We extend the concept of eigenvector centrality to multiplex networks, and introduce several alternative parameters that quantify the importance of nodes in a multi-layered networked system, including the definition of vectorial-type centralities. In addition, we rigorously show that, under reasonable conditions, such centrality measures exist and are unique. Computer experiments and simulations demonstrate that the proposed measures provide substantially different results when applied to the same multiplex structure, and highlight the non-trivial relationships between the different measures of centrality introduced.
Resumo:
El flameo o flutter es un fenómeno vibratorio debido a la interacción de fuerzas inerciales, elásticas y aerodinámicas. Consiste en un intercambio de energía, que se puede observar en el cambio de amortiguamientos, entre dos o más modos estructurales, denominados modos críticos, cuyas frecuencias tienden a acercarse (coalescencia de frecuencias). Los ensayos en vuelo de flameo suponen un gran riesgo debido a la posibilidad de una perdida brusca de estabilidad aeroelástica (flameo explosivo) con la posibilidad de destrucción de la aeronave. Además existen otros fenómenos asociados que pueden aparecer como el LCO (Limit Cycle Oscillation) y la interacción con los mandos de vuelo. Debido a esto, se deben llevar a cabo análisis exhaustivos, que incluyen GVT (vibraciones en tierra), antes de comenzar los ensayos en vuelo, y estos últimos deben ser ejecutados con robustos procedimientos. El objetivo de los ensayos es delimitar la frontera de estabilidad sin llegar a ella, manteniéndose siempre dentro de la envolvente estable de vuelo. Para lograrlo se necesitan métodos de predicción, siendo el “Flutter Margin”, el más utilizado. Para saber cuánta estabilidad aeroelástica tiene el avión y lo lejos que está de la frontera de estabilidad (a través de métodos de predicción) los parámetros modales, en particular la frecuencia y el amortiguamiento, son de vital importancia. El ensayo en vuelo consiste en la excitación de la estructura a diferentes condiciones de vuelo, la medición de la respuesta y su análisis para obtener los dos parámetros mencionados. Un gran esfuerzo se dedica al análisis en tiempo real de las señales como un medio de reducir el riesgo de este tipo de ensayos. Existen numerosos métodos de Análisis Modal, pero pocos capaces de analizar las señales procedentes de los ensayos de flameo, debido a sus especiales características. Un método novedoso, basado en la Descomposición por Valores Singulares (SVD) y la factorización QR, ha sido desarrollado y aplicado al análisis de señales procedentes de vuelos de flameo del F-18. El método es capaz de identificar frecuencia y amortiguamiento de los modos críticos. El algoritmo se basa en la capacidad del SVD para el análisis, modelización y predicción de series de datos con características periódicas y en su capacidad de identificar el rango de una matriz, así como en la aptitud del QR para seleccionar la mejor base vectorial entre un conjunto de vectores para representar el campo vectorial que forman. El análisis de señales de flameo simuladas y reales demuestra, bajo ciertas condiciones, la efectividad, robustez, resistencia al ruido y capacidad de automatización del método propuesto. ABSTRACT Flutter involves the interaction between inertial, elastic and aerodynamic forces. It consists on an exchange of energy, identified by change in damping, between two or more structural modes, named critical modes, whose frequencies tend to get closer to each other (frequency coalescence). Flight flutter testing involves high risk because of the possibility of an abrupt lost in aeroelastic stability (hard flutter) that may lead to aircraft destruction. Moreover associated phenomena may happen during the flight as LCO (Limit Cycle Oscillation) and coupling with flight controls. Because of that, intensive analyses, including GVT (Ground Vibration Test), have to be performed before beginning the flights test and during them consistent procedures have to be followed. The test objective is to identify the stability border, maintaining the aircraft always inside the stable domain. To achieve that flutter speed prediction methods have to be used, the most employed being the “Flutter Margin”. In order to know how much aeroelastic stability remains and how far the aircraft is from the stability border (using the prediction methods), modal parameters, in particular frequency and damping are paramount. So flight test consists in exciting the structure at various flight conditions, measuring the response and identifying in real-time these two parameters. A great deal of effort is being devoted to real-time flight data analysis as an effective way to reduce the risk. Numerous Modal Analysis algorithms are available, but very few are suitable to analyze signals coming from flutter testing due to their special features. A new method, based on Singular Value Decomposition (SVD) and QR factorization, has been developed and applied to the analysis of F-18 flutter flight-test data. The method is capable of identifying the frequency and damping of the critical aircraft modes. The algorithm relies on the capability of SVD for the analysis, modelling and prediction of data series with periodic features and also on its power to identify matrix rank as well as QR competence for selecting the best basis among a set of vectors in order to represent a given vector space of such a set. The analysis of simulated and real flutter flight test data demonstrates, under specific conditions, the effectiveness, robustness, noise-immunity and the capability for automation of the method proposed.
Resumo:
El estudio del comportamiento de la atmósfera ha resultado de especial importancia tanto en el programa SESAR como en NextGen, en los que la gestión actual del tránsito aéreo (ATM) está experimentando una profunda transformación hacia nuevos paradigmas tanto en Europa como en los EE.UU., respectivamente, para el guiado y seguimiento de las aeronaves en la realización de rutas más eficientes y con mayor precisión. La incertidumbre es una característica fundamental de los fenómenos meteorológicos que se transfiere a la separación de las aeronaves, las trayectorias de vuelo libres de conflictos y a la planificación de vuelos. En este sentido, el viento es un factor clave en cuanto a la predicción de la futura posición de la aeronave, por lo que tener un conocimiento más profundo y preciso de campo de viento reducirá las incertidumbres del ATC. El objetivo de esta tesis es el desarrollo de una nueva técnica operativa y útil destinada a proporcionar de forma adecuada y directa el campo de viento atmosférico en tiempo real, basada en datos de a bordo de la aeronave, con el fin de mejorar la predicción de las trayectorias de las aeronaves. Para lograr este objetivo se ha realizado el siguiente trabajo. Se han descrito y analizado los diferentes sistemas de la aeronave que proporcionan las variables necesarias para obtener la velocidad del viento, así como de las capacidades que permiten la presentación de esta información para sus aplicaciones en la gestión del tráfico aéreo. Se ha explorado el uso de aeronaves como los sensores de viento en un área terminal para la estimación del viento en tiempo real con el fin de mejorar la predicción de las trayectorias de aeronaves. Se han desarrollado métodos computacionalmente eficientes para estimar las componentes horizontales de la velocidad del viento a partir de las velocidades de las aeronaves (VGS, VCAS/VTAS), la presión y datos de temperatura. Estos datos de viento se han utilizado para estimar el campo de viento en tiempo real utilizando un sistema de procesamiento de datos a través de un método de mínima varianza. Por último, se ha evaluado la exactitud de este procedimiento para que esta información sea útil para el control del tráfico aéreo. La información inicial proviene de una muestra de datos de Registradores de Datos de Vuelo (FDR) de aviones que aterrizaron en el aeropuerto Madrid-Barajas. Se dispuso de datos de ciertas aeronaves durante un periodo de más de tres meses que se emplearon para calcular el vector viento en cada punto del espacio aéreo. Se utilizó un modelo matemático basado en diferentes métodos de interpolación para obtener los vectores de viento en áreas sin datos disponibles. Se han utilizado tres escenarios concretos para validar dos métodos de interpolación: uno de dos dimensiones que trabaja con ambas componentes horizontales de forma independiente, y otro basado en el uso de una variable compleja que relaciona ambas componentes. Esos métodos se han probado en diferentes escenarios con resultados dispares. Esta metodología se ha aplicado en un prototipo de herramienta en MATLAB © para analizar automáticamente los datos de FDR y determinar el campo vectorial del viento que encuentra la aeronave al volar en el espacio aéreo en estudio. Finalmente se han obtenido las condiciones requeridas y la precisión de los resultados para este modelo. El método desarrollado podría utilizar los datos de los aviones comerciales como inputs utilizando los datos actualmente disponibles y la capacidad computacional, para proporcionárselos a los sistemas ATM donde se podría ejecutar el método propuesto. Estas velocidades del viento calculadas, o bien la velocidad respecto al suelo y la velocidad verdadera, se podrían difundir, por ejemplo, a través del sistema de direccionamiento e informe para comunicaciones de aeronaves (ACARS), mensajes de ADS-B o Modo S. Esta nueva fuente ayudaría a actualizar la información del viento suministrada en los productos aeronáuticos meteorológicos (PAM), informes meteorológicos de aeródromos (AIRMET), e información meteorológica significativa (SIGMET). ABSTRACT The study of the atmosphere behaviour is been of particular importance both in SESAR and NextGen programs, where the current air traffic management (ATM) system is undergoing a profound transformation to the new paradigms both in Europe and the USA, respectively, to guide and track aircraft more precisely on more efficient routes. Uncertainty is a fundamental characteristic of weather phenomena which is transferred to separation assurance, flight path de-confliction and flight planning applications. In this respect, the wind is a key factor regarding the prediction of the future position of the aircraft, so that having a deeper and accurate knowledge of wind field will reduce ATC uncertainties. The purpose of this thesis is to develop a new and operationally useful technique intended to provide adequate and direct real-time atmospheric winds fields based on on-board aircraft data, in order to improve aircraft trajectory prediction. In order to achieve this objective the following work has been accomplished. The different sources in the aircraft systems that provide the variables needed to derivate the wind velocity have been described and analysed, as well as the capabilities which allow presenting this information for air traffic management applications. The use of aircraft as wind sensors in a terminal area for real-time wind estimation in order to improve aircraft trajectory prediction has been explored. Computationally efficient methods have been developed to estimate horizontal wind components from aircraft velocities (VGS, VCAS/VTAS), pressure, and temperature data. These wind data were utilized to estimate a real-time wind field using a data processing approach through a minimum variance method. Finally, the accuracy of this procedure has been evaluated for this information to be useful to air traffic control. The initial information comes from a Flight Data Recorder (FDR) sample of aircraft landing in Madrid-Barajas Airport. Data available for more than three months were exploited in order to derive the wind vector field in each point of the airspace. Mathematical model based on different interpolation methods were used in order to obtain wind vectors in void areas. Three particular scenarios were employed to test two interpolation methods: a two-dimensional one that works with both horizontal components in an independent way, and also a complex variable formulation that links both components. Those methods were tested using various scenarios with dissimilar results. This methodology has been implemented in a prototype tool in MATLAB © in order to automatically analyse FDR and determine the wind vector field that aircraft encounter when flying in the studied airspace. Required conditions and accuracy of the results were derived for this model. The method developed could be fed by commercial aircraft utilizing their currently available data sources and computational capabilities, and providing them to ATM system where the proposed method could be run. Computed wind velocities, or ground and true airspeeds, would then be broadcasted, for example, via the Aircraft Communication Addressing and Reporting System (ACARS), ADS-B out messages, or Mode S. This new source would help updating the wind information furnished in meteorological aeronautical products (PAM), meteorological aerodrome reports (AIRMET), and significant meteorological information (SIGMET).
Resumo:
En este trabajo se propone el uso de diversos tipos de haces no-uniformemente y totalmente polarizados en medidas polarimétricas de muestras homogéneas y transparentes. Como ejemplos concretos de este tipo de haces se proponen los haces espiralmente polarizados y haces a la salida de medios uniáxicos anisótropos con el eje óptico en la dirección de propagación. Dichos haces se representan mediante modelos analíticos sencillos, teniendo en cuenta el carácter vectorial de los mismos, los cuales permiten conocer el campo en cualquier plano en propagación libre y a través de medios o sistemas que pueden ser descritos mediante matrices de Müller. Mediante el uso de haces nouniformemente y totalmente polarizados se simplifica notablemente el proceso de medida, siendo suficientes una o dos medidas según el haz utilizado, para la obtención de todos los elementos de la matriz de Müller de la muestra. ABSTRACT. In this work the use of non-uniformly and totally polarized fields in polarimetric measurements of homogeneous and transparent samples is proposed. As particular examples of this kind of fields, spirally polarized fields and fields at the output of uniaxial anisotropic media, with its optics axis along the propagation direction, are considered. Such fields are represented by simple analytical models, taking the vectorial nature of light into account. By means of these models, the fields at any plane upon free propagation or after passing through media or systems described by Müller matrices, can be calculated. By using non-uniformly and totally polarized fields the measurement procedure is significantly simplified. Depending on the field to be used only one or two measurements are required for obtaining all the elements of the Müller matrix of the sample.
Resumo:
El presente Trabajo fin Fin de Máster, versa sobre una caracterización preliminar del comportamiento de un robot de tipo industrial, configurado por 4 eslabones y 4 grados de libertad, y sometido a fuerzas de mecanizado en su extremo. El entorno de trabajo planteado es el de plantas de fabricación de piezas de aleaciones de aluminio para automoción. Este tipo de componentes parte de un primer proceso de fundición que saca la pieza en bruto. Para series medias y altas, en función de las propiedades mecánicas y plásticas requeridas y los costes de producción, la inyección a alta presión (HPDC) y la fundición a baja presión (LPC) son las dos tecnologías más usadas en esta primera fase. Para inyección a alta presión, las aleaciones de aluminio más empleadas son, en designación simbólica según norma EN 1706 (entre paréntesis su designación numérica); EN AC AlSi9Cu3(Fe) (EN AC 46000) , EN AC AlSi9Cu3(Fe)(Zn) (EN AC 46500), y EN AC AlSi12Cu1(Fe) (EN AC 47100). Para baja presión, EN AC AlSi7Mg0,3 (EN AC 42100). En los 3 primeros casos, los límites de Silicio permitidos pueden superan el 10%. En el cuarto caso, es inferior al 10% por lo que, a los efectos de ser sometidas a mecanizados, las piezas fabricadas en aleaciones con Si superior al 10%, se puede considerar que son equivalentes, diferenciándolas de la cuarta. Las tolerancias geométricas y dimensionales conseguibles directamente de fundición, recogidas en normas como ISO 8062 o DIN 1688-1, establecen límites para este proceso. Fuera de esos límites, las garantías en conseguir producciones con los objetivos de ppms aceptados en la actualidad por el mercado, obligan a ir a fases posteriores de mecanizado. Aquellas geometrías que, funcionalmente, necesitan disponer de unas tolerancias geométricas y/o dimensionales definidas acorde a ISO 1101, y no capaces por este proceso inicial de moldeado a presión, deben ser procesadas en una fase posterior en células de mecanizado. En este caso, las tolerancias alcanzables para procesos de arranque de viruta se recogen en normas como ISO 2768. Las células de mecanizado se componen, por lo general, de varios centros de control numérico interrelacionados y comunicados entre sí por robots que manipulan las piezas en proceso de uno a otro. Dichos robots, disponen en su extremo de una pinza utillada para poder coger y soltar las piezas en los útiles de mecanizado, las mesas de intercambio para cambiar la pieza de posición o en utillajes de equipos de medición y prueba, o en cintas de entrada o salida. La repetibilidad es alta, de centésimas incluso, definida según norma ISO 9283. El problema es que, estos rangos de repetibilidad sólo se garantizan si no se hacen esfuerzos o éstos son despreciables (caso de mover piezas). Aunque las inercias de mover piezas a altas velocidades hacen que la trayectoria intermedia tenga poca precisión, al inicio y al final (al coger y dejar pieza, p.e.) se hacen a velocidades relativamente bajas que hacen que el efecto de las fuerzas de inercia sean menores y que permiten garantizar la repetibilidad anteriormente indicada. No ocurre así si se quitara la garra y se intercambia con un cabezal motorizado con una herramienta como broca, mandrino, plato de cuchillas, fresas frontales o tangenciales… Las fuerzas ejercidas de mecanizado generarían unos pares en las uniones tan grandes y tan variables que el control del robot no sería capaz de responder (o no está preparado, en un principio) y generaría una desviación en la trayectoria, realizada a baja velocidad, que desencadenaría en un error de posición (ver norma ISO 5458) no asumible para la funcionalidad deseada. Se podría llegar al caso de que la tolerancia alcanzada por un pretendido proceso más exacto diera una dimensión peor que la que daría el proceso de fundición, en principio con mayor variabilidad dimensional en proceso (y por ende con mayor intervalo de tolerancia garantizable). De hecho, en los CNCs, la precisión es muy elevada, (pudiéndose despreciar en la mayoría de los casos) y no es la responsable de, por ejemplo la tolerancia de posición al taladrar un agujero. Factores como, temperatura de la sala y de la pieza, calidad constructiva de los utillajes y rigidez en el amarre, error en el giro de mesas y de colocación de pieza, si lleva agujeros previos o no, si la herramienta está bien equilibrada y el cono es el adecuado para el tipo de mecanizado… influyen más. Es interesante que, un elemento no específico tan común en una planta industrial, en el entorno anteriormente descrito, como es un robot, el cual no sería necesario añadir por disponer de él ya (y por lo tanto la inversión sería muy pequeña), puede mejorar la cadena de valor disminuyendo el costo de fabricación. Y si se pudiera conjugar que ese robot destinado a tareas de manipulación, en los muchos tiempos de espera que va a disfrutar mientras el CNC arranca viruta, pudiese coger un cabezal y apoyar ese mecanizado; sería doblemente interesante. Por lo tanto, se antoja sugestivo poder conocer su comportamiento e intentar explicar qué sería necesario para llevar esto a cabo, motivo de este trabajo. La arquitectura de robot seleccionada es de tipo SCARA. La búsqueda de un robot cómodo de modelar y de analizar cinemática y dinámicamente, sin limitaciones relevantes en la multifuncionalidad de trabajos solicitados, ha llevado a esta elección, frente a otras arquitecturas como por ejemplo los robots antropomórficos de 6 grados de libertad, muy populares a nivel industrial. Este robot dispone de 3 uniones, de las cuales 2 son de tipo par de revolución (1 grado de libertad cada una) y la tercera es de tipo corredera o par cilíndrico (2 grados de libertad). La primera unión, de tipo par de revolución, sirve para unir el suelo (considerado como eslabón número 1) con el eslabón número 2. La segunda unión, también de ese tipo, une el eslabón número 2 con el eslabón número 3. Estos 2 brazos, pueden describir un movimiento horizontal, en el plano X-Y. El tercer eslabón, está unido al eslabón número 4 por la unión de tipo corredera. El movimiento que puede describir es paralelo al eje Z. El robot es de 4 grados de libertad (4 motores). En relación a los posibles trabajos que puede realizar este tipo de robot, su versatilidad abarca tanto operaciones típicas de manipulación como operaciones de arranque de viruta. Uno de los mecanizados más usuales es el taladrado, por lo cual se elige éste para su modelización y análisis. Dentro del taladrado se elegirá para acotar las fuerzas, taladrado en macizo con broca de diámetro 9 mm. El robot se ha considerado por el momento que tenga comportamiento de sólido rígido, por ser el mayor efecto esperado el de los pares en las uniones. Para modelar el robot se utiliza el método de los sistemas multicuerpos. Dentro de este método existen diversos tipos de formulaciones (p.e. Denavit-Hartenberg). D-H genera una cantidad muy grande de ecuaciones e incógnitas. Esas incógnitas son de difícil comprensión y, para cada posición, hay que detenerse a pensar qué significado tienen. Se ha optado por la formulación de coordenadas naturales. Este sistema utiliza puntos y vectores unitarios para definir la posición de los distintos cuerpos, y permite compartir, cuando es posible y se quiere, para definir los pares cinemáticos y reducir al mismo tiempo el número de variables. Las incógnitas son intuitivas, las ecuaciones de restricción muy sencillas y se reduce considerablemente el número de ecuaciones e incógnitas. Sin embargo, las coordenadas naturales “puras” tienen 2 problemas. El primero, que 2 elementos con un ángulo de 0 o 180 grados, dan lugar a puntos singulares que pueden crear problemas en las ecuaciones de restricción y por lo tanto han de evitarse. El segundo, que tampoco inciden directamente sobre la definición o el origen de los movimientos. Por lo tanto, es muy conveniente complementar esta formulación con ángulos y distancias (coordenadas relativas). Esto da lugar a las coordenadas naturales mixtas, que es la formulación final elegida para este TFM. Las coordenadas naturales mixtas no tienen el problema de los puntos singulares. Y la ventaja más importante reside en su utilidad a la hora de aplicar fuerzas motrices, momentos o evaluar errores. Al incidir sobre la incógnita origen (ángulos o distancias) controla los motores de manera directa. El algoritmo, la simulación y la obtención de resultados se ha programado mediante Matlab. Para realizar el modelo en coordenadas naturales mixtas, es preciso modelar en 2 pasos el robot a estudio. El primer modelo se basa en coordenadas naturales. Para su validación, se plantea una trayectoria definida y se analiza cinemáticamente si el robot satisface el movimiento solicitado, manteniendo su integridad como sistema multicuerpo. Se cuantifican los puntos (en este caso inicial y final) que configuran el robot. Al tratarse de sólidos rígidos, cada eslabón queda definido por sus respectivos puntos inicial y final (que son los más interesantes para la cinemática y la dinámica) y por un vector unitario no colineal a esos 2 puntos. Los vectores unitarios se colocan en los lugares en los que se tenga un eje de rotación o cuando se desee obtener información de un ángulo. No son necesarios vectores unitarios para medir distancias. Tampoco tienen por qué coincidir los grados de libertad con el número de vectores unitarios. Las longitudes de cada eslabón quedan definidas como constantes geométricas. Se establecen las restricciones que definen la naturaleza del robot y las relaciones entre los diferentes elementos y su entorno. La trayectoria se genera por una nube de puntos continua, definidos en coordenadas independientes. Cada conjunto de coordenadas independientes define, en un instante concreto, una posición y postura de robot determinada. Para conocerla, es necesario saber qué coordenadas dependientes hay en ese instante, y se obtienen resolviendo por el método de Newton-Rhapson las ecuaciones de restricción en función de las coordenadas independientes. El motivo de hacerlo así es porque las coordenadas dependientes deben satisfacer las restricciones, cosa que no ocurre con las coordenadas independientes. Cuando la validez del modelo se ha probado (primera validación), se pasa al modelo 2. El modelo número 2, incorpora a las coordenadas naturales del modelo número 1, las coordenadas relativas en forma de ángulos en los pares de revolución (3 ángulos; ϕ1, ϕ 2 y ϕ3) y distancias en los pares prismáticos (1 distancia; s). Estas coordenadas relativas pasan a ser las nuevas coordenadas independientes (sustituyendo a las coordenadas independientes cartesianas del modelo primero, que eran coordenadas naturales). Es necesario revisar si el sistema de vectores unitarios del modelo 1 es suficiente o no. Para este caso concreto, se han necesitado añadir 1 vector unitario adicional con objeto de que los ángulos queden perfectamente determinados con las correspondientes ecuaciones de producto escalar y/o vectorial. Las restricciones habrán de ser incrementadas en, al menos, 4 ecuaciones; una por cada nueva incógnita. La validación del modelo número 2, tiene 2 fases. La primera, al igual que se hizo en el modelo número 1, a través del análisis cinemático del comportamiento con una trayectoria definida. Podrían obtenerse del modelo 2 en este análisis, velocidades y aceleraciones, pero no son necesarios. Tan sólo interesan los movimientos o desplazamientos finitos. Comprobada la coherencia de movimientos (segunda validación), se pasa a analizar cinemáticamente el comportamiento con trayectorias interpoladas. El análisis cinemático con trayectorias interpoladas, trabaja con un número mínimo de 3 puntos máster. En este caso se han elegido 3; punto inicial, punto intermedio y punto final. El número de interpolaciones con el que se actúa es de 50 interpolaciones en cada tramo (cada 2 puntos máster hay un tramo), resultando un total de 100 interpolaciones. El método de interpolación utilizado es el de splines cúbicas con condición de aceleración inicial y final constantes, que genera las coordenadas independientes de los puntos interpolados de cada tramo. Las coordenadas dependientes se obtienen resolviendo las ecuaciones de restricción no lineales con el método de Newton-Rhapson. El método de las splines cúbicas es muy continuo, por lo que si se desea modelar una trayectoria en el que haya al menos 2 movimientos claramente diferenciados, es preciso hacerlo en 2 tramos y unirlos posteriormente. Sería el caso en el que alguno de los motores se desee expresamente que esté parado durante el primer movimiento y otro distinto lo esté durante el segundo movimiento (y así sucesivamente). Obtenido el movimiento, se calculan, también mediante fórmulas de diferenciación numérica, las velocidades y aceleraciones independientes. El proceso es análogo al anteriormente explicado, recordando la condición impuesta de que la aceleración en el instante t= 0 y en instante t= final, se ha tomado como 0. Las velocidades y aceleraciones dependientes se calculan resolviendo las correspondientes derivadas de las ecuaciones de restricción. Se comprueba, de nuevo, en una tercera validación del modelo, la coherencia del movimiento interpolado. La dinámica inversa calcula, para un movimiento definido -conocidas la posición, velocidad y la aceleración en cada instante de tiempo-, y conocidas las fuerzas externas que actúan (por ejemplo el peso); qué fuerzas hay que aplicar en los motores (donde hay control) para que se obtenga el citado movimiento. En la dinámica inversa, cada instante del tiempo es independiente de los demás y tiene una posición, una velocidad y una aceleración y unas fuerzas conocidas. En este caso concreto, se desean aplicar, de momento, sólo las fuerzas debidas al peso, aunque se podrían haber incorporado fuerzas de otra naturaleza si se hubiese deseado. Las posiciones, velocidades y aceleraciones, proceden del cálculo cinemático. El efecto inercial de las fuerzas tenidas en cuenta (el peso) es calculado. Como resultado final del análisis dinámico inverso, se obtienen los pares que han de ejercer los cuatro motores para replicar el movimiento prescrito con las fuerzas que estaban actuando. La cuarta validación del modelo consiste en confirmar que el movimiento obtenido por aplicar los pares obtenidos en la dinámica inversa, coinciden con el obtenido en el análisis cinemático (movimiento teórico). Para ello, es necesario acudir a la dinámica directa. La dinámica directa se encarga de calcular el movimiento del robot, resultante de aplicar unos pares en motores y unas fuerzas en el robot. Por lo tanto, el movimiento real resultante, al no haber cambiado ninguna condición de las obtenidas en la dinámica inversa (pares de motor y fuerzas inerciales debidas al peso de los eslabones) ha de ser el mismo al movimiento teórico. Siendo así, se considera que el robot está listo para trabajar. Si se introduce una fuerza exterior de mecanizado no contemplada en la dinámica inversa y se asigna en los motores los mismos pares resultantes de la resolución del problema dinámico inverso, el movimiento real obtenido no es igual al movimiento teórico. El control de lazo cerrado se basa en ir comparando el movimiento real con el deseado e introducir las correcciones necesarias para minimizar o anular las diferencias. Se aplican ganancias en forma de correcciones en posición y/o velocidad para eliminar esas diferencias. Se evalúa el error de posición como la diferencia, en cada punto, entre el movimiento teórico deseado en el análisis cinemático y el movimiento real obtenido para cada fuerza de mecanizado y una ganancia concreta. Finalmente, se mapea el error de posición obtenido para cada fuerza de mecanizado y las diferentes ganancias previstas, graficando la mejor precisión que puede dar el robot para cada operación que se le requiere, y en qué condiciones. -------------- This Master´s Thesis deals with a preliminary characterization of the behaviour for an industrial robot, configured with 4 elements and 4 degrees of freedoms, and subjected to machining forces at its end. Proposed working conditions are those typical from manufacturing plants with aluminium alloys for automotive industry. This type of components comes from a first casting process that produces rough parts. For medium and high volumes, high pressure die casting (HPDC) and low pressure die casting (LPC) are the most used technologies in this first phase. For high pressure die casting processes, most used aluminium alloys are, in simbolic designation according EN 1706 standard (between brackets, its numerical designation); EN AC AlSi9Cu3(Fe) (EN AC 46000) , EN AC AlSi9Cu3(Fe)(Zn) (EN AC 46500), y EN AC AlSi12Cu1(Fe) (EN AC 47100). For low pressure, EN AC AlSi7Mg0,3 (EN AC 42100). For the 3 first alloys, Si allowed limits can exceed 10% content. Fourth alloy has admisible limits under 10% Si. That means, from the point of view of machining, that components made of alloys with Si content above 10% can be considered as equivalent, and the fourth one must be studied separately. Geometrical and dimensional tolerances directly achievables from casting, gathered in standards such as ISO 8062 or DIN 1688-1, establish a limit for this process. Out from those limits, guarantees to achieve batches with objetive ppms currently accepted by market, force to go to subsequent machining process. Those geometries that functionally require a geometrical and/or dimensional tolerance defined according ISO 1101, not capable with initial moulding process, must be obtained afterwards in a machining phase with machining cells. In this case, tolerances achievables with cutting processes are gathered in standards such as ISO 2768. In general terms, machining cells contain several CNCs that they are interrelated and connected by robots that handle parts in process among them. Those robots have at their end a gripper in order to take/remove parts in machining fixtures, in interchange tables to modify position of part, in measurement and control tooling devices, or in entrance/exit conveyors. Repeatibility for robot is tight, even few hundredths of mm, defined according ISO 9283. Problem is like this; those repeatibilty ranks are only guaranteed when there are no stresses or they are not significant (f.e. due to only movement of parts). Although inertias due to moving parts at a high speed make that intermediate paths have little accuracy, at the beginning and at the end of trajectories (f.e, when picking part or leaving it) movement is made with very slow speeds that make lower the effect of inertias forces and allow to achieve repeatibility before mentioned. It does not happens the same if gripper is removed and it is exchanged by an spindle with a machining tool such as a drilling tool, a pcd boring tool, a face or a tangential milling cutter… Forces due to machining would create such big and variable torques in joints that control from the robot would not be able to react (or it is not prepared in principle) and would produce a deviation in working trajectory, made at a low speed, that would trigger a position error (see ISO 5458 standard) not assumable for requested function. Then it could be possible that tolerance achieved by a more exact expected process would turn out into a worst dimension than the one that could be achieved with casting process, in principle with a larger dimensional variability in process (and hence with a larger tolerance range reachable). As a matter of fact, accuracy is very tight in CNC, (its influence can be ignored in most cases) and it is not the responsible of, for example position tolerance when drilling a hole. Factors as, room and part temperature, manufacturing quality of machining fixtures, stiffness at clamping system, rotating error in 4th axis and part positioning error, if there are previous holes, if machining tool is properly balanced, if shank is suitable for that machining type… have more influence. It is interesting to know that, a non specific element as common, at a manufacturing plant in the enviroment above described, as a robot (not needed to be added, therefore with an additional minimum investment), can improve value chain decreasing manufacturing costs. And when it would be possible to combine that the robot dedicated to handling works could support CNCs´ works in its many waiting time while CNCs cut, and could take an spindle and help to cut; it would be double interesting. So according to all this, it would be interesting to be able to know its behaviour and try to explain what would be necessary to make this possible, reason of this work. Selected robot architecture is SCARA type. The search for a robot easy to be modeled and kinematically and dinamically analyzed, without significant limits in the multifunctionality of requested operations, has lead to this choice. Due to that, other very popular architectures in the industry, f.e. 6 DOFs anthropomorphic robots, have been discarded. This robot has 3 joints, 2 of them are revolute joints (1 DOF each one) and the third one is a cylindrical joint (2 DOFs). The first joint, a revolute one, is used to join floor (body 1) with body 2. The second one, a revolute joint too, joins body 2 with body 3. These 2 bodies can move horizontally in X-Y plane. Body 3 is linked to body 4 with a cylindrical joint. Movement that can be made is paralell to Z axis. The robt has 4 degrees of freedom (4 motors). Regarding potential works that this type of robot can make, its versatility covers either typical handling operations or cutting operations. One of the most common machinings is to drill. That is the reason why it has been chosen for the model and analysis. Within drilling, in order to enclose spectrum force, a typical solid drilling with 9 mm diameter. The robot is considered, at the moment, to have a behaviour as rigid body, as biggest expected influence is the one due to torques at joints. In order to modelize robot, it is used multibodies system method. There are under this heading different sorts of formulations (f.e. Denavit-Hartenberg). D-H creates a great amount of equations and unknown quantities. Those unknown quatities are of a difficult understanding and, for each position, one must stop to think about which meaning they have. The choice made is therefore one of formulation in natural coordinates. This system uses points and unit vectors to define position of each different elements, and allow to share, when it is possible and wished, to define kinematic torques and reduce number of variables at the same time. Unknown quantities are intuitive, constrain equations are easy and number of equations and variables are strongly reduced. However, “pure” natural coordinates suffer 2 problems. The first one is that 2 elements with an angle of 0° or 180°, give rise to singular positions that can create problems in constrain equations and therefore they must be avoided. The second problem is that they do not work directly over the definition or the origin of movements. Given that, it is highly recommended to complement this formulation with angles and distances (relative coordinates). This leads to mixed natural coordinates, and they are the final formulation chosen for this MTh. Mixed natural coordinates have not the problem of singular positions. And the most important advantage lies in their usefulness when applying driving forces, torques or evaluating errors. As they influence directly over origin variable (angles or distances), they control motors directly. The algorithm, simulation and obtaining of results has been programmed with Matlab. To design the model in mixed natural coordinates, it is necessary to model the robot to be studied in 2 steps. The first model is based in natural coordinates. To validate it, it is raised a defined trajectory and it is kinematically analyzed if robot fulfils requested movement, keeping its integrity as multibody system. The points (in this case starting and ending points) that configure the robot are quantified. As the elements are considered as rigid bodies, each of them is defined by its respectively starting and ending point (those points are the most interesting ones from the point of view of kinematics and dynamics) and by a non-colinear unit vector to those points. Unit vectors are placed where there is a rotating axis or when it is needed information of an angle. Unit vectors are not needed to measure distances. Neither DOFs must coincide with the number of unit vectors. Lengths of each arm are defined as geometrical constants. The constrains that define the nature of the robot and relationships among different elements and its enviroment are set. Path is generated by a cloud of continuous points, defined in independent coordinates. Each group of independent coordinates define, in an specific instant, a defined position and posture for the robot. In order to know it, it is needed to know which dependent coordinates there are in that instant, and they are obtained solving the constraint equations with Newton-Rhapson method according to independent coordinates. The reason to make it like this is because dependent coordinates must meet constraints, and this is not the case with independent coordinates. When suitability of model is checked (first approval), it is given next step to model 2. Model 2 adds to natural coordinates from model 1, the relative coordinates in the shape of angles in revoluting torques (3 angles; ϕ1, ϕ 2 and ϕ3) and distances in prismatic torques (1 distance; s). These relative coordinates become the new independent coordinates (replacing to cartesian independent coordinates from model 1, that they were natural coordinates). It is needed to review if unit vector system from model 1 is enough or not . For this specific case, it was necessary to add 1 additional unit vector to define perfectly angles with their related equations of dot and/or cross product. Constrains must be increased in, at least, 4 equations; one per each new variable. The approval of model 2 has two phases. The first one, same as made with model 1, through kinematic analysis of behaviour with a defined path. During this analysis, it could be obtained from model 2, velocities and accelerations, but they are not needed. They are only interesting movements and finite displacements. Once that the consistence of movements has been checked (second approval), it comes when the behaviour with interpolated trajectories must be kinematically analyzed. Kinematic analysis with interpolated trajectories work with a minimum number of 3 master points. In this case, 3 points have been chosen; starting point, middle point and ending point. The number of interpolations has been of 50 ones in each strecht (each 2 master points there is an strecht), turning into a total of 100 interpolations. The interpolation method used is the cubic splines one with condition of constant acceleration both at the starting and at the ending point. This method creates the independent coordinates of interpolated points of each strecht. The dependent coordinates are achieved solving the non-linear constrain equations with Newton-Rhapson method. The method of cubic splines is very continuous, therefore when it is needed to design a trajectory in which there are at least 2 movements clearly differents, it is required to make it in 2 steps and join them later. That would be the case when any of the motors would keep stopped during the first movement, and another different motor would remain stopped during the second movement (and so on). Once that movement is obtained, they are calculated, also with numerical differenciation formulas, the independent velocities and accelerations. This process is analogous to the one before explained, reminding condition that acceleration when t=0 and t=end are 0. Dependent velocities and accelerations are calculated solving related derivatives of constrain equations. In a third approval of the model it is checked, again, consistence of interpolated movement. Inverse dynamics calculates, for a defined movement –knowing position, velocity and acceleration in each instant of time-, and knowing external forces that act (f.e. weights); which forces must be applied in motors (where there is control) in order to obtain requested movement. In inverse dynamics, each instant of time is independent of the others and it has a position, a velocity, an acceleration and known forces. In this specific case, it is intended to apply, at the moment, only forces due to the weight, though forces of another nature could have been added if it would have been preferred. The positions, velocities and accelerations, come from kinematic calculation. The inertial effect of forces taken into account (weight) is calculated. As final result of the inverse dynamic analysis, the are obtained torques that the 4 motors must apply to repeat requested movement with the forces that were acting. The fourth approval of the model consists on confirming that the achieved movement due to the use of the torques obtained in the inverse dynamics, are in accordance with movements from kinematic analysis (theoretical movement). For this, it is necessary to work with direct dynamics. Direct dynamic is in charge of calculating the movements of robot that results from applying torques at motors and forces at the robot. Therefore, the resultant real movement, as there was no change in any condition of the ones obtained at the inverse dynamics (motor torques and inertial forces due to weight of elements) must be the same than theoretical movement. When these results are achieved, it is considered that robot is ready to work. When a machining external force is introduced and it was not taken into account before during the inverse dynamics, and torques at motors considered are the ones of the inverse dynamics, the real movement obtained is not the same than the theoretical movement. Closed loop control is based on comparing real movement with expected movement and introducing required corrrections to minimize or cancel differences. They are applied gains in the way of corrections for position and/or tolerance to remove those differences. Position error is evaluated as the difference, in each point, between theoretical movemment (calculated in the kinematic analysis) and the real movement achieved for each machining force and for an specific gain. Finally, the position error obtained for each machining force and gains are mapped, giving a chart with the best accuracy that the robot can give for each operation that has been requested and which conditions must be provided.
Resumo:
El desarrollo del proyecto consistirá en la medida de la onda reflejada y de la onda transmitida de forma simultánea. Se medirán la permitividad dieléctrica de los diferentes medios para su posterior estudio comparativo. Para ello se utilizará un montaje proporcionado por el DIAC, compuesto por una antena transmisora y otra receptora, en medio de las cuales se coloca la muestra del material. Este montaje tiene la peculiaridad de que se puede variar tanto el ángulo que forman las dos antenas, como el de cada una de ellas con su propio eje; lo que permite poder hacer una gran variedad de medidas para obtener un valor más preciso de la permitividad. Las medidas se realizarán en el rango de radiofrecuencias, concretamente entre 8 y 10 GHz; esto obliga a que el tamaño de las muestras sea superior al de la longitud de onda. Por este motivo tienen grandes dimensiones. Para la obtención del valor de la permitividad dieléctrica será necesario conocer el coeficiente de reflexión de la onda en cada material, para ello se utilizará un analizador vectorial que cubra el rango de frecuencias de trabajo en el que se medirá el parámetro y . Para la obtención de las ondas reflejadas y transmitidas colocaremos las antenas de tal manera que el ángulo que forma la onda con el material sea perpendicular. De ésta forma se pueden realizar las medidas simultáneamente. Las medidas se realizarán en la cámara anecoica para evitar las posibles reflexiones de la onda con las paredes, techo, etc. Y que la antena receptora sólo capture la onda reflejada en el material. Las dos antenas han de formar el mismo ángulo con respecto al eje normal a la muestra para capturar el máximo de onda reflejada posible. Cuando se realizan las medidas hay un dato desconocido, las pérdidas debidas al medio, para saber su valor se medirá el coeficiente de reflexión de una placa metálica, cuyo valor es conocido (módulo 1, fase 180 ). A partir de la diferencia entre el valor teórico y el práctico se obtienen las pérdidas debidas al medio, esto se utilizará para corregir posteriormente las demás medidas.
Resumo:
El conjunto eficiente en la Teoría de la Decisión Multicriterio juega un papel fundamental en los procesos de solución ya que es en este conjunto donde el decisor debe hacer su elección más preferida. Sin embargo, la generación de tal conjunto puede ser difícil, especialmente en problemas continuos y/o no lineales. El primer capítulo de esta memoria, es introductorio a la Decisión Multicriterio y en él se exponen aquellos conceptos y herramientas que se van a utilizar en desarrollos posteriores. El segundo capítulo estudia los problemas de Toma de Decisiones en ambiente de certidumbre. La herramienta básica y punto de partida es la función de valor vectorial que refleja imprecisión sobre las preferencias del decisor. Se propone una caracterización del conjunto de valor eficiente y diferentes aproximaciones con sus propiedades de encaje y convergencia. Varios algoritmos interactivos de solución complementan los desarrollos teóricos. El tercer capítulo está dedicado al caso de ambiente de incertidumbre. Tiene un desarrollo parcialmente paralelo al anterior y utiliza la función de utilidad vectorial como herramienta de modelización de preferencias del decisor. A partir de la consideración de las distribuciones simples se introduce la eficiencia en utilidad, su caracterización y aproximaciones, que posteriormente se extienden a los casos de distribuciones discretas y continuas. En el cuarto capítulo se estudia el problema en ambiente difuso, aunque de manera introductoria. Concluimos sugiriendo distintos problemas abiertos.---ABSTRACT---The efficient set of a Multicriteria Decicion-Making Problem plays a fundamental role in the solution process since the Decisión Maker's preferred choice should be in this set. However, the computation of that set may be difficult, specially in continuous and/or nonlinear problems. Chapter one introduces Multicriteria Decision-Making. We review basic concepts and tools for later developments. Chapter two studies Decision-Making problems under certainty. The basic tool is the vector valué function, which represents imprecisión in the DM's preferences. We propose a characterization of the valué efficient set and different approximations with nesting and convergence properties. Several interactive algorithms complement the theoretical results. We devote Chapter three to problems under uncertainty. The development is parallel to the former and uses vector utility functions to model the DM's preferences. We introduce utility efficiency for simple distributions, its characterization and some approximations, which we partially extend to discrete and continuous classes of distributions. Chapter four studies the problem under fuzziness, at an exploratory level. We conclude with several open problems.
Resumo:
En Ecuador el maíz es el cultivo más importante en superficie y es base de la alimentación para la población rural que vive en los Andes. A diferencia de lo que sucede en la Costa, en la región Sierra todavía se cultivan numerosas variedades tradicionales que se agrupan en veinticuatro razas. Mantener esta diversidad es, pues, de gran importancia no solo para la seguridad alimentaria, sino también como fuente de genes para tolerancia a factores abióticos que podrían ser incorporados a las variedades modernas. Si bien parte de esta diversidad fue recolectada a mediados del siglo pasado y está siendo conservada en distintos bancos de germoplasma, es deseable que su conservación in situ también esté asegurada, entre otras razones, porque de esta manera el cultivo puede seguir evolucionando. Para poder implementar un plan de conservación en finca que contribuya a preservar este patrimonio, resulta imprescindible identificar áreas idóneas donde concentrar los recursos y conocer las características y tipologías de los agricultores que manejan la diversidad actual. Generar esta información es el objetivo principal de esta investigación y para lograrlo se han llevado a cabo cuatro estudios: (1) Análisis de la diversidad a nivel de razas e identificación de áreas de alta riqueza de razas, alta diversidad morfológica y/o alta diversidad ecogeográfica en la Sierra de Ecuador, (2) Identificación del perfil y las características de los agricultores que conservan y manejan las variedades tradicionales de maíz en la Sierra de Ecuador, (3) Análisis del conocimiento local, manejo y usos de variedades tradicionales de maíz en la Sierra de Ecuador, y (4) Identificación de áreas de alta diversidad y bajo riesgo de pérdida para la conservación en finca de maíz en la Sierra de Ecuador. Para el primer estudio se visitaron 303 fincas distribuidas a lo largo de la Sierra y se recolectaron 636 muestras que fueron caracterizadas morfológicamente mediante 14 variables: 8 relacionadas con la mazorca (forma, longitud y diámetro de la mazorca, color y diámetro de olote y número y disposición de hileras) y 7 referidas el grano (número total de granos, color, forma, longitud, anchura y grosor de grano y tipo de endospermo). Adicionalmente, las fincas donde se tomaron las muestras fueron caracterizadas ecogeográficamente mediante 5 variables climáticas (temperatura media estacional, rango de temperatura media anual, temperatura mínima de diciembre, precipitación estacional y precipitación de octubre), 2 geofísicas (altitud y pendiente) y 5 edáficas (textura principal del suelo, profundidad a roca, pH, contenido en materia orgánica y fertilidad). A partir de esta información y mediante técnicas de sistemas de información geográfica (SIG), se generaron mapas de distribución por raza en formato vectorial y un mapa de riqueza de razas, un mapa de diversidad morfológica y un mapa de diversidad ecogeográfica en formato ráster con celdas de 10 km x 10 km. Los resultados permitieron constatar que, en los últimos 60 años, no se ha perdido ninguna raza. Sin embargo, Canguil, Chaucho y Clavito han dejado de cultivarse en algunas provincias con la consiguiente erosión genética del cultivo. La caracterización morfológica detectó diferencias en el grado de variabilidad intra-raza, siendo Patillo Ecuatoriano, Racimo de Uva y Uchima las razas más heterogéneas tanto para los caracteres cualitativos como cuantitativos. A nivel climático y geofísico, también se detectaron diferencias en el grado de variación intra-raza; Cuzco Ecuatoriano, Kcello Ecuatoriano y Montaña Ecuatoriana fueron las razas que en promedio presentaron mayores rangos y coeficientes de variación para estas variables ecogeográficas. En cuanto a las condiciones edáficas todas las razas, excepto Cónico Dentado, presentaron una gran heterogeneidad, pudiendo crecer tanto en suelos ricos como pobres, con valores de pH entre ácido y moderadamente alcalino. La comparación entre razas reveló diferencias significativas en los rangos ambientales de algunas razas como Cónico Dentado, que tiende a cultivarse a menor altitud y, por tanto, en ambientes menos fríos y de mayor precipitación que Blanco Blandito, Patillo Ecuatoriano, Sabanero Ecuatoriano, Uchima y Zhima. Para la mayoría de las razas se encontraron materiales potencialmente adaptados a condiciones de estrés (precipitación estacional inferior a 500 mm y suelos con pH entre 4.5 y 5.5). Finalmente, los mapas de riqueza, de diversidad morfológica y de diversidad ecogeográfica mostraron 36 celdas de alta diversidad repartidas en las 10 provincias de la Sierra: 11 celdas en las provincias del norte, 11 en las provincias del centro y 14 en las provincias del sur. Para la caracterización e identificación de las tipologías de los agricultores que cultivan maíz en la Sierra de Ecuador y el análisis de los posibles factores de riesgo de pérdida de diversidad, se realizaron entrevistas individuales y semiestructuradas a los agricultores dueños de las fincas donde se recolectaron las muestras para el estudio de diversidad (254 en total). Las preguntas que se formularon (11 abiertas y 5 cerradas) estuvieron organizadas en seis bloques: datos del agricultor, características de la finca, diversidad y conocimiento del cultivo, manejo del cultivo, usos y flujo de semillas. Los resultados indicaron que la diversidad de maíz que hay en la Sierra de Ecuador es manejada mayoritariamente por agricultores mestizos, de entre 30 y 55 años, que cultivan una o dos variedades tradicionales para autoconsumo, en parcelas de menos de 0.5 ha y en asocio con fréjol. El análisis de segmentación mediante el algoritmo Chi-square automatic interaction detection (CHAID) permitió identificar un pequeño grupo de agricultores indígenas con parcelas medianas (entre 0.5 ha y 1.5 ha) que conservan un mayor número de variedades tradicionales por finca que el agricultor promedio. Los análisis estadísticos no detectaron diferencias significativas entre etnias (mestizo vs. indígena), géneros (hombre vs. mujer) y grupos de edad (jóvenes menores de 30 años, adultos entre 30 y 55 años y adultos mayores de 55 años) en lo que respecta al conocimiento del cultivo (criterios de reconocimiento y razones de preferencia) y manejo (tipo de cultivo), pero sí detectaron diferencias entre regiones, principalmente en el modo de cultivar el maíz; mientras que en el norte y sur tienden a sembrarlo en asocio y con un mayor número de especies, en el centro acostumbran a cultivarlo preferentemente solo. En cuanto a los usos, se recopilaron hasta 39 modos diferentes de consumir maíz, siendo Kcello Ecuatoriano y Zhima las razas para las que se registró un mayor número de usos. La comparación del número medio de usos por variedad entre etnias evidenció que los agricultores mestizos utilizan sus variedades tradicionales de forma más variada que los indígenas. Entre los factores de riesgo que se analizaron, el bajo porcentaje de jóvenes agricultores que se ocupan de las fincas podría suponer una amenaza a medio plazo por falta de relevo generacional. Adicionalmente, las numerosas sinonimias y homonimias que se detectaron y el bajo intercambio de semillas también podrían ser causa de pérdida de diversidad, bien por reemplazo o por envejecimiento de la semilla. Finalmente, se concluyó que las razas Chaucho, Complejo Chillo-Huandango, Complejo Mishca-Huandango, Cónico Dentado, Montaña Ecuatoriana y Sabanero Ecuatoriano son particularmente vulnerables, no solo por su baja presencia, sino también por el color de grano que tienen (los mismos que la mayoría de las razas más comunes) y carecer de nombres y usos específicos. Finalmente, para la priorización de áreas de conservación en finca para maíz en la Sierra de Ecuador, se utilizaron 13 criterios de diferente naturaleza: 2 ecogeográficos (precipitación, diversidad ecogeográfica), 6 biológicos (grado de presencia del cultivo, riqueza de razas, diversidad morfológica, presencia de mezclas, presencia de razas locales y riesgo de erosión genética), 3 culturales (abundancia de variedades por finca, diversidad de usos y frecuencia de intercambio) y 2 demográficos (tamaño de la población y distancia a núcleos urbanos). Mediante técnicas SIG y de evaluación multicriterio, los valores originales de las capas-criterio fueron transformados a una escala de 0 a 100. Posteriormente, las capas-criterio normalizadas fueron sumadas utilizando tres métodos de ponderación: (1) mismo peso, (2) diferente peso según la puntuación otorgada por 72 expertos, y (3) diferente peso según el método de comparación entre pares de criterios. Los resultados permitieron identificar ocho celdas de 10 km x 10 km con alta puntuación (> 65): tres celdas en el norte (una en cada una de las provincias), una celda en el centro (en la provincia de Cotopaxi), y cuatro celdas en la región sur (dos en Azuay y otras dos en Loja). ABSTRACT In Ecuador, the maize is the most important cultivation in surface and it is a base of the feeding for the rural population who lives in the Andes. In contrast to what it happens on the Coast, in the Sierra region still there are cultivated numerous traditional varieties that are grouped into twenty-four races. Maintaining this diversity is, therefore, of great importance not only for food security, but also as a source of genes for tolerance to abiotic factors could be incorporated into modern varieties. Although part of this diversity was collected in the middle of the last century and is still preserved in various germplasm banks, it is desirable for the in situ conservation also is assured, among other reasons, because in this way the crop can continue to evolve. To be able to implement a conservation plan on farm that contribute to preserving this heritage, it is essential to identify suitable areas where to concentrate resources and know the characteristics and typology of farmer who managed the current diversity. To generate this information is the main target of this investigation and to achieve this, four studies have been carried out: (1) Analysis of the diversity at races and identification of areas of high richness of races, high morphological diversity and / or ecogeographical high diversity in the Sierra of Ecuador, (2) Identification of the profile and characteristics of farmers who conserve and manage traditional varieties of maize in the Sierra of Ecuador, (3) Analysis of local knowledge, management and use of traditional varieties of maize in the Sierra of Ecuador, and (4) Identification of areas of high diversity and low risk of loss for the conservation of maize in the Sierra of Ecuador. For the first study were visited 303 farms distributed along the Sierra and collected 636 samples that were characterized morphologically by 14 variables: 8 related to the ear (shape, length and diameter of the cob, colour, and diameter of cob and number and arrangement of rows) and 7 referred to the grain (total number of grain, colour, shape, length, width, and thickness and type of grain endosperm). In addition, the farms where the samples were taken were characterized ecogeographically through 5 climatic variables (seasonal average temperature, range of average annual temperature, minimum temperature for December, seasonal precipitation and precipitation of October), 2 geophysical (altitude and slope) and edaphic 5 (main texture of the soil, deep rock, pH, content of organic matter and fertility). From this information and techniques of geographic information systems (GIS), maps were generated for distribution by race in vector format and a map of richness of races, a map of morphological diversity and a map of ecogeographical diversity in raster format with cells of 10 km x 10 km. The results allowed observing that, over the past 60 years, it has not lost any race. Nevertheless, Canguil, Chaucho and Clavito have stopped being cultivated in some provinces with the consequent genetic erosion of the cultivation. The morphological characterization detected differences in the degree of variability intra-race, being Patillo Ecuatoriano, Racimo de Uva and Uchima races more heterogeneous both for the qualitative and quantitative characters. At climate and geophysical level, also detected differences in the degree of variation intra-race; Cuzco Ecuatoriano, Kcello Ecuatoriano and Montaña Ecuatoriana were races that, on average, showed higher ranges and coefficients of variation for these geographical characters. In terms of the edaphic conditions, all races, except Cónico Dentado, showed a great heterogeneity, and can grow both in rich and poor soils, with pH values between acid and moderately alkaline. The comparison between races revealed significant differences in the environmental ranges in some races as Cónico Dentado, which tends to be grown at lower elevations and, therefore, in environments less cold and greater precipitation than Blanco Blandito, Patillo Ecuatoriano, Sabanero Ecuatoriano, Uchima and Zhima. For most of the races were found materials potentially adapted to stress conditions (seasonal precipitation less than 500 mm and soil with a pH between 4.5 and 5.5). Finally, the maps of richness, morphologic diversity and ecogeographical diversity showed 36 cells high diversity distributed in 10 provinces of the Sierra: 11 cells in the northern provinces, 11 in the central provinces and 14 in the southern provinces. For the characterization and identification of the typology of the farmers who cultivate corn in the Sierra of Ecuador and the analysis of the possible factors of risk of loss of diversity, there were realized interviews individual and semistructured to the farmers’ owners of the farms where the samples were gathered for the study of diversity (254 in whole). The questions that were formulated (11 opened ones and 5 closed ones) were organized in six blocks: data of the farmer, characteristics of the farm, diversity and knowledge of the crop, crop management, uses and seed flow. The results indicated that the maize diversity that exist in the Sierra of Ecuador is managed mainly by mestizo farmers, aged between 30 and 55, who cultivate one or two traditional varieties for self-consumption, on plots of less than 0.5 has and in associated with beans. The segmentation analysis algorithm using the Chi-square automatic interaction detection (CHAID technique), allowed to identify a small group of indigenous farmers with medium-sized plots (between 0.5 there is and 1.5 it is) that a major number of traditional varieties preserves for farm that the average farmer. The statistical analysis did not detect significant differences between ethnic groups (mestizos vs. indigenous), genres (man vs. women) and age groups (young people under 30 years of age, adults between 30 and 55 years and adults over 55 years old) in regards to the knowledge of the cultivation (recognition criteria and reasons of preference) and management (type of crop), but if detected differences between regions, mainly on the mode of cultivating the maize; while in the north and south they tend to sow in associate and with a greater number of species, in the center accustomed to cultivate it preferably only. In regards to the uses, they were compiled up to 39 different ways of consuming maize, being Kcello Ecuatoriano and Zhima the races for which a major number of uses registered. The comparison of the average number of uses per variety between ethnic groups showed that the mestizo farmers used their traditional varieties of form more varied than the indigenous people. Between the factors of risk that were analyzed, the low percentage of young farmers who deal with the farms might suppose a medium-term threat for lack of generational relief. In addition, the numerous synonyms and homonyms that were detected and the low seed exchange could also be a cause of loss of diversity, either by replacement or by aging of the seed. Finally, it was concluded that the races Chaucho, Complex Chillo-Huandango, Complex Mishca-Huandango, Cónico Dentado, Montaña Ecuatoriana and Sabanero Ecuatoriano are particularly vulnerable, not only because of their low presence, but also by the grain color they have (the same as the majority of races more common) and lack of names and specific uses. Finally, for the prioritization of maize conservation areas on farm in the Sierra of Ecuador, used 13 criteria of different nature: 2 ecogeographic (precipitation, diversity ecogeographical), 6 biological (degree of presence of the crop, races richness, morphological diversity, the presence of mixtures, presence of local races and risk of genetic erosion), 3 cultural (abundance of varieties per farm, diversity of uses and frequency of exchange) and 2 demographic (population size and distance to urban centers). Using GIS techniques and multicriteria evaluation, the original values of the layers-criterion were transformed to a scale of 0 to 100. Later, the normalized layers - criteria were added using three weighting methods: (1) the same weight, (2) different weight according to the score given by 72 experts, and (3) different weight according to the method of comparison between pairs of criteria. The results allowed to identify eight 10 km cells x 10 km with high punctuation (> 65): three cells in the north (one in each of the provinces), a cell in the center (in the Cotopaxi province), and four cells in the south region (two in Azuay and other two in Loja).
Resumo:
Un entendimiento infraestructural del proyecto arquitectónico Este trabajo de tesis reivindica la pertinencia de la lógica infraestructural como herramienta de proyecto arquitectónico en el territorio urbano contemporáneo, a través del relato del tránsito que se produce entre las décadas de 1960 y 1970 y el final del siglo XX, desde unos sistemas urbanos centrales, vectoriales y ‘modernos’ hacia unos sistemas policéntricos, organizados según modelos de campos y ‘contemporáneos’. Las infraestructuras han sido tradicionalmente objeto de interés para generaciones de arquitectos y urbanistas que, bien desde su condición plástica más pregnante, bien desde una intuición de su capacidad organizativa, han sido fascinados por la irrupción en el territorio de estos elementos generalmente ajenos al proyecto arquitectónico. Los proyectos que durante décadas han explorado la posibilidad de habitar estas grandes estructuras, o de proyectar con su lenguaje y su escala, han resultado en un acercamiento a la capacidad de lo infraestructural como herramienta de proyecto limitada a cuestiones morfotipológicas. Sin embargo, a partir de un estudio de la infraestructura ‘clásica’ como aquella resultado de la manifestación de las redes de abastecimiento y conectividad básicas, se desvela una naturaleza de lo infraestructural que trasciende su expresión formal conocida y explora su capacidad performativa, como sistema de relaciones, como orden topológico, como soporte flexible para la actividad espontánea y no anticipada. A partir del trabajo de diversos autores y de una selección de proyectos de distinta índole –la mayoría no construidos– se muestra cómo la irrupción de una conciencia relacional, así como la problemática moderna de afrontar los procesos de generación de una ‘nueva ciudad para una nueva sociedad’, motivan la búsqueda de sistemas de generación y control de ‘forma colectiva’ adecuados a un modelo urbano contemporáneo. Transitando por los escritos de Fumihiko Maki en Investigations in Collective Form, Reyner Banham en Megastructure, o Shadrach Woods en The Man in the Street durante los 60 y 70 y, más recientemente, de Stan Allen en Points + Lines, Edward Soja en Postmetropolis o Frei Otto en Occupying and Connecting, se traza esta historia semántica de lo infraestructural desde lo tipológico hasta una noción ampliada que resulta pertinente para operar en el territorio contemporáneo postmetropolitano. Para ello el trabajo plantea, por un lado, la descripción del contexto urbano que podemos asumir como contemporáneo, su evolución y sus características principales. Por otro lado, se explora la formación de esta noción de entendimiento infraestructural en las últimas décadas desde enfoques complementarios. Una introducción describe las condiciones de contexto en las que este estudio doctoral adquiere su pertinencia: el tránsito relativamente reciente desde un modelo vectorial y clásico de ocupación del territorio, al modelo contemporáneo disperso y policéntrico propio del modelo de campos. Un bloque central de tres capítulos analiza ‘lo infraestructural’ como expresión de una arquitectura de las relaciones, como soporte para una sociedad en cambio y como lógica proyectual, no ligada a una forma dada. La última parte, a modo de epílogo, describe el territorio urbano contemporáneo, sus cualidades básicas y la capacidad de las lógicas infraestructurales enunciadas en los capítulos anteriores para operar en él. Un último apartado de conclusiones, establece las bases de una línea de investigación abierta acerca de la operatividad actual de estos sistemas en el proyecto de arquitectura. ABSTRACT An infrastructural understanding of architectural design This thesis project claims for the suitability of infrastructural logics as a design tool within contemporary urban territories. This claim is illustrated by means of a report on the transit between the 60–70’s decades and the end of the 20th century, ranging from vector, central, ‘modern’ urban systems, towards polycentric ‘contemporary’ urban patterns, arranged following field models. Infrastructures have been traditionally on the spot for generations of architects and urban planners who, due to either their aesthetical condition, or an intuition of their organizational capacity, have been fascinated by the bursting of these elements in the territory. Projects which have explored the possibility to inhabit these huge structures, or to design with its language or scale for decades, have turned out to be always limited to morphological-typological issues. However, from the base of a research on ‘classic’ infrastructure –understood as the outcome of supplies and connectivity basic networks– a new nature of infrastructure is revealed, going beyond its known formal expression and exploring its potential to perform as a system of relationships, as a topological pattern, or as a flexible support for spontaneous and unanticipated activity. The breakthrough of a relational consciousness, as well as the modern concern about the generation of ‘a new city for a new society’ are shown, through the works of several authors and a selection of heterogeneous mostly-unbuilt projects. This semantic history of infrastructures, regarding not only typologies but also a broader concept able to operate in contemporary postmetropolitan territory, is drawn by following the paths of Fumihiko Maki in Investigations in Collective Form, Reyner Banham in Megastructure, or Shadrach Woods in The Man in the Street during the 60’s and 70’s and, lately, those of Stan Allen in Points + Lines, Edward Soja in Postmetropolis or Frei Otto in Occupying and Connecting. In order to do so, this thesis project sets, on one hand, a description of the urban context which can be assumed as contemporary, as well as its evolution and main features. On the other hand, complementary approaches help go deep into how this notion of infrastructural insight within the last decades has been created. An introduction describes the contextual conditions for this thesis project to become relevant: the relatively recent transit from a classic spatial occupation pattern, to the contemporary, disperse and polycentric pattern inherent to field models. A three-chapters core analyzes the infrastructures as the expression of an architecture of relations, as well as a support for a changing society and as a formless design logic. The last part, an epilogue, describes the urban contemporary territory and the suitability of the infrastructural logics to operate in it. A final conclusive section, lays the foundations for an open line of research on present functionality of these systems in architectural designs.
Plataforma de simulación en Matlab-Simulink de un accionamiento regulado para emular aerogeneradores
Resumo:
En este proyecto se desarrolla un modelo de simulación de un accionamiento controlado que emula el comportamiento de una turbina eólica, el cual se ha llevado a cabo a través del programa para simulación Matlab/Simulink. Su desarrollo se ha estructurado de la siguiente forma: Tras una breve introducción a la energía eólica y a las máquinas eléctricas objeto de estudio en este proyecto, se procede a la caracterización y representación de dichas maquinas dentro de la plataforma de simulación virtual Simulink. Posteriormente se explican posibles estrategias de control de la máquina de inducción, las cuales son aplicadas para la realización de un control de velocidad. Asimismo, se realiza un control vectorial de par de la máquina de inducción de modo que permita un seguimiento efectivo del par de referencia demandado por el usuario, ante distintas condiciones. Finalmente, se añade el modelo de turbina eólica de manera que, definiendo los valores de velocidad de viento, ángulo de paso y velocidad del eje, permite evaluar el par mecánico desarrollado por la turbina. Este modelo se valida comprobando su funcionamiento para diferentes puntos de operación ante diversas condiciones del par de carga. Las condiciones de carga se establecen acoplando al modelo de la turbina, un generador síncrono de imanes permanentes conectado a una carga resistiva. ! II! ABSTRACT In this project, the simulation model of a controlled drive that emulates the behaviour of a wind turbine is developed. It has been carried out through the platform for multidomian simulation called Matlab/Simulink. Its development has been structured as follows: After a brief introduction to the wind energy and the electrical machines studied in this project, these machines are characterized and represented into the virtual simulation platform, Simulink. Subsequently, the possible control strategies for the induction machine are explained and applied in order to carry out a speed control. Additionally, a torque vector control of the induction machine is performed, so as to enable an effective monitoring of the reference torque requested by the user, under different conditions. Finally, the wind turbine model is implemented so as to assess the turbine mechanical torque, after defining the wind speed, the pitch angle and the shaft speed values. This model is validated by testing its functionality for different operating points under various load torques. The load conditions are set up by attaching a permanent magnets synchronous machine, with a resistive load, to the turbine model.
Resumo:
La familia de algoritmos de Boosting son un tipo de técnicas de clasificación y regresión que han demostrado ser muy eficaces en problemas de Visión Computacional. Tal es el caso de los problemas de detección, de seguimiento o bien de reconocimiento de caras, personas, objetos deformables y acciones. El primer y más popular algoritmo de Boosting, AdaBoost, fue concebido para problemas binarios. Desde entonces, muchas han sido las propuestas que han aparecido con objeto de trasladarlo a otros dominios más generales: multiclase, multilabel, con costes, etc. Nuestro interés se centra en extender AdaBoost al terreno de la clasificación multiclase, considerándolo como un primer paso para posteriores ampliaciones. En la presente tesis proponemos dos algoritmos de Boosting para problemas multiclase basados en nuevas derivaciones del concepto margen. El primero de ellos, PIBoost, está concebido para abordar el problema descomponiéndolo en subproblemas binarios. Por un lado, usamos una codificación vectorial para representar etiquetas y, por otro, utilizamos la función de pérdida exponencial multiclase para evaluar las respuestas. Esta codificación produce un conjunto de valores margen que conllevan un rango de penalizaciones en caso de fallo y recompensas en caso de acierto. La optimización iterativa del modelo genera un proceso de Boosting asimétrico cuyos costes dependen del número de etiquetas separadas por cada clasificador débil. De este modo nuestro algoritmo de Boosting tiene en cuenta el desbalanceo debido a las clases a la hora de construir el clasificador. El resultado es un método bien fundamentado que extiende de manera canónica al AdaBoost original. El segundo algoritmo propuesto, BAdaCost, está concebido para problemas multiclase dotados de una matriz de costes. Motivados por los escasos trabajos dedicados a generalizar AdaBoost al terreno multiclase con costes, hemos propuesto un nuevo concepto de margen que, a su vez, permite derivar una función de pérdida adecuada para evaluar costes. Consideramos nuestro algoritmo como la extensión más canónica de AdaBoost para este tipo de problemas, ya que generaliza a los algoritmos SAMME, Cost-Sensitive AdaBoost y PIBoost. Por otro lado, sugerimos un simple procedimiento para calcular matrices de coste adecuadas para mejorar el rendimiento de Boosting a la hora de abordar problemas estándar y problemas con datos desbalanceados. Una serie de experimentos nos sirven para demostrar la efectividad de ambos métodos frente a otros conocidos algoritmos de Boosting multiclase en sus respectivas áreas. En dichos experimentos se usan bases de datos de referencia en el área de Machine Learning, en primer lugar para minimizar errores y en segundo lugar para minimizar costes. Además, hemos podido aplicar BAdaCost con éxito a un proceso de segmentación, un caso particular de problema con datos desbalanceados. Concluimos justificando el horizonte de futuro que encierra el marco de trabajo que presentamos, tanto por su aplicabilidad como por su flexibilidad teórica. Abstract The family of Boosting algorithms represents a type of classification and regression approach that has shown to be very effective in Computer Vision problems. Such is the case of detection, tracking and recognition of faces, people, deformable objects and actions. The first and most popular algorithm, AdaBoost, was introduced in the context of binary classification. Since then, many works have been proposed to extend it to the more general multi-class, multi-label, costsensitive, etc... domains. Our interest is centered in extending AdaBoost to two problems in the multi-class field, considering it a first step for upcoming generalizations. In this dissertation we propose two Boosting algorithms for multi-class classification based on new generalizations of the concept of margin. The first of them, PIBoost, is conceived to tackle the multi-class problem by solving many binary sub-problems. We use a vectorial codification to represent class labels and a multi-class exponential loss function to evaluate classifier responses. This representation produces a set of margin values that provide a range of penalties for failures and rewards for successes. The stagewise optimization of this model introduces an asymmetric Boosting procedure whose costs depend on the number of classes separated by each weak-learner. In this way the Boosting procedure takes into account class imbalances when building the ensemble. The resulting algorithm is a well grounded method that canonically extends the original AdaBoost. The second algorithm proposed, BAdaCost, is conceived for multi-class problems endowed with a cost matrix. Motivated by the few cost-sensitive extensions of AdaBoost to the multi-class field, we propose a new margin that, in turn, yields a new loss function appropriate for evaluating costs. Since BAdaCost generalizes SAMME, Cost-Sensitive AdaBoost and PIBoost algorithms, we consider our algorithm as a canonical extension of AdaBoost to this kind of problems. We additionally suggest a simple procedure to compute cost matrices that improve the performance of Boosting in standard and unbalanced problems. A set of experiments is carried out to demonstrate the effectiveness of both methods against other relevant Boosting algorithms in their respective areas. In the experiments we resort to benchmark data sets used in the Machine Learning community, firstly for minimizing classification errors and secondly for minimizing costs. In addition, we successfully applied BAdaCost to a segmentation task, a particular problem in presence of imbalanced data. We conclude the thesis justifying the horizon of future improvements encompassed in our framework, due to its applicability and theoretical flexibility.
Resumo:
Los algoritmos basados en registros de desplazamiento con realimentación (en inglés FSR) se han utilizado como generadores de flujos pseudoaleatorios en aplicaciones con recursos limitados como los sistemas de apertura sin llave. Se considera canal primario a aquel que se utiliza para realizar una transmisión de información. La aparición de los ataques de canal auxiliar (en inglés SCA), que explotan información filtrada inintencionadamente a través de canales laterales como el consumo, las emisiones electromagnéticas o el tiempo empleado, supone una grave amenaza para estas aplicaciones, dado que los dispositivos son accesibles por un atacante. El objetivo de esta tesis es proporcionar un conjunto de protecciones que se puedan aplicar de forma automática y que utilicen recursos ya disponibles, evitando un incremento sustancial en los costes y alargando la vida útil de aplicaciones que puedan estar desplegadas. Explotamos el paralelismo existente en algoritmos FSR, ya que sólo hay 1 bit de diferencia entre estados de rondas consecutivas. Realizamos aportaciones en tres niveles: a nivel de sistema, utilizando un coprocesador reconfigurable, a través del compilador y a nivel de bit, aprovechando los recursos disponibles en el procesador. Proponemos un marco de trabajo que nos permite evaluar implementaciones de un algoritmo incluyendo los efectos introducidos por el compilador considerando que el atacante es experto. En el campo de los ataques, hemos propuesto un nuevo ataque diferencial que se adapta mejor a las condiciones de las implementaciones software de FSR, en las que el consumo entre rondas es muy similar. SORU2 es un co-procesador vectorial reconfigurable propuesto para reducir el consumo energético en aplicaciones con paralelismo y basadas en el uso de bucles. Proponemos el uso de SORU2, además, para ejecutar algoritmos basados en FSR de forma segura. Al ser reconfigurable, no supone un sobrecoste en recursos, ya que no está dedicado en exclusiva al algoritmo de cifrado. Proponemos una configuración que ejecuta múltiples algoritmos de cifrado similares de forma simultánea, con distintas implementaciones y claves. A partir de una implementación sin protecciones, que demostramos que es completamente vulnerable ante SCA, obtenemos una implementación segura a los ataques que hemos realizado. A nivel de compilador, proponemos un mecanismo para evaluar los efectos de las secuencias de optimización del compilador sobre una implementación. El número de posibles secuencias de optimizaciones de compilador es extremadamente alto. El marco de trabajo propuesto incluye un algoritmo para la selección de las secuencias de optimización a considerar. Debido a que las optimizaciones del compilador transforman las implementaciones, se pueden generar automáticamente implementaciones diferentes combinamos para incrementar la seguridad ante SCA. Proponemos 2 mecanismos de aplicación de estas contramedidas, que aumentan la seguridad de la implementación original sin poder considerarse seguras. Finalmente hemos propuesto la ejecución paralela a nivel de bit del algoritmo en un procesador. Utilizamos la forma algebraica normal del algoritmo, que automáticamente se paraleliza. La implementación sobre el algoritmo evaluado mejora en rendimiento y evita que se filtre información por una ejecución dependiente de datos. Sin embargo, es más vulnerable ante ataques diferenciales que la implementación original. Proponemos una modificación del algoritmo para obtener una implementación segura, descartando parcialmente ejecuciones del algoritmo, de forma aleatoria. Esta implementación no introduce una sobrecarga en rendimiento comparada con las implementaciones originales. En definitiva, hemos propuesto varios mecanismos originales a distintos niveles para introducir aleatoridad en implementaciones de algoritmos FSR sin incrementar sustancialmente los recursos necesarios. ABSTRACT Feedback Shift Registers (FSR) have been traditionally used to implement pseudorandom sequence generators. These generators are used in Stream ciphers in systems with tight resource constraints, such as Remote Keyless Entry. When communicating electronic devices, the primary channel is the one used to transmit the information. Side-Channel Attack (SCA) use additional information leaking from the actual implementation, including power consumption, electromagnetic emissions or timing information. Side-Channel Attacks (SCA) are a serious threat to FSR-based applications, as an attacker usually has physical access to the devices. The main objective of this Ph.D. thesis is to provide a set of countermeasures that can be applied automatically using the available resources, avoiding a significant cost overhead and extending the useful life of deployed systems. If possible, we propose to take advantage of the inherent parallelism of FSR-based algorithms, as the state of a FSR differs from previous values only in 1-bit. We have contributed in three different levels: architecture (using a reconfigurable co-processor), using compiler optimizations, and at bit level, making the most of the resources available at the processor. We have developed a framework to evaluate implementations of an algorithm including the effects introduced by the compiler. We consider the presence of an expert attacker with great knowledge on the application and the device. Regarding SCA, we have presented a new differential SCA that performs better than traditional SCA on software FSR-based algorithms, where the leaked values are similar between rounds. SORU2 is a reconfigurable vector co-processor. It has been developed to reduce energy consumption in loop-based applications with parallelism. In addition, we propose its use for secure implementations of FSR-based algorithms. The cost overhead is discarded as the co-processor is not exclusively dedicated to the encryption algorithm. We present a co-processor configuration that executes multiple simultaneous encryptions, using different implementations and keys. From a basic implementation, which is proved to be vulnerable to SCA, we obtain an implementation where the SCA applied were unsuccessful. At compiler level, we use the framework to evaluate the effect of sequences of compiler optimization passes on a software implementation. There are many optimization passes available. The optimization sequences are combinations of the available passes. The amount of sequences is extremely high. The framework includes an algorithm for the selection of interesting sequences that require detailed evaluation. As existing compiler optimizations transform the software implementation, using different optimization sequences we can automatically generate different implementations. We propose to randomly switch between the generated implementations to increase the resistance against SCA.We propose two countermeasures. The results show that, although they increase the resistance against SCA, the resulting implementations are not secure. At bit level, we propose to exploit bit level parallelism of FSR-based implementations using pseudo bitslice implementation in a wireless node processor. The bitslice implementation is automatically obtained from the Algebraic Normal Form of the algorithm. The results show a performance improvement, avoiding timing information leakage, but increasing the vulnerability against differential SCA.We provide a secure version of the algorithm by randomly discarding part of the data obtained. The overhead in performance is negligible when compared to the original implementations. To summarize, we have proposed a set of original countermeasures at different levels that introduce randomness in FSR-based algorithms avoiding a heavy overhead on the resources required.
Resumo:
Una de las principales preocupaciones a la hora de realizar cualquier proyecto de ingeniería es la adecuada determinación de los hidrogramas de avenida de los cursos de agua que lo afecten. Hoy en día es posible la simulación de modelos hidrológicos complejos de lluvia directa sobre malla 2D de elementos finitos, empleando los avances en cálculo vectorial que ofrece la tecnología CUDA (Arquitectura Unificada de Dispositivos de Cálculo), sin la necesidad de determinar subcuencas y tránsitos (como en HEC-HMS). Con los datos que ofrecen los Modelos Digitales del Terreno GRID del PNOA español (Plan Nacional de Ortofotografía Aérea) con precisión de 5 x 5 m y las Coberturas del Terreno SIG CORINE (Coordinación de Información del Medio Ambiente), que permite la evaluación de la rugosidad del suelo, se tiene la información necesaria para construir fácilmente este tipo de modelos. En este documento se presenta un procedimiento para delimitar fácilmente los cursos de agua principales y disponer en estas zonas un tamaño más pequeño de los elementos de la malla. El método propuesto permite una mejor definición de estas áreas después de unas pocas iteraciones, acelerando por tanto el proceso de construcción del modelo sin comprometer la calidad de los resultados. Para demostrar el método, se modelizaron dos cuencas completas mediante lluvia directa sobre una malla de elementos 2D. Se ensayaron diferentes niveles de precisión (variando el número de elementos) y se incluyeron dos presas, usando los datos del Modelo Digital del Terreno del PNOA. También se completó el cálculo hidrológico de ambas mediante HEC-HMS. En primer lugar se estudió la cuenca del río Zapardiel (cuenca del Duero, con superficie total de 1.450 km2, no presenta regulación artificial, pero sí algunas áreas de almacenamiento naturales). La segunda cuenca ensayada correspondió al río Zújar (cuenca del Guadiana, con superficie total de 8.500 km2, que incluye dos grandes presas: La Serena, con una capacidad de 3.200 hm3 y el Embalse del Zújar, situado aguas abajo de la primera, con un volumen útil de 300 hm3). Los resultados confirmaron que la forma de modelizar clásica con enfoque de subcuencas y tránsitos (tipo HEC-HMS) puede ser reemplazada por simulaciones de lluvia directa sobre malla 2D, por lo tanto reduciendo la incertidumbre inherente en la estimación de tiempos de concentración de subcuencas y parámetros de tránsito. Gracias a la disponibilidad de datos públicos de GRID PNOA y cobertura del terreno CORINE, actualmente es posible construir modelos de mallas de elementos 2D para simular lluvia directa sobre cuenca sin necesidad de costosos levantamientos topográficos. Con el hardware disponible hoy en día en ordenadores de uso general, se puede establecer un límite superior razonable para mallas 2D de 4 millones de elementos, lo que permite la correcta simulación de la lluvia directa en cuencas de hasta 10.000 km2. Para cuencas más grandes, este proceso se podría aplicar de forma repetida a varias zonas más pequeñas o en sucesivas secciones de la cuenca.
Resumo:
Las futuras misiones para misiles aire-aire operando dentro de la atmósfera requieren la interceptación de blancos a mayores velocidades y más maniobrables, incluyendo los esperados vehículos aéreos de combate no tripulados. La intercepción tiene que lograrse desde cualquier ángulo de lanzamiento. Una de las principales discusiones en la tecnología de misiles en la actualidad es cómo satisfacer estos nuevos requisitos incrementando la capacidad de maniobra del misil y en paralelo, a través de mejoras en los métodos de guiado y control modernos. Esta Tesis aborda estos dos objetivos simultáneamente, al proponer un diseño integrando el guiado y el control de vuelo (autopiloto) y aplicarlo a misiles con control aerodinámico simultáneo en canard y cola. Un primer avance de los resultados obtenidos ha sido publicado recientemente en el Journal of Aerospace Engineering, en Abril de 2015, [Ibarrondo y Sanz-Aranguez, 2015]. El valor del diseño integrado obtenido es que permite al misil cumplir con los requisitos operacionales mencionados empleando únicamente control aerodinámico. El diseño propuesto se compara favorablemente con esquemas más tradicionales, consiguiendo menores distancias de paso al blanco y necesitando de menores esfuerzos de control incluso en presencia de ruidos. En esta Tesis se demostrará cómo la introducción del doble mando, donde tanto el canard como las aletas de cola son móviles, puede mejorar las actuaciones de un misil existente. Comparado con un misil con control en cola, el doble control requiere sólo introducir dos servos adicionales para accionar los canards también en guiñada y cabeceo. La sección de cola será responsable de controlar el misil en balanceo mediante deflexiones diferenciales de los controles. En el caso del doble mando, la complicación añadida es que los vórtices desprendidos de los canards se propagan corriente abajo y pueden incidir sobre las superficies de cola, alterando sus características de control. Como un primer aporte, se ha desarrollado un modelo analítico completo para la aerodinámica no lineal de un misil con doble control, incluyendo la caracterización de este efecto de acoplamiento aerodinámico. Hay dos modos de funcionamiento en picado y guiñada para un misil de doble mando: ”desviación” y ”opuesto”. En modo ”desviación”, los controles actúan en la misma dirección, generando un cambio inmediato en la sustentación y produciendo un movimiento de translación en el misil. La respuesta es rápida, pero en el modo ”desviación” los misiles con doble control pueden tener dificultades para alcanzar grandes ángulos de ataque y altas aceleraciones laterales. Cuando los controles actúan en direcciones opuestas, el misil rota y el ángulo de ataque del fuselaje se incrementa para generar mayores aceleraciones en estado estacionario, aunque el tiempo de respuesta es mayor. Con el modelo aerodinámico completo, es posible obtener una parametrización dependiente de los estados de la dinámica de corto periodo del misil. Debido al efecto de acoplamiento entre los controles, la respuesta en bucle abierto no depende linealmente de los controles. El autopiloto se optimiza para obtener la maniobra requerida por la ley de guiado sin exceder ninguno de los límites aerodinámicos o mecánicos del misil. Una segunda contribución de la tesis es el desarrollo de un autopiloto con múltiples entradas de control y que integra la aerodinámica no lineal, controlando los tres canales de picado, guiñada y cabeceo de forma simultánea. Las ganancias del autopiloto dependen de los estados del misil y se calculan a cada paso de integración mediante la resolución de una ecuación de Riccati de orden 21x21. Las ganancias obtenidas son sub-óptimas, debido a que una solución completa de la ecuación de Hamilton-Jacobi-Bellman no puede obtenerse de manera práctica, y se asumen ciertas simplificaciones. Se incorpora asimismo un mecanismo que permite acelerar la respuesta en caso necesario. Como parte del autopiloto, se define una estrategia para repartir el esfuerzo de control entre el canard y la cola. Esto se consigue mediante un controlador aumentado situado antes del bucle de optimización, que minimiza el esfuerzo total de control para maniobrar. Esta ley de alimentación directa mantiene al misil cerca de sus condiciones de equilibrio, garantizando una respuesta transitoria adecuada. El controlador no lineal elimina la respuesta de fase no-mínima característica de la cola. En esta Tesis se consideran dos diseños para el guiado y control, el control en Doble-Lazo y el control Integrado. En la aproximación de Doble-Lazo, el autopiloto se sitúa dentro de un bucle interior y se diseña independientemente del guiado, que conforma el bucle más exterior del control. Esta estructura asume que existe separación espectral entre los dos, esto es, que los tiempos de respuesta del autopiloto son mucho mayores que los tiempos característicos del guiado. En el estudio se combina el autopiloto desarrollado con una ley de guiado óptimo. Los resultados obtenidos demuestran que se consiguen aumentos muy importantes en las actuaciones frente a misiles con control canard o control en cola, y que la interceptación, cuando se lanza cerca del curso de colisión, se consigue desde cualquier ángulo alrededor del blanco. Para el misil de doble mando, la estrategia óptima resulta en utilizar el modo de control opuesto en la aproximación al blanco y utilizar el modo de desviación justo antes del impacto. Sin embargo la lógica de doble bucle no consigue el impacto cuando hay desviaciones importantes con respecto al curso de colisión. Una de las razones es que parte de la demanda de guiado se pierde, ya que el misil solo es capaz de modificar su aceleración lateral, y no tiene control sobre su aceleración axial, a no ser que incorpore un motor de empuje regulable. La hipótesis de separación mencionada, y que constituye la base del Doble-Bucle, puede no ser aplicable cuando la dinámica del misil es muy alta en las proximidades del blanco. Si se combinan el guiado y el autopiloto en un único bucle, la información de los estados del misil está disponible para el cálculo de la ley de guiado, y puede calcularse la estrategia optima de guiado considerando las capacidades y la actitud del misil. Una tercera contribución de la Tesis es la resolución de este segundo diseño, la integración no lineal del guiado y del autopiloto (IGA) para el misil de doble control. Aproximaciones anteriores en la literatura han planteado este sistema en ejes cuerpo, resultando en un sistema muy inestable debido al bajo amortiguamiento del misil en cabeceo y guiñada. Las simplificaciones que se tomaron también causan que el misil se deslice alrededor del blanco y no consiga la intercepción. En nuestra aproximación el problema se plantea en ejes inerciales y se recurre a la dinámica de los cuaterniones, eliminado estos inconvenientes. No se limita a la dinámica de corto periodo del misil, porque se construye incluyendo de modo explícito la velocidad dentro del bucle de optimización. La formulación resultante en el IGA es independiente de la maniobra del blanco, que sin embargo se ha de incluir en el cálculo del modelo en Doble-bucle. Un típico inconveniente de los sistemas integrados con controlador proporcional, es el problema de las escalas. Los errores de guiado dominan sobre los errores de posición del misil y saturan el controlador, provocando la pérdida del misil. Este problema se ha tratado aquí con un controlador aumentado previo al bucle de optimización, que define un estado de equilibrio local para el sistema integrado, que pasa a actuar como un regulador. Los criterios de actuaciones para el IGA son los mismos que para el sistema de Doble-Bucle. Sin embargo el problema matemático resultante es muy complejo. El problema óptimo para tiempo finito resulta en una ecuación diferencial de Riccati con condiciones terminales, que no puede resolverse. Mediante un cambio de variable y la introducción de una matriz de transición, este problema se transforma en una ecuación diferencial de Lyapunov que puede resolverse mediante métodos numéricos. La solución resultante solo es aplicable en un entorno cercano del blanco. Cuando la distancia entre misil y blanco es mayor, se desarrolla una solución aproximada basada en la solución de una ecuación algebraica de Riccati para cada paso de integración. Los resultados que se han obtenido demuestran, a través de análisis numéricos en distintos escenarios, que la solución integrada es mejor que el sistema de Doble-Bucle. Las trayectorias resultantes son muy distintas. El IGA preserva el guiado del misil y consigue maximizar el uso de la propulsión, consiguiendo la interceptación del blanco en menores tiempos de vuelo. El sistema es capaz de lograr el impacto donde el Doble-Bucle falla, y además requiere un orden menos de magnitud en la cantidad de cálculos necesarios. El efecto de los ruidos radar, datos discretos y errores del radomo se investigan. El IGA es más robusto, resultando menos afectado por perturbaciones que el Doble- Bucle, especialmente porque el núcleo de optimización en el IGA es independiente de la maniobra del blanco. La estimación de la maniobra del blanco es siempre imprecisa y contaminada por ruido, y degrada la precisión de la solución de Doble-Bucle. Finalmente, como una cuarta contribución, se demuestra que el misil con guiado IGA es capaz de realizar una maniobra de defensa contra un blanco que ataque por su cola, sólo con control aerodinámico. Las trayectorias estudiadas consideran una fase pre-programada de alta velocidad de giro, manteniendo siempre el misil dentro de su envuelta de vuelo. Este procedimiento no necesita recurrir a soluciones técnicamente más complejas como el control vectorial del empuje o control por chorro para ejecutar esta maniobra. En todas las demostraciones matemáticas se utiliza el producto de Kronecker como una herramienta practica para manejar las parametrizaciones dependientes de variables, que resultan en matrices de grandes dimensiones. ABSTRACT Future missions for air to air endo-atmospheric missiles require the interception of targets with higher speeds and more maneuverable, including forthcoming unmanned supersonic combat vehicles. The interception will need to be achieved from any angle and off-boresight launch conditions. One of the most significant discussions in missile technology today is how to satisfy these new operational requirements by increasing missile maneuvering capabilities and in parallel, through the development of more advanced guidance and control methods. This Thesis addresses these two objectives by proposing a novel optimal integrated guidance and autopilot design scheme, applicable to more maneuverable missiles with forward and rearward aerodynamic controls. A first insight of these results have been recently published in the Journal of Aerospace Engineering in April 2015, [Ibarrondo and Sanz-Aránguez, 2015]. The value of this integrated solution is that it allows the missile to comply with the aforementioned requirements only by applying aerodynamic control. The proposed design is compared against more traditional guidance and control approaches with positive results, achieving reduced control efforts and lower miss distances with the integrated logic even in the presence of noises. In this Thesis it will be demonstrated how the dual control missile, where canard and tail fins are both movable, can enhance the capabilities of an existing missile airframe. Compared to a tail missile, dual control only requires two additional servos to actuate the canards in pitch and yaw. The tail section will be responsible to maintain the missile stabilized in roll, like in a classic tail missile. The additional complexity is that the vortices shed from the canard propagate downstream where they interact with the tail surfaces, altering the tail expected control characteristics. These aerodynamic phenomena must be properly described, as a preliminary step, with high enough precision for advanced guidance and control studies. As a first contribution we have developed a full analytical model of the nonlinear aerodynamics of a missile with dual control, including the characterization of this cross-control coupling effect. This development has been produced from a theoretical model validated with reliable practical data obtained from wind tunnel experiments available in the scientific literature, complement with computer fluid dynamics and semi-experimental methods. There are two modes of operating a missile with forward and rear controls, ”divert” and ”opposite” modes. In divert mode, controls are deflected in the same direction, generating an increment in direct lift and missile translation. Response is fast, but in this mode, dual control missiles may have difficulties in achieving large angles of attack and high level of lateral accelerations. When controls are deflected in opposite directions (opposite mode) the missile airframe rotates and the body angle of attack is increased to generate greater accelerations in steady-state, although the response time is larger. With the aero-model, a state dependent parametrization of the dual control missile short term dynamics can be obtained. Due to the cross-coupling effect, the open loop dynamics for the dual control missile is not linearly dependent of the fin positions. The short term missile dynamics are blended with the servo system to obtain an extended autopilot model, where the response is linear with the control fins turning rates, that will be the control variables. The flight control loop is optimized to achieve the maneuver required by the guidance law without exceeding any of the missile aerodynamic or mechanical limitations. The specific aero-limitations and relevant performance indicators for the dual control are set as part of the analysis. A second contribution of this Thesis is the development of a step-tracking multi-input autopilot that integrates non-linear aerodynamics. The designed dual control missile autopilot is a full three dimensional autopilot, where roll, pitch and yaw are integrated, calculating command inputs simultaneously. The autopilot control gains are state dependent, and calculated at each integration step solving a matrix Riccati equation of order 21x21. The resulting gains are sub-optimal as a full solution for the Hamilton-Jacobi-Bellman equation cannot be resolved in practical terms and some simplifications are taken. Acceleration mechanisms with an λ-shift is incorporated in the design. As part of the autopilot, a strategy is defined for proper allocation of control effort between canard and tail channels. This is achieved with an augmented feed forward controller that minimizes the total control effort of the missile to maneuver. The feedforward law also maintains the missile near trim conditions, obtaining a well manner response of the missile. The nonlinear controller proves to eliminate the non-minimum phase effect of the tail. Two guidance and control designs have been considered in this Thesis: the Two- Loop and the Integrated approaches. In the Two-Loop approach, the autopilot is placed in an inner loop and designed separately from an outer guidance loop. This structure assumes that spectral separation holds, meaning that the autopilot response times are much higher than the guidance command updates. The developed nonlinear autopilot is linked in the study to an optimal guidance law. Simulations are carried on launching close to collision course against supersonic and highly maneuver targets. Results demonstrate a large boost in performance provided by the dual control versus more traditional canard and tail missiles, where interception with the dual control close to collision course is achieved form 365deg all around the target. It is shown that for the dual control missile the optimal flight strategy results in using opposite control in its approach to target and quick corrections with divert just before impact. However the Two-Loop logic fails to achieve target interception when there are large deviations initially from collision course. One of the reasons is that part of the guidance command is not followed, because the missile is not able to control its axial acceleration without a throttleable engine. Also the separation hypothesis may not be applicable for a high dynamic vehicle like a dual control missile approaching a maneuvering target. If the guidance and autopilot are combined into a single loop, the guidance law will have information of the missile states and could calculate the most optimal approach to the target considering the actual capabilities and attitude of the missile. A third contribution of this Thesis is the resolution of the mentioned second design, the non-linear integrated guidance and autopilot (IGA) problem for the dual control missile. Previous approaches in the literature have posed the problem in body axes, resulting in high unstable behavior due to the low damping of the missile, and have also caused the missile to slide around the target and not actually hitting it. The IGA system is posed here in inertial axes and quaternion dynamics, eliminating these inconveniences. It is not restricted to the missile short term dynamic, and we have explicitly included the missile speed as a state variable. The IGA formulation is also independent of the target maneuver model that is explicitly included in the Two-loop optimal guidance law model. A typical problem of the integrated systems with a proportional control law is the problem of scales. The guidance errors are larger than missile state errors during most of the flight and result in high gains, control saturation and loss of control. It has been addressed here with an integrated feedforward controller that defines a local equilibrium state at each flight point and the controller acts as a regulator to minimize the IGA states excursions versus the defined feedforward state. The performance criteria for the IGA are the same as in the Two-Loop case. However the resulting optimization problem is mathematically very complex. The optimal problem in a finite-time horizon results in an irresoluble state dependent differential Riccati equation with terminal conditions. With a change of variable and the introduction of a transition matrix, the equation is transformed into a time differential Lyapunov equation that can be solved with known numerical methods in real time. This solution results range limited, and applicable when the missile is in a close neighborhood of the target. For larger ranges, an approximate solution is used, obtained from solution of an algebraic matrix Riccati equation at each integration step. The results obtained show, by mean of several comparative numerical tests in diverse homing scenarios, than the integrated approach is a better solution that the Two- Loop scheme. Trajectories obtained are very different in the two cases. The IGA fully preserves the guidance command and it is able to maximize the utilization of the missile propulsion system, achieving interception with lower miss distances and in lower flight times. The IGA can achieve interception against off-boresight targets where the Two- Loop was not able to success. As an additional advantage, the IGA also requires one order of magnitude less calculations than the Two-Loop solution. The effects of radar noises, discrete radar data and radome errors are investigated. IGA solution is robust, and less affected by radar than the Two-Loop, especially because the target maneuvers are not part of the IGA core optimization loop. Estimation of target acceleration is always imprecise and noisy and degrade the performance of the two-Loop solution. The IGA trajectories are such that minimize the impact of radome errors in the guidance loop. Finally, as a fourth contribution, it is demonstrated that the missile with IGA guidance is capable of performing a defense against attacks from its rear hemisphere, as a tail attack, only with aerodynamic control. The studied trajectories have a preprogrammed high rate turn maneuver, maintaining the missile within its controllable envelope. This solution does not recur to more complex features in service today, like vector control of the missile thrust or side thrusters. In all the mathematical treatments and demonstrations, the Kronecker product has been introduced as a practical tool to handle the state dependent parametrizations that have resulted in very high order matrix equations.