785 resultados para INGENIERÍA INDUSTRIAL


Relevância:

60.00% 60.00%

Publicador:

Resumo:

El sector de la edificación es uno de los principales sectores económicos en España y, además, es un componente básico de la actividad económica y social, debido a su importante papel como generador de empleo, proveedor de bienes e incentivador del crecimiento. Curiosamente, es uno de los sectores con menos regulación y organización y que, además, está formado mayoritariamente por empresas de pequeña y mediana dimensión (pymes) que, por su menor capacidad, a menudo, se quedan detrás de las grandes empresas en términos de adopción de soluciones innovadoras. La complejidad en la gestión de toda la información relacionada con un proyecto de edificación ha puesto de manifiesto claras ineficiencias que se traducen en un gasto innecesario bastante representativo. La información y los conocimientos aprendidos rara vez son transmitidos de una fase a otra dentro del proyecto de edificación y, mucho menos, reutilizados en otros proyectos similares. De este modo, no sólo se produce un gasto innecesario, sino que incluso podemos encontrar información contradictoria y obsoleta y, por tanto, inútil para la toma de decisiones. A lo largo de los años, esta situación ha sido motivada por la propia configuración del sector, poniendo de manifiesto la necesidad de una solución que pudiera solventar este reto de gestión interorganizacional. Así, la cooperación interorganizacional se ha convertido en un factor clave para mejorar la competitividad de las organizaciones, típicamente pymes, que componen el sector de la edificación. La información es la piedra angular de cualquier proceso de negocio. Durante la última década, una amplia gama de industrias han experimentado importantes mejoras de productividad con la aplicación eficiente de las TIC, asociadas, principalmente, a incrementos en la velocidad de proceso de información y una mayor coherencia en la generación de datos, accesibilidad e intercambio de información. La aplicación eficaz de las TIC en el sector de la edificación requiere una combinación de aspectos estratégicos y tácticos, puesto que no sólo se trata de utilizar soluciones puntuales importadas de otros sectores para su aplicación en diferentes áreas, sino que se buscaría que la información multi-agente estuviera integrada y sea coherente para los proyectos de edificación. El sector de la construcción ha experimentado un descenso significativo en los últimos años en España y en Europa como resultado de la crisis financiera que comenzó en 2007. Esta disminución está acompañada de una baja penetración de las TIC en la interorganizacionales orientadas a los procesos de negocio. El descenso del mercado ha provocado una desaceleración en el sector de la construcción, donde sólo las pymes flexibles han sido capaces de mantener el ritmo a pesar de la especialización y la innovación en los servicios adaptados a las nuevas demandas del mercado. La industria de la edificación está muy fragmentada en comparación con otras industrias manufactureras. El alto grado de esta fragmentación está íntimamente relacionado con un impacto significativo en la productividad y el rendimiento. Muchos estudios de investigación han desarrollado y propuesto una serie de modelos de procesos integrados. Por desgracia, en la actualidad todavía no se está en condiciones para la formalización de cómo debe ser la comunicación y el intercambio de información durante el proceso de construcción. El paso del proceso secuencial tradicional a los procesos de interdependencia recíproca sin lugar a duda son una gran demanda asociada a la comunicación y el flujo de información en un proyecto de edificación. Recientemente se está poniendo mucho énfasis en los servicios para el hogar como un primer paso hacia esta mejora en innovación ya que la industria de los servicios digitales interactivos tiene un alto potencial para generar innovación y la ventaja estratégica para las empresas existentes. La multiplicidad de servicios para el hogar digital (HD) y los proveedores de servicios demandan, cada vez más, la aparición de una plataforma capaz de coordinar a todos los agentes del sector con el usuario final. En consecuencia, las estructuras organizacionales tienden a descentralizarse en busca de esa coordinación y, como respuesta a esta demanda, se plantea, también en este ámbito, el concepto de cooperación interorganizacional. Por lo tanto, ambos procesos de negocio -el asociado a la construcción y el asociado a la provisión de servicios del hogar digital, también considerado como la propia gestión de ese hogar digital o edificio, inteligente o no- deben de ser vistos en su conjunto mediante una plataforma tecnológica que les dé soporte y que pueda garantizar la agregación e integración de los diversos procesos, relacionados con la construcción y gestión, que se suceden durante el ciclo de vida de un edificio. Sobre esta idea y atendiendo a la evolución permanente de los sistemas de información en un entorno de interrelación y cooperación daría lugar a una aplicación del concepto de sistema de información interorganizacional (SIIO). El SIIO proporciona a las organizaciones la capacidad para mejorar los vínculos entre los socios comerciales a lo largo de la cadena de suministro, por lo que su importancia ha sido reconocida por organizaciones de diversos sectores. Sin embargo, la adopción de un SIIO en diferentes ámbitos ha demostrado ser complicada y con una alta dependencia de las características particulares de cada sector, siendo, en este momento, una línea de investigación abierta. Para contribuir a esta línea de investigación, este trabajo pretende recoger, partiendo de una revisión de la literatura relacionada, un enfoque en un modelo de adopción de un SIIO para el objeto concreto de esta investigación. El diseño de un SIIO está basado principalmente, en la identificación de las necesidades de información de cada uno de sus agentes participantes, de ahí la importancia en concretar un modelo de SIIO en el ámbito de este trabajo. Esta tesis doctoral presenta el modelo de plataforma virtual de la asociación entre diferentes agentes del sector de la edificación, el marco de las relaciones, los flujos de información correspondientes a diferentes procesos y la metodología que subyace tras el propio modelo, todo ello, con el objeto de contribuir a un modelo unificado que dé soporte tanto a los procesos relacionados con la construcción como con la gestión de servicios en el hogar digital y permitiendo cubrir los requisitos importantes que caracterizan este tipo de proyectos: flexibilidad, escalabilidad y robustez. El SIIO se ha convertido en una fuente de innovación y una herramienta estratégica que permite a las pymes obtener ventajas competitivas. Debido a la complejidad inherente de la adopción de un SIIO, esta investigación extiende el modelo teórico de adopción de un SIIO de Kurnia y Johnston (2000) con un modelo empírico para la caracterización de un SIIO. El modelo resultante tiene como objetivo fomentar la innovación de servicios en el sector mediante la identificación de los factores que influyen en la adopción de un SIIO por las pymes en el sector de la edificación como fuente de ventaja competitiva y de colaboración. Por tanto, esta tesis doctoral, proyectada sobre una investigación empírica, proporciona un enfoque para caracterizar un modelo de SIIO que permita dar soporte a la gestión integrada de los procesos de construcción y gestión de servicios para el hogar digital. La validez del modelo de SIIO propuesto, como fuente y soporte de ventajas competitivas, está íntimamente relacionada con la necesidad de intercambio de información rápido y fiable que demandan los agentes del sector para mejorar la gestión de su interrelación y cooperación con el fin de abordar proyectos más complejos en el sector de la edificación, relacionados con la implantación del hogar digital, y contribuyendo, así a favorecer el desarrollo de la sociedad de la información en el segmento residencial. ABSTRACT The building industry is the largest industry in the world. Land purchase, building design, construction, furnishing, building equipment, operations maintenance and the disposition of real estate have an unquestionable prominence not only at economic but also at social level. In Spain, the building sector is one of the main drivers of economy and also a basic component of economic activity and its role in generating employment, supply of goods or incentive for growth is crucial in the evolution of the economy. Surprisingly, it is one of the sectors with less regulation and organization. Another consistent problem is that, in this sector, the majority of companies are small and medium (SMEs), and often behind large firms in terms of their adoption of innovative solutions. The complexity of managing all information related to this industry has lead to a waste of money and time. The information and knowledge gathered is frequently stored in multiple locations, involving the work of thousands of people, and is rarely transferred on to the next phase. This approach is inconsistent and makes that incorrect information is used for decisions. This situation needs a viable solution for interorganizational information management. So, interorganizational co-operation has become a key factor for organization competitiveness within the building sector. Information is the cornerstone of any business process. Therefore, information and communication technologies (ICT) offer a means to change the way business is conducted. During the last decade, significant productivity improvements were experienced by a wide range of industries with ICT implementation. ICT has provided great advantages in speed of operation, consistency of data generation, accessibility and exchange of information. The wasted money resulting from reentering information, errors and omissions caused through poor decisions and actions, and the delays caused while waiting for information, represent a significant percentage of the global benefits. The effective application of ICT in building construction sector requires a combination of strategic and tactical developments. The building sector has experienced a significant decline in recent years in Spain and in Europe as a result of the financial crisis that began in 2007. This drop goes hand in hand with a low penetration of ICT in inter-organizational-oriented business processes. The market decrease has caused a slowdown in the building sector, where only flexible SMEs have been able to keep the pace though specialization and innovation in services adapted to new market demands. The building industry is highly fragmented compared with other manufacturing industries. This fragmentation has a significant negative impact on productivity and performance. Many research studies have developed and proposed a number of integrated process models. Unfortunately, these studies do not suggest how communication and information exchange within the construction process can be achieved, without duplication or lost in quality. A change from the traditional sequential process to reciprocal interdependency processes would increase the demand on communication and information flow over the edification project. Focusing on home services, the digital interactive service industry has the potential to generate innovation and strategic advantage for existing business. Multiplicity of broadband home services (BHS) and suppliers suggest the need for a figure able to coordinate all the agents in sector with the final user. Consequently, organizational structures tend to be decentralized. Responding to this fact, the concept of interorganizational co-operation also is raising in the residential market. Therefore, both of these business processes, building and home service supply, must be complemented with a technological platform that supports these processes and guarantees the aggregation and integration of the several services over building lifecycle. In this context of a technological platform and the permanent evolution of information systems is where the relevance of the concept of inter-organizational information system (IOIS) emerges. IOIS improves linkages between trading partners along the supply chain. However, IOIS adoption has proved to be difficult and not fully accomplished yet. This research reviews the literature in order to focus a model of IOIS adoption. This PhD Thesis presents a model of virtual association, a framework of the relationships, an identification of the information requirements and the corresponding information flows, using the multi-agent system approach. IOIS has become a source of innovation and a strategic tool for SMEs to obtain competitive advantage. Because of the inherent complexity of IOIS adoption, this research extends Kurnia and Johnston’s (2000) theoretical model of IOIS adoption with an empirical model of IOIS characterization. The resultant model aims to foster further service innovation in the sector by identifying the factors influencing IOIS adoption by the SMEs in the building sector as a source of competitive and collaborative advantage. Therefore, this PhD Thesis characterizes an IOIS model to support integrated management of building processes and home services. IOIS validity, as source and holder of competitive advantages, is related to the need for reliable information interchanges to improve interrelationship management. The final goal is to favor tracking of more complex projects in building sector and to contribute to consolidation of the information society through the provision of broadband home services and home automation.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Esta tesis contiene una investigación detallada sobre las características y funcionamiento de las máquinas de medición por visión. El objetivo fundamental es modelar su comportamiento y dotarlas de trazabilidad metrológica bajo cualquier condición de medida. Al efecto, se ha realizado un exhaustivo análisis de los elementos que conforman su cadena de medición, a saber: sistema de iluminación, estructura, lentes y objetivos, cámara, software de tratamiento de imágenes y software de cálculo. Se han definido modelos físico-matemáticos, de desarrollo propio, capaces de simular con fiabilidad el comportamiento de los elementos citados, agrupados, a efectos de análisis numérico, en dos subsistemas denominados: de visión y mecánico. Se han implementado procedimientos de calibración genuinos para ambos subsistemas mediante el empleo de patrones ópticos. En todos los casos se ha podido determinar la incertidumbre asociada a los diferentes parámetros involucrados, garantizando la trazabilidad metrológica de los resultados. Los distintos modelos desarrollados han sido implementados en Matlab®. Se ha verificado su validez empleando valores sintéticos obtenidos a partir de simulaciones informáticas y también con imágenes reales capturadas en el laboratorio. El estudio experimental y validación definitiva de los resultados se ha realizado en el Laboratorio de Longitud del Centro Español de Metrología y en el Laboratorio de Metrología Dimensional de la ETS de Ingeniería y Diseño Industrial de la UPM. Los modelos desarrollados se han aplicado a dos máquinas de medición por visión de diferentes características constructivas y metrológicas. Empleando dichas máquinas se han medido distintas piezas, pertenecientes a los ámbitos mecánico y oftalmológico. Los resultados obtenidos han permitido la completa caracterización dimensional de dichas piezas y la determinación del cumplimiento de las especificaciones metrológicas en todos los casos, incluyendo longitudes, formas y ángulos. ABSTRACT This PhD thesis contains a detailed investigation of characteristics and performance of the optical coordinate measurement machines. The main goal is to model their behaviour and provide metrological traceability to them under any measurement conditions. In fact, a thorough analysis of the elements which form the measuring chain, i.e.: lighting system, structure, lenses and objectives, camera, image processing software and coordinate metrology software has conducted. Physical-mathematical models, of self-developed, able to simulate with reliability the behavior of the above elements, grouped, for the purpose of numerical analysis, in two subsystems called: “vision subsystem” and “mechanical subsystem”, have been defined. Genuine calibration procedures for both subsystems have been implemented by use of optical standards. In all cases, it has been possible to determine the uncertainty associated with the different parameters involved, ensuring metrological traceability of results. Different developed models have been implemented in Matlab®. Their validity has been verified using synthetic values obtained from computer simulations and also with real images captured in laboratory. The experimental study and final validation of the results was carried out in the Length Laboratory of “Centro Español de Metrología” and Dimensional Metrology Laboratory of the “Escuela Técnica Superior de Ingeniería y Diseño Industrial” of the UPM. The developed models have been applied to two optical coordinate measurement machines with different construction and metrological characteristics. Using such machines, different parts, belonging to the mechanical and ophthalmologist areas, have been measured. The obtained results allow the full dimensional characterization of such parts and determination of compliance with metrological specifications in all cases, including lengths, shapes and angles.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

La rápida adopción de dispositivos electrónicos en el automóvil, ha contribuido a mejorar en gran medida la seguridad y el confort. Desde principios del siglo 20, la investigación en sistemas de seguridad activa ha originado el desarrollo de tecnologías como ABS (Antilock Brake System), TCS (Traction Control System) y ESP (Electronic Stability Program). El coste de despliegue de estos sistemas es crítico: históricamente, sólo han sido ampliamente adoptados cuando el precio de los sensores y la electrónica necesarios para su construcción ha caído hasta un valor marginal. Hoy en día, los vehículos a motor incluyen un amplio rango de sensores para implementar las funciones de seguridad. La incorporación de sistemas que detecten la presencia de agua, hielo o nieve en la vía es un factor adicional que podría ayudar a evitar situaciones de riesgo. Existen algunas implementaciones prácticas capaces de detectar carreteras mojadas, heladas y nevadas, aunque con limitaciones importantes. En esta tesis doctoral, se propone una aproximación novedosa al problema, basada en el análisis del ruido de rodadura generado durante la conducción. El ruido de rodadura es capturado y preprocesado. Después es analizado utilizando un clasificador basado en máquinas de vectores soporte (SVM), con el fin de generar una estimación del estado del firme. Todas estas operaciones se realizan en el propio vehículo. El sistema propuesto se ha desarrollado y evaluado utilizando Matlabr, mostrando tasas de aciertos de más del 90%. Se ha realizado una implementación en tiempo real, utilizando un prototipo basado en DSP. Después se han introducido varias optimizaciones para permitir que el sistema sea realizable usando un microcontrolador de propósito general. Finalmente se ha realizado una implementación hardware basada en un microcontrolador, integrándola estrechamente con las ECU del vehículo, pudiendo obtener datos capturados por los sensores del mismo y enviar las estimaciones del estado del firme. El sistema resultante ha sido patentado, y destaca por su elevada tasa de aciertos con un tamaño, consumo y coste reducidos. ABSTRACT Proliferation of automotive electronics, has greatly improved driving safety and comfort. Since the beginning of the 20th century, investigation in active safety systems has resulted in the development of technologies such as ABS (Antilock Brake System), TCS (Traction Control System) and ESP (Electronic Stability Program). Deployment cost of these systems is critical: historically, they have been widely adopted only when the price of the sensors and electronics needed to build them has been cut to a marginal value. Nowadays, motor vehicles include a wide range of sensors to implement the safety functions. Incorporation of systems capable of detecting water, ice or snow on the road is an additional factor that could help avoiding risky situations. There are some implementations capable of detecting wet, icy and snowy roads, although with important limitations. In this PhD Thesis, a novel approach is proposed, based on the analysis of the tyre/road noise radiated during driving. Tyre/road noise is captured and pre-processed. Then it is analysed using a Support Vector Machine (SVM) based classifier, to output an estimation of the road status. All these operations are performed on-board. Proposed system is developed and evaluated using Matlabr, showing success rates greater than 90%. A real time implementation is carried out using a DSP based prototype. Several optimizations are introduced enabling the system to work using a low-cost general purpose microcontroller. Finally a microcontroller based hardware implementation is developed. This implementation is tightly integrated with the vehicle ECUs, allowing it to obtain data captured by its sensors, and to send the road status estimations. Resulting system has been patented, and is notable because of its high hit rate, small size, low power consumption and low cost.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

After being designed, a product has to be manufactured, which means converting concepts and information into a real, physical object. This requires a big amount of resources and a careful planning. The product manufacturing must be designed too, and that is called Industrialization Design. An accepted methodology for this activity is starting defining simple structures and then progressively increasing the detail degree of the manufacturing solution. The impact of decisions taken at first stages of Industrialization Design is remarkable, and software tools to assist designers are required. In this paper a Knowledge Based Application prototype for the Industrialization Design is presented. The application is implemented within the environment CATIA V5/DELMIA. A case study with a simple Product from aerospace sector illustrates the prototype development.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

El proyecto está basado en el estudio de la planta de potencia de un túnel aerodinámico. Para ello se ha realizado una breve introducción definiendo qué es un túnel aerodinámico, cuál es su propósito, qué tipos hay, etc. Posteriormente se ha escogido un tipo concreto de túnel entre todas las posibilidades y se ha procedido a su estudio. Se ha definido una forma y unas dimensiones y tras calcular las pérdidas de carga, se ha seleccionado la planta de potencia necesaria para compensar dichas pérdidas, dimensionándose también las conexiones de esta desde la acometida de potencia eléctrica. Por último se han dimensionado las conexiones correspondientes a la iluminación y los servicios que competen al túnel aerodinámico.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

El presente Trabajo fin Fin de Máster, versa sobre una caracterización preliminar del comportamiento de un robot de tipo industrial, configurado por 4 eslabones y 4 grados de libertad, y sometido a fuerzas de mecanizado en su extremo. El entorno de trabajo planteado es el de plantas de fabricación de piezas de aleaciones de aluminio para automoción. Este tipo de componentes parte de un primer proceso de fundición que saca la pieza en bruto. Para series medias y altas, en función de las propiedades mecánicas y plásticas requeridas y los costes de producción, la inyección a alta presión (HPDC) y la fundición a baja presión (LPC) son las dos tecnologías más usadas en esta primera fase. Para inyección a alta presión, las aleaciones de aluminio más empleadas son, en designación simbólica según norma EN 1706 (entre paréntesis su designación numérica); EN AC AlSi9Cu3(Fe) (EN AC 46000) , EN AC AlSi9Cu3(Fe)(Zn) (EN AC 46500), y EN AC AlSi12Cu1(Fe) (EN AC 47100). Para baja presión, EN AC AlSi7Mg0,3 (EN AC 42100). En los 3 primeros casos, los límites de Silicio permitidos pueden superan el 10%. En el cuarto caso, es inferior al 10% por lo que, a los efectos de ser sometidas a mecanizados, las piezas fabricadas en aleaciones con Si superior al 10%, se puede considerar que son equivalentes, diferenciándolas de la cuarta. Las tolerancias geométricas y dimensionales conseguibles directamente de fundición, recogidas en normas como ISO 8062 o DIN 1688-1, establecen límites para este proceso. Fuera de esos límites, las garantías en conseguir producciones con los objetivos de ppms aceptados en la actualidad por el mercado, obligan a ir a fases posteriores de mecanizado. Aquellas geometrías que, funcionalmente, necesitan disponer de unas tolerancias geométricas y/o dimensionales definidas acorde a ISO 1101, y no capaces por este proceso inicial de moldeado a presión, deben ser procesadas en una fase posterior en células de mecanizado. En este caso, las tolerancias alcanzables para procesos de arranque de viruta se recogen en normas como ISO 2768. Las células de mecanizado se componen, por lo general, de varios centros de control numérico interrelacionados y comunicados entre sí por robots que manipulan las piezas en proceso de uno a otro. Dichos robots, disponen en su extremo de una pinza utillada para poder coger y soltar las piezas en los útiles de mecanizado, las mesas de intercambio para cambiar la pieza de posición o en utillajes de equipos de medición y prueba, o en cintas de entrada o salida. La repetibilidad es alta, de centésimas incluso, definida según norma ISO 9283. El problema es que, estos rangos de repetibilidad sólo se garantizan si no se hacen esfuerzos o éstos son despreciables (caso de mover piezas). Aunque las inercias de mover piezas a altas velocidades hacen que la trayectoria intermedia tenga poca precisión, al inicio y al final (al coger y dejar pieza, p.e.) se hacen a velocidades relativamente bajas que hacen que el efecto de las fuerzas de inercia sean menores y que permiten garantizar la repetibilidad anteriormente indicada. No ocurre así si se quitara la garra y se intercambia con un cabezal motorizado con una herramienta como broca, mandrino, plato de cuchillas, fresas frontales o tangenciales… Las fuerzas ejercidas de mecanizado generarían unos pares en las uniones tan grandes y tan variables que el control del robot no sería capaz de responder (o no está preparado, en un principio) y generaría una desviación en la trayectoria, realizada a baja velocidad, que desencadenaría en un error de posición (ver norma ISO 5458) no asumible para la funcionalidad deseada. Se podría llegar al caso de que la tolerancia alcanzada por un pretendido proceso más exacto diera una dimensión peor que la que daría el proceso de fundición, en principio con mayor variabilidad dimensional en proceso (y por ende con mayor intervalo de tolerancia garantizable). De hecho, en los CNCs, la precisión es muy elevada, (pudiéndose despreciar en la mayoría de los casos) y no es la responsable de, por ejemplo la tolerancia de posición al taladrar un agujero. Factores como, temperatura de la sala y de la pieza, calidad constructiva de los utillajes y rigidez en el amarre, error en el giro de mesas y de colocación de pieza, si lleva agujeros previos o no, si la herramienta está bien equilibrada y el cono es el adecuado para el tipo de mecanizado… influyen más. Es interesante que, un elemento no específico tan común en una planta industrial, en el entorno anteriormente descrito, como es un robot, el cual no sería necesario añadir por disponer de él ya (y por lo tanto la inversión sería muy pequeña), puede mejorar la cadena de valor disminuyendo el costo de fabricación. Y si se pudiera conjugar que ese robot destinado a tareas de manipulación, en los muchos tiempos de espera que va a disfrutar mientras el CNC arranca viruta, pudiese coger un cabezal y apoyar ese mecanizado; sería doblemente interesante. Por lo tanto, se antoja sugestivo poder conocer su comportamiento e intentar explicar qué sería necesario para llevar esto a cabo, motivo de este trabajo. La arquitectura de robot seleccionada es de tipo SCARA. La búsqueda de un robot cómodo de modelar y de analizar cinemática y dinámicamente, sin limitaciones relevantes en la multifuncionalidad de trabajos solicitados, ha llevado a esta elección, frente a otras arquitecturas como por ejemplo los robots antropomórficos de 6 grados de libertad, muy populares a nivel industrial. Este robot dispone de 3 uniones, de las cuales 2 son de tipo par de revolución (1 grado de libertad cada una) y la tercera es de tipo corredera o par cilíndrico (2 grados de libertad). La primera unión, de tipo par de revolución, sirve para unir el suelo (considerado como eslabón número 1) con el eslabón número 2. La segunda unión, también de ese tipo, une el eslabón número 2 con el eslabón número 3. Estos 2 brazos, pueden describir un movimiento horizontal, en el plano X-Y. El tercer eslabón, está unido al eslabón número 4 por la unión de tipo corredera. El movimiento que puede describir es paralelo al eje Z. El robot es de 4 grados de libertad (4 motores). En relación a los posibles trabajos que puede realizar este tipo de robot, su versatilidad abarca tanto operaciones típicas de manipulación como operaciones de arranque de viruta. Uno de los mecanizados más usuales es el taladrado, por lo cual se elige éste para su modelización y análisis. Dentro del taladrado se elegirá para acotar las fuerzas, taladrado en macizo con broca de diámetro 9 mm. El robot se ha considerado por el momento que tenga comportamiento de sólido rígido, por ser el mayor efecto esperado el de los pares en las uniones. Para modelar el robot se utiliza el método de los sistemas multicuerpos. Dentro de este método existen diversos tipos de formulaciones (p.e. Denavit-Hartenberg). D-H genera una cantidad muy grande de ecuaciones e incógnitas. Esas incógnitas son de difícil comprensión y, para cada posición, hay que detenerse a pensar qué significado tienen. Se ha optado por la formulación de coordenadas naturales. Este sistema utiliza puntos y vectores unitarios para definir la posición de los distintos cuerpos, y permite compartir, cuando es posible y se quiere, para definir los pares cinemáticos y reducir al mismo tiempo el número de variables. Las incógnitas son intuitivas, las ecuaciones de restricción muy sencillas y se reduce considerablemente el número de ecuaciones e incógnitas. Sin embargo, las coordenadas naturales “puras” tienen 2 problemas. El primero, que 2 elementos con un ángulo de 0 o 180 grados, dan lugar a puntos singulares que pueden crear problemas en las ecuaciones de restricción y por lo tanto han de evitarse. El segundo, que tampoco inciden directamente sobre la definición o el origen de los movimientos. Por lo tanto, es muy conveniente complementar esta formulación con ángulos y distancias (coordenadas relativas). Esto da lugar a las coordenadas naturales mixtas, que es la formulación final elegida para este TFM. Las coordenadas naturales mixtas no tienen el problema de los puntos singulares. Y la ventaja más importante reside en su utilidad a la hora de aplicar fuerzas motrices, momentos o evaluar errores. Al incidir sobre la incógnita origen (ángulos o distancias) controla los motores de manera directa. El algoritmo, la simulación y la obtención de resultados se ha programado mediante Matlab. Para realizar el modelo en coordenadas naturales mixtas, es preciso modelar en 2 pasos el robot a estudio. El primer modelo se basa en coordenadas naturales. Para su validación, se plantea una trayectoria definida y se analiza cinemáticamente si el robot satisface el movimiento solicitado, manteniendo su integridad como sistema multicuerpo. Se cuantifican los puntos (en este caso inicial y final) que configuran el robot. Al tratarse de sólidos rígidos, cada eslabón queda definido por sus respectivos puntos inicial y final (que son los más interesantes para la cinemática y la dinámica) y por un vector unitario no colineal a esos 2 puntos. Los vectores unitarios se colocan en los lugares en los que se tenga un eje de rotación o cuando se desee obtener información de un ángulo. No son necesarios vectores unitarios para medir distancias. Tampoco tienen por qué coincidir los grados de libertad con el número de vectores unitarios. Las longitudes de cada eslabón quedan definidas como constantes geométricas. Se establecen las restricciones que definen la naturaleza del robot y las relaciones entre los diferentes elementos y su entorno. La trayectoria se genera por una nube de puntos continua, definidos en coordenadas independientes. Cada conjunto de coordenadas independientes define, en un instante concreto, una posición y postura de robot determinada. Para conocerla, es necesario saber qué coordenadas dependientes hay en ese instante, y se obtienen resolviendo por el método de Newton-Rhapson las ecuaciones de restricción en función de las coordenadas independientes. El motivo de hacerlo así es porque las coordenadas dependientes deben satisfacer las restricciones, cosa que no ocurre con las coordenadas independientes. Cuando la validez del modelo se ha probado (primera validación), se pasa al modelo 2. El modelo número 2, incorpora a las coordenadas naturales del modelo número 1, las coordenadas relativas en forma de ángulos en los pares de revolución (3 ángulos; ϕ1, ϕ 2 y ϕ3) y distancias en los pares prismáticos (1 distancia; s). Estas coordenadas relativas pasan a ser las nuevas coordenadas independientes (sustituyendo a las coordenadas independientes cartesianas del modelo primero, que eran coordenadas naturales). Es necesario revisar si el sistema de vectores unitarios del modelo 1 es suficiente o no. Para este caso concreto, se han necesitado añadir 1 vector unitario adicional con objeto de que los ángulos queden perfectamente determinados con las correspondientes ecuaciones de producto escalar y/o vectorial. Las restricciones habrán de ser incrementadas en, al menos, 4 ecuaciones; una por cada nueva incógnita. La validación del modelo número 2, tiene 2 fases. La primera, al igual que se hizo en el modelo número 1, a través del análisis cinemático del comportamiento con una trayectoria definida. Podrían obtenerse del modelo 2 en este análisis, velocidades y aceleraciones, pero no son necesarios. Tan sólo interesan los movimientos o desplazamientos finitos. Comprobada la coherencia de movimientos (segunda validación), se pasa a analizar cinemáticamente el comportamiento con trayectorias interpoladas. El análisis cinemático con trayectorias interpoladas, trabaja con un número mínimo de 3 puntos máster. En este caso se han elegido 3; punto inicial, punto intermedio y punto final. El número de interpolaciones con el que se actúa es de 50 interpolaciones en cada tramo (cada 2 puntos máster hay un tramo), resultando un total de 100 interpolaciones. El método de interpolación utilizado es el de splines cúbicas con condición de aceleración inicial y final constantes, que genera las coordenadas independientes de los puntos interpolados de cada tramo. Las coordenadas dependientes se obtienen resolviendo las ecuaciones de restricción no lineales con el método de Newton-Rhapson. El método de las splines cúbicas es muy continuo, por lo que si se desea modelar una trayectoria en el que haya al menos 2 movimientos claramente diferenciados, es preciso hacerlo en 2 tramos y unirlos posteriormente. Sería el caso en el que alguno de los motores se desee expresamente que esté parado durante el primer movimiento y otro distinto lo esté durante el segundo movimiento (y así sucesivamente). Obtenido el movimiento, se calculan, también mediante fórmulas de diferenciación numérica, las velocidades y aceleraciones independientes. El proceso es análogo al anteriormente explicado, recordando la condición impuesta de que la aceleración en el instante t= 0 y en instante t= final, se ha tomado como 0. Las velocidades y aceleraciones dependientes se calculan resolviendo las correspondientes derivadas de las ecuaciones de restricción. Se comprueba, de nuevo, en una tercera validación del modelo, la coherencia del movimiento interpolado. La dinámica inversa calcula, para un movimiento definido -conocidas la posición, velocidad y la aceleración en cada instante de tiempo-, y conocidas las fuerzas externas que actúan (por ejemplo el peso); qué fuerzas hay que aplicar en los motores (donde hay control) para que se obtenga el citado movimiento. En la dinámica inversa, cada instante del tiempo es independiente de los demás y tiene una posición, una velocidad y una aceleración y unas fuerzas conocidas. En este caso concreto, se desean aplicar, de momento, sólo las fuerzas debidas al peso, aunque se podrían haber incorporado fuerzas de otra naturaleza si se hubiese deseado. Las posiciones, velocidades y aceleraciones, proceden del cálculo cinemático. El efecto inercial de las fuerzas tenidas en cuenta (el peso) es calculado. Como resultado final del análisis dinámico inverso, se obtienen los pares que han de ejercer los cuatro motores para replicar el movimiento prescrito con las fuerzas que estaban actuando. La cuarta validación del modelo consiste en confirmar que el movimiento obtenido por aplicar los pares obtenidos en la dinámica inversa, coinciden con el obtenido en el análisis cinemático (movimiento teórico). Para ello, es necesario acudir a la dinámica directa. La dinámica directa se encarga de calcular el movimiento del robot, resultante de aplicar unos pares en motores y unas fuerzas en el robot. Por lo tanto, el movimiento real resultante, al no haber cambiado ninguna condición de las obtenidas en la dinámica inversa (pares de motor y fuerzas inerciales debidas al peso de los eslabones) ha de ser el mismo al movimiento teórico. Siendo así, se considera que el robot está listo para trabajar. Si se introduce una fuerza exterior de mecanizado no contemplada en la dinámica inversa y se asigna en los motores los mismos pares resultantes de la resolución del problema dinámico inverso, el movimiento real obtenido no es igual al movimiento teórico. El control de lazo cerrado se basa en ir comparando el movimiento real con el deseado e introducir las correcciones necesarias para minimizar o anular las diferencias. Se aplican ganancias en forma de correcciones en posición y/o velocidad para eliminar esas diferencias. Se evalúa el error de posición como la diferencia, en cada punto, entre el movimiento teórico deseado en el análisis cinemático y el movimiento real obtenido para cada fuerza de mecanizado y una ganancia concreta. Finalmente, se mapea el error de posición obtenido para cada fuerza de mecanizado y las diferentes ganancias previstas, graficando la mejor precisión que puede dar el robot para cada operación que se le requiere, y en qué condiciones. -------------- This Master´s Thesis deals with a preliminary characterization of the behaviour for an industrial robot, configured with 4 elements and 4 degrees of freedoms, and subjected to machining forces at its end. Proposed working conditions are those typical from manufacturing plants with aluminium alloys for automotive industry. This type of components comes from a first casting process that produces rough parts. For medium and high volumes, high pressure die casting (HPDC) and low pressure die casting (LPC) are the most used technologies in this first phase. For high pressure die casting processes, most used aluminium alloys are, in simbolic designation according EN 1706 standard (between brackets, its numerical designation); EN AC AlSi9Cu3(Fe) (EN AC 46000) , EN AC AlSi9Cu3(Fe)(Zn) (EN AC 46500), y EN AC AlSi12Cu1(Fe) (EN AC 47100). For low pressure, EN AC AlSi7Mg0,3 (EN AC 42100). For the 3 first alloys, Si allowed limits can exceed 10% content. Fourth alloy has admisible limits under 10% Si. That means, from the point of view of machining, that components made of alloys with Si content above 10% can be considered as equivalent, and the fourth one must be studied separately. Geometrical and dimensional tolerances directly achievables from casting, gathered in standards such as ISO 8062 or DIN 1688-1, establish a limit for this process. Out from those limits, guarantees to achieve batches with objetive ppms currently accepted by market, force to go to subsequent machining process. Those geometries that functionally require a geometrical and/or dimensional tolerance defined according ISO 1101, not capable with initial moulding process, must be obtained afterwards in a machining phase with machining cells. In this case, tolerances achievables with cutting processes are gathered in standards such as ISO 2768. In general terms, machining cells contain several CNCs that they are interrelated and connected by robots that handle parts in process among them. Those robots have at their end a gripper in order to take/remove parts in machining fixtures, in interchange tables to modify position of part, in measurement and control tooling devices, or in entrance/exit conveyors. Repeatibility for robot is tight, even few hundredths of mm, defined according ISO 9283. Problem is like this; those repeatibilty ranks are only guaranteed when there are no stresses or they are not significant (f.e. due to only movement of parts). Although inertias due to moving parts at a high speed make that intermediate paths have little accuracy, at the beginning and at the end of trajectories (f.e, when picking part or leaving it) movement is made with very slow speeds that make lower the effect of inertias forces and allow to achieve repeatibility before mentioned. It does not happens the same if gripper is removed and it is exchanged by an spindle with a machining tool such as a drilling tool, a pcd boring tool, a face or a tangential milling cutter… Forces due to machining would create such big and variable torques in joints that control from the robot would not be able to react (or it is not prepared in principle) and would produce a deviation in working trajectory, made at a low speed, that would trigger a position error (see ISO 5458 standard) not assumable for requested function. Then it could be possible that tolerance achieved by a more exact expected process would turn out into a worst dimension than the one that could be achieved with casting process, in principle with a larger dimensional variability in process (and hence with a larger tolerance range reachable). As a matter of fact, accuracy is very tight in CNC, (its influence can be ignored in most cases) and it is not the responsible of, for example position tolerance when drilling a hole. Factors as, room and part temperature, manufacturing quality of machining fixtures, stiffness at clamping system, rotating error in 4th axis and part positioning error, if there are previous holes, if machining tool is properly balanced, if shank is suitable for that machining type… have more influence. It is interesting to know that, a non specific element as common, at a manufacturing plant in the enviroment above described, as a robot (not needed to be added, therefore with an additional minimum investment), can improve value chain decreasing manufacturing costs. And when it would be possible to combine that the robot dedicated to handling works could support CNCs´ works in its many waiting time while CNCs cut, and could take an spindle and help to cut; it would be double interesting. So according to all this, it would be interesting to be able to know its behaviour and try to explain what would be necessary to make this possible, reason of this work. Selected robot architecture is SCARA type. The search for a robot easy to be modeled and kinematically and dinamically analyzed, without significant limits in the multifunctionality of requested operations, has lead to this choice. Due to that, other very popular architectures in the industry, f.e. 6 DOFs anthropomorphic robots, have been discarded. This robot has 3 joints, 2 of them are revolute joints (1 DOF each one) and the third one is a cylindrical joint (2 DOFs). The first joint, a revolute one, is used to join floor (body 1) with body 2. The second one, a revolute joint too, joins body 2 with body 3. These 2 bodies can move horizontally in X-Y plane. Body 3 is linked to body 4 with a cylindrical joint. Movement that can be made is paralell to Z axis. The robt has 4 degrees of freedom (4 motors). Regarding potential works that this type of robot can make, its versatility covers either typical handling operations or cutting operations. One of the most common machinings is to drill. That is the reason why it has been chosen for the model and analysis. Within drilling, in order to enclose spectrum force, a typical solid drilling with 9 mm diameter. The robot is considered, at the moment, to have a behaviour as rigid body, as biggest expected influence is the one due to torques at joints. In order to modelize robot, it is used multibodies system method. There are under this heading different sorts of formulations (f.e. Denavit-Hartenberg). D-H creates a great amount of equations and unknown quantities. Those unknown quatities are of a difficult understanding and, for each position, one must stop to think about which meaning they have. The choice made is therefore one of formulation in natural coordinates. This system uses points and unit vectors to define position of each different elements, and allow to share, when it is possible and wished, to define kinematic torques and reduce number of variables at the same time. Unknown quantities are intuitive, constrain equations are easy and number of equations and variables are strongly reduced. However, “pure” natural coordinates suffer 2 problems. The first one is that 2 elements with an angle of 0° or 180°, give rise to singular positions that can create problems in constrain equations and therefore they must be avoided. The second problem is that they do not work directly over the definition or the origin of movements. Given that, it is highly recommended to complement this formulation with angles and distances (relative coordinates). This leads to mixed natural coordinates, and they are the final formulation chosen for this MTh. Mixed natural coordinates have not the problem of singular positions. And the most important advantage lies in their usefulness when applying driving forces, torques or evaluating errors. As they influence directly over origin variable (angles or distances), they control motors directly. The algorithm, simulation and obtaining of results has been programmed with Matlab. To design the model in mixed natural coordinates, it is necessary to model the robot to be studied in 2 steps. The first model is based in natural coordinates. To validate it, it is raised a defined trajectory and it is kinematically analyzed if robot fulfils requested movement, keeping its integrity as multibody system. The points (in this case starting and ending points) that configure the robot are quantified. As the elements are considered as rigid bodies, each of them is defined by its respectively starting and ending point (those points are the most interesting ones from the point of view of kinematics and dynamics) and by a non-colinear unit vector to those points. Unit vectors are placed where there is a rotating axis or when it is needed information of an angle. Unit vectors are not needed to measure distances. Neither DOFs must coincide with the number of unit vectors. Lengths of each arm are defined as geometrical constants. The constrains that define the nature of the robot and relationships among different elements and its enviroment are set. Path is generated by a cloud of continuous points, defined in independent coordinates. Each group of independent coordinates define, in an specific instant, a defined position and posture for the robot. In order to know it, it is needed to know which dependent coordinates there are in that instant, and they are obtained solving the constraint equations with Newton-Rhapson method according to independent coordinates. The reason to make it like this is because dependent coordinates must meet constraints, and this is not the case with independent coordinates. When suitability of model is checked (first approval), it is given next step to model 2. Model 2 adds to natural coordinates from model 1, the relative coordinates in the shape of angles in revoluting torques (3 angles; ϕ1, ϕ 2 and ϕ3) and distances in prismatic torques (1 distance; s). These relative coordinates become the new independent coordinates (replacing to cartesian independent coordinates from model 1, that they were natural coordinates). It is needed to review if unit vector system from model 1 is enough or not . For this specific case, it was necessary to add 1 additional unit vector to define perfectly angles with their related equations of dot and/or cross product. Constrains must be increased in, at least, 4 equations; one per each new variable. The approval of model 2 has two phases. The first one, same as made with model 1, through kinematic analysis of behaviour with a defined path. During this analysis, it could be obtained from model 2, velocities and accelerations, but they are not needed. They are only interesting movements and finite displacements. Once that the consistence of movements has been checked (second approval), it comes when the behaviour with interpolated trajectories must be kinematically analyzed. Kinematic analysis with interpolated trajectories work with a minimum number of 3 master points. In this case, 3 points have been chosen; starting point, middle point and ending point. The number of interpolations has been of 50 ones in each strecht (each 2 master points there is an strecht), turning into a total of 100 interpolations. The interpolation method used is the cubic splines one with condition of constant acceleration both at the starting and at the ending point. This method creates the independent coordinates of interpolated points of each strecht. The dependent coordinates are achieved solving the non-linear constrain equations with Newton-Rhapson method. The method of cubic splines is very continuous, therefore when it is needed to design a trajectory in which there are at least 2 movements clearly differents, it is required to make it in 2 steps and join them later. That would be the case when any of the motors would keep stopped during the first movement, and another different motor would remain stopped during the second movement (and so on). Once that movement is obtained, they are calculated, also with numerical differenciation formulas, the independent velocities and accelerations. This process is analogous to the one before explained, reminding condition that acceleration when t=0 and t=end are 0. Dependent velocities and accelerations are calculated solving related derivatives of constrain equations. In a third approval of the model it is checked, again, consistence of interpolated movement. Inverse dynamics calculates, for a defined movement –knowing position, velocity and acceleration in each instant of time-, and knowing external forces that act (f.e. weights); which forces must be applied in motors (where there is control) in order to obtain requested movement. In inverse dynamics, each instant of time is independent of the others and it has a position, a velocity, an acceleration and known forces. In this specific case, it is intended to apply, at the moment, only forces due to the weight, though forces of another nature could have been added if it would have been preferred. The positions, velocities and accelerations, come from kinematic calculation. The inertial effect of forces taken into account (weight) is calculated. As final result of the inverse dynamic analysis, the are obtained torques that the 4 motors must apply to repeat requested movement with the forces that were acting. The fourth approval of the model consists on confirming that the achieved movement due to the use of the torques obtained in the inverse dynamics, are in accordance with movements from kinematic analysis (theoretical movement). For this, it is necessary to work with direct dynamics. Direct dynamic is in charge of calculating the movements of robot that results from applying torques at motors and forces at the robot. Therefore, the resultant real movement, as there was no change in any condition of the ones obtained at the inverse dynamics (motor torques and inertial forces due to weight of elements) must be the same than theoretical movement. When these results are achieved, it is considered that robot is ready to work. When a machining external force is introduced and it was not taken into account before during the inverse dynamics, and torques at motors considered are the ones of the inverse dynamics, the real movement obtained is not the same than the theoretical movement. Closed loop control is based on comparing real movement with expected movement and introducing required corrrections to minimize or cancel differences. They are applied gains in the way of corrections for position and/or tolerance to remove those differences. Position error is evaluated as the difference, in each point, between theoretical movemment (calculated in the kinematic analysis) and the real movement achieved for each machining force and for an specific gain. Finally, the position error obtained for each machining force and gains are mapped, giving a chart with the best accuracy that the robot can give for each operation that has been requested and which conditions must be provided.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Esta memoria pretende ilustrar el desarrollo del Proyecto de Fin de Carrera Uso del cálculo numérico CFD para el estudio de actuaciones de una motocicleta de competición de los alumnos Álvaro Ramos Cenzano y Mauro Botella Mompó. Se centra en el estudio de las fuerzas aerodinámicas ejercidas sobre una motocicleta de competición, en concreto de una Moto2 del campeonato de España de velocidad (CEV), por medio de programas de simulación. Los capítulos del 1 al 4, describen por qué surgió el Proyecto, los datos a tener en cuenta del reglamento oficial de Moto2 del CEV (centrándonos sobre todo en los aspectos que afectan a la Aerodinámica, como puede ser el carenado), y los objetivos que se pretenden hallar con este proyecto. Se hará una pequeña introducción a la aerodinámica general para después profundizar en la aerodinámica automovilística y sobretodo en la de las motocicletas. Pasando por el interés que tiene la aerodinámica a diferentes niveles (comercial y de competición), y su evolución a lo largo de la historia. Se analizarán los diferentes métodos de trabajo que se podrían usar para el estudio aerodinámico, centrándose sobre todo en la técnica de estudio informático por Dinámica de Fluidos Computacional o CFD. Dado que el proyecto está basado en unas motocicletas reales, surgirán una serie de problemas en el uso de los métodos numéricos que se irán solventando, intentando mantener la estructura lo más fiel posible a los modelos reales. Todos estos problemas y sus soluciones se detallarán con la intención de que puedan servir de ayuda para futuros estudios. Tras las simulaciones con los programas CFD correspondientes a los distintos modelos de motocicleta, se compararán los resultados para ayudar en la definición del modelo final. El proyecto concluirá con las conclusiones obtenidas por los alumnos.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

En general, la distribución de una flota de vehículos que recorre rutas fijas no se realiza completamente en base a criterios objetivos, primando otros aspectos más difícilmente cuantificables. El análisis apropiado debería tener en consideración la variabilidad existente entre las diferentes rutas dentro de una misma ciudad para así determinar qué tecnología es la que mejor se adapta a las características de cada itinerario. Este trabajo presenta una metodología para optimizar la asignación de una flota de vehículos a sus rutas, consiguiendo reducir el consumo y las emisiones contaminantes. El método propuesto está organizado según el siguiente procedimiento: - Registro de las características cinemáticas de los vehículos que recorren un conjunto representativo de rutas. - Agrupamiento de las líneas en conglomerados de líneas similares empleando un algoritmo jerárquico que optimice el índice de semejanza entre rutas obtenido mediante contraste de hipótesis de las variables representativas. - Generación de un ciclo cinemático específico para cada conglomerado. - Tipificación de variables macroscópicas que faciliten la clasificación de las restantes líneas utilizando una red neuronal entrenada con la información recopilada en las rutas medidas. - Conocimiento de las características de la flota disponible. - Disponibilidad de un modelo que estime, según la tecnología del vehículo, el consumo y las emisiones asociados a las variables cinemáticas de los ciclos. - Desarrollo de un algoritmo de reasignación de vehículos que optimice una función objetivo dependiente de las emisiones. En el proceso de optimización de la flota se plantean dos escenarios de gran trascendencia en la evaluación ambiental, consistentes en minimizar la emisión de dióxido de carbono y su impacto como gas de efecto invernadero (GEI), y alternativamente, la producción de nitróxidos, por su influencia en la lluvia ácida y en la formación de ozono troposférico en núcleos urbanos. Además, en ambos supuestos se introducen en el problema restricciones adicionales para evitar que las emisiones de las restantes sustancias superen los valores estipulados según la organización de la flota actualmente realizada por el operador. La metodología ha sido aplicada en 160 líneas de autobús de la EMT de Madrid, conociéndose los datos cinemáticos de 25 rutas. Los resultados indican que, en ambos supuestos, es factible obtener una redistribución de la flota que consiga reducir significativamente la mayoría de las sustancias contaminantes, evitando que, en contraprestación, aumente la emisión de cualquier otro contaminante. ABSTRACT In general, the distribution of a fleet of vehicles that travel fixed routes is not usually implemented on the basis of objective criteria, thus prioritizing on other features that are more difficult to quantify. The appropriate analysis should consider the existing variability amongst the different routes within the city in order to determine which technology adapts better to the peculiarities of each itinerary. This study proposes a methodology to optimize the allocation of a fleet of vehicles to the routes in order to reduce fuel consumption and pollutant emissions. The suggested method is structured in accordance with the following procedure: - Recording of the kinematic characteristics of the vehicles that travel a representative set of routes. - Grouping of the lines in clusters of similar routes by utilizing a hierarchical algorithm that optimizes the similarity index between routes, which has been previously obtained by means of hypothesis contrast based on a set of representative variables. - Construction of a specific kinematic cycle to represent each cluster of routes. - Designation of macroscopic variables that allow the classification of the remaining lines using a neural network trained with the information gathered from a sample of routes. - Identification and comprehension of the operational characteristics of the existing fleet. - Availability of a model that evaluates, in accordance with the technology of the vehicle, the fuel consumption and the emissions related with the kinematic variables of the cycles. - Development of an algorithm for the relocation of the vehicle fleet by optimizing an objective function which relies on the values of the pollutant emissions. Two scenarios having great relevance in environmental evaluation are assessed during the optimization process of the fleet, these consisting in minimizing carbon dioxide emissions due to its impact as greenhouse gas (GHG), and alternatively, the production of nitroxides for their influence on acid rain and in the formation of tropospheric ozone in urban areas. Furthermore, additional restrictions are introduced in both assumptions in order to prevent that emission levels for the remaining substances exceed the stipulated values for the actual fleet organization implemented by the system operator. The methodology has been applied in 160 bus lines of the EMT of Madrid, for which kinematic information is known for a sample consisting of 25 routes. The results show that, in both circumstances, it is feasible to obtain a redistribution of the fleet that significantly reduces the emissions for the majority of the pollutant substances, while preventing an alternative increase in the emission level of any other contaminant.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

In this dissertation a new numerical method for solving Fluid-Structure Interaction (FSI) problems in a Lagrangian framework is developed, where solids of different constitutive laws can suffer very large deformations and fluids are considered to be newtonian and incompressible. For that, we first introduce a meshless discretization based on local maximum-entropy interpolants. This allows to discretize a spatial domain with no need of tessellation, avoiding the mesh limitations. Later, the Stokes flow problem is studied. The Galerkin meshless method based on a max-ent scheme for this problem suffers from instabilities, and therefore stabilization techniques are discussed and analyzed. An unconditionally stable method is finally formulated based on a Douglas-Wang stabilization. Then, a Langrangian expression for fluid mechanics is derived. This allows us to establish a common framework for fluid and solid domains, such that interaction can be naturally accounted. The resulting equations are also in the need of stabilization, what is corrected with an analogous technique as for the Stokes problem. The fully Lagrangian framework for fluid/solid interaction is completed with simple point-to-point and point-to-surface contact algorithms. The method is finally validated, and some numerical examples show the potential scope of applications.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Independientemente de la existencia de técnicas altamente sofisticadas y capacidades de cómputo cada vez más elevadas, los problemas asociados a los robots que interactúan con entornos no estructurados siguen siendo un desafío abierto en robótica. A pesar de los grandes avances de los sistemas robóticos autónomos, hay algunas situaciones en las que una persona en el bucle sigue siendo necesaria. Ejemplos de esto son, tareas en entornos de fusión nuclear, misiones espaciales, operaciones submarinas y cirugía robótica. Esta necesidad se debe a que las tecnologías actuales no pueden realizar de forma fiable y autónoma cualquier tipo de tarea. Esta tesis presenta métodos para la teleoperación de robots abarcando distintos niveles de abstracción que van desde el control supervisado, en el que un operador da instrucciones de alto nivel en la forma de acciones, hasta el control bilateral, donde los comandos toman la forma de señales de control de bajo nivel. En primer lugar, se presenta un enfoque para llevar a cabo la teleoperación supervisada de robots humanoides. El objetivo es controlar robots terrestres capaces de ejecutar tareas complejas en entornos de búsqueda y rescate utilizando enlaces de comunicación limitados. Esta propuesta incorpora comportamientos autónomos que el operador puede utilizar para realizar tareas de navegación y manipulación mientras se permite cubrir grandes áreas de entornos remotos diseñados para el acceso de personas. Los resultados experimentales demuestran la eficacia de los métodos propuestos. En segundo lugar, se investiga el uso de dispositivos rentables para telemanipulación guiada. Se presenta una aplicación que involucra un robot humanoide bimanual y un traje de captura de movimiento basado en sensores inerciales. En esta aplicación, se estudian las capacidades de adaptación introducidas por el factor humano y cómo estas pueden compensar la falta de sistemas robóticos de alta precisión. Este trabajo es el resultado de una colaboración entre investigadores del Biorobotics Laboratory de la Universidad de Harvard y el Centro de Automática y Robótica UPM-CSIC. En tercer lugar, se presenta un nuevo controlador háptico que combina velocidad y posición. Este controlador bilateral híbrido hace frente a los problemas relacionados con la teleoperación de un robot esclavo con un gran espacio de trabajo usando un dispositivo háptico pequeño como maestro. Se pueden cubrir amplias áreas de trabajo al cambiar automáticamente entre los modos de control de velocidad y posición. Este controlador háptico es ideal para sistemas maestro-esclavo con cinemáticas diferentes, donde los comandos se transmiten en el espacio de la tarea del entorno remoto. El método es validado para realizar telemanipulación hábil de objetos con un robot industrial. Por último, se introducen dos contribuciones en el campo de la manipulación robótica. Por un lado, se presenta un nuevo algoritmo de cinemática inversa, llamado método iterativo de desacoplamiento cinemático. Este método se ha desarrollado para resolver el problema cinemático inverso de un tipo de robot de seis grados de libertad donde una solución cerrada no está disponible. La eficacia del método se compara con métodos numéricos convencionales. Además, se ha diseñado una taxonomía robusta de agarres que permite controlar diferentes manos robóticas utilizando una correspondencia, basada en gestos, entre los espacios de trabajo de la mano humana y de la mano robótica. El gesto de la mano humana se identifica mediante la lectura de los movimientos relativos del índice, el pulgar y el dedo medio del usuario durante las primeras etapas del agarre. ABSTRACT Regardless of the availability of highly sophisticated techniques and ever increasing computing capabilities, the problems associated with robots interacting with unstructured environments remains an open challenge. Despite great advances in autonomous robotics, there are some situations where a humanin- the-loop is still required, such as, nuclear, space, subsea and robotic surgery operations. This is because the current technologies cannot reliably perform all kinds of task autonomously. This thesis presents methods for robot teleoperation strategies at different levels of abstraction ranging from supervisory control, where the operator gives high-level task actions, to bilateral teleoperation, where the commands take the form of low-level control inputs. These strategies contribute to improve the current human-robot interfaces specially in the case of slave robots deployed at large workspaces. First, an approach to perform supervisory teleoperation of humanoid robots is presented. The goal is to control ground robots capable of executing complex tasks in disaster relief environments under constrained communication links. This proposal incorporates autonomous behaviors that the operator can use to perform navigation and manipulation tasks which allow covering large human engineered areas of the remote environment. The experimental results demonstrate the efficiency of the proposed methods. Second, the use of cost-effective devices for guided telemanipulation is investigated. A case study involving a bimanual humanoid robot and an Inertial Measurement Unit (IMU) Motion Capture (MoCap) suit is introduced. Herein, it is corroborated how the adaptation capabilities offered by the human-in-the-loop factor can compensate for the lack of high-precision robotic systems. This work is the result of collaboration between researchers from the Harvard Biorobotics Laboratory and the Centre for Automation and Robotics UPM-CSIC. Thirdly, a new haptic rate-position controller is presented. This hybrid bilateral controller copes with the problems related to the teleoperation of a slave robot with large workspace using a small haptic device as master. Large workspaces can be covered by automatically switching between rate and position control modes. This haptic controller is ideal to couple kinematic dissimilar master-slave systems where the commands are transmitted in the task space of the remote environment. The method is validated to perform dexterous telemanipulation of objects with a robotic manipulator. Finally, two contributions for robotic manipulation are introduced. First, a new algorithm, the Iterative Kinematic Decoupling method, is presented. It is a numeric method developed to solve the Inverse Kinematics (IK) problem of a type of six-DoF robotic arms where a close-form solution is not available. The effectiveness of this IK method is compared against conventional numerical methods. Second, a robust grasp mapping has been conceived. It allows to control a wide range of different robotic hands using a gesture based correspondence between the human hand space and the robotic hand space. The human hand gesture is identified by reading the relative movements of the index, thumb and middle fingers of the user during the early stages of grasping.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

El principio de Teoría de Juegos permite desarrollar modelos estocásticos de patrullaje multi-robot para proteger infraestructuras criticas. La protección de infraestructuras criticas representa un gran reto para los países al rededor del mundo, principalmente después de los ataques terroristas llevados a cabo la década pasada. En este documento el termino infraestructura hace referencia a aeropuertos, plantas nucleares u otros instalaciones. El problema de patrullaje se define como la actividad de patrullar un entorno determinado para monitorear cualquier actividad o sensar algunas variables ambientales. En esta actividad, un grupo de robots debe visitar un conjunto de puntos de interés definidos en un entorno en intervalos de tiempo irregulares con propósitos de seguridad. Los modelos de partullaje multi-robot son utilizados para resolver este problema. Hasta el momento existen trabajos que resuelven este problema utilizando diversos principios matemáticos. Los modelos de patrullaje multi-robot desarrollados en esos trabajos representan un gran avance en este campo de investigación. Sin embargo, los modelos con los mejores resultados no son viables para aplicaciones de seguridad debido a su naturaleza centralizada y determinista. Esta tesis presenta cinco modelos de patrullaje multi-robot distribuidos e impredecibles basados en modelos matemáticos de aprendizaje de Teoría de Juegos. El objetivo del desarrollo de estos modelos está en resolver los inconvenientes presentes en trabajos preliminares. Con esta finalidad, el problema de patrullaje multi-robot se formuló utilizando conceptos de Teoría de Grafos, en la cual se definieron varios juegos en cada vértice de un grafo. Los modelos de patrullaje multi-robot desarrollados en este trabajo de investigación se han validado y comparado con los mejores modelos disponibles en la literatura. Para llevar a cabo tanto la validación como la comparación se ha utilizado un simulador de patrullaje y un grupo de robots reales. Los resultados experimentales muestran que los modelos de patrullaje desarrollados en este trabajo de investigación trabajan mejor que modelos de trabajos previos en el 80% de 150 casos de estudio. Además de esto, estos modelos cuentan con varias características importantes tales como distribución, robustez, escalabilidad y dinamismo. Los avances logrados con este trabajo de investigación dan evidencia del potencial de Teoría de Juegos para desarrollar modelos de patrullaje útiles para proteger infraestructuras. ABSTRACT Game theory principle allows to developing stochastic multi-robot patrolling models to protect critical infrastructures. Critical infrastructures protection is a great concern for countries around the world, mainly due to terrorist attacks in the last decade. In this document, the term infrastructures includes airports, nuclear power plants, and many other facilities. The patrolling problem is defined as the activity of traversing a given environment to monitoring any activity or sensing some environmental variables If this activity were performed by a fleet of robots, they would have to visit some places of interest of an environment at irregular intervals of time for security purposes. This problem is solved using multi-robot patrolling models. To date, literature works have been solved this problem applying various mathematical principles.The multi-robot patrolling models developed in those works represent great advances in this field. However, the models that obtain the best results are unfeasible for security applications due to their centralized and predictable nature. This thesis presents five distributed and unpredictable multi-robot patrolling models based on mathematical learning models derived from Game Theory. These multi-robot patrolling models aim at overcoming the disadvantages of previous work. To this end, the multi-robot patrolling problem was formulated using concepts of Graph Theory to represent the environment. Several normal-form games were defined at each vertex of a graph in this formulation. The multi-robot patrolling models developed in this research work have been validated and compared with best ranked multi-robot patrolling models in the literature. Both validation and comparison were preformed by using both a patrolling simulator and real robots. Experimental results show that the multirobot patrolling models developed in this research work improve previous ones in as many as 80% of 150 cases of study. Moreover, these multi-robot patrolling models rely on several features to highlight in security applications such as distribution, robustness, scalability, and dynamism. The achievements obtained in this research work validate the potential of Game Theory to develop patrolling models to protect infrastructures.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

El documento es una aplicación informática, programada en Visual Basic® para Microsoft Excel®, y contiene un programa denominado CorkClass 1.1. Es un software de clasificación de corcho en plancha por calidades a partir de su calibre – grosor – y de las anomalías o singularidades apreciables en su sección transversal. CorkClass 1.1 trabaja con dos clases de calidad: corcho taponable y refugo. A partir de la valoración de las variables obtenida por el usuario, la aplicación decide a qué clase pertenece la pieza. Esta clasificación se realiza en base a dos modelos. Cuando disponemos de medida del coeficiente de porosidad (mediante métodos de análisis de imagen), podemos clasificar en base al modelo completo (2TC) o al reducido (2TR), aunque los resultados generales se mostrarán tomando la clasificación del modelo completo para cada pieza. En caso de no disponer de medida del coeficiente de porosidad, la clasificación se realizará únicamente en base al modelo reducido (2TR), cuya clasificación para cada pieza será tomada para el cálculo de los resultados generales . El programa ha sido desarrollado por la UPM y el INIA-CIFOR y validado para muestras procedentes tanto de las distintas regiones de España como del resto de regiones de procedencia del alcornoque (Quercus suber L.), por lo que su ámbito de aplicación es universal.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

La empresa social es un modelo organizativo que presenta un interesante potencial para resolver problemáticas sociales. La empresa social ha despertado interés tanto en países industrializados como en economías en vías de desarrollo porque representa un modelo dentro del capitalismo que persigue objetivos sociales mediante la realización de actividades de mercado (compra y venta de productos y/o servicios principalmente). A pesar de sus raíces lejanas en el tiempo se trata de un campo de conocimiento relativamente joven, donde la literatura académica presenta escasez de estudios empíricos. El desarrollo teórico para buscar claridad conceptual ha sido el principal caballo de batalla de los últimos años, y por tanto, se ha prestado poca atención a generar evidencias sobre cómo funcionan las empresas sociales y sobre sus claves de su éxito. Se considera que la mejora en la comprensión de este modelo organizativo pasa por la construcción de herramientas para que académicos y practicantes mejoren su conocimiento sobre los mecanismos internos de las empresas sociales. En este contexto nace la presente tesis doctoral sobre empresa social, que tiene por objetivo la creación de un marco de análisis que permita el estudio de las empresas sociales desde una dimensión organizativa, es decir, que aborde los elementos clave que describen el funcionamiento de este tipo de organizaciones. Para ello, en este trabajo se aborda la construcción del modelo para el análisis organizativo de las empresas sociales a partir del análisis semántico de las 45 principales definiciones de empresa social. A partir de este análisis se identifican dos dimensiones de análisis de la empresa social: -Cuatro principios, comunes a todas las manifestaciones del fenómeno, que recogen la esencia del concepto. -Ocho elementos organizativos específicos de la empresa social que describen la forma en la que cada iniciativa se implementa en un contexto determinado. Es decir, elementos de diseño presentes en diferente medida que dan lugar a tipologías de empresa social diferentes. Estos elementos son: la proposición de valor social, la búsqueda de impacto a largo plazo, la cultura organizativa, la conexión con los beneficiarios, el liderazgo emprendedor y los mecanismos de gobernanza, el ecosistema colaborativo, la estrategia empresarial y la orientación a la autosuficiencia económica. A partir de este marco de análisis, se construyen dos herramientas de diagnóstico que permiten su aplicación al estudio de empresas sociales: una tabla de indicadores para el análisis externo (por parte de un investigador ajeno a la organización) y un cuestionario de diagnóstico para el análisis interno (a través del personal de la empresa social objeto de estudio). Las herramientas intentan dar respuesta a la necesidad de desarrollar constructos para el estudio empírico de las empresas sociales. Para analizar la utilidad del modelo y de las herramientas se llevaron a cabo tres estudios de caso: -La empresa social ACCIONA Microenergía Perú que proporciona energía eléctrica a comunidades rurales aisladas en la región peruana de Cajamarca. -La empresa social Integra-e que propone un mecanismo de inserción socio-laboral en Madrid para jóvenes en riesgo de exclusión a través de la formación en Tecnologías de la Información y la Comunicación (TIC). -Un conjunto de redes de telecentros pertenecientes a la red LAC de la fundación Telecentres.org que proporcionan acceso a servicios de información (Internet entre otros) en diferentes países de Latinoamérica. La aplicación de las herramientas mostró ser útil en los tres estudios de caso para obtener una relación de evidencias con las que analizar la proximidad de una organización al ideal de empresa social. El ejercicio de análisis también resultó interesante como ejercicio reflexivo para las entidades participantes. Los resultados del cuestionario fueron especialmente interesantes en los telecentros de la Fundación Telecentre.org ya que al ser un estudio multicaso se pudo realizar un rico análisis estadístico sobre el funcionamiento de los telecentros y su desempeño. El estudio permitió identificar relaciones interesantes entre los ocho elementos de diseño del modelo propuesto y el desempeño de la organización. En particular, se detectó que para todos los casos estudiados: -La dimensión económica es la componente del desempeño que mayor desafíos plantea. -La existencia de una alta correlación entre el desempeño y siete de los ocho elementos organizativos del modelo. -La importancia de la cultura organizativa como elemento que explica el desempeño global de la organización y la satisfacción de los empleados. El campo de la empresa social presenta importantes retos de futuro, como la claridad conceptual, el desarrollo de estudios empíricos y la medida de su impacto social. El conocimiento de las claves organizativas puede ayudar a diseñar empresas sociales más robustas o a que organizaciones con fines sociales que no se basan en mecanismos de mercado consideren la posibilidad de incorporar éstos en su estrategia. ABSTRACT Social enterprise is an organizational model with a strong potential to help solving social problems. Recently, interest for the model has risen in both industrialized and developing countries because it is organized to achieve altruistic or social goals through market activities (mainly sales of products and services). Despite its historic roots, it is a relatively young field of research, where academic literature has little empirical data to accompany the theoretical development of social enterprise. Conceptual clarification has been the main challenge during the recent years, and there has been little attention given to generate evidence on how social enterprises operate and their keys to success. Progress in empirical study involves the construction of tools for researchers, in order to increase understanding of the internal mechanisms of social enterprises. This thesis aims to create a conceptual framework to study social enterprises from an organizational point of view, by analyzing the key elements that explain the operation and organization of this organizational model. The framework for the organizational analysis of social enterprises was built supported by the semantic analysis of 45 main definitions of social enterprise. The framework is divided into two dimensions: -There are four principles which capture the essence of the social enterprise concept, and are present in the manifestations of cases. -There are eight design elements which help analyze the characteristics of each particular social enterprise initiative: the social value proposition, social impact orientation, organizational culture, links to beneficiaries, entrepreneurial leadership, collaborative ecosystem, entrepreneurial strategy and orientation to economic self-sufficiency. Two diagnostic tools were developed to apply the framework to case studies: a scoreboard of indicators (to be used by the researcher during external analysis of the organization) and a questionnaire (to be answered by the social enterprise staff). The dissertation undertakes the study of three case studies: -ACCIONA Microenergia Peru, a social enterprise that provides electricity to isolated rural communities in the Peruvian region of Cajamarca. -Integra-e, a social enterprise located in Madrid that promotes socioprofessional integration of young people through training in ICT. -A sample of telecenters of the LAC network that provide access to information services (such as Internet) in Latin America. Applying the tools proved to be useful in all three cases, because it helped to obtain evidence to compare the proximity of an organization to an ideal type of social enterprise. In all the cases studied, the economic sustainability proved to be the biggest challenge for the organizations. The application of the questionnaire to the telecenters was especially informative because it was a multicase study which provided a rich statistical analysis on the performance of call centers. The study identified unique relationships between the model elements and the organziation performance. A statistical analysis shows a high correlation between performance and seven organizational elements described in the model. The organizational culture seems to be an important factor in explaining the overall organizational performance and employee satisfaction. The field of social enterprise has significant future challenges -such as conceptual clarity, the development of empirical studies and social impact assessment. A deep understanding of key organizational aspects of social enterprises can help in the design of more robust organizations and to bring success to social-purpose organizations.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

La telepesencia combina diferentes modalidades sensoriales, incluyendo, entre otras, la visual y la del tacto, para producir una sensación de presencia remota en el operador. Un elemento clave en la implementación de sistemas de telepresencia para permitir una telemanipulación del entorno remoto es el retorno de fuerza. Durante una telemanipulación, la energía mecánica es transferida entre el operador humano y el entorno remoto. En general, la energía es una propiedad de los objetos físicos, fundamental en su mutual interacción. En esta interacción, la energía se puede transmitir entre los objetos, puede cambiar de forma pero no puede crearse ni destruirse. En esta tesis, se aplica este principio fundamental para derivar un nuevo método de control bilateral que permite el diseño de sistemas de teleoperación estables para cualquier arquitectura concebible. El razonamiento parte del hecho de que la energía mecánica insertada por el operador humano en el sistema debe transferirse hacia el entorno remoto y viceversa. Tal como se verá, el uso de la energía como variable de control permite un tratamiento más general del sistema que el control convencional basado en variables específicas del sistema. Mediante el concepto de Red de Potencia de Retardo Temporal (RPRT), el problema de definir los flujos de energía en un sistema de teleoperación es solucionado con independencia de la arquitectura de comunicación. Como se verá, los retardos temporales son la principal causa de generación de energía virtual. Este hecho se observa con retardos a partir de 1 milisegundo. Esta energía virtual es añadida al sistema de forma intrínseca y representa la causa principal de inestabilidad. Se demuestra que las RPRTs son transportadoras de la energía deseada intercambiada entre maestro y esclavo pero a la vez generadoras de energía virtual debido al retardo temporal. Una vez estas redes son identificadas, el método de Control de Pasividad en el Dominio Temporal para RPRTs se propone como mecanismo de control para asegurar la pasividad del sistema, y as__ la estabilidad. El método se basa en el simple hecho de que esta energía virtual debido al retardo debe transformarse en disipación. As__ el sistema se aproxima al sistema deseado, donde solo la energía insertada desde un extremo es transferida hacia el otro. El sistema resultante presenta dos cualidades: por un lado la estabilidad del sistema queda garantizada con independencia de la arquitectura del sistema y del canal de comunicación; por el otro, el rendimiento es maximizado en términos de fidelidad de transmisión energética. Los métodos propuestos se sustentan con sistemas experimentales con diferentes arquitecturas de control y retardos entre 2 y 900 ms. La tesis concluye con un experimento que incluye una comunicación espacial basada en el satélite geoestacionario ASTRA. ABSTRACT Telepresence combines different sensorial modalities, including vision and touch, to produce a feeling of being present in a remote location. The key element to successfully implement a telepresence system and thus to allow telemanipulation of a remote environment is force feedback. In a telemanipulation, mechanical energy must convey from the human operator to the manipulated object found in the remote environment. In general, energy is a property of all physical objects, fundamental to their mutual interactions in which the energy can be transferred among the objects and can change form but cannot be created or destroyed. In this thesis, we exploit this fundamental principle to derive a novel bilateral control mechanism that allows designing stable teleoperation systems with any conceivable communication architecture. The rationale starts from the fact that the mechanical energy injected by a human operator into the system must be conveyed to the remote environment and Vice Versa. As will be seen, setting energy as the control variable allows a more general treatment of the controlled system in contrast to the more conventional control of specific systems variables. Through the Time Delay Power Network (TDPN) concept, the issue of defining the energy flows involved in a teleoperation system is solved with independence of the communication architecture. In particular, communication time delays are found to be a source of virtual energy. This fact is observed with delays starting from 1 millisecond. Since this energy is added, the resulting teleoperation system can be non-passive and thus become unstable. The Time Delay Power Networks are found to be carriers of the desired exchanged energy but also generators of virtual energy due to the time delay. Once these networks are identified, the Time Domain Passivity Control approach for TDPNs is proposed as a control mechanism to ensure system passivity and therefore, system stability. The proposed method is based on the simple fact that this intrinsically added energy due to the communication must be transformed into dissipation. Then the system becomes closer to the ambitioned one, where only the energy injected from one end of the system is conveyed to the other one. The resulting system presents two benefits: On one hand, system stability is guaranteed through passivity independently from the chosen control architecture and communication channel; on the other, performance is maximized in terms of energy transfer faithfulness. The proposed methods are sustained with a set of experimental implementations using different control architectures and communication delays ranging from 2 to 900 milliseconds. An experiment that includes a communication Space link based on the geostationary satellite ASTRA concludes this thesis.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

In the last decade we have seen how small and light weight aerial platforms - aka, Mini Unmanned Aerial Vehicles (MUAV) - shipped with heterogeneous sensors have become a 'most wanted' Remote Sensing (RS) tool. Most of the off-the-shelf aerial systems found in the market provide way-point navigation. However, they do not rely on a tool that compute the aerial trajectories considering all the aspects that allow optimizing the aerial missions. One of the most demanded RS applications of MUAV is image surveying. The images acquired are typically used to build a high-resolution image, i.e., a mosaic of the workspace surface. Although, it may be applied to any other application where a sensor-based map must be computed. This thesis provides a study of this application and a set of solutions and methods to address this kind of aerial mission by using a fleet of MUAVs. In particular, a set of algorithms are proposed for map-based sampling, and aerial coverage path planning (ACPP). Regarding to map-based sampling, the approaches proposed consider workspaces with different shapes and surface characteristics. The workspace is sampled considering the sensor characteristics and a set of mission requirements. The algorithm applies different computational geometry approaches, providing a unique way to deal with workspaces with different shape and surface characteristics in order to be surveyed by one or more MUAVs. This feature introduces a previous optimization step before path planning. After that, the ACPP problem is theorized and a set of ACPP algorithms to compute the MUAVs trajectories are proposed. The problem addressed herein is the problem to coverage a wide area by using MUAVs with limited autonomy. Therefore, the mission must be accomplished in the shortest amount of time. The aerial survey is usually subject to a set of workspace restrictions, such as the take-off and landing positions as well as a safety distance between elements of the fleet. Moreover, it has to avoid forbidden zones to y. Three different algorithms have been studied to address this problem. The approaches studied are based on graph searching, heuristic and meta-heuristic approaches, e.g., mimic, evolutionary. Finally, an extended survey of field experiments applying the previous methods, as well as the materials and methods adopted in outdoor missions is presented. The reported outcomes demonstrate that the findings attained from this thesis improve ACPP mission for mapping purpose in an efficient and safe manner.