113 resultados para Vehículo automotor
Resumo:
Este Trabajo Fin de Grado realiza la clasificación, selección, análisis y crítica de las vistas que hemos considerado más relevantes de la cornisa de Madrid, es decir, de la cara más conocida de nuestra ciudad. Para ello, el dibujo se ha empleado como vehículo de investigación, siendo un trabajo eminentemente gráfico. Se ha realizado la clasificación de las vistas con carácter panorámico y englobadas en el periodo de 1560 a 1860. También se ha realizado una elaboración crítica de las vistas, mediante una serie de fichas técnicas con datos objetivos y una aportación gráfica mediante un paralelo en el tiempo de las dieciséis vistas seleccionadas y un paralelo gráfico de las cuatro vistas escogidas de entre esas dieciséis. Con el primer paralelo se pretende, tras mostrar las vistas seleccionadas, entenderlas, de un solo vistazo, en cuanto a su fecha de realización, técnica, autor y tamaño. El segundo paralelo gráfico trata una vista de cada siglo y se han escogido por su repercusión, fidelidad y calidad gráfica. Posteriormente, se han realizado por planos dichas vistas. Estos planos de color atienden a un gradiente de profundidad, donde el color más oscuro es el del primer plano, y se van desvaneciendo según se van alejando. Estos dibujos no habría sido posible realizarlos sin la previa elaboración de un alzado actual de la cornisa. Dicho alzado ha permitido no solo conocer mejor el ámbito de estudio y delimitarlo (desde el Palacio Real hasta San Francisco el Grande), sino también realizar una selección de los edificios que se consideran más importantes en la cornisa dentro de ese ámbito espacial.
Resumo:
Es conocido que las dimensiones de los puentes de ferrocarril han ido cambiando debido a las estrictas condiciones de trazado impuestas en las líneas de alta velocidad. Además, la creciente preocupación de la sociedad por cuidar y proteger el medio ambiente, reflejado en la correspondiente normativa, ha generado nuevos condicionantes en el diseño de estas infraestructuras. En concreto, se ha limitado el movimiento de grandes volúmenes de terreno particularmente en los espacios protegidos. Por estas razones, hoy en día se proyectan y construyen puentes de ferrocarril más altos y más largos en todo el mundo. En España se han construido varios viaductos de pilas altas para líneas de alta velocidad. Ejemplos de estas infraestructuras son el Viaducto O’Eixo y el Viaducto de Barbantiño, situados en la línea de alta velocidad Madrid-Galicia, Estos viaductos altos se caracterizan por tener una mayor flexibilidad lateral y una frecuencia fundamental de oscilación baja, de hasta 0.2 Hz. La respuesta dinámica de este tipo de estructura puede aumentar como consecuencia de la aproximación entre la frecuencias propias de la misma y las de excitación debidas al paso del tren y a la acción del viento. Por lo tanto, estas estructuras pueden presentar problemas a la hora de cumplir con las limitaciones impuestas en las normas de diseño de puentes de ferrocarril, y otras, para garantizar la seguridad del tráfico y el confort de los viajeros. La respuesta dinámica lateral de viaductos de pilas altas no ha sido suficientemente estudiada en la literatura científica. Se pueden intuir varios de los motivos para explicar esta carencia. El primero es la relativamente reciente aparición de este tipo de viaductos asociados al desarrollo de la alta velocidad. Por otro lado, se hace necesario, para estudiar este tema, construir nuevos modelos numéricos adecuados para el estudio de la interacción dinámica lateral del puente y del tren. La interacción entre el puente y un tren viajando sobre él es un problema dinámico no lineal, dependiente del tiempo y de acoplamiento entre los dos subsistemas que intervienen (vehículo y puente). Los dos subsistemas, que pueden ser modelados como estructuras elásticas, interaccionan el uno con el otro a través de las fuerzas de contacto, que tiene una marcada naturaleza no lineal por el rozamiento entre rueda y carril, y por la geometría de los perfiles de estos dos elementos en contacto. En esta tesis, se desarrolla la formulación completa de un modelo no lineal de interacción tren-vía-puente-viento que reproduce adecuadamente las fuerzas laterales de contacto rueda-carril, fuerzas que van a tener una gran influencia en los índices de seguridad del tráfico. Este modelo se ha validado a partir de casos resueltos en la literatura científica, y de medidas experimentales tomadas en eventos dinámicos ocurridos en los viaductos de Arroyo de Valle y Arroyo de las Piedras. Puentes altos que han estado monitorizados en servicio durante dos años. En los estudios realizados en este trabajo, se cuantifican, empleando el modelo construido, los niveles de seguridad del tráfico y de confort de los pasajeros de trenes ligeros de alta velocidad, como el tren articulado AVE S-100, que viajan sobre viaductos altos sometidos, o no, a fuertes vientos laterales racheados. Finalmente, se ha obtenido el grado de mejora de la seguridad del tráfico y del confort de los viajeros, cuando se emplean pantallas anti-viento en el tablero y amortiguadores de masa sintonizados en la cabeza de las pilas de un viaducto alto. Resultando, el uso simultaneo de estos dos dispositivos (pantallas y amortiguadores de masa), en puentes altos de líneas de alta velocidad, una opción a considerar en la construcción de estas estructuras para elevar significativamente el nivel de servicio de las mismas. It is known that dimensions of railway bridges have been changing due to the strict high-speed lines layout parameters. Moreover, the growing concern of society to take care of and protect the environment, reflected in the corresponding regulations, has created new environment requirements for the design of these infrastructures. Particularly, the mentioned regulations do not allow designers to move far from terrain to build these railway lines. Due to all these reasons, longer and higher railway bridges are being designed and built around the world. In Spain, several high pier railway viaducts have been built for high speed lines. Barbantiño Viaduct and Eixo Viaduct, belonging to the Madrid-Galicia high speed line, are examples of this kind of structures. These high viaducts have great lateral flexibility and a low fundamental vibration frequency of down to 0.2 Hz. The dynamic response of high speed railway bridges may increase because of the approximation between the natural viaduct frequencies and the excitation ones due to the train travel and the wind action. Therefore, this bridge response could not satisfy the serviceability limits states, for traffic safety and for passenger comfort, considered by the design standards of high speed bridges. It is difficult to find papers in the scientific literature about the lateral response of high-speed trains travel over long viaducts with high piers. Several reasons could explain this issue. On one hand, the construction of this kind of viaduct is relatively recent and it is associated to the development of the high speed railway. On the other hand, in order to study the dynamic lateral interaction between the train and the high bridge, it is necessary to build new numerical and complex models. The interaction between the bridge-track subsystem and the vehicle subsystem travelling over the bridge is a coupling, nonlinear and time dependent problem. Both subsystems, train and bridge, which can be modelled as elastic structures, interact each other through the contact forces. These forces have a strong nonlinear nature due to the friction and the geometry of rail and wheel profiles. In this thesis, the full formulation of a train-track-bridge-wind nonlinear interaction model is developed. This model can reproduce properly the lateral contact wheel-rail forces, which have a great influence on traffic safety indices. The validation of the model built has been reached through interaction solved cases found in the scientific literature and experimental measures taken in dynamic events which happened at Arroyo de las Piedras and Arroyo del Valle Viaducts. These high bridges have been controlled during two years of service by means of structural health monitoring. In the studies carried out for this thesis, the levels of traffic safety and passenger comfort are quantified using the interaction model built, in the cases of high speed and light trains, as AVE S-100, travelling over high pier bridges and with or without lateral turbulent winds acting. Finally, the improvement rate of the traffic safety and passenger comfort has been obtained, when wind barriers are used at the bridge deck and tuned mass dampers are installed at the pier heads of a high viaduct. The installation of both devices, wind barriers and tuned mass damper, at the same time, turned out to be a good option to be considered in the design of high pier railway viaducts, to improve significantly the serviceability level of this kind of structures.
Resumo:
El objetivo de esta tesis es el diseño de una metodología que permita una valoración objetiva del funcionamiento o de la posible puesta en servicio de una vía de alta ocupación en un corredor congestionado. Las vías de alta ocupación surgen en Estados Unidos en la década de los 60 y no ha sido hasta muy entrada la década de los 90, cuando se ha pensado que estas vías de alta ocupación podían ser una solución a los problemas de congestión en el entorno europeo. La experiencia que se hereda de los casos americanos es importante, pero está inmersa en un marco con características sensiblemente diferentes a las europeas. Es por ello, que la primera labor que se ha realizado en esta tesis es la elaboración del marco conceptual y teórico adecuado, necesario para el correcto planteamiento de una metodología de evaluación. La revisión y el análisis, tanto de los planes de evaluación existentes, como de las propuestas desarrolladas en la literatura, unido a la clarificación del marco conceptual inherente a las vías de alta ocupación, ponen de relieve la necesidad de completar la práctica existente con herramientas que permitan cuantificar y valorar de manera adecuada, el funcionamiento o la puesta en servicio de una vía de alta ocupación. Sabiendo que el objetivo fundamental de una vía de alta ocupación es la reducción del número de usuarios del vehículo privado con un solo ocupante a modos de alta ocupación, y que este objetivo tiene necesariamente que estar en consonancia con las directrices de la actual política europea de transportes, se propone una metodología de cuatro fases que complementa a la práctica habitual y que la adapta al contexto europeo (sin olvidar que ya existe una labor previa en este aspecto, debido a la puesta en servicio de la vía de alta ocupación de la carretera N-VI de Madrid). Los objetivos de la metodología propuesta se centran en el estudio de la redistribución modal que debe producir la vía de alta ocupación desde el vehículo privado con un solo ocupante hacia los modos de alta ocupación (modos compartidos y transporte público), haciendo especial hincapié en las características necesariamente diferentes de los modos compartidos. El método de evaluación propuesto se articula en cuatro fases y se centra en la obtención (por medio de las tres primeras fases) de tres parámetros que van a regir la valoración positiva de la vía: el cambio modal neto (CMN), la estabilidad temporal del cambio (ETC) y las condiciones de operación en las vías convencionales (COV). El CMN indica si la vía de alta ocupación ha contribuído a la formación de los modos compartidos, el ETC indica si esta formación es una relación causal y el COV indica si se ha producido una contribución positiva al logro de una movilidad sostenible. Las posibles combinaciones derivadas de los valores de estos parámetros proporcionan a la Administración responsable una valoración objetiva de la vía de alta ocupación. El método de evaluación propone también, en función de estas combinaciones, las medidas más adecuadas a adoptar, bien para el logro de una mejora en las condiciones existentes, bien para el mantenimiento de las mismas. La aplicación práctica de esta metodología al caso de la vía de alta ocupación de la carretera N-VI, demuestra la validez, tanto de la metodología propuesta como de los parámetros que la sustentan. No obstante, se identifican una serie de limitaciones y consideraciones a matizar y que dan a pie a futuras líneas de investigación.
Resumo:
Los accidentes con implicación de autocares en los que se producen vuelcos ponen de manifiesto la especial agresividad de los mismos, como lo confirman las estadísticas. Como medida para mejorar la seguridad de los Vehículos de Grandes Dimensiones para el Transporte de Pasajeros (V.G.D.T.P.) frente a vuelco fue aprobado por las Naciones Unidas el Reglamento Nº 66 de Ginebra. Este reglamento establece los requisitos mínimos que las estructuras de los vehículos de grandes dimensiones deben cumplir con respecto a vuelco. El reglamento 66 ha supuesto un paso adelante muy importante en relación con la seguridad de los autocares, puesto que especifica por primera vez requerimientos estructurales a este tipo de vehículos, y en general ha supuesto una mejora del vehículo . Por otro lado, a consecuencia de la obligatoriedad de instalación de cinturones de seguridad, existe una unión entre pasajeros y vehículo, pero como no se trata de una unión rígida, hay que contemplar el porcentaje de la masa de los ocupantes que influye en la absorción de energía de la estructura. Además la retención de los ocupantes con cinturones de seguridad influye en la energía a absorber por la estructura del vehículo en dos aspectos, por un lado aumenta la masa del vehículo y en el otro se incrementa la altura el centro de gravedad. Esta situación a conducido a elaborar por parte de las Naciones Unidas la revisión 01 del Reglamento 66, en el que se considera que el 50 % de la masa total de los pasajeros posee una unión rígida con la estructura del vehículo, y por lo tanto debe ser tenida en cuenta si el vehículo posee sistemas de retención. En la situación actual, con limitaciones de peso del vehículo y peso por eje, los elementos de confort, seguridad y espacio para maleteros contribuyen a aumentar el peso del vehículo. Esto unido a la dificultad de introducción de cambios radicales en la concepción actual de fabricación de este tipo de vehículos por suponer unas pérdidas importantes para los fabricantes existentes, tanto en su conocimiento del producto como en su metodología de proceso, conlleva la necesidad cada vez más agobiante de analizar y evaluar otras alternativas estructurales que sin suponer grandes revoluciones a los productos actualmente en fabricación los complementen permitiendo adaptarse a los nuevos requerimientos en seguridad. Recientes desarrollos en la relación costo-beneficio de los procesos para la producción de materiales celulares metálicos de baja densidad, tales como las espumas metálicas, los posiciona como una alternativa de especial interés para la aplicación como elementos de absorción de energía para reforzar estructuras. El relleno con espumas metálicas puede ser más eficiente en términos de optimización de peso comparado con el aumento de espesor de los perfiles estructurales, dado que la absorción de energía se produce en una fracción relativamente pequeña de los perfiles, en las denominadas rótulas plásticas. La aplicación de espumas de relleno metálicas en estructuras de vehículos se está empezando a emplear en determinadas zonas de los vehículos de turismo, siendo totalmente novedosa cualquier intento de aplicación en estructuras de autobuses y autocares. Conforme a lo expuesto, y con el objeto de resolver estos problemas, se ha elaborado el presente trabajo de tesis doctoral, cuyos objetivos son: -Desarrollar un modelo matemático, que permita simular el ensayo de vuelco, considerando la influencia de los ocupantes retenidos con cinturones de seguridad para evaluar su influencia en la absorción de energía de la estructura. -Validar el modelo matemático de vuelco de la estructura mediante ensayos de secciones representativas de la estructura del vehículo y mediante el ensayo de un vehículo completo. -Realizar un estudio de las propiedades de las espumas metálicas que permitan incorporarlas como elemento de absorción de energía en el relleno de componentes de la superestructura de autobuses y autocares. -Desarrollar un modelo matemático para evaluar el aporte del relleno de espuma metálica en la absorción de energía ante solicitaciones por flexión estática y dinámica en componentes de la superestructura de autobuses o autocares. -Realizar un programa de ensayos a flexión estáticos y dinámicos para validar el modelo matemático del aporte del relleno de espuma metálica sobre componentes de la superestructura de autobuses y autocares. . -Incorporar al modelo matemático de vuelco de la estructura, los resultados obtenidos sobre componentes con relleno de espuma metálica, para evaluar el aporte en la absorción de energía. -Validar el modelo de vuelco de la estructura del autobús o autocar con relleno de espuma metálica, mediante ensayos de secciones de carrocería. ABSTRACT Accidents involving buses in which rollovers occur reveal the special aggressiveness thereof, as the statistics prove. As a measure to improve the safety of large vehicles for the transport of passengers to rollover, Regulation 66 of Geneva was approved by the United Nations. This regulation establishes the minimum requirements that structures of large vehicles must comply with respect to rollovers. The regulation 66 has been a major step forward in relation to the safety of coaches, since it specifies structural requirements to such vehicles and has been an improvement for the vehicle. In turn, as a result of compulsory installation of safety belts, there is contact between passengers and vehicle, but as it is not a rigid connection we must contemplate the percentage of the mass of the occupants that impacts on the energy absorption of the structure. Thus, the passengers’ restraining modifies the energy to absorb by the vehicle in two different aspects: On the one hand, it increases the vehicle weight and on the other the height of the center of gravity. This circumstance has taken the United Nations to elaborate Revision 01 of Regulation 66, in which it is considered that the 50 percent of passengers’ mass has a rigid joint together with the vehicle structure and, therefore, the passengers’ mass mentioned above should be highly considered if the vehicle has seat belts. In the present situation, in which limitations in vehicle weight and weight in axles are stricter, elements of comfort, safety and space for baggage are contributing to increase the weight of the vehicle. This coupled with the difficulty of introducing radical changes in the current conception of manufacturing such vehicles pose significant losses for existing manufacturers, both in product knowledge and process methodology, entails the overwhelming need to analyze and evaluate other structural alternatives without assuming relevant modifications on the products manufactured currently allowing them to adapt to the new safety requirements. Recent developments in cost-benefit processes for the production of metallic foams of low density, such as metal foams, place them as an alternative of special interest to be used as energy absorbers to strengthen structures. The filling with metal foams can be more efficient in terms of weight optimization compared with increasing thickness of the structural beams, since the energy absorption occurs in a relatively small fraction of the beams, called plastic hinges. The application of metal filling foams in vehicle structures is beginning to be used in certain areas of passenger cars, being an innovative opportunity in structures for application in buses and coaches. According to the mentioned before, and in order to come forward with a solution, this doctoral thesis has been prepared and its objectives are: - Develop a mathematical model to simulate the rollover test, considering the influence of the occupants held with seat belts to assess their influence on energy absorption structure. - Validate the mathematical model of the structure rollover by testing representative sections of the vehicle structure and by testing a complete vehicle. - Conduct a study of the properties of metal foams as possible incorporation of energy absorbing element in the filler component of the superstructure of buses and coaches. - Elaborate a mathematical model to assess the contribution of the metal foam filling in absorbing energy for static and dynamic bending loads on the components of buses or coaches superstructure. - Conduct a static and dynamic bending test program to validate the mathematical model of contribution of metal foam filling on components of the superstructure of buses and coaches bending. - To incorporate into the mathematical model of structure rollover, the results obtained on components filled with metal foam, to evaluate the contribution to the energy absorption. - Validate the rollover model structure of the bus or coach filled with metal foam through tests of bay sections. The objectives in this thesis have been achieved successfully. The contribution calculation model with metal foam filling in the vehicle structure has revealed that the filling with metal foam is more efficient than increasing thickness of the beams, as demonstrated in the experimental validation of bay sections.
Resumo:
La progresiva internacionalización de las universidades españolas convierte a estas organizaciones en escenarios plurilingües. El español convive en ellos con otras lenguas, en especial el inglés, como vehículo de acceso y transmisión de conocimiento especializado. Esto requiere un proceso de alfabetización académica en lengua extranjera que tendrían que asumir las universidades de acogida, con objeto de preservar a los alumnos de los fracasos en los programas internacionales. Por el momento, en España, los programas de grado o de posgrado no establecen filtros con umbrales lingüísticos mínimos de acceso, a excepción de algunas universidades que se limitan a requerir certificados de grado de dominio del español general. No existen exámenes públicos de ingreso, o exámenes propios de postadmisión, que evalúen la habilidad lingüística comunicativa en contextos académicos. En este trabajo, se parte de la hipótesis de que los exámenes que certifican un grado de dominio de español general no sirven al propósito de discriminar a los alumnos capaces de seguir con éxito los programas de las universidades. Para verificarla, se desarrolla una prueba de examen específica que mida la capacidad de emplear el español en contextos académicos. La prueba se centra en las tareas que se revelan, en una primera fase exploratoria de la investigación, como más necesarias en lo que se refiere al uso del español como lengua vehicular: las clases magistrales. Una vez pilotada, se administró junto con otras destinadas a evaluar el grado de dominio de la lengua en contextos generales. Los resultados obtenidos del contraste de estas mediciones y de diversos análisis de los datos arrojan evidencias de que este tipo de prueba mide un constructo específico: la habilidad de uso del español en contextos académicos. ABSTRACT The progressive internationalization of Spanish universities has transformed these organizations into plurilingual scenarios. Spanish lives in them sharing the stage with other languages, especially English, as a means of access and transmission of expert knowledge. This requires a process of academic literacy in foreign language that host universities should assume, in order to safeguard students from failures in international programs. At the moment, in Spain, undergraduate or graduate programs do not set filters with minimum language requirements to gain access, except for some universities that merely require certificates of general Spanish. There are no Spanish language public admission exams, or post-enrollment tests of their own, to assess the communicative language ability of foreign students in academic contexts. In this dissertation, we start from the hypothesis that those tests that certify the student degree of mastery of the Spanish language do not serve the purpose of discriminating against students capable of successfully pursuing university programs. To prove it, a specific test that measures the ability to use Spanish in academic contexts was developed. This language test focused on the tasks associated with the most common genre, which revealed prominent in a first exploratory phase of the investigation, related to the use of Spanish as a means of instruction: university lectures. Once piloted, the test was administered along with others designed to assess the degree of mastery of the language in general contexts. Contrast results of these measurements and various analyzes of the data showed evidence that this type of test measures a specific construct: the ability to use Spanish in academic contexts.
Resumo:
La tesis está focalizada en la resolución de problemas de optimización combinatoria, haciendo uso de las opciones tecnológicas actuales que ofrecen las tecnologías de la información y las comunicaciones, y la investigación operativa. Los problemas de optimización combinatoria se resuelven en general mediante programación lineal y metaheurísticas. La aplicación de las técnicas de resolución de los problemas de optimización combinatoria requiere de una elevada carga computacional, y los algoritmos deben diseñarse, por un lado pensando en la efectividad para encontrar buenas soluciones del problema, y por otro lado, pensando en un uso adecuado de los recursos informáticos disponibles. La programación lineal y las metaheurísticas son técnicas de resolución genéricas, que se pueden aplicar a diferentes problemas, partiendo de una base común que se particulariza para cada problema concreto. En el campo del desarrollo de software, los frameworks cumplen esa función de comenzar un proyecto con el trabajo general ya disponible, con la opción de cambiar o extender ese comportamiento base o genérico, para construir el sistema concreto, lo que permite reducir el tiempo de desarrollo, y amplía las posibilidades de éxito del proyecto. En esta tesis se han desarrollado dos frameworks de desarrollo. El framework ILP permite modelar y resolver problemas de programación lineal, de forma independiente al software de resolución de programación lineal que se utilice. El framework LME permite resolver problemas de optimización combinatoria mediante metaheurísticas. Tradicionalmente, las aplicaciones de resolución de problemas de optimización combinatoria son aplicaciones de escritorio que permiten gestionar toda la información de entrada del problema y resuelven el problema en local, con los recursos hardware disponibles. Recientemente ha aparecido un nuevo paradigma de despliegue y uso de aplicaciones que permite compartir recursos informáticos especializados por Internet. Esta nueva forma de uso de recursos informáticos es la computación en la nube, que presenta el modelo de software como servicio (SaaS). En esta tesis se ha construido una plataforma SaaS, para la resolución de problemas de optimización combinatoria, que se despliega sobre arquitecturas compuestas por procesadores multi-núcleo y tarjetas gráficas, y dispone de algoritmos de resolución basados en frameworks de programación lineal y metaheurísticas. Toda la infraestructura es independiente del problema de optimización combinatoria a resolver, y se han desarrollado tres problemas que están totalmente integrados en la plataforma SaaS. Estos problemas se han seleccionado por su importancia práctica. Uno de los problemas tratados en la tesis, es el problema de rutas de vehículos (VRP), que consiste en calcular las rutas de menor coste de una flota de vehículos, que reparte mercancías a todos los clientes. Se ha partido de la versión más clásica del problema y se han hecho estudios en dos direcciones. Por un lado se ha cuantificado el aumento en la velocidad de ejecución de la resolución del problema en tarjetas gráficas. Por otro lado, se ha estudiado el impacto en la velocidad de ejecución y en la calidad de soluciones, en la resolución por la metaheurística de colonias de hormigas (ACO), cuando se introduce la programación lineal para optimizar las rutas individuales de cada vehículo. Este problema se ha desarrollado con los frameworks ILP y LME, y está disponible en la plataforma SaaS. Otro de los problemas tratados en la tesis, es el problema de asignación de flotas (FAP), que consiste en crear las rutas de menor coste para la flota de vehículos de una empresa de transporte de viajeros. Se ha definido un nuevo modelo de problema, que engloba características de problemas presentados en la literatura, y añade nuevas características, lo que permite modelar los requerimientos de las empresas de transporte de viajeros actuales. Este nuevo modelo resuelve de forma integrada el problema de definir los horarios de los trayectos, el problema de asignación del tipo de vehículo, y el problema de crear las rotaciones de los vehículos. Se ha creado un modelo de programación lineal para el problema, y se ha resuelto por programación lineal y por colonias de hormigas (ACO). Este problema se ha desarrollado con los frameworks ILP y LME, y está disponible en la plataforma SaaS. El último problema tratado en la tesis es el problema de planificación táctica de personal (TWFP), que consiste en definir la configuración de una plantilla de trabajadores de menor coste, para cubrir una demanda de carga de trabajo variable. Se ha definido un modelo de problema muy flexible en la definición de contratos, que permite el uso del modelo en diversos sectores productivos. Se ha definido un modelo matemático de programación lineal para representar el problema. Se han definido una serie de casos de uso, que muestran la versatilidad del modelo de problema, y permiten simular el proceso de toma de decisiones de la configuración de una plantilla de trabajadores, cuantificando económicamente cada decisión que se toma. Este problema se ha desarrollado con el framework ILP, y está disponible en la plataforma SaaS. ABSTRACT The thesis is focused on solving combinatorial optimization problems, using current technology options offered by information technology and communications, and operations research. Combinatorial optimization problems are solved in general by linear programming and metaheuristics. The application of these techniques for solving combinatorial optimization problems requires a high computational load, and algorithms are designed, on the one hand thinking to find good solutions to the problem, and on the other hand, thinking about proper use of the available computing resources. Linear programming and metaheuristic are generic resolution techniques, which can be applied to different problems, beginning with a common base that is particularized for each specific problem. In the field of software development, frameworks fulfill this function that allows you to start a project with the overall work already available, with the option to change or extend the behavior or generic basis, to build the concrete system, thus reducing the time development, and expanding the possibilities of success of the project. In this thesis, two development frameworks have been designed and developed. The ILP framework allows to modeling and solving linear programming problems, regardless of the linear programming solver used. The LME framework is designed for solving combinatorial optimization problems using metaheuristics. Traditionally, applications for solving combinatorial optimization problems are desktop applications that allow the user to manage all the information input of the problem and solve the problem locally, using the available hardware resources. Recently, a new deployment paradigm has appeared, that lets to share hardware and software resources by the Internet. This new use of computer resources is cloud computing, which presents the model of software as a service (SaaS). In this thesis, a SaaS platform has been built for solving combinatorial optimization problems, which is deployed on architectures, composed of multi-core processors and graphics cards, and has algorithms based on metaheuristics and linear programming frameworks. The SaaS infrastructure is independent of the combinatorial optimization problem to solve, and three problems are fully integrated into the SaaS platform. These problems have been selected for their practical importance. One of the problems discussed in the thesis, is the vehicle routing problem (VRP), which goal is to calculate the least cost of a fleet of vehicles, which distributes goods to all customers. The VRP has been studied in two directions. On one hand, it has been quantified the increase in execution speed when the problem is solved on graphics cards. On the other hand, it has been studied the impact on execution speed and quality of solutions, when the problem is solved by ant colony optimization (ACO) metaheuristic, and linear programming is introduced to optimize the individual routes of each vehicle. This problem has been developed with the ILP and LME frameworks, and is available in the SaaS platform. Another problem addressed in the thesis, is the fleet assignment problem (FAP), which goal is to create lower cost routes for a fleet of a passenger transport company. It has been defined a new model of problem, which includes features of problems presented in the literature, and adds new features, allowing modeling the business requirements of today's transport companies. This new integrated model solves the problem of defining the flights timetable, the problem of assigning the type of vehicle, and the problem of creating aircraft rotations. The problem has been solved by linear programming and ACO. This problem has been developed with the ILP and LME frameworks, and is available in the SaaS platform. The last problem discussed in the thesis is the tactical planning staff problem (TWFP), which is to define the staff of lower cost, to cover a given work load. It has been defined a very rich problem model in the definition of contracts, allowing the use of the model in various productive sectors. It has been defined a linear programming mathematical model to represent the problem. Some use cases has been defined, to show the versatility of the model problem, and to simulate the decision making process of setting up a staff, economically quantifying every decision that is made. This problem has been developed with the ILP framework, and is available in the SaaS platform.
Resumo:
La presente tesis analiza la mejora de la resistencia estructural ante vuelco de autocares enfocando dos vías de actuación: análisis y propuestas de requisitos reglamentarios a nivel europeo y la generación de herramientas que ayuden al diseño y a la verificación de estos requisitos. Los requisitos reglamentarios de resistencia estructural a vuelco contemplan la superestructura de los vehículos pero no para los asientos y sistemas de retención. La influencia de los pasajeros retenidos es superior a la incluida en reglamentación (Reg. 66.01) debiendo considerarse unida al vehículo un porcentaje de la masa de los pasajeros del 91% para cinturón de tres puntos y del 52% para cinturón subabdominal frente al 50% reglamentario para todos los casos. Se ha determinado la cinemática y dinámica del vuelco normativo en sus diferentes fases, formulando las energías en las fases iniciales (hasta el impacto contra el suelo) y determinando la fase final de deformación a través del análisis secuencial de ensayos de módulos reales. Se han determinado los esfuerzos para los asientos que se dividen en dos fases diferenciadas temporalmente: una primera debida a la deformación estructural y una segunda debida al esfuerzo del pasajero retenido que se produce en sentido opuesto (con una deceleración del pasajero en torno a 3.3 g). Se ha caracterizado a través de ensayos cuasi.estáticos el comportamiento de perfiles a flexión y de las uniones estructurales de las principales zonas del vehículo (piso, ventana y techo) verificándose la validez del comportamiento plástico teórico Kecman.García para perfiles de hasta 4 mm de espesor y caracterizando la resistencia y rigidez en la zona elástica de las uniones en función del tipo de refuerzo, materiales y perfiles (análisis de más de 180 probetas). Se ha definido un método de ensayo cuasi.estático para asientos ante esfuerzos de vuelco, ensayándose 19 butacas y determinándose que son resistentes (salvo las uniones a vehículo con pinzas), que son capaces de absorber hasta más de un 17% de la energía absorbida, aunque algunos necesitan optimización para llegar a contribuir en el mecanismo de deformación estructural. Se han generado modelos simplificados para introducir en los modelos barra.rótula plástica: un modelo combinado unión+rótula plástica (que incluye la zona de rigidez determinada en función del tipo de unión) para la superestructura y un modelo simplificado de muelles no.lineales para los asientos. Igualmente se ha generado la metodología de diseño a través de ensayos virtuales con modelos de detalle de elementos finitos tanto de las uniones como de los asientos. Se ha propuesto una metodología de diseño basada en obtener el “mecanismo óptimo de deformación estructural” (elevando la zona de deformación lateral a nivel de ventana y en pilar o en costilla en techo). Para ello se abren dos vías: diseño de la superestructura (selección de perfiles y generación de uniones resistentes) o combinación con asientos (que en lugar de solo resistir las cargas pueden llegar a modificar el mecanismo de deformación). Se ha propuesto una metodología de verificación alternativa al vuelco de vehículo completo que contempla el cálculo cuasi.estático con modelos simplificados barra.rótula plástica más el ensayo de una sección representativa con asientos y utillajes antropomórficos retenidos que permite validar el diseño de las uniones, determinar el porcentaje de energía que debe absorberse por deformación estructural (factor C) y verificar el propio asiento como sistema de retención. ABSTRACT This research analyzes the improvement of the structural strength of buses and coaches under rollover from two perspectives: regulatory requirements at European level and generation of tools that will help to the design and to the verification of requirements. European Regulations about rollover structural strength includes requirements for the superstructure of the vehicles but not about seats, anchorages and restraint systems. The influence of the retained passengers is higher than the one included currently in the Regulations (Reg. 66.01), being needed to consider a 91% of the passenger mass as rigidly joint to the vehicle (for 3 points’ belt, a 52% for 2 points’ belt) instead of the 50% included in the Regulation. Kinematic and dynamic of the normative rollover has been determined from testing of different sections, formulating the energies of the first phases (up to the first impact with the ground) and determining the last deformation phase through sequential analysis of movements and deformations. The efforts due to rollover over the seats have been established, being divided in two different temporal phases: a first one due to the structural deformation of the vehicle and a second one due to the effort of the restrained passenger being this second one in opposite sense (with a passenger deceleration around 3.3 g). From quasi.static testing, the behavior of the structural tubes under flexural loads, including the principal joints in the vehicle (floor, window and roof), the validity of the theoretical plastic behavior according Kecman.García theories have been verified up to 4 mm of thickness. Strength of the joints as well as the stiffness of the elastic zone has been determined in function of main parameters: type of reinforcement, materials and section of the tubes (more than 180 test specimens). It has been defined a quasi.static testing methodology to characterize the seats and restrain system behavior under rollover, testing 19 double seats and concluding that they are resistant (excepting clamping joints), that they can absorb more than a 17 of the absorbed energy, and that some of them need optimization to contribute in the structural deformation mechanism. It has been generated simplified MEF models, to analyze in a beam.plastic hinge model: a combined model joint+plastic hinge (including the stiffness depending on the type of joint) for the superstructure and a simplified model with non.lineal springs to represent the seats. It has been detailed methodologies for detailed design of joints and seats from virtual testing (MEF models). A design methodology based in the “optimized structural deformation mechanism” (increasing the height of deformation of the lateral up to window level) is proposed. Two possibilities are analyzed: design of the superstructure based on the selection of profiles and design of strength joints (were seats only resist the efforts and contribute in the energy absorption) or combination structure.seats, were seats contributes in the deformation mechanism. An alternative methodology to the rollover of a vehicle that includes the quasi.static calculation with simplified models “beam.joint+plastic hinge” plus the testing of a representative section of the vehicle including seats and anthropomorphic ballast restrained by the safety belts is presented. The test of the section allows validate the design of the joints, determine the percentage of energy to be absorbed by structural deformation (factor C) and verify the seat as a retention system.
Resumo:
En el ámbito de la robótica de servicio, actualmente no existe una solución automatizada para la inspección ultrasónica de las partes de material compuesto de una aeronave durante las operaciones de mantenimiento que realiza la aerolínea. El desarrollo de las nuevas técnicas de acoplamiento acústico en seco en el método de inspección no destructiva por ultrasonidos, está conduciendo a posibilitar su uso con soluciones de menor coste respecto a las técnicas tradicionales, sin perder eficacia para detectar las deficiencias en las estructuras de material compuesto. Aunque existen aplicaciones de esta técnica con soluciones manuales, utilizadas en las fases de desarrollo y fabricación del material compuesto, o con soluciones por control remoto en sectores diferentes al aeronáutico para componentes metálicos, sin embargo, no existen con soluciones automatizadas para la inspección no destructiva por ultrasonidos de las zonas del avión fabricadas en material compuesto una vez la aeronave ha sido entregada a la aerolínea. El objetivo de este trabajo fin de master es evaluar el sistema de localización, basado en visión por ordenador, de una solución robotizada aplicada la inspección ultrasónica estructural de aeronaves en servicio por parte de las propias aerolíneas, utilizando las nuevas técnicas de acoplamiento acústico en seco, buscando la ventaja de reducir los tiempos y los costes en las operaciones de mantenimiento. Se propone como solución un robot móvil autónomo de pequeño tamaño, con control de posición global basado en técnicas de SLAM Visual Monocular, utilizando marcadores visuales externos para delimitar el área de inspección. Se ha supuesto la inspección de elementos de la aeronave cuya superficie se pueda considerar plana y horizontal, como son las superficies del estabilizador horizontal o del ala. Este supuesto es completamente aceptable en zonas acotadas de estos componentes, y de cara al objetivo del proyecto, no le resta generalidad. El robot móvil propuesto es un vehículo terrestre triciclo, de dos grados de libertad, con un sistema de visión monocular completo embarcado, incluyendo el hardware de procesamiento de visión y control de trayectoria. Las dos ruedas delanteras son motrices y la tercera rueda, loca, sirve únicamente de apoyo. La dirección, de tipo diferencial, permite al robot girar sin necesidad de desplazamiento, al conseguirse por diferencia de velocidad entre la rueda motriz derecha e izquierda. El sistema de inspección ultrasónica embarcado está compuesto por el hardware de procesamiento y registro de señal, y una rueda-sensor situada coaxialmente al eje de las ruedas motrices, y centrada entre estas, de modo que la medida de inspección se realiza en el centro de rotación del robot. El control visual propuesto se realiza mediante una estrategia “ver y mover” basada en posición, ejecutándose de forma secuencial la extracción de características visuales de la imagen, el cálculo de la localización global del robot mediante SLAM visual y el movimiento de éste mediante un algoritmo de control de posición-orientación respecto a referencias de paso de la trayectoria. La trayectoria se planifica a partir del mapa de marcas visuales que delimitan el área de inspección, proporcionado también por SLAM visual. Para validar la solución propuesta se ha optado por desarrollar un prototipo físico tanto del robot como de los marcadores visuales externos, a los que se someterán a una prueba de validación como alternativa a utilizar un entorno simulado por software, consistente en el reconocimiento del área de trabajo, planeamiento de la trayectoria y recorrido de la misma, de forma autónoma, registrando el posicionamiento real del robot móvil junto con el posicionamiento proporcionado por el sistema de localización SLAM. El motivo de optar por un prototipo es validar la solución ante efectos físicos que son muy complicados de modelar en un entorno de simulación, derivados de las limitaciones constructivas de los sistemas de visión, como distorsiones ópticas o saturación de los sensores, y de las limitaciones constructivas de la mecánica del robot móvil que afectan al modelo cinemático, como son el deslizamiento de las ruedas o la fluctuación de potencia de los motores eléctricos. El prototipo de marcador visual externo utilizado para la prueba de validación, ha sido un símbolo plano vertical, en blanco y negro, que consta de un borde negro rectangular dentro del cual se incluye una serie de marcas cuadradas de color negro, cuya disposición es diferente para cada marcador, lo que permite su identificación. El prototipo de robot móvil utilizado para la prueba de validación, ha sido denominado VINDUSTOR: “VIsual controlled Non-Destructive UltraSonic inspecTOR”. Su estructura mecánica ha sido desarrollada a partir de la plataforma comercial de robótica educacional LEGO© MINDSTORMS NXT 2.0, que incluye los dos servomotores utilizados para accionar las dos ruedas motrices, su controlador, las ruedas delanteras y la rueda loca trasera. La estructura mecánica ha sido especialmente diseñada con piezas LEGO© para embarcar un ordenador PC portátil de tamaño pequeño, utilizado para el procesamiento visual y el control de movimiento, y el sistema de captación visual compuesto por dos cámaras web de bajo coste, colocadas una en posición delantera y otra en posición trasera, con el fin de aumentar el ángulo de visión. El peso total del prototipo no alcanza los 2 Kg, siendo sus dimensiones máximas 20 cm de largo, 25 cm de ancho y 26 cm de alto. El prototipo de robot móvil dispone de un control de tipo visual. La estrategia de control es de tipo “ver y mover” dinámico, en la que se realiza un bucle externo, de forma secuencial, la extracción de características en la imagen, la estimación de la localización del robot y el cálculo del control, y en un bucle interno, el control de los servomotores. La estrategia de adquisición de imágenes está basada en un sistema monocular de cámaras embarcadas. La estrategia de interpretación de imágenes está basada en posición tridimensional, en la que los objetivos de control se definen en el espacio de trabajo y no en la imagen. La ley de control está basada en postura, relacionando la velocidad del robot con el error en la posición respecto a las referencias de paso de una trayectoria. La trayectoria es generada a partir del mapa de marcadores visuales externo. En todo momento, la localización del robot respecto a un sistema de referencia externo y el mapa de marcadores, es realizado mediante técnicas de SLAM visual. La auto-localización de un robot móvil dentro de un entorno desconocido a priori constituye uno de los desafíos más importantes en la robótica, habiéndose conseguido su solución en las últimas décadas, con una formulación como un problema numérico y con implementaciones en casos que van desde robots aéreos a robots en entornos cerrados, existiendo numerosos estudios y publicaciones al respecto. La primera técnica de localización y mapeo simultáneo SLAM fue desarrollada en 1989, más como un concepto que como un algoritmo único, ya que su objetivo es gestionar un mapa del entorno constituido por posiciones de puntos de interés, obtenidos únicamente a partir de los datos de localización recogidos por los sensores, y obtener la pose del robot respecto al entorno, en un proceso limitado por el ruido de los sensores, tanto en la detección del entorno como en la odometría del robot, empleándose técnicas probabilísticas aumentar la precisión en la estimación. Atendiendo al algoritmo probabilístico utilizado, las técnicas SLAM pueden clasificarse en las basadas en Filtros de Kalman, en Filtros de Partículas y en su combinación. Los Filtros de Kalman consideran distribuciones de probabilidad gaussiana tanto en las medidas de los sensores como en las medidas indirectas obtenidas a partir de ellos, de modo que utilizan un conjunto de ecuaciones para estimar el estado de un proceso, minimizando la media del error cuadrático, incluso cuando el modelo del sistema no se conoce con precisión, siendo el más utilizado el Filtro de Kalman Extendido a modelos nolineales. Los Filtros de Partículas consideran distribuciones de probabilidad en las medidas de los sensores sin modelo, representándose mediante un conjunto de muestras aleatorias o partículas, de modo que utilizan el método Montecarlo secuencial para estimar la pose del robot y el mapa a partir de ellas de forma iterativa, siendo el más utilizado el Rao-Backwell, que permite obtener un estimador optimizado mediante el criterio del error cuadrático medio. Entre las técnicas que combinan ambos tipos de filtros probabilísticos destaca el FastSLAM, un algoritmo que estima la localización del robot con un Filtro de Partículas y la posición de los puntos de interés mediante el Filtro de Kalman Extendido. Las técnicas SLAM puede utilizar cualquier tipo de sensor que proporcionen información de localización, como Laser, Sonar, Ultrasonidos o Visión. Los sensores basados en visión pueden obtener las medidas de distancia mediante técnicas de visión estereoscópica o mediante técnica de visión monocular. La utilización de sensores basados en visión tiene como ventajas, proporcionar información global a través de las imágenes, no sólo medida de distancia, sino también información adicional como texturas o patrones, y la asequibilidad del hardware frente a otros sensores. Sin embargo, su principal inconveniente es el alto coste computacional necesario para los complejos algoritmos de detección, descripción, correspondencia y reconstrucción tridimensional, requeridos para la obtención de la medida de distancia a los múltiples puntos de interés procesados. Los principales inconvenientes del SLAM son el alto coste computacional, cuando se utiliza un número elevado de características visuales, y su consistencia ante errores, derivados del ruido en los sensores, del modelado y del tratamiento de las distribuciones de probabilidad, que pueden producir el fallo del filtro. Dado que el SLAM basado en el Filtro de Kalman Extendido es una las técnicas más utilizadas, se ha seleccionado en primer lugar cómo solución para el sistema de localización del robot, realizando una implementación en la que las medidas de los sensores y el movimiento del robot son simulados por software, antes de materializarla en el prototipo. La simulación se ha realizado considerando una disposición de ocho marcadores visuales que en todo momento proporcionan ocho medidas de distancia con ruido aleatorio equivalente al error del sensor visual real, y un modelo cinemático del robot que considera deslizamiento de las ruedas mediante ruido aleatorio. Durante la simulación, los resultados han mostrado que la localización estimada por el algoritmo SLAM-EKF presenta tendencia a corregir la localización obtenida mediante la odometría, pero no en suficiente cuantía para dar un resultado aceptable, sin conseguir una convergencia a una solución suficientemente cercana a la localización simulada del robot y los marcadores. La conclusión obtenida tras la simulación ha sido que el algoritmo SLAMEKF proporciona inadecuada convergencia de precisión, debido a la alta incertidumbre en la odometría y a la alta incertidumbre en las medidas de posición de los marcadores proporcionadas por el sensor visual. Tras estos resultados, se ha buscado una solución alternativa. Partiendo de la idea subyacente en los Filtros de Partículas, se ha planteado sustituir las distribuciones de probabilidad gaussianas consideradas por el Filtro de Kalman Extendido, por distribuciones equi-probables que derivan en funciones binarias que representan intervalos de probabilidad no-nula. La aplicación de Filtro supone la superposición de todas las funciones de probabilidad no-nula disponibles, de modo que el resultado es el intervalo donde existe alguna probabilidad de la medida. Cómo la efectividad de este filtro aumenta con el número disponible de medidas, se ha propuesto obtener una medida de la localización del robot a partir de cada pareja de medidas disponibles de posición de los marcadores, haciendo uso de la Trilateración. SLAM mediante Trilateración Estadística (SLAM-ST) es como se ha denominado a esta solución propuesta en este trabajo fin de master. Al igual que con el algoritmo SLAM-EKF, ha sido realizada una implementación del algoritmo SLAM-ST en la que las medidas de los sensores y el movimiento del robot son simulados, antes de materializarla en el prototipo. La simulación se ha realizado en las mismas condiciones y con las mismas consideraciones, para comparar con los resultados obtenidos con el algoritmo SLAM-EKF. Durante la simulación, los resultados han mostrado que la localización estimada por el algoritmo SLAM-ST presenta mayor tendencia que el algoritmo SLAM-EKF a corregir la localización obtenida mediante la odometría, de modo que se alcanza una convergencia a una solución suficientemente cercana a la localización simulada del robot y los marcadores. Las conclusiones obtenidas tras la simulación han sido que, en condiciones de alta incertidumbre en la odometría y en la medida de posición de los marcadores respecto al robot, el algoritmo SLAM-ST proporciona mejores resultado que el algoritmo SLAM-EKF, y que la precisión conseguida sugiere la viabilidad de la implementación en el prototipo. La implementación del algoritmo SLAM-ST en el prototipo ha sido realizada en conjunción con la implementación del Sensor Visual Monocular, el Modelo de Odometría y el Control de Trayectoria. El Sensor Visual Monocular es el elemento del sistema SLAM encargado de proporcionar la posición con respecto al robot de los marcadores visuales externos, a partir de las imágenes obtenidas por las cámaras, mediante técnicas de procesamiento de imagen que permiten detectar e identificar los marcadores visuales que se hallen presentes en la imagen capturada, así como obtener las características visuales a partir de las cuales inferir la posición del marcador visual respecto a la cámara, mediante reconstrucción tridimensional monocular, basada en el conocimiento a-priori del tamaño real del mismo. Para tal fin, se ha utilizado el modelo matemático de cámara pin-hole, y se ha considerado las distorsiones de la cámara real mediante la calibración del sensor, en vez de utilizar la calibración de la imagen, tras comprobar el alto coste computacional que requiere la corrección de la imagen capturada, de modo que la corrección se realiza sobre las características visuales extraídas y no sobre la imagen completa. El Modelo de Odometría es el elemento del sistema SLAM encargado de proporcionar la estimación de movimiento incremental del robot en base a la información proporcionada por los sensores de odometría, típicamente los encoders de las ruedas. Por la tipología del robot utilizado en el prototipo, se ha utilizado un modelo cinemático de un robot tipo uniciclo y un modelo de odometría de un robot móvil de dos ruedas tipo diferencial, en el que la traslación y la rotación se determinan por la diferencia de velocidad de las ruedas motrices, considerando que no existe deslizamiento entre la rueda y el suelo. Sin embargo, el deslizamiento en las ruedas aparece como consecuencia de causas externas que se producen de manera inconstante durante el movimiento del robot que provocan insuficiente contacto de la rueda con el suelo por efectos dinámicos. Para mantener la validez del modelo de odometría en todas estas situaciones que producen deslizamiento, se ha considerado un modelo de incertidumbre basado en un ensayo representativo de las situaciones más habituales de deslizamiento. El Control de Trayectoria es el elemento encargado de proporcionar las órdenes de movimiento al robot móvil. El control implementado en el prototipo está basado en postura, utilizando como entrada la desviación en la posición y orientación respecto a una referencia de paso de la trayectoria. La localización del robot utilizada es siempre de la estimación proporcionada por el sistema SLAM y la trayectoria es planeada a partir del conocimiento del mapa de marcas visuales que limitan el espacio de trabajo, mapa proporcionado por el sistema SLAM. Las limitaciones del sensor visual embarcado en la velocidad de estabilización de la imagen capturada han conducido a que el control se haya implementado con la estrategia “mirar parado”, en la que la captación de imágenes se realiza en posición estática. Para evaluar el sistema de localización basado en visión del prototipo, se ha diseñado una prueba de validación que obtenga una medida cuantitativa de su comportamiento. La prueba consiste en la realización de forma completamente autónoma de la detección del espacio de trabajo, la planificación de una trayectoria de inspección que lo transite completamente, y la ejecución del recorrido de la misma, registrando simultáneamente la localización real del robot móvil junto con la localización proporcionada por el sistema SLAM Visual Monocular. Se han realizado varias ejecuciones de prueba de validación, siempre en las mismas condiciones iniciales de posición de marcadores visuales y localización del robot móvil, comprobando la repetitividad del ensayo. Los resultados presentados corresponden a la consideración de las medidas más pesimistas obtenidas tras el procesamiento del conjunto de medidas de todos los ensayos. Los resultados revelan que, considerando todo el espacio de trabajo, el error de posición, diferencia entre los valores de proporcionados por el sistema SLAM y los valores medidos de posición real, se encuentra en el entorno de la veintena de centímetros. Además, los valores de incertidumbre proporcionados por el sistema SLAM son, en todos los casos, superiores a este error. Estos resultados conducen a concluir que el sistema de localización basado en SLAM Visual, mediante un algoritmo de Trilateración Estadística, usando un sensor visual monocular y marcadores visuales externos, funciona, proporcionando la localización del robot móvil con respecto al sistema de referencia global inicial y un mapa de su situación de los marcadores visuales, con precisión limitada, pero con incertidumbre conservativa, al estar en todo momento el error real de localización por debajo del error estimado. Sin embargo, los resultados de precisión del sistema de localización no son suficientemente altos para cumplir con los requerimientos como solución robotizada aplicada a la inspección ultrasónica estructural de aeronaves en servicio. En este sentido, los resultados sugieren que la posible continuación de este trabajo en el futuro debe centrarse en la mejora de la precisión de localización del robot móvil, con líneas de trabajo encaminadas a mejorar el comportamiento dinámico del prototipo, en mejorar la precisión de las medidas de posición proporcionadas por el sensor visual y en optimizar el resultado del algoritmo SLAM. Algunas de estas líneas futuras podrían ser la utilización de plataformas robóticas de desarrollo alternativas, la exploración de técnicas de visión por computador complementarias, como la odometría visual, la visión omnidireccional, la visión estereoscópica o las técnicas de reconstrucción tridimensional densa a partir de captura monocular, y el análisis de algoritmos SLAM alternativos condicionado a disponer de una sustancial mejora de precisión en el modelo de odometría y en las medidas de posición de los marcadores.
Resumo:
Esta Tesis surgió ante la intensidad y verosimilitud de varias señales o “warnings” asociadas a políticas dirigidas a reducir el peso del petróleo en el sector energético, tanto por razones económicas, como geopolíticas, como ambientales. Como tal Tesis se consolidó al ir incorporando elementos novedosos pero esenciales en el mundo petrolífero, particularmente las “tecnologías habilitantes”, tanto de incidencia directa, como el “fracking” como indirecta, del cual es un gran ejemplo el Vehículo Eléctrico (puro). La Tesis se definió y estructuró para elaborar una serie de indagaciones y disquisiciones, que comportaran un conjunto de conclusiones que fueran útiles para las corporaciones energéticas. También para la comprensión de la propia evolución del sector y de sus prestaciones técnicas y económicas, de cara a dar el servicio que los usuarios finales piden. Dentro de las tareas analíticas y reflexivas de la Tesis, se acuñaron ciertos términos conceptuales para explicar más certeramente la realidad del sector, y tal es el caso del “Investment burden”, que pondera la inversión específica (€/W) requerida por una instalación, con la duración del período de construcción y los riesgos tanto tangibles como regulatorios. Junto a ello la Tesis propone una herramienta de estudio y prognosis, denominada “Market integrated energy efficiency”, especialmente aplicable a dicotomías. Tal es el caso del coche térmico, versus coche eléctrico. El objetivo es optimizar una determinada actividad energética, o la productividad total del sector. Esta Tesis propone varias innovaciones, que se pueden agrupar en dos niveles: el primero dentro del campo de la Energía, y el segundo dentro del campo de las corporaciones, y de manera especial de las corporaciones del sector hidrocarburos. A nivel corporativo, la adaptación a la nueva realidad será función directa de la capacidad de cada corporación para desarrollar y/o comprar las tecnologías que permitan mantener o aumentar cuota de mercado. Las conclusiones de la Tesis apuntan a tres opciones principalmente para un replanteamiento corporativo: - Diversificación energética - Desplazamiento geográfico - Beneficiándose de posibles nuevos nichos tecnológicos, como son: • En upstream: Recuperación estimulada de petróleo mediante uso de energías renovables • En downstream: Aditivos orientados a reducir emisiones • En gestión del cambio: Almacenamiento energético con fines operativos Algunas políticas energéticas siguen la tendencia de crecimiento cero de algunos países de la OCDE. No obstante, la realidad mundial es muy diferente a la de esos países. Por ejemplo, según diversas estimaciones (basadas en bancos de datos solventes, referenciados en la Tesis) el número de vehículos aumentará desde aproximadamente mil millones en la actualidad hasta el doble en 2035; mientras que la producción de petróleo sólo aumentará de 95 a 145 millones de barriles al día. Un aumento del 50% frente a un aumento del 100%. Esto generará un curioso desajuste, que se empezará a sentir en unos pocos años. Las empresas y corporaciones del sector hidrocarburos pueden perder el monopolio que atesoran actualmente en el sector transporte frente a todas las demás fuentes energéticas. Esa pérdida puede quedar compensada por una mejor gestión de todas sus capacidades y una participación más integrada en el mundo de la energía, buscando sinergias donde hasta ahora no había sino distanciamiento. Los productos petrolíferos pueden alimentar cualquier tipo de maquina térmica, como las turbinas Brayton, o alimentar reformadores para la producción masiva de H2 para su posterior uso en pilas combustible. El almacenamiento de productos derivados del petróleo no es ningún reto ni plantea problema alguno; y sin embargo este almacenamiento es la llave para resolver muchos problemas. Es posible que el comercio de petróleo se haga menos volátil debido a los efectos asociados al almacenamiento; pero lo que es seguro es que la eficiencia energética de los usos de ese petróleo será más elevada. La Tesis partía de ciertas amenazas sobre el futuro del petróleo, pero tras el análisis realizado se puede vislumbrar un futuro prometedor en la fusión de políticas medioambientales coercitivas y las nuevas tecnologías emergentes del actual portafolio de oportunidades técnicas. ABSTRACT This Thesis rises from the force and the credibility of a number of warning signs linked to policies aimed at reducing the role of petroleum in the energy industry due to economical, geopolitical and environmental drives. As such Thesis, it grew up based on aggregating new but essentials elements into the petroleum sector. This is the case of “enabling technologies” that have a direct impact on the petroleum industry (such as fracking), or an indirect but deep impact (such as the full electrical vehicle). The Thesis was defined and structured in such a way that could convey useful conclusions for energy corporations through a series of inquiries and treatises. In addition to this, the Thesis also aims at understating la evolution of the energy industry and its capabilities both technical and economical, towards delivering the services required by end users. Within the analytical task performed in the Thesis, new terms were coined. They depict concepts that aid at explaining the facts of the energy industry. This is the case for “Investment burden”, it weights the specific capital investment (€/W) required to build a facility with the time that takes to build it, as well as other tangible risks as those posed by regulation. In addition to this, the Thesis puts forward an application designed for reviewing and predicting: the so called “Market integrated energy efficiency”, especially well-suited for dichotomies, very appealing for the case of the thermal car versus the electric car. The aim is to optimize energy related activity; or even the overall productivity of the system. The innovations proposed in this Thesis can be classified in two tiers. Tier one, within the energy sector; and tier two, related to Energy Corporation in general, but with oil and gas corporations at heart. From a corporate level, the adaptation to new energy era will be linked with the corporation capability to develop or acquire those technologies that will yield to retaining or enhancing market share. The Thesis highlights three options for corporate evolution: - diversification within Energy - geographic displacement - profiting new technologies relevant to important niches of work for the future, as: o Upstream: enhanced oil recovery using renewable energy sources (for upstream companies in the petroleum business) o Downstream: additives for reducing combustion emissions o Management of Change: operational energy storage Some energy policies tend to follow the zero-growth of some OECD countries, but the real thing could be very different. For instance, and according to estimates the number of vehicles in use will grow from 1 billion to more than double this figure 2035; but oil production will only grow from 95 million barrel/day to 145 (a 50% rise of versus an intensification of over a 100%). Hydrocarbon Corporation can lose the monopoly they currently hold over the supply of energy to transportation. This lose can be mitigated through an enhanced used of their capabilities and a higher degree of integration in the world of energy, exploring for synergies in those places were gaps were present. Petroleum products can be used to feed any type of thermal machine, as Brayton turbines, or steam reformers to produce H2 to be exploited in fuel cells. Storing petroleum products does not present any problem, but very many problems can be solved with them. Petroleum trading will likely be less volatile because of the smoothing effects of distributed storage, and indeed the efficiency in petroleum consumption will be much higher. The Thesis kicked off with a menace on the future of petroleum. However, at the end of the analysis, a bright future can be foreseen in the merging between highly demanding environmental policies and the relevant technologies of the currently emerging technical portfolio.
Resumo:
Si hubiese un denominador común entre todas las artes en lo que ha venido llamándose postmodernidad, éste tendría mucho que ver con el final del origen de la obra. Desde la literatura y la música hasta las artes plásticas y la arquitectura, la superación de la modernidad ha estado caracterizada por la sustitución del concepto de creación por el de intervención artística, o lo que es lo mismo, la interpretación de lo que ya existe. A principios del siglo XX los conceptos modernos de creación y origen implicaban tener que desaprender y olvidar todo lo anterior con el ánimo de partir desde cero; incluso en un sentido material Mies sugería la construcción literal de la materia y su movimiento de acuerdo a unas leyes. A partir de la segunda mitad de siglo los planteamientos historicistas empezaron a surgir como reacción ante la amnesia y la supuesta originalidad de los modernos. En este contexto surgen los libros Learning from Las Vegas, 1972 y Delirious New York, 1978, ambos deudores en muchos aspectos con el anterior libro de Venturi, Complexity and Contradiction in Architecture, 1966. Estos dos libros sobre ciudades, alejándose decididamente de las tendencias historicistas de la época, proponían utilizar el análisis crítico de la realidad existente como vehículo para la teoría y el proyecto de manera simultánea, convirtiéndose indirectamente en Manifiestos. Si en un primer momento Venturi, Rossi y otros planteaban acabar con los límites formales establecidos por la modernidad, así como por cualquiera de los cánones anteriores, tomando la totalidad de la obra construida como sistema de referencia, - al igual que hiciera Eliot en literatura, - los libros de Las Vegas y Nueva York sugerían directamente borrar los límites de la propia disciplina, llegando a poner en duda ¿Qué puede ser considerado arquitectura? Sin embargo, debido precisamente a la ausencia total de límites y a la inmensidad del sistema referencial planteado, “todo puede ser arquitectura”, como apuntaba Hans Hollein en 1968, los libros proponen al mismo tiempo definir el campo de actuación de cada cual de manera individual. Los escritos sobre Las Vegas y Nueva York suponen por un lado la eliminación de los limites disciplinares y por otro, la delimitación de ámbitos de trabajo concretos para sus autores: los propios de cada una de las ciudades interpretadas. La primera parte de la Tesis, Lecciones, se ocupa del necesario proceso de aprendizaje y experimentación previo a la acción crítica propiamente dicha. Los arquitectos contemporáneos necesitan acumular material, conocimiento, documentación, experiencias... antes de lanzarse a proponer mediante la crítica y la edición; y al contrario que ocurría con los modernos, cuanto más abundante sea ese bagaje previo más rica será la interpretación. Las ciudades de Roma, Londres y Berlín se entienden por tanto como experiencias capaces de proporcionar a Venturi, Scott Brown y Koolhaas respectivamente, sus “personales diccionarios”, unas interminables imaginerías con las que posteriormente se enfrentarían a los análisis de Las Vegas y Nueva York. La segunda parte, Críticas, se centra en la producción teórica en sí: los dos libros de ciudades analizados en estrecha relación con el Complexity and Contradiction. El razonamiento analógico característico de estos libros ha servido de guía metodológica para la investigación, estableciéndose relaciones, no entre los propios escritos directamente, sino a través de trabajos pertenecientes a otras disciplinas. En primer lugar se plantea un importante paralelismo entre los métodos de análisis desarrollados en estos libros y los utilizados por la crítica literaria, observando que si el new criticism y el nuevo periodismo sirvieron de guía en los escritos de Venturi y Scott Brown, la nouvelle critique y su propuesta de identificación poética fueron el claro referente de Koolhaas al abordar Nueva York. Por otro lado, la relevancia ganada por la actividad de comisariado artístico y la aparición de la figura del curator, como autoridad capaz de utilizar la obra de arte por encima de las intenciones de su propio autor, sirve, al igual que la figura del editor, como reflejo de la acción transformadora y de apropiación llevada a cabo tanto en Learning from Las Vegas, como en Delirious New York. Por último y a lo largo de toda la investigación las figuras de Bergson y Baudelaire han servido como apoyo teórico. A través de la utilización que de sus ideas hicieron Venturi y Koolhaas respectivamente, se ha tratado de mostrar la proximidad de ambos planteamientos desde un punto de vista ideológico. La Inclusión propuesta por Venturi y la ironía utilizada por Koolhaas, la contradicción y la paradoja, no son sino el reflejo de lógicas que en ambos casos reaccionan al mismo tiempo contra idealismo y materialismo, contra modernidad y antimodernidad, en un continuo intento de ser lo uno y lo otro simultáneamente. ABSTRACT If there was a common denominator among all the arts in what has been called postmodernism, it would have much to do with the end of the origin of the artwork. From literature and music to fine arts and architecture, overcoming modernity has been characterized by replacing the concept of artistic creation by the one of intervention, in other words, the interpretation of what already exists. In the early twentieth century modern concepts of creation and origin involved unlearning and forgetting everything before with the firm intention of starting from scratch. Even in a material sense Mies suggested the literal construction of matter and its motion according to laws. From the mid-century historicist approaches began to emerge in response to the amnesia and originality alleged by moderns. In this context appeared the books Learning from Las Vegas, 1972 and Delirious New York, 1978, both debtors in many respects to the previous book by Venturi, Complexity and Contradiction in Architecture, 1966. These two books on cities, which broke away decidedly with the historicist trends of the time, proposed using critical analysis of the existing reality as a vehicle for theory and projecting at the same time, indirectly becoming manifests. If at first Venturi, Rossi and others pose to erase the formal limits set by modernity, as well as any of the canons before, taking the entire work built as a reference system, - as did Eliot in literature - the books on Las Vegas and New York proposed directly erasing the boundaries of the discipline itself, coming to question what could be considered architecture? However, and precisely because of the absence of limits and the immensity of the established framework, - “everything could be architecture” as Hans Hollein pointed in 1968, - the books suggested at the same time the definition of a field of action for each one individually. The cities of Las Vegas and New York represented on the one hand the elimination of disciplinary limits and on the other, the delimitation of specific areas of work to its authors: Those on each of the cities interpreted. The first part of the thesis, Lessons, attend to the necessary process of learning and experimentation before the critical action itself. Contemporary architects need to accumulate material, knowledge, information, experiences... before proposing through criticism and editing; and unlike happened with moderns, the most abundant this prior baggage is, the richest will be the interpretation. Rome, London and Berlin are therefore understood as experiences capable of providing Venturi, Scott Brown and Koolhaas respectively, their “personal dictionaries”, interminable imageries with which they would later face the analysis of Las Vegas and New York. The second part, Critiques, focuses on the theoretical production itself: the two books on both cities analyzed closely with the Complexity and Contradiction. The analogical reasoning characteristic of these books has served as a methodological guide for the research, establishing relationships, not directly between the writings themselves, but through works belonging to other disciplines. First, an important parallel is set between the methods of analysis developed in these books and those used by literary criticism, noting that if the new criticism and new journalism guided Venturi and Scott Brown´s writings, the nouvelle critique and its poetic identification were clear references for Koolhaas when addressing New York. On the other hand, the relevance gained by curating and the understanding of the figure of the curator as an authority capable to use artworks above the intentions of their authors, like the one of the Editor, reflects the appropriation and processing actions carried out both in Learning from Las Vegas, and Delirious New York. Finally and over all the research Bergson and Baudelaire figures resonate continuously. Through the use of their ideas done by Venturi and Koolhaas respectively, the research has tried to show the proximity of both approaches from an ideological point of view. Inclusion, as posed by Venturi and irony, as used by Koolhaas, contradiction and paradox are reflections of the logic that in both cases allow them to react simultaneously against idealism and materialism, against modernism and anti-modernism.
Resumo:
En las últimas tres décadas, las dinámicas de restructuración económica a nivel global han redefinido radicalmente el papel de las ciudades. La transición del keynesianismo al neoliberalismo ha provocado un cambio en las políticas urbanas de los gobiernos municipales, que han abandonado progresivamente las tareas de regulación y redistribución para centrarse en la promoción del crecimiento económico y la competitividad. En este contexto, muchas voces críticas han señalado que la regeneración urbana se ha convertido en un vehículo de extracción de valor de la ciudad y está provocando la expulsión de los ciudadanos más vulnerables. Sin embargo, la regeneración de áreas consolidadas supone también una oportunidad de mejora de las condiciones de vida de la población residente, y es una política necesaria para controlar la expansión de la ciudad y reducir las necesidades de desplazamiento, promoviendo así ciudades más sostenibles. Partiendo de la hipótesis de que la gobernanza de los procesos de regeneración urbana es clave en el resultado final de las operaciones y determina el modelo de ciudad resultante, el objetivo de esta investigación es verificar si la regeneración urbana es necesariamente un mecanismo de extracción de valor o si puede mejorar la calidad de vida en las ciudades a través de la participación de los ciudadanos. Para ello, propone un marco de análisis del proceso de toma de decisiones en los planes de regeneración urbana y su impacto en los resultados de los planes, tomando como caso de estudio la ciudad de Boston, que desde los años 1990 trata de convertirse en una “ciudad de los barrios”, fomentando la participación ciudadana al tiempo que se posiciona en la escena económica global. El análisis se centra en dos operaciones de regeneración iniciadas a finales de los años 1990. Por un lado, el caso de Jackson Square nos permite comprender el papel de la sociedad civil y el tercer sector en la regeneración de los barrios más desfavorecidos, en un claro ejemplo de urbanismo “desde abajo” (bottom-up planning). Por otro, la reconversión del frente marítimo de South Boston para la construcción del Distrito de Innovación nos acerca a las grandes operaciones de regeneración urbana con fines de estímulo económico, tradicionalmente vinculadas a los centros financieros (downtown) y dirigidas por las élites gubernamentales y económicas (la growth machine) a través de procesos más tecnocráticos (top-down planning). La metodología utilizada consiste en el análisis cualitativo de los procesos de toma de decisiones y la relación entre los agentes implicados, así como de la evaluación de la implementación de dichas decisiones y su influencia en el modelo urbano resultante. El análisis de los casos permite afirmar que la gobernanza de los procesos de regeneración urbana influye decisivamente en el resultado final de las intervenciones; sin embargo, la participación de la comunidad local en la toma de decisiones no es suficiente para que el resultado de la regeneración urbana contrarreste los efectos de la neoliberalización, especialmente si se limita a la fase de planeamiento y no se extiende a la fase de ejecución, y si no está apoyada por una movilización política de mayor alcance que asegure una acción pública redistributiva. Asimismo, puede afirmarse que los procesos de regeneración urbana suponen una redefinición del modelo de ciudad, dado que la elección de los espacios de intervención tiene consecuencias sobre el equilibrio territorial de la ciudad. Los resultados de esta investigación tienen implicaciones para la disciplina del planeamiento urbano. Por una parte, se confirma la vigencia del paradigma del “urbanismo negociado”, si bien bajo discursos de liderazgo público y sin apelación al protagonismo del sector privado. Por otra parte, la planificación colaborativa en un contexto de “responsabilización” de las organizaciones comunitarias puede desactivar la potencia política de la participación ciudadana y servir como “amortiguador” hacia el gobierno local. Asimismo, la sustitución del planeamiento general como instrumento de definición de la ciudad futura por una planificación oportunista basada en la actuación en áreas estratégicas que tiren del resto de la ciudad, no permite definir un modelo coherente y consensuado de la ciudad que se desea colectivamente, ni permite utilizar el planeamiento como mecanismo de redistribución. ABSTRACT In the past three decades, the dynamics of global economic restructuring have radically redefined the role of cities. The transition from keynesianism to neoliberalism has caused a shift in local governments’ urban policies, which have progressively abandoned the tasks of regulation and redistribution to focus on promoting economic growth and competitiveness. In this context, many critics have pointed out that urban regeneration has become a vehicle for extracting value from the city and is causing the expulsion of the most vulnerable citizens. However, regeneration of consolidated areas is also an opportunity to improve the living conditions of the resident population, and is a necessary policy to control the expansion of the city and reduce the need for transportation, thus promoting more sustainable cities. Assuming that the governance of urban regeneration processes is key to the final outcome of the plans and determines the resulting city model, the goal of this research is to verify whether urban regeneration is necessarily a value extraction mechanism or if it can improve the quality of life in cities through citizens’ participation. It proposes a framework for analysis of decision-making in urban regeneration processes and their impact on the results of the plans, taking as a case study the city of Boston, which since the 1990s is trying to become a "city of neighborhoods", encouraging citizen participation, while seeking to position itself in the global economic scene. The analysis focuses on two redevelopment plans initiated in the late 1990s. The Jackson Square case allows us to understand the role of civil society and the third sector in the regeneration of disadvantaged neighborhoods, in a clear example of bottom-up planning. On the contrary, the conversion of the South Boston waterfront to build the Innovation District takes us to the big redevelopment efforts with economic stimulus’ goals, traditionally linked to downtowns and led by government and economic elites (the local “growth machine”) through more technocratic processes (top-down planning). The research is based on a qualitative analysis of the processes of decision making and the relationship between those involved, as well as the evaluation of the implementation of those decisions and their influence on the resulting urban model. The analysis suggests that the governance of urban regeneration processes decisively influences the outcome of interventions; however, community engagement in the decision-making process is not enough for the result of the urban regeneration to counteract the effects of neoliberalization, especially if it is limited to the planning phase and does not extend to the implementation of the projects, and if it is not supported by a broader political mobilization to ensure a redistributive public action. Moreover, urban regeneration processes redefine the urban model, since the choice of intervention areas has important consequences for the territorial balance of the city. The results of this study have implications for the discipline of urban planning. On the one hand, it confirms the validity of the "negotiated planning" paradigm, albeit under public leadership discourse and without a direct appeal to the leadership role of the private sector. On the other hand, collaborative planning in a context of "responsibilization" of community based organizations can deactivate the political power of citizen participation and serve as a "buffer" towards the local government. Furthermore, the replacement of comprehensive planning, as a tool for defining the city's future, by an opportunistic planning based on intervention in strategic areas that are supposed to induce change in the rest of the city, does not allow a coherent and consensual urban model that is collectively desired, nor it allows to use planning as a redistribution mechanism.
Resumo:
El área urbana localizada en el contorno de la ría de Vigo se vino comportando hasta finales de los años ochenta del siglo XX como una verdadera "ciudad difusa", entendida la difusión como la forma de urbanización de baja densidad que todavía conserva unas características y una funcionalidad propiamente urbanas, aportadas por la malla tradicional parroquial de caminos y núcleos de población. Esta Tesis demuestra que en el período de veinte años transcurrido entre 1990 y 2010, el área, en la que ya se apreciaban fenómenos de naturaleza metropolitana y policentrismo, experimentó una transformación basada en los factores y formas de urbanización estudiados en otras áreas y ciudades intermedias de similares dimensiones. Para la delimitación del ámbito de estudio se consideraron las diferentes dimensiones y escalas de áreas funcionales utilizadas en distintos estudios y planes territoriales, eligiéndose el que toma como referente principal la Ría de Vigo como soporte de la conurbación polinuclear de su contorno. Para investigar el desarrollo urbanístico operado en el período se estudiaron los factores y formas de urbanización característicos de la urbanización en territorios de baja densidad en esta época, y las variables de densidad es de población y vivienda, primacía y polaridad territorial, ritmos de edificación, planeamiento urbanístico y territorial, actividades económicas, movilidad, desplazamientos residenciatrabajo y vacíos urbanos. Las conclusiones permiten observar como el crecimiento residencial descentralizado, que se ha dado principalmente en el litoral, y la localización periférica de las actividades y dotaciones públicas han introducido elementos de dispersión y fragmentación espacial y social, así como las nuevas y potentes infraestructuras viarias, que han mejorado los desplazamientos a costa de una dependencia abusiva del vehículo privado, y han comenzado a amenazar la sostenibilidad del sistema. La planificación de ordenación territorial a escala metropolitana y el planeamiento urbanístico, que se comenzaron a utilizar con normalidad en esta época, se vislumbran como una oportunidad para reconducir el proceso, integrando los territorios genéricos surgidos entre las nuevas infraestructuras y dotaciones y la malla tradicional, así como los vacíos urbanos susceptibles de compactación, protegiendo aquellos otros vacíos que deben constituir la principal reserva ecológica: Los montes en mano común y la Ría de Vigo. La necesidad de una planificación operativa, sostenible y participativa, que integre la ordenación territorial, la gestión integral de los recursos de la Ría, y articule las diferentes competencias y escalas, la gobernanza , la participación ciudadana y el mercado, se considera la principal conclusión para el futuro. ABSTRACT The urban area located around the Ría de Vigo* used to behave like a “diffused city” until the late 1980s, understanding this difussion as the low-density urbanization that still today exhibits ‘urban’ characteristics and functionality, given by the traditional network of parish paths and town cores. This Thesis shows that during the twenty-year period from 1990 to 2010, this area, which previously showed signals of polycentrism and metropolitan character, started a transformation based on the factors and ways of urbanization studied in other areas and intermediate cities of similar dimensions. In order to demarcate the scope of this study, different dimensions and functional area scales previously used in other studies have been taken into account, choosing the one that takes the Ría de Vigo as the main reference and the basis of the polynuclear conurbation of its surroundings. To research the urban development in this period, factors and ways of urbanization regarding lowdensity territories have been considered, as well as some variables like density of population and housing, territorial primacy and polarity, building rates, territorial planning, economic activities, mobility, home-to-work trips and urban holes. Conclusions allow us to point out how the decentralised residential growing (that occurred mainly on the litoral surface) and the periferic localization of the activities and public facilities, have created elements of “sprawl” and spacial and social fragmentation, which, together with the new and powerfull road infraestructures network (that made the movements easier by means of an abusive dependence on the private vehicle), have started to threaten the sustainability of the system. The planification of the territorial ordinance at metropolitan scale and the urban planning, that in that time started to be established, can be considered as an opportunity to get things back on track, integrating the territories risen up from the new infrastructures and facilities and the traditional network together with the urban holes liable to be compacted, with a special protection of the spaces that must be the main ecological reserve: the communal forests and the Ría de Vigo. The need of a sustainable and participatory operative planification, able to integrate the territory planning, the integral management of resources and the citizen involvement and the market, has to be considered as the main goal for the future.
Resumo:
En la Comunidad de Madrid el modelo de ocupación del territorio en las dos últimas décadas ha obedecido a factores de oferta del mercado y no a las necesidades de la población, ello provoca un consumo de suelo y de recursos que conducen a una sobrexplotación insostenible. Las metrópolis globales están experimentando rápidas e intensas transformaciones, basadas en los paradigmas emergentes de la globalización, la gobernanza, la metropolizacion y la dispersión de las actividades en el territorio y a través de ellos se abordan los planes de Londres, París y las tentativas de Madrid. La globalización provoca la pérdida de soberanía de las administraciones publicas y la competitividad entre las ciudades globales en Europa, Londres, Paris y Madrid, son centros de poder, de concentración y crecimiento donde se produce la dualización del espacio y donde la desigualdad participa de la restructuración urbana, concentración de pobreza frente a espacios de la nueva clase emergente en donde dominan los sectores de servicios y las tecnologías de la información. Frente al desarrollo urbano neoliberal de regulación a través del mercado y basada en criterios de eficiencia de la Nueva Gestión Pública, se vislumbra la posibilidad de que la sociedad se administre a si misma por medio de acciones voluntarias y responsables que promuevan los intereses colectivos mediante el reconocimiento de su propia identidad, introduciendo el concepto de gobernanza. Frente, a la explotación del territorio por parte de la sociedad extractiva que genera corrupcion, se propone un modelo de cooperación público-privada basado en la confianza mutua, un marco regulador estable, la transparencia y la información a cuyo flujo más homogéneo contribuirán sin duda las TICs. En todo este proceso, las regiones metropolitanas en Europa se erigen como motores del crecimiento, donde los límites administrativos son superados, en un territorio cada vez más extendido y donde los gobiernos locales tienen que organizarse mediante un proceso de cooperación en la provisión de servicios que ayuden a evitar los desequilibrios territoriales. El fenómeno de la dispersión urbana en desarrollos de baja densidad, los centros comerciales periféricos, la expulsión hacia la periferia de las actividades de menor valor añadido y la concentración de funciones directivas en el centro, conducen a una fragmentación del territorio en islas dependientes del automóvil y a procesos de exclusión social por la huida de las rentas altas y la expulsión de las rentas bajas de los centros urbanos. Se crean fragmentos monofuncionales y discontinuos, apoyados en las autovías, lugares carentes de identidad y generadores de despilfarro de recursos y una falta de sostenibilidad ambiental, económica y social. El estudio de la cultura de la planificación en Europa ayuda a comprender los diferentes enfoques en la ordenación del territorio y el proceso de convergencia entre las diferentes regiones. Los documentos de la UE se basan en la necesidad de la competitividad para el crecimiento europeo y la cohesión social y en relación al territorio en los desarrollos policéntricos, la resolución del dualismo campo-ciudad, el acceso equilibrado a las infraestructuras, la gestión prudente de la naturaleza, el patrimonio y el fomento de la identidad. Se proponen dos niveles de estudio uno actual, los últimos planes de Londres y Paris y el otro la evolución de las tentativas de planes en la Región madrileña siempre en relación a los paradigmas emergentes señalados y su reflejo en los documentos. El Plan de Londres es estratégico, con una visión a largo plazo, donde se confiere un gran interés al proceso, al papel del alcalde como líder y su adaptación a las circunstancias cambiantes, sujeto a las incertidumbres de una ciudad global. El desarrollo del mismo se concibe a través de la colaboración y cooperación entre las administraciones y actores. La estructura del documento es flexible, establece orientaciones y guías indicativas, para la redacción de los planes locales, no siendo las mismas vinculantes y con escasa representación grafica. El Plan de París es más un plan físico, similar al de otros centros europeos, trabaja sobre los sectores y sobre los territorios, con información extensa, con características de “Plan Latino” por la fuerza de la expresión gráfica, pero al mismo tiempo contiene una visión estratégica. Es vinculante en sus determinaciones y normativas, se plantea fomentar, pero también prohibir. Ambos planes tratan la competitividad internacional de sus centros urbanos, la igualdad social, la inclusión de todos los grupos sociales y la vivienda como una cuestión de dignidad humana. Londres plantea la gobernanza como cooperación entre sector público-privado y la necesaria cooperación con las regiones limítrofes, en París las relaciones están más institucionalizadas resaltando la colaboración vertical entre administraciones. Ambos plantean la densificación de nodos servidos por transporte público, modos blandos y el uso los TODs y la preservación de la infraestructura verde jerarquizada, la potenciación de la red azul y la mejora del paisaje de las periferias. En las “tentativas” de planes territoriales de Madrid se constata que estuvieron sujetas a los ciclos económicos. El primer Documento las DOT del año 1984, no planteaba crecimiento, ni económico ni demográfico, a medio plazo y por ello no proponía una modificación del modelo radio concéntrico. Se trataba de un Plan rígido volcado en la recuperación del medio rural, de la ciudad, el dimensionamiento de los crecimientos en función de las dotaciones e infraestructuras existentes. Aboga por la intervención de la administración pública y la promoción del pequeño comercio. Destaca el desequilibrio social en función de la renta, la marginación de determinados grupos sociales, el desequilibrio residencia/empleo y la excesiva densidad. Incide en la necesidad de viviendas para los más desfavorecidos mediante el alquiler, la promoción suelo público y la promoción del ferrocarril para dar accesibilidad al espacio central. Aboga por el equipamiento de proximidad y de pequeño tamaño, el tratamiento paisajístico de los límites urbanos de los núcleos y el control de las actividades ilegales señalando orientaciones para el planeamiento urbano. Las Estrategias (1989) contienen una visión: la modificación del modelo territorial, mediante la intervención pública a través de proyectos. Plantea la reestructuración económica del territorio, la reconversión del aparato productivo, la deslocalización de actividades de escaso valor añadido y una mayor ubicuidad de la actividad económica. Incide en la difusión de la centralidad hacia el territorio del sur, equilibrándolo con el norte, tratando de recomponer empleo y residencia, integrando al desarrollo económico las periferias entre sí y con el centro. Las actuaciones de transporte consolidarían las actuaciones, modificando el modelo radio concéntrico facilitando la movilidad mediante la red de cercanías y la intermodalidad. El plan se basaba en el liderazgo del Consejero, no integrando sectores como el medio ambiente, ni estableciendo un documento de seguimiento de las actuaciones que evaluara los efectos de las políticas y su aportación al equilibrio territorial, a través de los proyectos realizados. El Documento Preparatorio de las Bases (1995), es más de un compendio o plan de planes, recoge análisis y propuestas de los documentos anteriores y de planes sectoriales de otros departamentos. Presenta una doble estructura: un plan físico integrador clásico, que abarca los sectores y territorios, y recoge las Estrategias previas añadiendo puntos fuertes, como el malestar urbano y la rehabilitación el centro. Plantea la consecución del equilibrio ambiental mediante el crecimiento de las ciudades existentes, la vertebración territorial basada en la movilidad y en la potenciación de nuevas centralidades, la mejora de la habitabilidad y rehabilitación integral del Centro Urbano de Madrid, y la modernización del tejido productivo existente. No existe una idea-fuerza que aglutine todo el documento, parte del reconocimiento de un modelo existente concentrado y congestivo, un centro urbano dual y dos periferias al este y sur con un declive urbano y obsolescencia productiva y al oeste y norte con una dispersión que amenaza al equilibrio medioambiental. Señala como aspectos relevantes, la creciente polarización y segregación social, la deslocalización industrial, la aparición de las actividades de servicios a las empresas instaladas en las áreas metropolitanas, y la dispersión de las actividades económicas en el territorio por la banalización del uso del automóvil. Se plantea el reto de hacer ciudad de la extensión suburbana y su conexión con el sistema metropolitano, mediante una red de ciudades integrada y complementaria, en búsqueda de un mayor equilibrio y solidaridad territorial. Las Bases del PRET (1997) tenían como propósito iniciar el proceso de concertación en que debe basarse la elaboración del Plan. Parte de la ciudad mediterránea compacta, y diversa, y de la necesidad de que las actividades económicas, los servicios y la residencia estén en proximidad, resolviéndolo mediante una potente red de transporte público que permitiese una accesibilidad integrada al territorio. El flujo de residencia hacia la periferia, con un modelo ajeno de vivienda unifamiliar y la concentración del empleo en el centro producen desequilibrio territorial. Madrid manifiesta siempre apostó por la densificación del espacio central urbanizado, produciendo su congestión, frente al desarrollo de nuevos suelos que permitieran su expansión territorial. Precisa que es necesario preservar los valores de centralidad de Madrid, como generador de riqueza, canalizando toda aquella demanda de centralidad, hacia espacios más periféricos. El problema de la vivienda no lo ve solo como social, sino como económico, debido a la pérdida de empleos que supone su paralización. Observa ya los crecimientos residenciales en el borde de la region por el menor valor del suelo. Plantea como la política de oferta ha dado lugar a un modelo de crecimiento fragmentado, desequilibrado, desestructurado, con fuertes déficits dotacionales y de equipamiento, que inciden en la segregación espacial de las rentas, agravando el proceso de falta de identidad morfológica y de desarraigo de los valores urbanos. El plan señalaba que la presión sobre el territorio creaba su densificación por las limitaciones de espacio, Incidía en limitar el peso de la intervención pública, no planteando propuestas de cooperación público-privado. La mayor incoherencia estriba en que los objetivos eran innovadores y coinciden en su mayoría con las propuestas estudiadas de Londres o Paris, pero se intentan implementar a través de un cambio hacia un modelo reticulado homogéneo, expansivo sobre el territorio, que supone un consumo de suelo y de infraestructuras para solucionar un problema inexistente, la gestión de la densidad. Durante las dos últimas décadas en ausencia de un plan regional, la postura neoliberal fue la de un exclusivo control de legalidad del planeamiento, los municipios entraron en un proceso de competencia para aprovechar las iniciales ventajas económicas de los crecimientos detectados, que proporcionaban una base económica “sólida” a unos municipios con escasos recursos en sus presupuestos municipales. La legislación se modifica a requerimiento de grupos interesados, no existiendo un marco estable. Se pierde la figura del plan no solo a nivel regional, si no en los sectores y el planeamiento municipal donde los municipios tiende a basarse en modificaciones puntuales con la subsiguiente pérdida del modelo urbanístico. La protección ambiental se estructura mediante un extenso nivel de figuras, con diversidad de competencias que impide su efectiva protección y control. Este proceso produce un despilfarro en la ocupación del suelo, apoyada en las infraestructuras viarias, y un crecimiento disperso y de baja densidad, cada vez más periférico, produciéndose una segmentación social por dualización del espacio en función de niveles de renta. Al amparo del boom inmobiliario, se produce una falta de política social de vivienda pública, más basada en la dinamización del mercado con producción de viviendas para rentas medias que en políticas de alquiler para determinados grupos concentrándose estas en los barrios desfavorecidos y en la periferia sur. Se produce un incremento de la vivienda unifamiliar, muchas veces amparada en políticas públicas, la misma se localiza en el oeste principalmente, en espacios de valor como el entorno del Guadarrama o con viviendas más baratas por la popularización de la tipología en la frontera de la Región. El territorio se especializa a modo de islas monofuncionales, las actividades financieras y de servicios avanzados a las empresas se localizan en el norte y oeste próximo, se pierde actividad industrial que se dispersa más al sur, muchas veces fuera de la región. Se incrementan los grandes centros comerciales colgados de las autovías y sin población en su entorno. Todo este proceso ha provocado una pérdida de utilización del transporte público y un aumento significativo del uso del vehículo privado. En la dos últimas décadas se ha producido en la región de Madrid desequilibrio territorial y segmentación social, falta de implicación de la sociedad en el territorio, dispersión del crecimiento y un incremento de los costes ambientales, sociales y económicos, situación, que solo, a través del uso racional del territorio se puede reconducir, apoyado en una planificación integrada sensible y participativa. ABSTRACT In Madrid the model of land occupation in the past two decades has been driven by market supply factors rather than the needs of the population. This results in a consumption of land and resources that leads to unsustainable overexploitation. Addressing this issue must be done through sensitive and participatory integrated planning. Global cities are experiencing rapid and intense change based on the emerging paradigms of globalization, governance, metropolization and the dispersion of activities in the territory. Through this context, a closer look will be taken at the London and Paris plans as well as the tentative plans of Madrid. Globalization causes the loss of state sovereignty and the competitiveness among global cities in Europe; London, Paris and Madrid. These are centres of power, concentration and growth where the duality of space is produced, and where inequality plays a part in urban restructuration. There are concentrated areas of poverty versus areas with a new emerging class where the services sector and information technologies are dominant. The introduction of ICTs contributes to a more homogeneous flow of information leading, us to the concept of governance. Against neoliberal urban development based on free market regulations and efficiency criteria as established by the “New Public Management”, emerge new ways where society administers itself through voluntary and responsible actions to promote collective interests by recognizing their own identity. A new model of public-private partnerships surfaces that is based on mutual trust, transparency, information and a stable regulatory framework in light of territorial exploitation by the “extractive society” that generates corruption. Throughout this process, European metropolitan regions become motors of growth where administrative boundaries are overcome in an ever expanding territory where government is organized through cooperative processes to provide services that protect against regional imbalances. Urban sprawl or low-density development as seen in peripheral shopping centres, the off-shoring of low added-value activities to the periphery, and the concentration of business and top management functions in the centre, leads to a fragmentation of the territory in automobile dependent islands and a process of social exclusion brought on by the disappearance of high incomes. Another effect is the elimination of low income populations from urban centres. In consequence, discontinuous expansions and mono-functional places that lack identity materialize supported by a highway network and high resource consumption. Studying the culture of urban planning in Europe provides better insight into different approaches to spatial planning and the process of convergence between different regions. EU documents are based on the need of competitiveness for European growth and social cohesion. In relation to polycentric development territory they are based on a necessity to solve the dualism between field and city, balanced access to infrastructures, prudent management of nature and solidifying heritage and identity Two levels of study unfold, the first being the current plans of London and Île-de-France and the second being the evolution of tentative plans for the Madrid region as related to emerging paradigms and how this is reflected in documents. The London Plan is strategic with a long-term vision that focuses on operation, the role of the mayor as a pivotal leader, and the adaptability to changing circumstances brought on by the uncertainties of a global city. Its development is conceived through collaboration and cooperation between governments and stakeholders. The document structure is flexible, providing guidance and indicative guidelines on how to draft local plans so they are not binding, and it contains scarce graphic representation. The Plan of Paris takes on a more physical form and is similar to plans of other European centres. It emphasizes sectors and territories, using extensive information, and is more characteristic of a “Latin Plan” as seen in its detailed graphic expression. However, it also contains a strategic vision. Binding in its determinations and policy, it proposes advancement but also prohibition. Both plans address the international competitiveness of urban centres, social equality, inclusion of all social groups and housing as issues of human dignity. London raises governance and cooperation between public and private sector and the need for cooperation with neighbouring regions. In Paris, the relations are more institutionalized highlighting vertical collaboration between administrations. Both propose nodes of densification served by public transportation, soft modes and the use of TOD, the preservation of a hierarchical green infrastructure, and enhancing the landscape in urban peripheries. The tentative territorial plans for the Madrid region provide evidence that they were subject to economic cycles. The first document of master guidelines (1984) does not address either economic or demographic growth in the mid term and therefore does not propose the modification of the radio-concentric model. It is a rigid plan focused on rural and urban recovery and the dimensioning of growth that depends on endowments and infrastructures. It advocates government intervention and promotes small business. The plan emphasizes social imbalance in terms of income, marginalization of certain social groups, the imbalance of residence/employment and excessive density. It stresses the need for social rent housing for the underprivileged, promotes public land, and the supports rail accessibility to the central area. It backs facilities of proximity and small size, enhancing the landscaping of city borders, controlling illegal activities and draws out guidelines for urban planning. The strategies (1989) contain a vision: Changing the territorial model through public intervention by means of projects. They bring to light economic restructuring of territory, the reconversion of the productive apparatus, relocation of low value-added activities, and greater ubiquity of economic activity. They also propose the diffusion of centrality towards southern territories, balancing it with the north in an attempt to reset employment and residence that integrates peripheral economic development both in the periphery and the centre. Transport would consolidate the project, changing the radius-concentric model and facilitating mobility through a commuter and inter-modality network. The plan derives itself from the leadership of the minister and does not integrate sectors such as environment. It also does not incorporate the existence of a written document that monitors performance to evaluate the effects of policies and their contribution to the territorial balance. The Preparatory Document of the Bases, (1995) is more a compendium, or plan of plans, that compiles analysis and proposals from previous documents and sectorial plans from other departments. It has a dual structure: An integrating physical plan covering the sectors and territories that includes the previous strategies while adding some strengths. One such point is the urban discomfort and the rehabilitation of the centre. It also poses the achievement of environmental balance through the growth of existing cities, the territorial linking based on mobility, strengthening new centres, improving the liveability and comprehensive rehabilitation of downtown Madrid, and the modernization of the existing production network. There is no one powerful idea that binds this document. This is due to the recognition of an existing concentrate and congestive model, a dual urban centre, two eastern and southern suburbs suffering from urban decay, and an obsolescent productive north and west whose dispersion threatens the environmental balance. Relevant aspects the document highlights are increasing polarization and social segregation, industrial relocation, the emergence of service activities to centralized companies in metropolitan areas and the dispersion of economic activities in the territory by the trivialization of car use. It proposes making the city from the suburban sprawl and its connection to the metropolitan system through a network of integrated and complementary cities in search of a better balance and territorial solidarity. The Bases of PRET (1997) aims to start the consultation process that must underpin the development of the plan. It stems from a compact and diverse Mediterranean city along with the need for economic activities, services and residences that are close. To resolve the issue, it presents a powerful network of public transport that allows integrated accessibility to the territory. The flow of residence to the periphery based on a foreign model of detached housing and an employment concentration in the centre produces territorial imbalance. Madrid always opted for the densification of the central space, producing its congestion, against the development of new land that would allow its territorial expansion. The document states that the necessity to preserve the values of the housing problem is not only viewed as social, but also economic due to the loss of jobs resulting from their paralysis. It notes the residential growth in the regional border due to the low price of land and argues that the policy of supply has led to a fragmented model of growth that is unbalanced, unstructured, with strong infrastructure and facility deficits that affect the spatial segregation of income and aggravate the lack of morphological identity, uprooting urban values. The pressure on the territory caused its densification due to space limitation; the proposed grid model causes land consumption and infrastructure to solve a non-problem, density. Focusing on limiting the weight of public intervention, it does not raise proposals for public-private cooperation. The biggest discrepancy is that the targets were innovative and mostly align with the proposals in London and Paris. However, it proposes to be implemented through a shift towards a uniform gridded model that is expansive over territory. During the last two decades, due to the absence of a regional plan, a neoliberal stance held exclusive control of the legality of urban planning. The municipalities entered a competition process to take advantage of initial economic benefits of such growth. This provided a “solid” economic base for some municipalities with limited resources in their municipal budgets. The law was amended without a legal stable framework at the request of stakeholders. The character of the plan is lost not only regionally, but also in the sectors and municipal planning. This tends to be based on specific changes with the loss of an urban model. Environmental protection is organized through an extensive number of protection figures with diverse competencies that prevent its effective protection. This process squanders the use of the land, backed by increasing road infrastructure, dispersed occupations with low-density growth causing a social segmentation due to space duality based on income levels. During the housing boom, there is a reduction in social public housing policy mostly due to a boost in the market of housing production for average incomes than in rental policies for needy social groups that focus on disadvantaged neighbourhoods and southern suburbs. As a result, there is an increase in single-family housing, often protected by public policy. This is located primarily in the west in areas of high environmental value such as Guadarrama. There is also cheaper housing due to the popularization of typology in the border region. There, territory works as a mono-functional islands. Financial activities and advanced services for companies are located to the north and west where industrial activity is lost as it migrates south, often outside the region. The number of large shopping centres hanging off the highway infrastructure with little to no surrounding population increases. This process leads to the loss of dependency on public transport and a significant increase in the use of private vehicles. The absence of regional planning has produced more imbalance, more social segmentation, more dispersed growth and a lot of environmental, social and economic costs that can only be redirected through rational territorial.
Resumo:
Quizás el campo de las telecomunicaciones sea uno de los campos en el que más se ha progresado en este último siglo y medio, con la ayuda de otros campos de la ciencia y la técnica tales como la computación, la física electrónica, y un gran número de disciplinas, que se han utilizado estos últimos 150 años en conjunción para mejorarse unas con la ayuda de otras. Por ejemplo, la química ayuda a comprender y mejorar campos como la medicina, que también a su vez se ve mejorada por los progresos en la electrónica creados por los físicos y químicos, que poseen herramientas más potentes para calcular y simular debido a los progresos computacionales. Otro de los campos que ha sufrido un gran avance en este último siglo es el de la automoción, aunque estancados en el motor de combustión, los vehículos han sufrido enormes cambios debido a la irrupción de los avances en la electrónica del automóvil con multitud de sistemas ya ampliamente integrados en los vehículos actuales. La Formula SAE® o Formula Student es una competición de diseño, organizada por la SAE International (Society of Automotive Engineers) para estudiantes de universidades de todo el mundo que promueve la ingeniería a través de una competición donde los miembros del equipo diseñan, construyen, desarrollan y compiten en un pequeño y potente monoplaza. En el ámbito educativo, evitando el sistema tradicional de clases magistrales, se introducen cambios en las metodologías de enseñanza y surge el proyecto de la Fórmula Student para lograr una mejora en las acciones formativas, que permitan ir incorporando nuevos objetivos y diseñar nuevas situaciones de aprendizaje que supongan una oportunidad para el desarrollo de competencias de los alumnos, mejorar su formación como ingenieros y contrastar sus progresos compitiendo con las mejores universidades del mundo. En este proyecto se pretende dotar a los alumnos de las escuelas de ingeniería de la UPM que desarrollan el vehículo de FSAE de una herramienta de telemetría con la que evaluar y probar comportamiento del vehículo de FSAE junto con sus subsistemas que ellos mismos diseñan, con el objetivo de evaluar el comportamiento, introducir mejoras, analizar resultados de una manera más rápida y cómoda, con el objetivo de poder progresar más rápidamente en su desarrollo, recibiendo y almacenando una realimentación directa e instantánea del funcionamiento mediante la lectura de los datos que circulan por el bus CAN del vehículo. También ofrece la posibilidad de inyectar datos a los sistemas conectados al bus CAN de manera remota. Se engloba en el conjunto de proyectos de la FSAE, más concretamente en los basados en la plataforma PIC32 y propone una solución conjunta con otros proyectos o también por sí sola. Para la ejecución del proyecto se fabricó una placa compuesta de dos placas de circuito impreso, la de la estación base que envía comandos, instrucciones y datos para inyectar en el bus CAN del vehículo mediante radiofrecuencia y la placa que incorpora el vehículo que envía las tramas que circulan por el bus CAN del vehículo con los identificadores deseados, ejecuta los comandos recibidos por radiofrecuencia y salva las tramas CAN en una memoria USB o SD Card. Las dos PCBs constituyen el hardware del proyecto. El software se compone de dos programas. Un programa para la PCB del vehículo que emite los datos a la estación base, codificado en lenguaje C con ayuda del entorno de desarrollo MPLAB de Microchip. El otro programa hecho con LabView para la PCB de la estación base que recibe los datos provenientes del vehículo y los interpreta. Se propone un hardware y una capa o funciones de software para los microcontroladores PIC32 (similar al de otros proyectos del FSAE) para la transmisión de las tramas del bus CAN del vehículo de manera inalámbrica a una estación base, capaz de insertar tramas en el bus CAN del vehículo enviadas desde la estación base. También almacena estas tramas CAN en un dispositivo USB o SD Card situado en el vehículo. Para la transmisión de los datos se hizo un estudio de las frecuencias de transmisión, la legislación aplicable y los tipos de transceptores. Se optó por utilizar la banda de radiofrecuencia de uso común ISM de 433MHz mediante el transceptor integrado CC110L de Texas Instruments altamente configurable y con interfaz SPI. Se adquirieron dos parejas de módulos compatibles, con amplificador de potencia o sin él. LabView controla la estación que recoge las tramas CAN vía RF y está dotada del mismo transceptor de radio junto con un puente de comunicaciones SPI-USB, al que se puede acceder de dos diferentes maneras, mediante librerías dll, o mediante NI-VISA con transferencias RAW-USB. La aplicación desarrollada posee una interfaz configurable por el usuario para la muestra de los futuros sensores o actuadores que se incorporen en el vehículo y es capaz de interpretar las tramas CAN, mostrarlas, gráfica, numéricamente y almacenar esta información, como si fuera el cuadro de instrumentos del vehículo. Existe una limitación de la velocidad global del sistema en forma de cuello de botella que se crea debido a las limitaciones del transceptor CC110L por lo que si no se desea filtrar los datos que se crean necesarios, sería necesario aumentar el número de canales de radio para altas ocupaciones del bus CAN. Debido a la pérdida de relaciones con el INSIA, no se pudo probar de manera real en el propio vehículo, pero se hicieron pruebas satisfactorias (hasta 1,6 km) con una configuración de tramas CAN estándar a una velocidad de transmisión de 1 Mbit/s y un tiempo de bit de 1 microsegundo. El periférico CAN del PIC32 se programará para cumplir con estas especificaciones de la ECU del vehículo, que se presupone que es la MS3 Sport de Bosch, de la que LabView interpretará las tramas CAN recibidas de manera inalámbrica. Para poder probar el sistema, ha sido necesario reutilizar el hardware y adaptar el software del primer prototipo creado, que emite tramas CAN preprogramadas con una latencia también programable y que simulará al bus CAN proporcionando los datos a transmitir por el sistema que incorpora el vehículo. Durante el desarrollo de este proyecto, en las etapas finales, el fabricante del puente de comunicaciones SPI-USB MCP2210 liberó una librería (dll) compatible y sin errores, por lo que se nos ofrecía una oportunidad interesante para la comparación de las velocidades de acceso al transceptor de radio, que se presuponía y se comprobó más eficiente que la solución ya hecha mediante NI-VISA. ABSTRACT. The Formula SAE competition is an international university applied to technological innovation in vehicles racing type formula, in which each team, made up of students, should design, construct and test a prototype each year within certain rules. The challenge of FSAE is that it is an educational project farther away than a master class. The goal of the present project is to make a tool for other students to use it in his projects related to FSAE to test and improve the vehicle, and, the improvements that can be provided by the electronics could be materialized in a victory and win the competition with this competitive advantage. A telemetry system was developed. It sends the data provided by the car’s CAN bus through a radio frequency transceiver and receive commands to execute on the system, it provides by a base station on the ground. Moreover, constant verification in real time of the status of the car or data parameters like the revolutions per minute, pressure from collectors, water temperature, and so on, can be accessed from the base station on the ground, so that, it could be possible to study the behaviour of the vehicle in early phases of the car development. A printed circuit board, composed of two boards, and two software programs in two different languages, have been developed, and built for the project implementation. The software utilized to design the PCB is Orcad10.5/Layout. The base station PCB on a PC receives data from the PCB connected to the vehicle’s CAN bus and sends commands like set CAN filters or masks, activate data logger or inject CAN frames. This PCB is connected to a PC via USB and contains a bridge USB-SPI to communicate with a similar transceiver on the vehicle PCB. LabView controls this part of the system. A special virtual Instrument (VI) had been created in order to add future new elements to the vehicle, is a dashboard, which reads the data passed from the main VI and represents them graphically to studying the behaviour of the car on track. In this special VI other alums can make modifications to accommodate the data provided from the vehicle CAN’s bus to new elements on the vehicle, show or save the CAN frames in the form or format they want. Two methods to access to SPI bus of CC110l RF transceiver over LabView have been developed with minimum changes between them. Access through NI-VISA (Virtual Instrument Software Architecture) which is a standard for configuring, programming, USB interfaces or other devices in National Instruments LabView. And access through DLL (dynamic link library) supplied by the manufacturer of the bridge USB-SPI, Microchip. Then the work is done in two forms, but the dll solution developed shows better behaviour, and increase the speed of the system because has less overload of the USB bus due to a better efficiency of the dll solution versus VISA solution. The PCB connected to the vehicle’s CAN bus receives commands from the base station PCB on a PC, and, acts in function of the command or execute actions like to inject packets into CAN bus or activate data logger. Also sends over RF the CAN frames present on the bus, which can be filtered, to avoid unnecessary radio emissions or overflowing the RF transceiver. This PCB consists of two basic pieces: A microcontroller with 32 bit architecture PIC32MX795F512L from Microchip and the radio transceiver integrated circuit CC110l from Texas Instruments. The PIC32MX795F512L has an integrated CAN and several peripherals like SPI controllers that are utilized to communicate with RF transceiver and SD Card. The USB controller on the PIC32 is utilized to store CAN data on a USB memory, and change notification peripheral is utilized like an external interrupt. Hardware for other peripherals is accessible. The software part of this PCB is coded in C with MPLAB from Microchip, and programming over PICkit 3 Programmer, also from Microchip. Some of his libraries have been modified to work properly with this project and other was created specifically for this project. In the phase for RF selection and design is made a study to clarify the general aspects of regulations for the this project in order to understand it and select the proper band, frequency, and radio transceiver for the activities developed in the project. From the different options available it selects a common use band ICM, with less regulation and free to emit with restrictions and disadvantages like high occupation. The transceiver utilized to transmit and receive the data CC110l is an integrated circuit which needs fewer components from Texas Instruments and it can be accessed through SPI bus. Basically is a state machine which changes his state whit commands received over an SPI bus or internal events. The transceiver has several programmable general purpose Inputs and outputs. These GPIOs are connected to PIC32 change notification input to generate an interrupt or connected to GPIO to MCP2210 USB-SPI bridge to inform to the base station for a packet received. A two pair of modules of CC110l radio module kit from different output power has been purchased which includes an antenna. This is to keep away from fabrication mistakes in RF hardware part or designs, although reference design and gerbers files are available on the webpage of the chip manufacturer. A neck bottle is present on the complete system, because the maximum data rate of CC110l transceiver is a half than CAN bus data rate, hence for high occupation of CAN bus is recommendable to filter the data or add more radio channels, because the buffers can’t sustain this load along the time. Unfortunately, during the development of the project, the relations with the INSIA, who develops the vehicle, was lost, for this reason, will be made impossible to test the final phases of the project like integration on the car, final test of integration, place of the antenna, enclosure of the electronics, connectors selection, etc. To test or evaluate the system, it was necessary to simulate the CAN bus with a hardware to feed the system with entry data. An early hardware prototype was adapted his software to send programed CAN frames at a fixed data rate and certain timing who simulate several levels of occupation of the CAN Bus. This CAN frames emulates the Bosch ECU MS3 Sport.
Resumo:
El presente proyecto tiene como objetivo la realización de un cuadricóptero de bajo coste desarrollado con herramientas de software libre, con el fin de permitir el acceso y modificación del mismo a cualquiera que posea los conocimientos necesarios. Los cuadricópteros se definen como un vehículo aéreo no tripulado con cuatro rotores en los extremos. Los ejemplos existentes de estos tipos de vehículos son casi siempre de grandes cuadricópteros, los cuales utilizan diferentes tecnologías en los motores y control de los mismos. Los cuadricópteros de similar tamaño al que se pretende realizar son por lo general de compañías con hardware y software cerrado. En el caso de este proyecto se ha realizado un cuadricóptero de tamaño menor a 5 x 5 cm. La innovación que se propone con este proyecto es una forma de detectar obstáculos para cuadricópteros de tamaño similar, en los que la limitación del peso del dron supone una disminución de las opciones disponibles. Se desea que el cuadricóptero sea capaz de realizar un vuelo estable detectando y esquivando obstáculos sin necesidad de ayuda externa como operadores con mando de radio frecuencia. Para la creación del cuadricóptero, se ha realizado tanto el diseño de los esquemáticos como el diseño de las huellas para la utilización en el desarrollo de la PCB. Para ello se ha hecho uso de herramientas de software libre como es Kicad, software para el desarrollo de esquemáticos y placas de circuito impreso con las funcionalidades principales de cualquier software privativo relacionado. Se pretende de esta forma aportar a la literatura, un aspecto práctico de la realización de cuadricópteros, tanto desde los aspectos teóricos del diseño como los aspectos prácticos de la fabricación y soldadura de los componentes del cuadricóptero. En la realización del presente proyecto se ha tenido en cuenta los diferentes algoritmos que existen para la fusión de datos de la unidad de medida inercial, tanto la facilidad de implementación de los mismos como la facilidad de los cálculos resultantes de esta implementación. Se ha hecho una implementación de un filtro complementario, dando resultados satisfactorios debido a las características intrínsecas de la unidad de medida inercial. Además del filtro complementario, se ha realizado una implementación del filtro diseñado por Sebastian Madgwick [1]. Este filtro está especialmente diseñado para la fusión de los datos provenientes de la unidad de medida inercial, proporcionando la orientación del sistema haciendo uso de la representación en cuaternios de los datos del acelerómetro y giróscopo, permitiendo el uso del método del gradiente para el cálculo del error del giróscopo. Para la selección de los componentes, se ha hecho un análisis pormenorizado de las diferentes opciones disponibles, tomando como punto de partida los cuadricópteros que existen en la actualidad. Se han elegido estos componentes en función de las características de los mismos, prestando especial atención al tamaño, relacionado directamente con el peso de los mismos así como del precio, para lograr un cuadricóptero fácilmente reproducible de bajo coste. En este análisis se ha tenido en cuenta las dificultades existentes en la selección de determinados componentes como son los motores y las hélices. Al ser estos dos componentes caracterizados mediante tablas creadas por los fabricantes y usuarios de los mismos, la selección de los mismos se ha visto dificultada a la hora de elegir componentes de coste reducido al poseer poca información sobre los mismos. En especial, las formulas desarrolladas para el cálculo del empuje de los motores están directamente relacionados con los parámetros de las hélices. Estos parámetros están caracterizados para la mayoría de las hélices comerciales utilizadas en cuadricópteros. Para caracterizar las hélices se utiliza un banco de trabajo en donde es posible medir el empuje realizado por el conjunto del motor y hélice. En el caso del presente proyecto, no se disponía de la herramienta necesaria por lo que se ha realizado una estimación de los parámetros en función de las tablas disponibles para hélices similares de mayor tamaño. Para la elección de los sensores para la detección de los obstáculos se ha realizado un estudio de los diferentes sensores disponibles, analizando las ventajas y desventajas de los mismos para la elección del más adecuado para el proyecto. Se ha decidido el uso de sensores de distancia basados en tecnología infrarroja por ser los únicos que se adaptan a los requisitos de peso impuesto por el modelo. Además en este proyecto se ha realizado el montaje y soldadura de los componentes de la PCB. Estos componentes al ser de tamaño reducido, se ha comprobado que para la soldadura de los mismos es necesario el uso de herramientas especializadas, como puede ser estaciones de soldadura y pistola de aire caliente lo que dificulta su soldadura de manera no profesional. Al término de este proyecto se ha comprobado la dificultad de la realización de una correcta soldadura de los componentes, lo que introduce errores de conectividad entre los componentes, en concreto se ha detectado errores entre el microprocesador y unidad de medida inercial. Además de estos errores, se ha comprobado la dificultad de regular el sistema, no logrando un vuelo estable en el tiempo de escritura del presente proyecto. Por último se presenta el prototipo creado a lo largo del proyecto, al cual se le pueden hacer diferentes modificaciones como posibles líneas futuras, entre las que se encuentran una mejor regulación que permita el vuelo de un conjunto de drones.