17 resultados para táctica

em Universidad Politécnica de Madrid


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Existe un creciente interés por la enseñanza y desarrollo de las habilidades tácticas y decisionales de los más jóvenes. Los enfoques y modelos están en plena transición de postulados cognitivos a los postcognitivos. Esta circunstancia hace que en la actualidad nos encontremos con una amplia variedad de denominaciones y de propuestas, pero que se manifieste una carencia de definición clara de qué es la competencia táctica estando más a merced de la opinión y valoración de los diferentes autores

Relevância:

20.00% 20.00%

Publicador:

Resumo:

En algunas ocasiones, la situación concreta de los tramos de ciudad en los que se actúa y la normativa urbanística severa con la que se trabaja, tiene por consecuencia que el trabajo que se desarrolla se relacione con condiciones de forma que resuelven problemas locales. Ordenan lo establecido.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Las finalidades de esta tesina han sido varias y han venido unidas unas a otras o como consecuencia de ellas He pretendido como ya he dicho anteriormente» desmenuzar y estudiar la carrera de los 100 metros lisos tan profundamente como me fuera posible, para comprender las causas de las variaciones que tienen lugar tanto de velocidad y aceleración como frecuencia y amplitud a lo largo del hectómetro He intentado ver si las características de estas variaciones son distintas en cada carrera o por el contrario existen unos patrones comunes en todas ellas* ¿ Se puede correr un 100 m terminando a la máxima velocidad? ¿Se puede cambiar de ritmo? ¿Puede aplicarse una táctica independiente en cada carrera como pudiera suceder en una competición de 800 O 1500 m. o por el contrario ¿Hay que correr siempre de igual forma? Como consecuencia de todo esto, me he visto obligado a investigar todo lo que he podido sobre velocidad y sobre los 100 m concretamente y creo que el fruto obtenido ha sido máximo pues el trabajo realizado me sirvió para sedimentar ideas y aprender mucho sobre velocidad Además gracias a que me he visto obligado a profundizar sobre el tema, me he dado cuenta del enorme campo de investigación que se abre a raíz de este y que espero algún día con mejores medios poder continuar

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El deporte de la esgrima no siempre ha sido considerado como actualmente se conoce, ni tampoco el empleo de las armas ha sido el mismo en las diferentes épocas de la historia. Si nos centramos en la española, podemos decir que se hablaba de una forma particular de hacer esgrima, la cual era muy apreciada por el resto de los países europeos. También lo era la que se hacía en Italia. Como cualquier actividad que se desarrolla a lo largo del tiempo debe generarse desde unos comienzos. Estos comienzos siempre están en relación a alguna causa. Para centrarnos en nuestro estudio, los comienzos del manejo de la espada, de una manera lógica y razonada, se une en la persona y en la vida de Jerónimo Sánchez Carranza porque hasta que él no se decide a estudiar en profundidad la ciencia de las armas, no se ve con claridad si todo lo que se hacía con ellas era correcto o no y si todo lo que la inmensa mayoría hacía cuando tenía que utilizarlas estaba revestido de cierta coherencia y fundamento, es decir, tenía su verdad que se pudiera demostrar. Carranza estudia la esgrima que se empleaba en su época y en las anteriores y se da cuenta que tiene que dar una nueva visión de la forma de usar las armas, diferente a lo que la gran mayoría entendía hasta entonces. A Carranza se le ha considerado por muchos autores como el inventor de la esgrima española, hecho que se puede leer con bastante facilidad si se hojea algún tratado que hable de la esgrima española, sin embargo también se habla de Luis Pacheco de Narváez asignándole el mismo calificativo, aunn- ;o es posteriora Carranza. or tanto nuestro estudio se ha centrado en la vida de Jerónimo Sánchez Carranza y en ueva forma de emplear las armas por lo que hace que la tesis sea una tesis biográfica de dicho personaje, donde se ha resaltado mucho más el aspecto del manejo de las armas, de la Destreza. Partimos de las siguientes hipótesis: Carranza es el que sienta los principios técnicos dando forma y coherencia a la escuela de esgrima española gracias a sus aportaciones en los distintos aspectos metodológicos, técnicos y tácticos. La escuela de esgrima española tiene una estructura interna, responde a unas características determinadas y sirve de base a la esgrima que posteriormente se practica. Para que el estudio se pudiera llevar a cabo tuvimos que diseñar un esquema donde se pudieran recoger todos los aspectos que estuvieran relacionados con nuestro autor, de ahí surge el porqué de cada uno de los capítulos que hemos confeccionado. Dicho esquema responde a la visión actual de diferentes facetas de lo que hoy se estudia en diversas ciencias y que cuando Carranza vivía aún no se conocían. Para recoger información sobre su persona y su obra tuvimos en cuenta los distintos lugares donde se podía localizar la documentación necesaria, sobre todo Bibliotecas y Archivos, para ir confeccionando el método de trabajo que consistió en la recopilación de fuentes de todo tipo referidas al tema, pasando luego a la interpretación de las mismas. Esto nos dio una visión de conjunto que hizo que nos adentráramos en aquellos aspectos que más tarde tendríamos que analizar con mucho más detenimiento. En la tesis se puede observar dos partes bien diferenciadas que son las relacionadas; por un lado, a su vida y su tratado y, por otro, al contenido de sus teorías que son realmente las que se deben analizar necesariamente bajo unos conocimientos específicos de la actividad de la esgrima. En cuanto a su vida, se han destacado y estudiado los hechos más importantes de los que hay que resaltar, sobre todo, el que fuera considerado como el inventor de la destreza y de la manera tan particular de concebir dicho arte, diferente a lo que hasta ahora se venía haciendo y que dio paso a lo que se entendió por esgrima científica, quedando plasmada de tal manera que dio pie a la creación de una doctrina y una nueva forma de entender la esgrima la cual generó una línea de actuación que fue continuada por numerosos seguidores. Para todo ello tuvo mucho que ver el que Carranza fuera militar, la cultura y los estudios que poseía, así como la situación en la que se encontraba España además de la gente con quien se relacionaba, que por lo general, era gente culta y de clase social alta. Se ha estudiado también dentro del mismo apartado de su vida unos hechos que se le imputan y que en nuestra opinión son erróneos. Hemos considerado como más relevantes el que Carranza no fue quien riñó con Quevedo como se afirma en algunas de las obras que hemos tratado, sino que fue Pacheco quien tuvo dicha riña, ya que más bien Quevedo se mostraba partidario de las enseñanzas de Carranza, estando en contra de Pacheco. Tampoco fue quien inventó el florete como se dice en algunas ocasiones, ya que el florete aparece posteriormente como un arma de estudio de la técnica de la esgrima. Con respecto al apartado de su obra, se debe decir que tan solo escribió un único tratado que se publicó en 1582, aunque estaba acabado desde el año 1569. En el apartado de su escuela se debe destacar los fundamentos en los que basó sus postulados para que la destreza alcanzara el mismo nivel de las demás artes liberales y que lo hizo a través del estudio de la propia destreza. A lo largo del estudio que hemos realizado se puede apreciar cómo se está generando un arte que hasta ahora no había sido estudiado, viéndose los problemas que ello suponía, desde la organización de la materia a tratar, hasta cómo se debía enseñar, pasando a veces a tener que denominar conceptos de nueva aparición o renombrar y modificar antiguos que estaban anclados en puntos de partida equivocados, siendo éstos los que mayor trabajo le supuso. Diferencia bien dos aspectos básicos que debían existir en cualquier arte y más concretamente en la destreza que son: la teoría y la práctica, ambas deben estar en base a la razón ya que sería una de las formas por la que la destreza perduraría en el tiempo, junto con que esta razón estuviera apoyada en otras ciencias y con los principios de ellas. Carranza fue de la opinión de que el diestro debía conocer mediante el estudio, los elementos fundamentales con los que había que trabajar la destreza, estos elementos son el cuerpo del diestro y las armas, porque ambos van a intervenir en cualquier gesto o acción que se vaya a realizar. Del cuerpo estudió cada una de las partes que más importancia tiene cada vez que el diestro interviene y lo hace sobre todo en base a la medicina, relacionándolo con las matemáticas para poder sacar el máximo provecho, aconsejando que por el conocimiento del propio cuerpo, como el del contrario, se podrá emplear en determinadas situaciones, que si no se supiera de ello, no se sacaría el mismo resultado. De las armas lo que más resaltó fue, por un lado, que la espada debía ser el único arma que el diestro debía utilizar y, por otro, el hecho de que la espada la graduara para poder demostrar que no se hacia todo igual con las distintas partes de la misma porque no todo el arma tenía las mismas propiedades cuando se actuaba con ella. Una de las recomendaciones que dio fue que con la parte más próxima a la empuñadura se debía practicar la defensa por tener más fuerza con esta parte que con la punta y lo demostró con principios matemáticos. Se puede ver con la lectura de la tesis cómo Carranza aporta una nueva forma de trabajo en la que le da mucha importancia a la aplicación de los conocimientos, que previamente se han adquirido y para ello, es importante conocer bien los puntos fuertes y débiles del adversario. La adquisición de la práctica se debe realizar a través de la repetición para crear el hábito necesario que haga que el gesto salga fluido en cada uno de los movimientos que el diestro ejecute. Todo esto no sería posible si quien lo enseña no conoce cada uno de los elementos que intervienen en la destreza, por tanto, a la figura del maestro le da un lugar de una gran relevancia, ya que va a ser él quien tenga que guiar a los alumnos que enseñe. Lo primero que debe hacer los maestros es procurar saber lo máximo de la materia que va a enseñar, por lo que el maestro debe saber casi todo sobre la teoría y la práctica de la destreza, pero además esta teoría y práctica debe ser la correcta. Carranza persigue con su estudio, establecer los principios de la destreza, por lo menos, los más importantes, aunque fueran elementales, para que posteriormente se siguiera trabajando sobre ellos y poder conseguir que la destreza tenga cuerpo y forma de arte liberal, pudiéndose estudiar como cualquier otra, así de esta manera se haría un bien público, ya que los jóvenes se instruirían eficazmente en el uso de las armas, aunque el verdadero fin se encuentra en la conservación de la vida como manda la Fe Católica, siendo la destreza uno de los medios más eficaces para conseguirlo. Hemos dedicado un apartado de técnica y de táctica donde se refleja todo lo relacionado con las posiciones y movimientos que debe realizar el diestro para llegar a conseguir su objetivo, que es herir sin ser herido. Se han analizado las distintas tretas y el porqué de cada una desde el punto de vista del gesto y del movimiento. Si lo que se hace en destreza se relaciona con el adversario, nos adentramos en el terreno de la táctica donde se han estudiado como más importantes los conceptos del tiempo y la distancia, así como las energías que debe conservar el diestro para poder llevar a cabo un combate y del mismo salir victorioso sin llegar al agotamiento. Concluimos diciendo que de todo el estudio que se ha realizado, se ha podido comprobar que Carranza fue quien dotó a la destreza de unos principios técnicos, tácticos y metodológicos, por su forma de concebir este nuevo arte, así como que por la manera en que estableció sus teorías hizo que la destreza que se practicaba en España disfrutara de una estructura interna coherente que perduró a través de los años. SUMMARY The sport of fencing has not always been the respected sport that we know it to be today ñor has the use of weapons been the same throughout history. If we concéntrate on Spainish weapons, we can say that one particular type of sword ¡s spoken about. this sword being very respected by outher European countries, it was also the one that was respected and used in Italy. As with any activity that develops in time, it must evlove from some simple beginnings. Such basics beginnings are always in relation to a cause. To concéntrate on our study, the beginnings are, the use of the sword in a reasoned and logical manner, brought together in the life and times of Jerónimo Sánchez Carranza because until he decided to study in depth the science of weapons, we cannot see with calrity if their use was correct or not and if the vast majority , when they had to use them, used any foundation or coherence, that ¡s to say if any exactness of logical use could be demonstrated. Carranza studied the sword used in his time and those that had gone before, bearing in mind that he had a new visión of the form of use of weapons, different to what the vast majority had until then understood. Carranza has been considered by many historians as the inventor of the Spanish sword, a fact which can be seen with relative ease if one flicks through any work which deals with the Spanish sword, however, they also speak of Luis Pacheco de Narváez affording him the same title, even though he followed Carranza. In ar H our study has been centred on the life of Jerónimo Sánchez Carranza and his ne-" use of weapons. In effect this thesis is a biographical thesis of the said wherein the aspect of the use of weapons stands out more than their mastery. Given the following hypothesis: It was Carranza who evolved the first techniques giving form and coherence to the .Spanish School of Fencing, thanks to his contributions to the different aspects of method, íechnique and tactic. The Spanish School of Fencing had an ¡nternal structure anaswerable to pre-detremined characteristics and served as a base for the fencing that was to, in later days, be practised. For this study to come to a head, we had to design a plan wherein we could collate all of the aspects we could, related to our inventor. From there springs the reason for each of the chapters that we have put together. The said plan responding to the actual visión of different facets that are studied today in different sciences, that were not known in Carranza's lifetime. To collect information on his person and his works we bore in mind the different places in which we could lócate the necessary documentation, above all in libraries and archives. Developing the work-method that consisted in extracing from every source, every thing relative to the theme, re-writing later our interpretation of the same. This brought us closer and made us focus of those aspects that much later we would have to analize in greater detail. In the thesis one can observe two defferent parts that are related; on the one hand his life and works and on the other his theories, which are those that should be really analised and as such, necessarily analised within the confines of a specific knowledge of fencing. In that his life has been isolated and studied the most important facts that stand out above all, is that he was considered to be the inventor of swordmanship and the particular manner of interpreting the said art, different to its interpretaion uptil then. It gave a footing to what they understood as scientific fencing, giving shape and form to the creation of a doctrine and a new form of fencing which developed a line of action that was continued by numerious followers. For all that, much had to do with the facts that Carranza was a military man, the culture, the level of studies he had and the situation in which he found himself. What's more the people with whom he mixed were, in general, cultured and of high social standing. We have also seen in the same article on his life some dubious facts which in our opinión are erróneos. We have considered the most relevent to be that it wasnt Carranza who was in dispute with Quevedo as is stated in some of the works with which we have dealt but rather it was with Pacheco he had such disputes. What's more Quevedo demonstrated his partiality to the teachings of Carranza, going against Pacheco ñor was it him who invented The Florete, a famous Spanish sword, as was said on some ocassions, eventhough the florete appeared later as a weapon in the study of fencing technique. With respect to the article on his works, we must say that there was only one article which was published in 1582, even though it was finished in 1569. In the article on his life one must distinguish between the foundations on which he based his teachings in which swordmanship reached the same levéis as other libral art forms and what he did through the study of the self same mastery. Throughout the study which we have done, one can appreciate how he was developing an art which uptill then had not been studied, seeing for himself the problems he had fortold, from the organisation of materials at hand to how it should be taught, at times having to domínate comparative concepts again or clarify and modify ones which were anchored in erróneos points of a fencing match, feeling these to be the main forseeable jobs-at-hand. Differenciating between two basic concepts which must exist in whatever arte form and more concretly in the skill that is; the theory and practice , both being fundamental to the reason why the skill endured through time, together with this reason he was supported by other sciences and the beginnings of such. Carranza was of the opinión that the swordsman must acquired by way of study, the fundemental elements with which he had to work, these elements being the body of the swordsman and the weapons, because both were going to intervene in whatever movement or action that was going to be taken. The body studied, each of the parts having more importance each time the skill intervened and above all what it did based on medicne relating it to matemathics to exact the máximum advantage, one could employ in certain circumstances, that if they were not employed, the same advantages would not result. On weapons, what resulted best was, on the one hand, the sword should be the only weapon that the swordsman should use and on the other hand, the sword should be graded to show that one cannot do the same with the different parts of the same because not all of the weapon had the same properties when used. One of the recomendations he made was that the part nearest to the hand-guard should be used for defence because one could use more forcé with it than the point and he demonstrated this with mathematical principies. One can see on reading this thesis how Carranza brought forth a new work form, in which he put much importance on the application of experience that had previously been acquired and because of it, it was important to know well the strenghts and weaknesses of an adversery. The acquisition of technique should be realised through repetition to form the habit necessary for movement to flow freely each time the swordsman executed a movement. None of this would be possible if whoever was teaching did not know each one of the elements that intervened, affording the fencing master a great reverence, in that it was he who had to guide the students he was to teach. The first thing that the master had to do was to make sure he had the maximun knowledge over which he was going to teach, to that end, the master had to know almost everything about the theory and practice of the skill of fencing but what's more that such theory and practice had to be the correct one. Carranza persued his studies, establishing the principies of technique, at least, the most important ones even though they were elementary, so that later they could continué working on them and it could be seen that the technique had a shape and form of any other art form, allowing it to be studied like any other form, as such it had a good following, even young people could be instructed in the correct use of weapons, however the real end could be found in the conservaron of life as ordered by the Catholic Church, feeling that skill with the sword was one of the most effective methods for assuring it. We have dedicated an article to technique and tactics wherein is reflected everything related to positions and movement that the swordsman must do to achieve his objective, that is, wound without being wounded. We have analised the different tricks and the reasons from every point of view of movement and action. If what is done by technique is related with the adversery we enter in the territory of tactics wherein we have studied, most importantly, the concepts of time and distance just as, the energy the swordsman muse conserve to bring to a head a bout and arrive victorious without being exhausted. We conclude by saying that everything that has been realised by this study, has shown that it was Carranza who gave to the skill, the first basic techniques, tactics and methodology, by his conception of this new art form, just as the manner in which he established his theories, made possible the tecnhiques practiced in Spain would enjoy an intemal coherent structure, which would endure throughout the years.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tesis doctoral se centra principalmente en técnicas de ataque y contramedidas relacionadas con ataques de canal lateral (SCA por sus siglas en inglés), que han sido propuestas dentro del campo de investigación académica desde hace 17 años. Las investigaciones relacionadas han experimentado un notable crecimiento en las últimas décadas, mientras que los diseños enfocados en la protección sólida y eficaz contra dichos ataques aún se mantienen como un tema de investigación abierto, en el que se necesitan iniciativas más confiables para la protección de la información persona de empresa y de datos nacionales. El primer uso documentado de codificación secreta se remonta a alrededor de 1700 B.C., cuando los jeroglíficos del antiguo Egipto eran descritos en las inscripciones. La seguridad de la información siempre ha supuesto un factor clave en la transmisión de datos relacionados con inteligencia diplomática o militar. Debido a la evolución rápida de las técnicas modernas de comunicación, soluciones de cifrado se incorporaron por primera vez para garantizar la seguridad, integridad y confidencialidad de los contextos de transmisión a través de cables sin seguridad o medios inalámbricos. Debido a las restricciones de potencia de cálculo antes de la era del ordenador, la técnica de cifrado simple era un método más que suficiente para ocultar la información. Sin embargo, algunas vulnerabilidades algorítmicas pueden ser explotadas para restaurar la regla de codificación sin mucho esfuerzo. Esto ha motivado nuevas investigaciones en el área de la criptografía, con el fin de proteger el sistema de información ante sofisticados algoritmos. Con la invención de los ordenadores se ha acelerado en gran medida la implementación de criptografía segura, que ofrece resistencia eficiente encaminada a obtener mayores capacidades de computación altamente reforzadas. Igualmente, sofisticados cripto-análisis han impulsado las tecnologías de computación. Hoy en día, el mundo de la información ha estado involucrado con el campo de la criptografía, enfocada a proteger cualquier campo a través de diversas soluciones de cifrado. Estos enfoques se han fortalecido debido a la unificación optimizada de teorías matemáticas modernas y prácticas eficaces de hardware, siendo posible su implementación en varias plataformas (microprocesador, ASIC, FPGA, etc.). Las necesidades y requisitos de seguridad en la industria son las principales métricas de conducción en el diseño electrónico, con el objetivo de promover la fabricación de productos de gran alcance sin sacrificar la seguridad de los clientes. Sin embargo, una vulnerabilidad en la implementación práctica encontrada por el Prof. Paul Kocher, et al en 1996 implica que un circuito digital es inherentemente vulnerable a un ataque no convencional, lo cual fue nombrado posteriormente como ataque de canal lateral, debido a su fuente de análisis. Sin embargo, algunas críticas sobre los algoritmos criptográficos teóricamente seguros surgieron casi inmediatamente después de este descubrimiento. En este sentido, los circuitos digitales consisten típicamente en un gran número de celdas lógicas fundamentales (como MOS - Metal Oxide Semiconductor), construido sobre un sustrato de silicio durante la fabricación. La lógica de los circuitos se realiza en función de las innumerables conmutaciones de estas células. Este mecanismo provoca inevitablemente cierta emanación física especial que puede ser medida y correlacionada con el comportamiento interno del circuito. SCA se puede utilizar para revelar datos confidenciales (por ejemplo, la criptografía de claves), analizar la arquitectura lógica, el tiempo e incluso inyectar fallos malintencionados a los circuitos que se implementan en sistemas embebidos, como FPGAs, ASICs, o tarjetas inteligentes. Mediante el uso de la comparación de correlación entre la cantidad de fuga estimada y las fugas medidas de forma real, información confidencial puede ser reconstruida en mucho menos tiempo y computación. Para ser precisos, SCA básicamente cubre una amplia gama de tipos de ataques, como los análisis de consumo de energía y radiación ElectroMagnética (EM). Ambos se basan en análisis estadístico y, por lo tanto, requieren numerosas muestras. Los algoritmos de cifrado no están intrínsecamente preparados para ser resistentes ante SCA. Es por ello que se hace necesario durante la implementación de circuitos integrar medidas que permitan camuflar las fugas a través de "canales laterales". Las medidas contra SCA están evolucionando junto con el desarrollo de nuevas técnicas de ataque, así como la continua mejora de los dispositivos electrónicos. Las características físicas requieren contramedidas sobre la capa física, que generalmente se pueden clasificar en soluciones intrínsecas y extrínsecas. Contramedidas extrínsecas se ejecutan para confundir la fuente de ataque mediante la integración de ruido o mala alineación de la actividad interna. Comparativamente, las contramedidas intrínsecas están integradas en el propio algoritmo, para modificar la aplicación con el fin de minimizar las fugas medibles, o incluso hacer que dichas fugas no puedan ser medibles. Ocultación y Enmascaramiento son dos técnicas típicas incluidas en esta categoría. Concretamente, el enmascaramiento se aplica a nivel algorítmico, para alterar los datos intermedios sensibles con una máscara de manera reversible. A diferencia del enmascaramiento lineal, las operaciones no lineales que ampliamente existen en criptografías modernas son difíciles de enmascarar. Dicho método de ocultación, que ha sido verificado como una solución efectiva, comprende principalmente la codificación en doble carril, que está ideado especialmente para aplanar o eliminar la fuga dependiente de dato en potencia o en EM. En esta tesis doctoral, además de la descripción de las metodologías de ataque, se han dedicado grandes esfuerzos sobre la estructura del prototipo de la lógica propuesta, con el fin de realizar investigaciones enfocadas a la seguridad sobre contramedidas de arquitectura a nivel lógico. Una característica de SCA reside en el formato de las fuentes de fugas. Un típico ataque de canal lateral se refiere al análisis basado en la potencia, donde la capacidad fundamental del transistor MOS y otras capacidades parásitas son las fuentes esenciales de fugas. Por lo tanto, una lógica robusta resistente a SCA debe eliminar o mitigar las fugas de estas micro-unidades, como las puertas lógicas básicas, los puertos I/O y las rutas. Las herramientas EDA proporcionadas por los vendedores manipulan la lógica desde un nivel más alto, en lugar de realizarlo desde el nivel de puerta, donde las fugas de canal lateral se manifiestan. Por lo tanto, las implementaciones clásicas apenas satisfacen estas necesidades e inevitablemente atrofian el prototipo. Por todo ello, la implementación de un esquema de diseño personalizado y flexible ha de ser tomado en cuenta. En esta tesis se presenta el diseño y la implementación de una lógica innovadora para contrarrestar SCA, en la que se abordan 3 aspectos fundamentales: I. Se basa en ocultar la estrategia sobre el circuito en doble carril a nivel de puerta para obtener dinámicamente el equilibrio de las fugas en las capas inferiores; II. Esta lógica explota las características de la arquitectura de las FPGAs, para reducir al mínimo el gasto de recursos en la implementación; III. Se apoya en un conjunto de herramientas asistentes personalizadas, incorporadas al flujo genérico de diseño sobre FPGAs, con el fin de manipular los circuitos de forma automática. El kit de herramientas de diseño automático es compatible con la lógica de doble carril propuesta, para facilitar la aplicación práctica sobre la familia de FPGA del fabricante Xilinx. En este sentido, la metodología y las herramientas son flexibles para ser extendido a una amplia gama de aplicaciones en las que se desean obtener restricciones mucho más rígidas y sofisticadas a nivel de puerta o rutado. En esta tesis se realiza un gran esfuerzo para facilitar el proceso de implementación y reparación de lógica de doble carril genérica. La viabilidad de las soluciones propuestas es validada mediante la selección de algoritmos criptográficos ampliamente utilizados, y su evaluación exhaustiva en comparación con soluciones anteriores. Todas las propuestas están respaldadas eficazmente a través de ataques experimentales con el fin de validar las ventajas de seguridad del sistema. El presente trabajo de investigación tiene la intención de cerrar la brecha entre las barreras de implementación y la aplicación efectiva de lógica de doble carril. En esencia, a lo largo de esta tesis se describirá un conjunto de herramientas de implementación para FPGAs que se han desarrollado para trabajar junto con el flujo de diseño genérico de las mismas, con el fin de lograr crear de forma innovadora la lógica de doble carril. Un nuevo enfoque en el ámbito de la seguridad en el cifrado se propone para obtener personalización, automatización y flexibilidad en el prototipo de circuito de bajo nivel con granularidad fina. Las principales contribuciones del presente trabajo de investigación se resumen brevemente a continuación: Lógica de Precharge Absorbed-DPL logic: El uso de la conversión de netlist para reservar LUTs libres para ejecutar la señal de precharge y Ex en una lógica DPL. Posicionamiento entrelazado Row-crossed con pares idénticos de rutado en redes de doble carril, lo que ayuda a aumentar la resistencia frente a la medición EM selectiva y mitigar los impactos de las variaciones de proceso. Ejecución personalizada y herramientas de conversión automática para la generación de redes idénticas para la lógica de doble carril propuesta. (a) Para detectar y reparar conflictos en las conexiones; (b) Detectar y reparar las rutas asimétricas. (c) Para ser utilizado en otras lógicas donde se requiere un control estricto de las interconexiones en aplicaciones basadas en Xilinx. Plataforma CPA de pruebas personalizadas para el análisis de EM y potencia, incluyendo la construcción de dicha plataforma, el método de medición y análisis de los ataques. Análisis de tiempos para cuantificar los niveles de seguridad. División de Seguridad en la conversión parcial de un sistema de cifrado complejo para reducir los costes de la protección. Prueba de concepto de un sistema de calefacción auto-adaptativo para mitigar los impactos eléctricos debido a la variación del proceso de silicio de manera dinámica. La presente tesis doctoral se encuentra organizada tal y como se detalla a continuación: En el capítulo 1 se abordan los fundamentos de los ataques de canal lateral, que abarca desde conceptos básicos de teoría de modelos de análisis, además de la implementación de la plataforma y la ejecución de los ataques. En el capítulo 2 se incluyen las estrategias de resistencia SCA contra los ataques de potencia diferencial y de EM. Además de ello, en este capítulo se propone una lógica en doble carril compacta y segura como contribución de gran relevancia, así como también se presentará la transformación lógica basada en un diseño a nivel de puerta. Por otra parte, en el Capítulo 3 se abordan los desafíos relacionados con la implementación de lógica en doble carril genérica. Así mismo, se describirá un flujo de diseño personalizado para resolver los problemas de aplicación junto con una herramienta de desarrollo automático de aplicaciones propuesta, para mitigar las barreras de diseño y facilitar los procesos. En el capítulo 4 se describe de forma detallada la elaboración e implementación de las herramientas propuestas. Por otra parte, la verificación y validaciones de seguridad de la lógica propuesta, así como un sofisticado experimento de verificación de la seguridad del rutado, se describen en el capítulo 5. Por último, un resumen de las conclusiones de la tesis y las perspectivas como líneas futuras se incluyen en el capítulo 6. Con el fin de profundizar en el contenido de la tesis doctoral, cada capítulo se describe de forma más detallada a continuación: En el capítulo 1 se introduce plataforma de implementación hardware además las teorías básicas de ataque de canal lateral, y contiene principalmente: (a) La arquitectura genérica y las características de la FPGA a utilizar, en particular la Xilinx Virtex-5; (b) El algoritmo de cifrado seleccionado (un módulo comercial Advanced Encryption Standard (AES)); (c) Los elementos esenciales de los métodos de canal lateral, que permiten revelar las fugas de disipación correlacionadas con los comportamientos internos; y el método para recuperar esta relación entre las fluctuaciones físicas en los rastros de canal lateral y los datos internos procesados; (d) Las configuraciones de las plataformas de pruebas de potencia / EM abarcadas dentro de la presente tesis. El contenido de esta tesis se amplia y profundiza a partir del capítulo 2, en el cual se abordan varios aspectos claves. En primer lugar, el principio de protección de la compensación dinámica de la lógica genérica de precarga de doble carril (Dual-rail Precharge Logic-DPL) se explica mediante la descripción de los elementos compensados a nivel de puerta. En segundo lugar, la lógica PA-DPL es propuesta como aportación original, detallando el protocolo de la lógica y un caso de aplicación. En tercer lugar, dos flujos de diseño personalizados se muestran para realizar la conversión de doble carril. Junto con ello, se aclaran las definiciones técnicas relacionadas con la manipulación por encima de la netlist a nivel de LUT. Finalmente, una breve discusión sobre el proceso global se aborda en la parte final del capítulo. El Capítulo 3 estudia los principales retos durante la implementación de DPLs en FPGAs. El nivel de seguridad de las soluciones de resistencia a SCA encontradas en el estado del arte se ha degenerado debido a las barreras de implantación a través de herramientas EDA convencionales. En el escenario de la arquitectura FPGA estudiada, se discuten los problemas de los formatos de doble carril, impactos parásitos, sesgo tecnológico y la viabilidad de implementación. De acuerdo con estas elaboraciones, se plantean dos problemas: Cómo implementar la lógica propuesta sin penalizar los niveles de seguridad, y cómo manipular un gran número de celdas y automatizar el proceso. El PA-DPL propuesto en el capítulo 2 se valida con una serie de iniciativas, desde características estructurales como doble carril entrelazado o redes de rutado clonadas, hasta los métodos de aplicación tales como las herramientas de personalización y automatización de EDA. Por otra parte, un sistema de calefacción auto-adaptativo es representado y aplicado a una lógica de doble núcleo, con el fin de ajustar alternativamente la temperatura local para equilibrar los impactos negativos de la variación del proceso durante la operación en tiempo real. El capítulo 4 se centra en los detalles de la implementación del kit de herramientas. Desarrollado sobre una API third-party, el kit de herramientas personalizado es capaz de manipular los elementos de la lógica de circuito post P&R ncd (una versión binaria ilegible del xdl) convertido al formato XDL Xilinx. El mecanismo y razón de ser del conjunto de instrumentos propuestos son cuidadosamente descritos, que cubre la detección de enrutamiento y los enfoques para la reparación. El conjunto de herramientas desarrollado tiene como objetivo lograr redes de enrutamiento estrictamente idénticos para la lógica de doble carril, tanto para posicionamiento separado como para el entrelazado. Este capítulo particularmente especifica las bases técnicas para apoyar las implementaciones en los dispositivos de Xilinx y su flexibilidad para ser utilizado sobre otras aplicaciones. El capítulo 5 se enfoca en la aplicación de los casos de estudio para la validación de los grados de seguridad de la lógica propuesta. Se discuten los problemas técnicos detallados durante la ejecución y algunas nuevas técnicas de implementación. (a) Se discute el impacto en el proceso de posicionamiento de la lógica utilizando el kit de herramientas propuesto. Diferentes esquemas de implementación, tomando en cuenta la optimización global en seguridad y coste, se verifican con los experimentos con el fin de encontrar los planes de posicionamiento y reparación optimizados; (b) las validaciones de seguridad se realizan con los métodos de correlación y análisis de tiempo; (c) Una táctica asintótica se aplica a un núcleo AES sobre BCDL estructurado para validar de forma sofisticada el impacto de enrutamiento sobre métricas de seguridad; (d) Los resultados preliminares utilizando el sistema de calefacción auto-adaptativa sobre la variación del proceso son mostrados; (e) Se introduce una aplicación práctica de las herramientas para un diseño de cifrado completa. Capítulo 6 incluye el resumen general del trabajo presentado dentro de esta tesis doctoral. Por último, una breve perspectiva del trabajo futuro se expone, lo que puede ampliar el potencial de utilización de las contribuciones de esta tesis a un alcance más allá de los dominios de la criptografía en FPGAs. ABSTRACT This PhD thesis mainly concentrates on countermeasure techniques related to the Side Channel Attack (SCA), which has been put forward to academic exploitations since 17 years ago. The related research has seen a remarkable growth in the past decades, while the design of solid and efficient protection still curiously remain as an open research topic where more reliable initiatives are required for personal information privacy, enterprise and national data protections. The earliest documented usage of secret code can be traced back to around 1700 B.C., when the hieroglyphs in ancient Egypt are scribed in inscriptions. Information security always gained serious attention from diplomatic or military intelligence transmission. Due to the rapid evolvement of modern communication technique, crypto solution was first incorporated by electronic signal to ensure the confidentiality, integrity, availability, authenticity and non-repudiation of the transmitted contexts over unsecure cable or wireless channels. Restricted to the computation power before computer era, simple encryption tricks were practically sufficient to conceal information. However, algorithmic vulnerabilities can be excavated to restore the encoding rules with affordable efforts. This fact motivated the development of modern cryptography, aiming at guarding information system by complex and advanced algorithms. The appearance of computers has greatly pushed forward the invention of robust cryptographies, which efficiently offers resistance relying on highly strengthened computing capabilities. Likewise, advanced cryptanalysis has greatly driven the computing technologies in turn. Nowadays, the information world has been involved into a crypto world, protecting any fields by pervasive crypto solutions. These approaches are strong because of the optimized mergence between modern mathematical theories and effective hardware practices, being capable of implement crypto theories into various platforms (microprocessor, ASIC, FPGA, etc). Security needs from industries are actually the major driving metrics in electronic design, aiming at promoting the construction of systems with high performance without sacrificing security. Yet a vulnerability in practical implementation found by Prof. Paul Kocher, et al in 1996 implies that modern digital circuits are inherently vulnerable to an unconventional attack approach, which was named as side-channel attack since then from its analysis source. Critical suspicions to theoretically sound modern crypto algorithms surfaced almost immediately after this discovery. To be specifically, digital circuits typically consist of a great number of essential logic elements (as MOS - Metal Oxide Semiconductor), built upon a silicon substrate during the fabrication. Circuit logic is realized relying on the countless switch actions of these cells. This mechanism inevitably results in featured physical emanation that can be properly measured and correlated with internal circuit behaviors. SCAs can be used to reveal the confidential data (e.g. crypto-key), analyze the logic architecture, timing and even inject malicious faults to the circuits that are implemented in hardware system, like FPGA, ASIC, smart Card. Using various comparison solutions between the predicted leakage quantity and the measured leakage, secrets can be reconstructed at much less expense of time and computation. To be precisely, SCA basically encloses a wide range of attack types, typically as the analyses of power consumption or electromagnetic (EM) radiation. Both of them rely on statistical analyses, and hence require a number of samples. The crypto algorithms are not intrinsically fortified with SCA-resistance. Because of the severity, much attention has to be taken into the implementation so as to assemble countermeasures to camouflage the leakages via "side channels". Countermeasures against SCA are evolving along with the development of attack techniques. The physical characteristics requires countermeasures over physical layer, which can be generally classified into intrinsic and extrinsic vectors. Extrinsic countermeasures are executed to confuse the attacker by integrating noise, misalignment to the intra activities. Comparatively, intrinsic countermeasures are built into the algorithm itself, to modify the implementation for minimizing the measurable leakage, or making them not sensitive any more. Hiding and Masking are two typical techniques in this category. Concretely, masking applies to the algorithmic level, to alter the sensitive intermediate values with a mask in reversible ways. Unlike the linear masking, non-linear operations that widely exist in modern cryptographies are difficult to be masked. Approved to be an effective counter solution, hiding method mainly mentions dual-rail logic, which is specially devised for flattening or removing the data-dependent leakage in power or EM signatures. In this thesis, apart from the context describing the attack methodologies, efforts have also been dedicated to logic prototype, to mount extensive security investigations to countermeasures on logic-level. A characteristic of SCA resides on the format of leak sources. Typical side-channel attack concerns the power based analysis, where the fundamental capacitance from MOS transistors and other parasitic capacitances are the essential leak sources. Hence, a robust SCA-resistant logic must eliminate or mitigate the leakages from these micro units, such as basic logic gates, I/O ports and routings. The vendor provided EDA tools manipulate the logic from a higher behavioral-level, rather than the lower gate-level where side-channel leakage is generated. So, the classical implementations barely satisfy these needs and inevitably stunt the prototype. In this case, a customized and flexible design scheme is appealing to be devised. This thesis profiles an innovative logic style to counter SCA, which mainly addresses three major aspects: I. The proposed logic is based on the hiding strategy over gate-level dual-rail style to dynamically overbalance side-channel leakage from lower circuit layer; II. This logic exploits architectural features of modern FPGAs, to minimize the implementation expenses; III. It is supported by a set of assistant custom tools, incorporated by the generic FPGA design flow, to have circuit manipulations in an automatic manner. The automatic design toolkit supports the proposed dual-rail logic, facilitating the practical implementation on Xilinx FPGA families. While the methodologies and the tools are flexible to be expanded to a wide range of applications where rigid and sophisticated gate- or routing- constraints are desired. In this thesis a great effort is done to streamline the implementation workflow of generic dual-rail logic. The feasibility of the proposed solutions is validated by selected and widely used crypto algorithm, for thorough and fair evaluation w.r.t. prior solutions. All the proposals are effectively verified by security experiments. The presented research work attempts to solve the implementation troubles. The essence that will be formalized along this thesis is that a customized execution toolkit for modern FPGA systems is developed to work together with the generic FPGA design flow for creating innovative dual-rail logic. A method in crypto security area is constructed to obtain customization, automation and flexibility in low-level circuit prototype with fine-granularity in intractable routings. Main contributions of the presented work are summarized next: Precharge Absorbed-DPL logic: Using the netlist conversion to reserve free LUT inputs to execute the Precharge and Ex signal in a dual-rail logic style. A row-crossed interleaved placement method with identical routing pairs in dual-rail networks, which helps to increase the resistance against selective EM measurement and mitigate the impacts from process variations. Customized execution and automatic transformation tools for producing identical networks for the proposed dual-rail logic. (a) To detect and repair the conflict nets; (b) To detect and repair the asymmetric nets. (c) To be used in other logics where strict network control is required in Xilinx scenario. Customized correlation analysis testbed for EM and power attacks, including the platform construction, measurement method and attack analysis. A timing analysis based method for quantifying the security grades. A methodology of security partitions of complex crypto systems for reducing the protection cost. A proof-of-concept self-adaptive heating system to mitigate electrical impacts over process variations in dynamic dual-rail compensation manner. The thesis chapters are organized as follows: Chapter 1 discusses the side-channel attack fundamentals, which covers from theoretic basics to analysis models, and further to platform setup and attack execution. Chapter 2 centers to SCA-resistant strategies against generic power and EM attacks. In this chapter, a major contribution, a compact and secure dual-rail logic style, will be originally proposed. The logic transformation based on bottom-layer design will be presented. Chapter 3 is scheduled to elaborate the implementation challenges of generic dual-rail styles. A customized design flow to solve the implementation problems will be described along with a self-developed automatic implementation toolkit, for mitigating the design barriers and facilitating the processes. Chapter 4 will originally elaborate the tool specifics and construction details. The implementation case studies and security validations for the proposed logic style, as well as a sophisticated routing verification experiment, will be described in Chapter 5. Finally, a summary of thesis conclusions and perspectives for future work are included in Chapter 5. To better exhibit the thesis contents, each chapter is further described next: Chapter 1 provides the introduction of hardware implementation testbed and side-channel attack fundamentals, and mainly contains: (a) The FPGA generic architecture and device features, particularly of Virtex-5 FPGA; (b) The selected crypto algorithm - a commercially and extensively used Advanced Encryption Standard (AES) module - is detailed; (c) The essentials of Side-Channel methods are profiled. It reveals the correlated dissipation leakage to the internal behaviors, and the method to recover this relationship between the physical fluctuations in side-channel traces and the intra processed data; (d) The setups of the power/EM testing platforms enclosed inside the thesis work are given. The content of this thesis is expanded and deepened from chapter 2, which is divided into several aspects. First, the protection principle of dynamic compensation of the generic dual-rail precharge logic is explained by describing the compensated gate-level elements. Second, the novel DPL is originally proposed by detailing the logic protocol and an implementation case study. Third, a couple of custom workflows are shown next for realizing the rail conversion. Meanwhile, the technical definitions that are about to be manipulated above LUT-level netlist are clarified. A brief discussion about the batched process is given in the final part. Chapter 3 studies the implementation challenges of DPLs in FPGAs. The security level of state-of-the-art SCA-resistant solutions are decreased due to the implementation barriers using conventional EDA tools. In the studied FPGA scenario, problems are discussed from dual-rail format, parasitic impact, technological bias and implementation feasibility. According to these elaborations, two problems arise: How to implement the proposed logic without crippling the security level; and How to manipulate a large number of cells and automate the transformation. The proposed PA-DPL in chapter 2 is legalized with a series of initiatives, from structures to implementation methods. Furthermore, a self-adaptive heating system is depicted and implemented to a dual-core logic, assumed to alternatively adjust local temperature for balancing the negative impacts from silicon technological biases on real-time. Chapter 4 centers to the toolkit system. Built upon a third-party Application Program Interface (API) library, the customized toolkit is able to manipulate the logic elements from post P&R circuit (an unreadable binary version of the xdl one) converted to Xilinx xdl format. The mechanism and rationale of the proposed toolkit are carefully convoyed, covering the routing detection and repairing approaches. The developed toolkit aims to achieve very strictly identical routing networks for dual-rail logic both for separate and interleaved placement. This chapter particularly specifies the technical essentials to support the implementations in Xilinx devices and the flexibility to be expanded to other applications. Chapter 5 focuses on the implementation of the case studies for validating the security grades of the proposed logic style from the proposed toolkit. Comprehensive implementation techniques are discussed. (a) The placement impacts using the proposed toolkit are discussed. Different execution schemes, considering the global optimization in security and cost, are verified with experiments so as to find the optimized placement and repair schemes; (b) Security validations are realized with correlation, timing methods; (c) A systematic method is applied to a BCDL structured module to validate the routing impact over security metric; (d) The preliminary results using the self-adaptive heating system over process variation is given; (e) A practical implementation of the proposed toolkit to a large design is introduced. Chapter 6 includes the general summary of the complete work presented inside this thesis. Finally, a brief perspective for the future work is drawn which might expand the potential utilization of the thesis contributions to a wider range of implementation domains beyond cryptography on FPGAs.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La gestión del tráfico aéreo (Air Traffic Management, ATM) está experimentando un cambio de paradigma hacia las denominadas operaciones basadas trayectoria. Bajo dicho paradigma se modifica el papel de los controladores de tráfico aéreo desde una operativa basada su intervención táctica continuada hacia una labor de supervisión a más largo plazo. Esto se apoya en la creciente confianza en las soluciones aportadas por las herramientas automatizadas de soporte a la decisión más modernas. Para dar soporte a este concepto, se precisa una importante inversión para el desarrollo, junto con la adquisición de nuevos equipos en tierra y embarcados, que permitan la sincronización precisa de la visión de la trayectoria, basada en el intercambio de información entre ambos actores. Durante los últimos 30 a 40 años las aerolíneas han generado uno de los menores retornos de la inversión de entre todas las industrias. Sin beneficios tangibles, la industria aérea tiene dificultades para atraer el capital requerido para su modernización, lo que retrasa la implantación de dichas mejoras. Esta tesis tiene como objetivo responder a la pregunta de si las capacidades actualmente instaladas en las aeronaves comerciales se pueden aplicar para lograr la sincronización de la trayectoria con el nivel de calidad requerido. Además, se analiza en ella si, conjuntamente con mejoras en las herramientas de predicción trayectorias instaladas en tierra en para facilitar la gestión de las arribadas, dichas capacidades permiten obtener los beneficios esperados en el marco de las operaciones basadas en trayectoria. Esto podría proporcionar un incentivo para futuras actualizaciones de la aviónica que podrían llevar a mejoras adicionales. El concepto operacional propuesto en esta tesis tiene como objetivo permitir que los aviones sean pilotados de una manera consistente con las técnicas actuales de vuelo optimizado. Se permite a las aeronaves que desciendan en el denominado “modo de ángulo de descenso gestionado” (path-managed mode), que es el preferido por la mayoría de las compañías aéreas, debido a que conlleva un reducido consumo de combustible. El problema de este modo es que en él no se controla de forma activa el tiempo de llegada al punto de interés. En nuestro concepto operacional, la incertidumbre temporal se gestiona en mediante de la medición del tiempo en puntos estratégicamente escogidos a lo largo de la trayectoria de la aeronave, y permitiendo la modificación por el control de tierra de la velocidad de la aeronave. Aunque la base del concepto es la gestión de las ordenes de velocidad que se proporcionan al piloto, para ser capaces de operar con los niveles de equipamiento típicos actualmente, dicho concepto también constituye un marco en el que la aviónica más avanzada (por ejemplo, que permita el control por el FMS del tiempo de llegada) puede integrarse de forma natural, una vez que esta tecnología este instalada. Además de gestionar la incertidumbre temporal a través de la medición en múltiples puntos, se intenta reducir dicha incertidumbre al mínimo mediante la mejora de las herramienta de predicción de la trayectoria en tierra. En esta tesis se presenta una novedosa descomposición del proceso de predicción de trayectorias en dos etapas. Dicha descomposición permite integrar adecuadamente los datos de la trayectoria de referencia calculada por el Flight Management System (FMS), disponibles usando Futuro Sistema de Navegación Aérea (FANS), en el sistema de predicción de trayectorias en tierra. FANS es un equipo presente en los aviones comerciales de fuselaje ancho actualmente en la producción, e incluso algunos aviones de fuselaje estrecho pueden tener instalada avionica FANS. Además de informar automáticamente de la posición de la aeronave, FANS permite proporcionar (parte de) la trayectoria de referencia en poder de los FMS, pero la explotación de esta capacidad para la mejora de la predicción de trayectorias no se ha estudiado en profundidad en el pasado. La predicción en dos etapas proporciona una solución adecuada al problema de sincronización de trayectorias aire-tierra dado que permite la sincronización de las dimensiones controladas por el sistema de guiado utilizando la información de la trayectoria de referencia proporcionada mediante FANS, y también facilita la mejora en la predicción de las dimensiones abiertas restantes usado un modelo del guiado que explota los modelos meteorológicos mejorados disponibles en tierra. Este proceso de predicción de la trayectoria de dos etapas se aplicó a una muestra de 438 vuelos reales que realizaron un descenso continuo (sin intervención del controlador) con destino Melbourne. Dichos vuelos son de aeronaves del modelo Boeing 737-800, si bien la metodología descrita es extrapolable a otros tipos de aeronave. El método propuesto de predicción de trayectorias permite una mejora en la desviación estándar del error de la estimación del tiempo de llegada al punto de interés, que es un 30% menor que la que obtiene el FMS. Dicha trayectoria prevista mejorada se puede utilizar para establecer la secuencia de arribadas y para la asignación de las franjas horarias para cada aterrizaje (slots). Sobre la base del slot asignado, se determina un perfil de velocidades que permita cumplir con dicho slot con un impacto mínimo en la eficiencia del vuelo. En la tesis se propone un nuevo algoritmo que determina las velocidades requeridas sin necesidad de un proceso iterativo de búsqueda sobre el sistema de predicción de trayectorias. El algoritmo se basa en una parametrización inteligente del proceso de predicción de la trayectoria, que permite relacionar el tiempo estimado de llegada con una función polinómica. Resolviendo dicho polinomio para el tiempo de llegada deseado, se obtiene de forma natural el perfil de velocidades optimo para cumplir con dicho tiempo de llegada sin comprometer la eficiencia. El diseño de los sistemas de gestión de arribadas propuesto en esta tesis aprovecha la aviónica y los sistemas de comunicación instalados de un modo mucho más eficiente, proporcionando valor añadido para la industria. Por tanto, la solución es compatible con la transición hacia los sistemas de aviónica avanzados que están desarrollándose actualmente. Los beneficios que se obtengan a lo largo de dicha transición son un incentivo para inversiones subsiguientes en la aviónica y en los sistemas de control de tráfico en tierra. ABSTRACT Air traffic management (ATM) is undergoing a paradigm shift towards trajectory based operations where the role of an air traffic controller evolves from that of continuous intervention towards supervision, as decision making is improved based on increased confidence in the solutions provided by advanced automation. To support this concept, significant investment for the development and acquisition of new equipment is required on the ground as well as in the air, to facilitate the high degree of trajectory synchronisation and information exchange required. Over the past 30-40 years the airline industry has generated one of the lowest returns on invested capital among all industries. Without tangible benefits realised, the airline industry may find it difficult to attract the required investment capital and delay acquiring equipment needed to realise the concept of trajectory based operations. In response to these challenges facing the modernisation of ATM, this thesis aims to answer the question whether existing aircraft capabilities can be applied to achieve sufficient trajectory synchronisation and improvements to ground-based trajectory prediction in support of the arrival management process, to realise some of the benefits envisioned under trajectory based operations, and to provide an incentive for further avionics upgrades. The proposed operational concept aims to permit aircraft to operate in a manner consistent with current optimal aircraft operating techniques. It allows aircraft to descend in the fuel efficient path managed mode as preferred by a majority of airlines, with arrival time not actively controlled by the airborne automation. The temporal uncertainty is managed through metering at strategically chosen points along the aircraft’s trajectory with primary use of speed advisories. While the focus is on speed advisories to support all aircraft and different levels of equipage, the concept also constitutes a framework in which advanced avionics as airborne time-of-arrival control can be integrated once this technology is widely available. In addition to managing temporal uncertainty through metering at multiple points, this temporal uncertainty is minimised by improving the supporting trajectory prediction capability. A novel two-stage trajectory prediction process is presented to adequately integrate aircraft trajectory data available through Future Air Navigation Systems (FANS) into the ground-based trajectory predictor. FANS is standard equipment on any wide-body aircraft in production today, and some single-aisle aircraft are easily capable of being fitted with FANS. In addition to automatic position reporting, FANS provides the ability to provide (part of) the reference trajectory held by the aircraft’s Flight Management System (FMS), but this capability has yet been widely overlooked. The two-stage process provides a ‘best of both world’s’ solution to the air-ground synchronisation problem by synchronising with the FMS reference trajectory those dimensions controlled by the guidance mode, and improving on the prediction of the remaining open dimensions by exploiting the high resolution meteorological forecast available to a ground-based system. The two-stage trajectory prediction process was applied to a sample of 438 FANS-equipped Boeing 737-800 flights into Melbourne conducting a continuous descent free from ATC intervention, and can be extrapolated to other types of aircraft. Trajectories predicted through the two-stage approach provided estimated time of arrivals with a 30% reduction in standard deviation of the error compared to estimated time of arrival calculated by the FMS. This improved predicted trajectory can subsequently be used to set the sequence and allocate landing slots. Based on the allocated landing slot, the proposed system calculates a speed schedule for the aircraft to meet this landing slot at minimal flight efficiency impact. A novel algorithm is presented that determines this speed schedule without requiring an iterative process in which multiple calls to a trajectory predictor need to be made. The algorithm is based on parameterisation of the trajectory prediction process, allowing the estimate time of arrival to be represented by a polynomial function of the speed schedule, providing an analytical solution to the speed schedule required to meet a set arrival time. The arrival management solution proposed in this thesis leverages the use of existing avionics and communications systems resulting in new value for industry for current investment. The solution therefore supports a transition concept from mixed equipage towards advanced avionics currently under development. Benefits realised under this transition may provide an incentive for ongoing investment in avionics.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El propósito de este estudio ha sido el desarrollo y validación de un Cuestionario de Inteligencia Contextual Percibida en el Deporte en una muestra de deportistas españoles de diferente nivel de pericia. Participaron 2091 deportistas (1519 hombres y 572 mujeres) de edades comprendidas entre los 11 y los 59 años (M = 20,8; DT = 6,14). Los análisis factoriales exploratorio y confirmatorio mostraron que el cuestionario presentaba una estructura de tres dimensiones (inteligencia anticipatoria, inteligencia táctica e inteligencia competitiva), además de permitir obtener la obtención de un valor de la escala general denominado Inteligencia Contextual en el Deporte. Las propiedades psicométricas de validez y la fiabilidad del instrumento fueron excelentes para poder ser empleado en estudios en los que esta dimensión sea de interés.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Para los entrenadores la inteligencia en el juego es uno de los intangibles que predicen el éxito en la competición. De ahí que el objetivo de este estudio fuera analizar la percepción que jugadores de fútbol de diferente nivel de pericia tenían de su inteligencia para el juego. Se aplicó el Cuestionario de Inteligencia Contextual en el Deporte (ICD) que evalúa tres dimensiones: Inteligencia Anticipatoria, Inteligencia Táctica e Inteligencia Competitiva. En este estudio participaron 690 jugadores de fútbol de diferente nivel competitivo. Los resultados mostrarion que a medida que aumentaba el nivel competitivo se incrementaba la percepción de los jugadores sobre su inteligencia contextual. Este estudio confirma el papel que para los jugadores posee el sentirse 308 competentes para solucionar los problemas tácticos de su deporte y que este sentimiento aumenta con su nivel de competencia.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Para los entrenadores la inteligencia en el juego es uno de los intangibles que predicen el éxito en la competición. De ahí que el objetivo de este estudio fuera analizar la percepción que jugadores de fútbol de diferente nivel de pericia tenían de su inteligencia para el juego. Se aplicó el Cuestionario de Inteligencia Contextual en el Deporte(ICD) que evalúa tres dimensiones: Inteligencia Anticipatoria, Inteligencia Táctica e Inteligencia Competitiva. En este estudio participar on 690 jugadores de fútbol de diferente nivel competitivo. Los resultados mostrarion que a medida que aumentaba el nivel competitivo se incrementaba la percepción de los jugadores sobre su inteligencia contextual. Este estudio confirma el papel que para los jugadores posee el sentirse competentes para solucionar los problemas tácticos de su deporte y que este sentimiento aumenta con su nivel de competencia.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

OBJETIVO: Esta tesis doctoral pretende analizar el rendimiento en fútbol desde un punto de vista físico de los jugadores de un equipo de excelencia (EE). Se entiende como EE a un equipo que presenta un prolongado bagaje de éxitos nacionales e internacionales a lo largo de varios años. MÉTODO: Se utilizó el sistema de registro (AMISCO) de la actividad del jugador de fútbol en competición (distancia total recorrida, distancias a distintas velocidades, y número de sprints) analizando a lo largo de seis temporadas continuada la actividad de jugadores de élite (N=2082), siendo 1051 pertenecientes al EE y 1031 a jugadores de los equipos rivales (ER). RSULTADO: El perfil de actividad (distancia total, distancia en distintas velocidades y nº de sprints) de los jugadores del EE muestran valores inferiores al de los jugadores de los ER. De igual forma ocurre en cada una de las partes del partido, el puesto específico de juego de los jugadores en las distintas temporadas analizadas y en los distintos meses de la temporada. El EE registra una mayor actividad (distancia total recorrida en el partido, distancia recorrida en velocidades altas V>17 km/h y nº de Sprints) cuando juega de local a cuando lo hace como visitante. Asimismo EE muestra demandas superiores de exigencia física en la competición europea (Champions League) frente a la Liga en la distancia total recorrida en el partido y a velocidades bajas (V<17 km/h), mientras que apenas muestra diferencias en los indicadores de exigencia física cuando se enfrenta a los equipos rivales de distinto nivel de rendimiento, exceptuando en la distancia recorrida andando (V=01-11 km/h) con diferencias significativas superiores cuando el nivel del oponente es de Máxima dificultad frente a Elevada dificultad (p<.01) o Media dificultad (p<.01). En función del estilo de juego se registran diferencias en la distancia total recorrida en el partido, en velocidades bajas (V<17 km/h) y en el nº de Sprints (V>24 km/h). Por último, el perfil de actividad del EE no se ve influenciado por el efecto de estar sometido a una alta densidad competitiva (jugar un partido entre semana). Se constata como un jugador de un EE está supeditado no sólo a las exigencias del puesto específico sino también está sujeta a las características propias del jugador al desempeñar el rol o función táctica encomendada. Esta influencia es más evidente en jugadores que ocupan puestos específicos avanzados. CONCLUSION: La presente investigación aporta la caracterización de la actividad de los jugadores de un EE frente al perfil de actividad de sus rivales, mostrando un nivel de respuesta específica y diferente, más estable frente a determinadas variables contextuales y donde la exigencia física en el puesto específico se ve condicionada por las características individuales del jugador, todos estos aspectos pueden ayudar a la hora de planificar el entrenamiento en este tipo de equipos. ABSTRACT OBJETIVE: This doctoral thesis aims to analyze the performance in football from a physical point of view on a team of excellence. METHOD: The registration system (AMISCO) activity soccer player in competition (total distance traveled distances at different speeds, and number of sprints) was used to analyze over six seasons continued activity elite players (N = 2082), with 1051 belonging to Team Excellence (EE) and 1031 players from rival teams (ER). RESULT: The competitive physical response of the US players are analyzed and compared with that of ER. The activity profile (total distance, distance at different speeds and number of sprints) of EE players shown below players ER values. The same occurs in each of the parts of the game, the specific game since players analyzed in different seasons and in different months of the season. The EE recorded increased activity (total distance traveled in the match, distance at high speeds V> 17 km / h and sprints number) when playing a local when it does on the road. EE also shows higher demands physical demands in European competition (Champions League) against the League in the total distance traveled in the party and at low speeds (V <17 km / h), while just shows differences in indicators of demand physics when the opposing teams with different levels of performance faces, except in the distance walked (V = 01-11 km / h) with significant differences when higher level Maximum opponent is facing difficulty High difficulty (p < .01) or Medium difficulty (p <.01). Depending on the style of play differences are recognized in the total distance traveled in the party, at low speeds (V <17 km / h) and the number of Sprints (V> 24 km / h). Finally, the activity profile of EE is not influenced by the effect of being subjected to a high competitive density (play a game during the week). It is found as a player on a team of Excellence is subject not only to the requirements of the specific position but is also subject to the characteristics of the player to play the role or function entrusted tactics. This influence is most evident in advanced players who occupy specific positions. CONCLUSION: This research provides the characterization of the activity of EE players versus activity profile of its rivals, showing a level of response specific and different, more stable against certain contextual variables and where the physical demands on the specific position is conditioned by the individual characteristics of the player, all these aspects can help in planning training in this type of equipment.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La tesis Flujo Laminar, El cementerio de Igualada y los procesos elásticos en la arquitectura de Enric Miralles y Carme Pinós analiza la metodología que utilizan y desarrollan los arquitectos Miralles y Pinós en el proyecto del cementerio de Igualada. Enric Miralles y Carme Pinós comienzan a trabajar juntos en 1983, separándose siete años después. La producción arquitectónica que generan durante este periodo ha sido valorada y considerada por la crítica como una de las de mayor calidad en el último cuarto del siglo XX. Respecto a esta etapa de colaboración existen artículos dispersos que analizan de manera aislada algunos aspectos de sus proyectos. Sin embargo, no se han realizado estudios que analicen su metodología proyectual, sus herramientas, sus estrategias y sus diferentes conexiones y referencias. Tampoco se han analizado hasta el momento, cómo son sus procesos proyectuales, sus tiempos y sus objetivos. En este sentido, el proyecto del cementerio de Igualada será clave en la trayectoria del equipo. El tiempo extenso empleado en el proceso y la singularidad de la obra, además de otros factores del propio imaginario de Miralles y Pinós, marcarán a este proyecto como un punto de inflexión en su trabajo. La investigación plantea, en primer lugar, la descripción del contexto en el cual se comienzan a desarrollar los proyectos iniciales de Miralles y Pinós, además de los antecedentes que generarán la propuesta para el cementerio de Igualada. Seguidamente, se describen y analizan los apoyos y las referencias que los arquitectos utilizan en este proyecto, tanto las vinculadas a la cultura local como las atrapadas desde el imaginario universal. Por otro lado, el bloque central de la investigación aporta doce herramientas que construyen la metodología proyectual de Miralles y Pinós. Esta contribución se ha realizado desde el análisis y el cruce de los documentos originales del proyecto de Igualada y los escritos existentes de los arquitectos. Las herramientas aportadas son: deslizar, desplazar, repetir, enterrar, constreñir, oscilar, estirar, desenredar, desviar, rehacer, hendir y fluir. Todas ellas se describen, analizan e interpretan desde setenta y dos documentos esenciales extraídos del proceso de Igualada. Un último capítulo de conclusiones, define lo que se presenta en la investigación como una metodología propia de Enric Miralles y Carme Pinós, denominada procesos elásticos, en el que se describen sus cualidades y sus tiempos, a la vez que se presenta también una táctica empleada en el proyecto de Igualada denominada flujo laminar. ABSTRACT The thesis Laminar Flow, the Igualada cemetery and the elastic processes in the architecture of Enric Miralles and Carme Pinós analyses the methodology that the architects Miralles and Pinós used in the project for the Igualada cemetery park. Enric Miralles and Carme Pinós began to work together in 1983, and went their different ways seven years later. The architectural production they generated during that period has been valued and considered by critics to be among the greatest quality of production in the final quarter of the twentieth century. There is a scattering of articles about this period which give an independent analysis of some features of their products. However, there are no studies which analyse their project design methodology, their tools, their strategies and their different connections and references. Neither has there been analysis to date of the nature of their project design processes, nor of their times and their aims. Within this context, the Igualada cemetery project was key in the path to be trodden by the team. The great length of time used on the process and the singularity of the work, alongside other factors from Miralles and Pinós's personal imaginarium, were to mark this project as a turning point in their work. This research sets out, first of all, to describe the context in which the early projects by Miralles and Pinós began to be developed, as well as the background to the generation of their proposal for the Igualada cemetery. There follows a description and analysis of the resources and of the references that the architects used in this project, both those linked to local culture and those picked from the universal imaginarium. Furthermore, the central block of the research identifies twelve tools which make up Miralles and Pinós's project design methodology. This contribution has been performed on the basis of analysis and comparison of the original Igualada project documents and of writings extant by the architects. The tools identified are: slide, shift, repeat, bury, constrain, oscillate, stretch, untangle, divert, redo, groove and flow. They are all described, analysed and interpreted on the basis of seventy-two essential documents extracted from the Igualada process. A final chapter of conclusions defines what is presented in the research as a methodology which is specific to Enric Miralles and Carme Pinós, denominated elastic processes, describing their qualities and their times, along with the presentation of a tactic used in the Igualada project which is denominated laminar flow.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El transporte aéreo constituye un sector estratégico para el crecimiento económico de cualquier país. El sistema de gestión de tráfico aéreo ATM tiene como objetivo el movimiento seguro y eficiente de las aeronaves dentro del espacio aéreo y de los aeropuertos, siendo la seguridad, en la fase táctica, gestionada por el servicio de control de la circulación aérea. Mediante los procesos de control el tráfico aéreo es vigilado a través de sensores, regulado y guiado de forma organizada y segura. Es precisamente sobre la vigilancia donde se enfoca el contenido de la tesis, en el desarrollo de nuevos conceptos que proporcionen información de vigilancia de ‘bajo coste’ basados en las señales existentes proporcionadas por la infraestructura actual de radar secundario y por los sistemas de posicionamiento basados en satélite que utiliza la ADS-B. El conocimiento y acceso en tiempo real a las trayectorias de las aeronaves es un elemento de valor añadido no sólo para la provisión de los servicios de control de tránsito aéreo, sino para todos los actores del transporte aéreo o de la investigación, siendo uno de los elementos clave en el concepto operacional de los dos grandes proyectos tecnológicos, SESAR en Europa y NextGen en EE.UU.. En las últimas décadas el control de la circulación aérea en espacios aéreos de media y alta densidad de tráfico se ha basado en tecnologías complejas que requieren importantes infraestructuras como son el radar primario de vigilancia (PSR) y el radar secundario de vigilancia (SSR). La filosofía de los programas SESAR y NextGen siguiendo las directrices de la OACI es la de alejarse de las tecnologías basadas en tierra para evolucionar hacia nuevas tecnologías más dinámicas basadas en satélite como la ADS-B. Pero hasta que la implementación y operación de la ADS-B sea completa, existirá un período de transición que implica la coexistencia de aeronaves equipadas o no con ADS-B. El objetivo de la presente Tesis es determinar las metodologías y algoritmos más adecuados para poder hibridar las dos tecnologías descritas anteriormente, utilizando para ello un receptor de bajo coste con antena estática omnidireccional, que analice todas las señales presentes en el canal que comparten el SSR y ADS-B. Mediante esta hibridación se podrá obtener la posición de cualquier aeronave que transmita respuestas a interrogaciones SSR, en cualquiera de sus modos de trabajo, o directamente mensajes de posición ADS-B. Para desarrollar los algoritmos propuestos, además del hardware correspondiente, se han utilizado las aplicaciones LabVIEW para funciones de adquisición de datos reales, y el software MATLAB® para el desarrollo de algoritmos y análisis de datos. La validación de resultados se ha realizado mediante los propios mensajes de posición ADS-B y a través de las trazas radar proporcionadas por la entidad pública empresarial ENAIRE. La técnica desarrollada es autónoma, y no ha requerido de ninguna otra entrada que no sea la recepción omnidireccional de las señales. Sin embargo para la validación de resultados se ha utilizado información pública de las ubicaciones de la red de estaciones SSR desplegadas sobre territorio español y portugués y trazas radar. Los resultados obtenidos demuestran, que con técnicas basadas en superficies de situación definidas por los tiempos de llegada de las respuestas, es posible determinar con una precisión aceptable la posición de las estaciones SSR y la posición de cualquier aeronave que responda mediante el Modo A a éstas. ABSTRACT Air transport is a strategic sector for the economic growth of any country. The air traffic management system (ATM) aims at the safe and efficient movement of aircraft while operating within the airspace and airports, where safety, in the tactical phase, is managed by the air traffic control services. Through the air traffic control processes, aircraft are monitored by sensors, regulated and guided in an organized and safe manner. It is precisely on surveillance where this thesis is focused, developing new concepts that provide a 'low cost' surveillance information based on existing signals provided by currently secondary radar infrastructure and satellite-based positioning systems used by ADS-B. Having a deeper knowledge and a real-time access to the trajectories of the aircraft, is an element of added value not only for the provision of air traffic control services, but also for all air transport or research actors. This is one of the key elements in the operational concept proposed by the two large scale existing technological projects, SESAR in Europe and NextGen in the US. In recent decades, air traffic control in medium and high traffic density areas has been based on complex technologies requiring major infrastructures, such as the primary surveillance radar (PSR) and secondary surveillance radar (SSR). The philosophy of SESAR and NextGen programs, both following the guidelines of ICAO, is to move away from land-based technologies and evolving into some new and more dynamic satellite-based technologies such as ADS-B. Nevertheless, until the ADS-B implementation and operation is fully achieved, there will be a transitional period where aircraft with and without ADS-B equipment will have to coexist. The main objective of this thesis is to determine those methodologies and algorithms which are considered more appropriate to hybridize those two technologies, by using a low cost omnidirectional receiver, which analyzes all signals on the SSR and ADS-B shared channel. Through this hybridization, it is possible to obtain the position of any aircraft answering the SSR interrogations, in any of its modes of operation, or through the emission of ADS-B messages. To develop the proposed algorithms, LabVIEW application has been used for real-time data acquisition, as well as MATLAB software for algorithm development and data analysis, together with the corresponding hardware. The validation of results was performed using the ADS-B position messages and radar tracks provided by the Public Corporate Entity ENAIRE The developed technique is autonomous, and it does not require any other input other than the omnidirectional signal reception. However, for the validation of results, not only radar records have been used, but also public information regarding the position of SSR stations spread throughout the Spanish and Portuguese territory. The results show that using techniques based in the definition of positioning surfaces defined by the responses’ times of arrival, it is possible to determine with an acceptable level of accuracy both the position of the SSR stations as well as the position of any aircraft which transmits Mode A responses.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La tesis está focalizada en la resolución de problemas de optimización combinatoria, haciendo uso de las opciones tecnológicas actuales que ofrecen las tecnologías de la información y las comunicaciones, y la investigación operativa. Los problemas de optimización combinatoria se resuelven en general mediante programación lineal y metaheurísticas. La aplicación de las técnicas de resolución de los problemas de optimización combinatoria requiere de una elevada carga computacional, y los algoritmos deben diseñarse, por un lado pensando en la efectividad para encontrar buenas soluciones del problema, y por otro lado, pensando en un uso adecuado de los recursos informáticos disponibles. La programación lineal y las metaheurísticas son técnicas de resolución genéricas, que se pueden aplicar a diferentes problemas, partiendo de una base común que se particulariza para cada problema concreto. En el campo del desarrollo de software, los frameworks cumplen esa función de comenzar un proyecto con el trabajo general ya disponible, con la opción de cambiar o extender ese comportamiento base o genérico, para construir el sistema concreto, lo que permite reducir el tiempo de desarrollo, y amplía las posibilidades de éxito del proyecto. En esta tesis se han desarrollado dos frameworks de desarrollo. El framework ILP permite modelar y resolver problemas de programación lineal, de forma independiente al software de resolución de programación lineal que se utilice. El framework LME permite resolver problemas de optimización combinatoria mediante metaheurísticas. Tradicionalmente, las aplicaciones de resolución de problemas de optimización combinatoria son aplicaciones de escritorio que permiten gestionar toda la información de entrada del problema y resuelven el problema en local, con los recursos hardware disponibles. Recientemente ha aparecido un nuevo paradigma de despliegue y uso de aplicaciones que permite compartir recursos informáticos especializados por Internet. Esta nueva forma de uso de recursos informáticos es la computación en la nube, que presenta el modelo de software como servicio (SaaS). En esta tesis se ha construido una plataforma SaaS, para la resolución de problemas de optimización combinatoria, que se despliega sobre arquitecturas compuestas por procesadores multi-núcleo y tarjetas gráficas, y dispone de algoritmos de resolución basados en frameworks de programación lineal y metaheurísticas. Toda la infraestructura es independiente del problema de optimización combinatoria a resolver, y se han desarrollado tres problemas que están totalmente integrados en la plataforma SaaS. Estos problemas se han seleccionado por su importancia práctica. Uno de los problemas tratados en la tesis, es el problema de rutas de vehículos (VRP), que consiste en calcular las rutas de menor coste de una flota de vehículos, que reparte mercancías a todos los clientes. Se ha partido de la versión más clásica del problema y se han hecho estudios en dos direcciones. Por un lado se ha cuantificado el aumento en la velocidad de ejecución de la resolución del problema en tarjetas gráficas. Por otro lado, se ha estudiado el impacto en la velocidad de ejecución y en la calidad de soluciones, en la resolución por la metaheurística de colonias de hormigas (ACO), cuando se introduce la programación lineal para optimizar las rutas individuales de cada vehículo. Este problema se ha desarrollado con los frameworks ILP y LME, y está disponible en la plataforma SaaS. Otro de los problemas tratados en la tesis, es el problema de asignación de flotas (FAP), que consiste en crear las rutas de menor coste para la flota de vehículos de una empresa de transporte de viajeros. Se ha definido un nuevo modelo de problema, que engloba características de problemas presentados en la literatura, y añade nuevas características, lo que permite modelar los requerimientos de las empresas de transporte de viajeros actuales. Este nuevo modelo resuelve de forma integrada el problema de definir los horarios de los trayectos, el problema de asignación del tipo de vehículo, y el problema de crear las rotaciones de los vehículos. Se ha creado un modelo de programación lineal para el problema, y se ha resuelto por programación lineal y por colonias de hormigas (ACO). Este problema se ha desarrollado con los frameworks ILP y LME, y está disponible en la plataforma SaaS. El último problema tratado en la tesis es el problema de planificación táctica de personal (TWFP), que consiste en definir la configuración de una plantilla de trabajadores de menor coste, para cubrir una demanda de carga de trabajo variable. Se ha definido un modelo de problema muy flexible en la definición de contratos, que permite el uso del modelo en diversos sectores productivos. Se ha definido un modelo matemático de programación lineal para representar el problema. Se han definido una serie de casos de uso, que muestran la versatilidad del modelo de problema, y permiten simular el proceso de toma de decisiones de la configuración de una plantilla de trabajadores, cuantificando económicamente cada decisión que se toma. Este problema se ha desarrollado con el framework ILP, y está disponible en la plataforma SaaS. ABSTRACT The thesis is focused on solving combinatorial optimization problems, using current technology options offered by information technology and communications, and operations research. Combinatorial optimization problems are solved in general by linear programming and metaheuristics. The application of these techniques for solving combinatorial optimization problems requires a high computational load, and algorithms are designed, on the one hand thinking to find good solutions to the problem, and on the other hand, thinking about proper use of the available computing resources. Linear programming and metaheuristic are generic resolution techniques, which can be applied to different problems, beginning with a common base that is particularized for each specific problem. In the field of software development, frameworks fulfill this function that allows you to start a project with the overall work already available, with the option to change or extend the behavior or generic basis, to build the concrete system, thus reducing the time development, and expanding the possibilities of success of the project. In this thesis, two development frameworks have been designed and developed. The ILP framework allows to modeling and solving linear programming problems, regardless of the linear programming solver used. The LME framework is designed for solving combinatorial optimization problems using metaheuristics. Traditionally, applications for solving combinatorial optimization problems are desktop applications that allow the user to manage all the information input of the problem and solve the problem locally, using the available hardware resources. Recently, a new deployment paradigm has appeared, that lets to share hardware and software resources by the Internet. This new use of computer resources is cloud computing, which presents the model of software as a service (SaaS). In this thesis, a SaaS platform has been built for solving combinatorial optimization problems, which is deployed on architectures, composed of multi-core processors and graphics cards, and has algorithms based on metaheuristics and linear programming frameworks. The SaaS infrastructure is independent of the combinatorial optimization problem to solve, and three problems are fully integrated into the SaaS platform. These problems have been selected for their practical importance. One of the problems discussed in the thesis, is the vehicle routing problem (VRP), which goal is to calculate the least cost of a fleet of vehicles, which distributes goods to all customers. The VRP has been studied in two directions. On one hand, it has been quantified the increase in execution speed when the problem is solved on graphics cards. On the other hand, it has been studied the impact on execution speed and quality of solutions, when the problem is solved by ant colony optimization (ACO) metaheuristic, and linear programming is introduced to optimize the individual routes of each vehicle. This problem has been developed with the ILP and LME frameworks, and is available in the SaaS platform. Another problem addressed in the thesis, is the fleet assignment problem (FAP), which goal is to create lower cost routes for a fleet of a passenger transport company. It has been defined a new model of problem, which includes features of problems presented in the literature, and adds new features, allowing modeling the business requirements of today's transport companies. This new integrated model solves the problem of defining the flights timetable, the problem of assigning the type of vehicle, and the problem of creating aircraft rotations. The problem has been solved by linear programming and ACO. This problem has been developed with the ILP and LME frameworks, and is available in the SaaS platform. The last problem discussed in the thesis is the tactical planning staff problem (TWFP), which is to define the staff of lower cost, to cover a given work load. It has been defined a very rich problem model in the definition of contracts, allowing the use of the model in various productive sectors. It has been defined a linear programming mathematical model to represent the problem. Some use cases has been defined, to show the versatility of the model problem, and to simulate the decision making process of setting up a staff, economically quantifying every decision that is made. This problem has been developed with the ILP framework, and is available in the SaaS platform.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En este trabajo lo que se pretende es hacer un análisis de los aspectos más importantes para la práctica del fútbol y, además, establecer una opinión personal de cómo se deberían entrenar estos tópicos tan importantes en nuestro deporte escogido, el fútbol. Para ello hemos dividido el trabajo en cuatro grandes bloques: cualidades físicas básicas, que constan de la fuerza, resistencia, flexibilidad y velocidad, de los componentes básicos del juego, a los que se les conocen como técnica, táctica y estrategia, un breve análisis de distintas formas de planificación para una temporada de un equipo de fútbol de Primera División y, por último, una opinión personal de como entrenar todo lo anterior, además de proponer un modelo de planificación anual y mensual para un equipo de la máxima categoría de la Liga Española de Fútbol.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En el futuro, la gestión del tráfico aéreo (ATM, del inglés air traffic management) requerirá un cambio de paradigma, de la gestión principalmente táctica de hoy, a las denominadas operaciones basadas en trayectoria. Un incremento en el nivel de automatización liberará al personal de ATM —controladores, tripulación, etc.— de muchas de las tareas que realizan hoy. Las personas seguirán siendo el elemento central en la gestión del tráfico aéreo del futuro, pero lo serán mediante la gestión y toma de decisiones. Se espera que estas dos mejoras traigan un incremento en la eficiencia de la gestión del tráfico aéreo que permita hacer frente al incremento previsto en la demanda de transporte aéreo. Para aplicar el concepto de operaciones basadas en trayectoria, el usuario del espacio aéreo (la aerolínea, piloto, u operador) y el proveedor del servicio de navegación aérea deben negociar las trayectorias mediante un proceso de toma de decisiones colaborativo. En esta negociación, es necesaria una forma adecuada de compartir dichas trayectorias. Compartir la trayectoria completa requeriría un gran ancho de banda, y la trayectoria compartida podría invalidarse si cambiase la predicción meteorológica. En su lugar, podría compartirse una descripción de la trayectoria independiente de las condiciones meteorológicas, de manera que la trayectoria real se pudiese calcular a partir de dicha descripción. Esta descripción de la trayectoria debería ser fácil de procesar usando un programa de ordenador —ya que parte del proceso de toma de decisiones estará automatizado—, pero también fácil de entender para un operador humano —que será el que supervise el proceso y tome las decisiones oportunas—. Esta tesis presenta una serie de lenguajes formales que pueden usarse para este propósito. Estos lenguajes proporcionan los medios para describir trayectorias de aviones durante todas las fases de vuelo, desde la maniobra de push-back (remolcado hasta la calle de rodaje), hasta la llegada a la terminal del aeropuerto de destino. También permiten describir trayectorias tanto de aeronaves tripuladas como no tripuladas, incluyendo aviones de ala fija y cuadricópteros. Algunos de estos lenguajes están estrechamente relacionados entre sí, y organizados en una jerarquía. Uno de los lenguajes fundamentales de esta jerarquía, llamado aircraft intent description language (AIDL), ya había sido desarrollado con anterioridad a esta tesis. Este lenguaje fue derivado de las ecuaciones del movimiento de los aviones de ala fija, y puede utilizarse para describir sin ambigüedad trayectorias de este tipo de aeronaves. Una variante de este lenguaje, denominada quadrotor AIDL (QR-AIDL), ha sido desarrollada en esta tesis para permitir describir trayectorias de cuadricópteros con el mismo nivel de detalle. Seguidamente, otro lenguaje, denominado intent composite description language (ICDL), se apoya en los dos lenguajes anteriores, ofreciendo más flexibilidad para describir algunas partes de la trayectoria y dejar otras sin especificar. El ICDL se usa para proporcionar descripciones genéricas de maniobras comunes, que después se particularizan y combinan para formar descripciones complejas de un vuelo. Otro lenguaje puede construirse a partir del ICDL, denominado flight intent description language (FIDL). El FIDL especifica requisitos de alto nivel sobre las trayectorias —incluyendo restricciones y objetivos—, pero puede utilizar características del ICDL para proporcionar niveles de detalle arbitrarios en las distintas partes de un vuelo. Tanto el ICDL como el FIDL han sido desarrollados en colaboración con Boeing Research & Technology Europe (BR&TE). También se ha desarrollado un lenguaje para definir misiones en las que interactúan varias aeronaves, el mission intent description language (MIDL). Este lenguaje se basa en el FIDL y mantiene todo su poder expresivo, a la vez que proporciona nuevas semánticas para describir tareas, restricciones y objetivos relacionados con la misión. En ATM, los movimientos de un avión en la superficie de aeropuerto también tienen que ser monitorizados y gestionados. Otro lenguaje formal ha sido diseñado con este propósito, llamado surface movement description language (SMDL). Este lenguaje no pertenece a la jerarquía de lenguajes descrita en el párrafo anterior, y se basa en las clearances (autorizaciones del controlador) utilizadas durante las operaciones en superficie de aeropuerto. También proporciona medios para expresar incertidumbre y posibilidad de cambios en las distintas partes de la trayectoria. Finalmente, esta tesis explora las aplicaciones de estos lenguajes a la predicción de trayectorias y a la planificación de misiones. El concepto de trajectory language processing engine (TLPE) se usa en ambas aplicaciones. Un TLPE es una función de ATM cuya principal entrada y salida se expresan en cualquiera de los lenguajes incluidos en la jerarquía descrita en esta tesis. El proceso de predicción de trayectorias puede definirse como una combinación de TLPEs, cada uno de los cuales realiza una pequeña sub-tarea. Se le ha dado especial importancia a uno de estos TLPEs, que se encarga de generar el perfil horizontal, vertical y de configuración de la trayectoria. En particular, esta tesis presenta un método novedoso para la generación del perfil vertical. El proceso de planificar una misión también se puede ver como un TLPE donde la entrada se expresa en MIDL y la salida consiste en cierto número de trayectorias —una por cada aeronave disponible— descritas utilizando FIDL. Se ha formulado este problema utilizando programación entera mixta. Además, dado que encontrar caminos óptimos entre distintos puntos es un problema fundamental en la planificación de misiones, también se propone un algoritmo de búsqueda de caminos. Este algoritmo permite calcular rápidamente caminos cuasi-óptimos que esquivan todos los obstáculos en un entorno urbano. Los diferentes lenguajes formales definidos en esta tesis pueden utilizarse como una especificación estándar para la difusión de información entre distintos actores de la gestión del tráfico aéreo. En conjunto, estos lenguajes permiten describir trayectorias con el nivel de detalle necesario en cada aplicación, y se pueden utilizar para aumentar el nivel de automatización explotando esta información utilizando sistemas de soporte a la toma de decisiones. La aplicación de estos lenguajes a algunas funciones básicas de estos sistemas, como la predicción de trayectorias, han sido analizadas. ABSTRACT Future air traffic management (ATM) will require a paradigm shift from today’s mainly tactical ATM to trajectory-based operations (TBOs). An increase in the level of automation will also relieve humans —air traffic control officers (ATCOs), flight crew, etc.— from many of the tasks they perform today. Humans will still be central in this future ATM, as decision-makers and managers. These two improvements (TBOs and increased automation) are expected to provide the increase in ATM performance that will allow coping with the expected increase in air transport demand. Under TBOs, trajectories are negotiated between the airspace user (an airline, pilot, or operator) and the air navigation service provider (ANSP) using a collaborative decision making (CDM) process. A suitable method for sharing aircraft trajectories is necessary for this negotiation. Sharing a whole trajectory would require a high amount of bandwidth, and the shared trajectory might become invalid if the weather forecast changed. Instead, a description of the trajectory, decoupled from the weather conditions, could be shared, so that the actual trajectory could be computed from this trajectory description. This trajectory description should be easy to process using a computing program —as some of the CDM processes will be automated— but also easy to understand for a human operator —who will be supervising the process and making decisions. This thesis presents a series of formal languages that can be used for this purpose. These languages provide the means to describe aircraft trajectories during all phases of flight, from push back to arrival at the gate. They can also describe trajectories of both manned and unmanned aircraft, including fixedwing and some rotary-wing aircraft (quadrotors). Some of these languages are tightly interrelated and organized in a language hierarchy. One of the key languages in this hierarchy, the aircraft intent description language (AIDL), had already been developed prior to this thesis. This language was derived from the equations of motion of fixed-wing aircraft, and can provide an unambiguous description of fixed-wing aircraft trajectories. A variant of this language, the quadrotor AIDL (QR-AIDL), is developed in this thesis to allow describing a quadrotor aircraft trajectory with the same level of detail. Then, the intent composite description language (ICDL) is built on top of these two languages, providing more flexibility to describe some parts of the trajectory while leaving others unspecified. The ICDL is used to provide generic descriptions of common aircraft manoeuvres, which can be particularized and combined to form complex descriptions of flight. Another language is built on top of the ICDL, the flight intent description language (FIDL). The FIDL specifies high-level requirements on trajectories —including constraints and objectives—, but can use features of the ICDL to provide arbitrary levels of detail in different parts of the flight. The ICDL and FIDL have been developed in collaboration with Boeing Research & Technology Europe (BR&TE). Also, the mission intent description language (MIDL) has been developed to allow describing missions involving multiple aircraft. This language is based on the FIDL and keeps all its expressive power, while it also provides new semantics for describing mission tasks, mission objectives, and constraints involving several aircraft. In ATM, the movement of aircraft while on the airport surface also has to be monitored and managed. Another formal language has been designed for this purpose, denoted surface movement description language (SMDL). This language does not belong to the language hierarchy described above, and it is based on the clearances used in airport surface operations. Means to express uncertainty and mutability of different parts of the trajectory are also provided. Finally, the applications of these languages to trajectory prediction and mission planning are explored in this thesis. The concept of trajectory language processing engine (TLPE) is used in these two applications. A TLPE is an ATM function whose main input and output are expressed in any of the languages in the hierarchy described in this thesis. A modular trajectory predictor is defined as a combination of multiple TLPEs, each of them performing a small subtask. Special attention is given to the TLPE that builds the horizontal, vertical, and configuration profiles of the trajectory. In particular, a novel method for the generation of the vertical profile is presented. The process of planning a mission can also be seen as a TLPE, where the main input is expressed in the MIDL and the output consists of a number of trajectory descriptions —one for each aircraft available in the mission— expressed in the FIDL. A mixed integer linear programming (MILP) formulation for the problem of assigning mission tasks to the available aircraft is provided. In addition, since finding optimal paths between locations is a key problem to mission planning, a novel path finding algorithm is presented. This algorithm can compute near-shortest paths avoiding all obstacles in an urban environment in very short times. The several formal languages described in this thesis can serve as a standard specification to share trajectory information among different actors in ATM. In combination, these languages can describe trajectories with the necessary level of detail for any application, and can be used to increase automation by exploiting this information using decision support tools (DSTs). Their applications to some basic functions of DSTs, such as trajectory prediction, have been analized.