288 resultados para periodización táctica


Relevância:

10.00% 10.00%

Publicador:

Resumo:

El objetivo de este artículo es analizar continuidades. Esto significa pensar las permanencias existentes en el proceso de participación que los jóvenes, de distintas épocas, protagonizan. No siempre se realizó de la misma manera, ya que no existe homogeneidad en las "tácticas",en las formas en que los más débiles luchan, o mejor dicho, resisten a las "estrategias" de los más fuertes. La táctica, para M. de Certeau, es el arte del débil, se encuentra determinada por la ausencia de poder, es astuta, obra poco a poco, aprovechando las ocasiones de imponerse imperceptiblemente a su oponente. No pueden generalizarse los resultados ni tampoco sus objetivos, sin embargo, pueden visualizarse ciertas continuidades dentro del movimiento juvenil que permiten visualizarlos como los principales protagonistas de movimientos de reclamo frente a situaciones de injusticia variada. Esto nos permitiría pensar en la prolongación del pasado reciente vivo en el presente vivido

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La tesis indaga las relaciones entre prensa periódica y cultura literaria que durante la primera mitad del siglo XIX, tanto en Chile como en el Río de la Plata, viabilizaron los procesos de formación de un imaginario y un público lector nacionales, y contribuyeron a la creación -temporal y territorialmente diferenciada- de un canon literario y estético. La tesis analiza las modalidades de construcción pública de las culturas literarias chilena y argentina ya consolidada la independencia, y especialmente los modos en que la prensa periódica incidió en los programas literarios de las respectivas élites letradas. Para ello, se estudia un amplio corpus de publicaciones periódicas que se extiende desde El Recopilador (1836) hasta El Talismán o El Corsario (1840) en el Río de la Plata, y desde El Semanario de Santiago (1842) hasta El Correo Literario (1858) o La Semana (1859) en Chile. Los límites de la periodización propuesta acompañan el itinerario de esas publicaciones de la primera mitad del siglo, y coinciden con el ingreso y la difusión de las ideas románticas que incentivaron la preocupación letrada por definir la problemática relación entre cultura y nacionalidad. El enfoque comparativo, por su parte, contempla particularidades, así como simetrías y divergencias, en la formación de imaginarios y tradiciones culturales de ambos territorios.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El carácter de la heterogeneidad social, económica y productiva de la agriculturización se evidencia en los diversos tipos de productores existentes en la pampa húmeda. La agriculturización se asocia a modificaciones en la calidad de las tierras, en la estructura socio-productiva, en las estrategias productivas aplicadas y en las formas de uso del suelo. Suele plantearse sin embargo que las problemáticas edáficas asociadas a dicha agriculturización, son consecuencia de la aplicación de paquetes tecnológicos relativamente homogéneos, independientemente de los diferentes tipos de productores que los llevan a cabo. Nuestra hipótesis consiste en cambio, en que el deterioro en Argiudoles típicos pampeanos es el resultado, dadas distintas posiciones del relieve, de complejas combinaciones de diversas estrategias productivas adoptadas por diferentes tipos de productores. En el partido de Luján tipificamos los productores tomando en consideración sus niveles de capitalización (capitalizados y no capitalizados) y su organización del trabajo (familiar y no familiar). Definimos cinco estrategias productivas (4 agrícolas -con uno o dos cultivos por año, con siembra directa o labranza convencional- y 1 ganadera) y dos ambientes (loma y bajo). A partir del catastro municipal aplicamos una encuesta a una muestra estratificada estadísticamente representativa, por ubicación y tamaño de lotes. Sobre la misma realizamos el muestreo que nos permitió analizar los siguientes parámetros: profundidad del horizonte, densidad aparente, materia orgánica, acidez, nitrógeno, fósforo, potasio. Calculamos el contenido de materia orgánica y de nitrógeno por hectárea, y el deterioro relativo. Realizamos test de hipótesis de comparación de medias, prueba F y prueba t; y, calculamos finalmente los deterioros relativos. Utilizamos como indicador el contenido de materia orgánica por hectárea, dada su mayor sensibilidad a los cambios en las condiciones del suelo. Dos de nuestros principales hallazgos nos indican, en primer lugar, que al cultivar en lomas y con siembra directa, todos los tipos de productores presentaron los valores más bajos de deterioro relativo, excepto los familiares no capitalizados que obtienen los menores deterioros relativos con labranza convencional, aún en los bajos. Estos productores utilizan la ganadería en rotación con los cultivos como táctica de cuidado del suelo. Los empresarios capitalizados presentan los mayores valores de deterioro relativo en los bajos. Los familiares presentan menores pérdidas, cuando son capitalizados logran las mejores situaciones relativas al aplicar siembra directa en los bajos. En segundo lugar, ninguna dimensión -tipo de productor, estrategias productivas, ambientes- analizada aisladamente determina el deterioro relativo de los suelos. Pero, al mismo tiempo, ninguno puede ser descartado sino que debería ser incluido en una combinación que integre las condiciones de ambiente y las estrategias productivas de los diferentes tipos de productores que manejan los suelos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Más allá de diferencias en sus declinaciones nacionales, resulta indiscutible la importancia fundacional de la dupla "comunidad-sociedad" en la sociología de finales del siglo XIX y comienzos del XX. Las ideas/nociones/conceptos de "masa" y "multitud" no fueron menos importantes para aquellas sociologías. Pero, a diferencia de aquellos otros constructos, que positivamente pretendieron comprender las formas actuales de la vida colectiva, masa y multitud quedaron (por lo menos, en aquel momento histórico) invariablemente vinculadas a una suerte de "lado oscuro" de la sociedad moderna, a la irrupción inminente de peligros, a irracionalidad, descontrol y desindividualización, a patologías y sugestiones colectivas. Partiendo de estas cuestiones, el paper intentará trazar el bosquejo de una historia de la problematización de los conceptos de masa y multitud en la sociología y en la teoría social. Esto supondrá: a) una periodización, desde finales del siglo XIX hasta hoy, identificando las posiciones teóricas más importantes, desde las ansiedades de Le Bon y las apuestas de Park, pasando por la crítica frankfurtiana a la "sociedad de masas", hasta las esperanzas de Negri; b) una identificación de sus dimensiones constitutivas (individualidad/colectividad, espacialidad, afectividad, potencialidades (anti)democráticas, co-presencia/ausencia, etc.); c) una descripción de algunos matices culturales-nacionales- regionales presentes en su construcción

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El propósito de este trabajo es reflexionar sobre las dificultades de la integración de las Tecnologías de la Información y Comunicación en el currículo de historia. Para ello hemos realizado un proceso de documentación bibliográfica y de análisis de los currículos reglados, y también un estudio y periodización de nuestra propia experiencia. Las políticas públicas para promover el empleo de las TIC en la enseñanza son un factor de este problema, pero el modelo de enseñanza de la mayoría del profesorado de historia es el principal. Su transformación parece un logro difícil, por lo que el futuro de las TIC en las clases de historia sigue siendo incierto

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Las finalidades de esta tesina han sido varias y han venido unidas unas a otras o como consecuencia de ellas He pretendido como ya he dicho anteriormente» desmenuzar y estudiar la carrera de los 100 metros lisos tan profundamente como me fuera posible, para comprender las causas de las variaciones que tienen lugar tanto de velocidad y aceleración como frecuencia y amplitud a lo largo del hectómetro He intentado ver si las características de estas variaciones son distintas en cada carrera o por el contrario existen unos patrones comunes en todas ellas* ¿ Se puede correr un 100 m terminando a la máxima velocidad? ¿Se puede cambiar de ritmo? ¿Puede aplicarse una táctica independiente en cada carrera como pudiera suceder en una competición de 800 O 1500 m. o por el contrario ¿Hay que correr siempre de igual forma? Como consecuencia de todo esto, me he visto obligado a investigar todo lo que he podido sobre velocidad y sobre los 100 m concretamente y creo que el fruto obtenido ha sido máximo pues el trabajo realizado me sirvió para sedimentar ideas y aprender mucho sobre velocidad Además gracias a que me he visto obligado a profundizar sobre el tema, me he dado cuenta del enorme campo de investigación que se abre a raíz de este y que espero algún día con mejores medios poder continuar

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El deporte de la esgrima no siempre ha sido considerado como actualmente se conoce, ni tampoco el empleo de las armas ha sido el mismo en las diferentes épocas de la historia. Si nos centramos en la española, podemos decir que se hablaba de una forma particular de hacer esgrima, la cual era muy apreciada por el resto de los países europeos. También lo era la que se hacía en Italia. Como cualquier actividad que se desarrolla a lo largo del tiempo debe generarse desde unos comienzos. Estos comienzos siempre están en relación a alguna causa. Para centrarnos en nuestro estudio, los comienzos del manejo de la espada, de una manera lógica y razonada, se une en la persona y en la vida de Jerónimo Sánchez Carranza porque hasta que él no se decide a estudiar en profundidad la ciencia de las armas, no se ve con claridad si todo lo que se hacía con ellas era correcto o no y si todo lo que la inmensa mayoría hacía cuando tenía que utilizarlas estaba revestido de cierta coherencia y fundamento, es decir, tenía su verdad que se pudiera demostrar. Carranza estudia la esgrima que se empleaba en su época y en las anteriores y se da cuenta que tiene que dar una nueva visión de la forma de usar las armas, diferente a lo que la gran mayoría entendía hasta entonces. A Carranza se le ha considerado por muchos autores como el inventor de la esgrima española, hecho que se puede leer con bastante facilidad si se hojea algún tratado que hable de la esgrima española, sin embargo también se habla de Luis Pacheco de Narváez asignándole el mismo calificativo, aunn- ;o es posteriora Carranza. or tanto nuestro estudio se ha centrado en la vida de Jerónimo Sánchez Carranza y en ueva forma de emplear las armas por lo que hace que la tesis sea una tesis biográfica de dicho personaje, donde se ha resaltado mucho más el aspecto del manejo de las armas, de la Destreza. Partimos de las siguientes hipótesis: Carranza es el que sienta los principios técnicos dando forma y coherencia a la escuela de esgrima española gracias a sus aportaciones en los distintos aspectos metodológicos, técnicos y tácticos. La escuela de esgrima española tiene una estructura interna, responde a unas características determinadas y sirve de base a la esgrima que posteriormente se practica. Para que el estudio se pudiera llevar a cabo tuvimos que diseñar un esquema donde se pudieran recoger todos los aspectos que estuvieran relacionados con nuestro autor, de ahí surge el porqué de cada uno de los capítulos que hemos confeccionado. Dicho esquema responde a la visión actual de diferentes facetas de lo que hoy se estudia en diversas ciencias y que cuando Carranza vivía aún no se conocían. Para recoger información sobre su persona y su obra tuvimos en cuenta los distintos lugares donde se podía localizar la documentación necesaria, sobre todo Bibliotecas y Archivos, para ir confeccionando el método de trabajo que consistió en la recopilación de fuentes de todo tipo referidas al tema, pasando luego a la interpretación de las mismas. Esto nos dio una visión de conjunto que hizo que nos adentráramos en aquellos aspectos que más tarde tendríamos que analizar con mucho más detenimiento. En la tesis se puede observar dos partes bien diferenciadas que son las relacionadas; por un lado, a su vida y su tratado y, por otro, al contenido de sus teorías que son realmente las que se deben analizar necesariamente bajo unos conocimientos específicos de la actividad de la esgrima. En cuanto a su vida, se han destacado y estudiado los hechos más importantes de los que hay que resaltar, sobre todo, el que fuera considerado como el inventor de la destreza y de la manera tan particular de concebir dicho arte, diferente a lo que hasta ahora se venía haciendo y que dio paso a lo que se entendió por esgrima científica, quedando plasmada de tal manera que dio pie a la creación de una doctrina y una nueva forma de entender la esgrima la cual generó una línea de actuación que fue continuada por numerosos seguidores. Para todo ello tuvo mucho que ver el que Carranza fuera militar, la cultura y los estudios que poseía, así como la situación en la que se encontraba España además de la gente con quien se relacionaba, que por lo general, era gente culta y de clase social alta. Se ha estudiado también dentro del mismo apartado de su vida unos hechos que se le imputan y que en nuestra opinión son erróneos. Hemos considerado como más relevantes el que Carranza no fue quien riñó con Quevedo como se afirma en algunas de las obras que hemos tratado, sino que fue Pacheco quien tuvo dicha riña, ya que más bien Quevedo se mostraba partidario de las enseñanzas de Carranza, estando en contra de Pacheco. Tampoco fue quien inventó el florete como se dice en algunas ocasiones, ya que el florete aparece posteriormente como un arma de estudio de la técnica de la esgrima. Con respecto al apartado de su obra, se debe decir que tan solo escribió un único tratado que se publicó en 1582, aunque estaba acabado desde el año 1569. En el apartado de su escuela se debe destacar los fundamentos en los que basó sus postulados para que la destreza alcanzara el mismo nivel de las demás artes liberales y que lo hizo a través del estudio de la propia destreza. A lo largo del estudio que hemos realizado se puede apreciar cómo se está generando un arte que hasta ahora no había sido estudiado, viéndose los problemas que ello suponía, desde la organización de la materia a tratar, hasta cómo se debía enseñar, pasando a veces a tener que denominar conceptos de nueva aparición o renombrar y modificar antiguos que estaban anclados en puntos de partida equivocados, siendo éstos los que mayor trabajo le supuso. Diferencia bien dos aspectos básicos que debían existir en cualquier arte y más concretamente en la destreza que son: la teoría y la práctica, ambas deben estar en base a la razón ya que sería una de las formas por la que la destreza perduraría en el tiempo, junto con que esta razón estuviera apoyada en otras ciencias y con los principios de ellas. Carranza fue de la opinión de que el diestro debía conocer mediante el estudio, los elementos fundamentales con los que había que trabajar la destreza, estos elementos son el cuerpo del diestro y las armas, porque ambos van a intervenir en cualquier gesto o acción que se vaya a realizar. Del cuerpo estudió cada una de las partes que más importancia tiene cada vez que el diestro interviene y lo hace sobre todo en base a la medicina, relacionándolo con las matemáticas para poder sacar el máximo provecho, aconsejando que por el conocimiento del propio cuerpo, como el del contrario, se podrá emplear en determinadas situaciones, que si no se supiera de ello, no se sacaría el mismo resultado. De las armas lo que más resaltó fue, por un lado, que la espada debía ser el único arma que el diestro debía utilizar y, por otro, el hecho de que la espada la graduara para poder demostrar que no se hacia todo igual con las distintas partes de la misma porque no todo el arma tenía las mismas propiedades cuando se actuaba con ella. Una de las recomendaciones que dio fue que con la parte más próxima a la empuñadura se debía practicar la defensa por tener más fuerza con esta parte que con la punta y lo demostró con principios matemáticos. Se puede ver con la lectura de la tesis cómo Carranza aporta una nueva forma de trabajo en la que le da mucha importancia a la aplicación de los conocimientos, que previamente se han adquirido y para ello, es importante conocer bien los puntos fuertes y débiles del adversario. La adquisición de la práctica se debe realizar a través de la repetición para crear el hábito necesario que haga que el gesto salga fluido en cada uno de los movimientos que el diestro ejecute. Todo esto no sería posible si quien lo enseña no conoce cada uno de los elementos que intervienen en la destreza, por tanto, a la figura del maestro le da un lugar de una gran relevancia, ya que va a ser él quien tenga que guiar a los alumnos que enseñe. Lo primero que debe hacer los maestros es procurar saber lo máximo de la materia que va a enseñar, por lo que el maestro debe saber casi todo sobre la teoría y la práctica de la destreza, pero además esta teoría y práctica debe ser la correcta. Carranza persigue con su estudio, establecer los principios de la destreza, por lo menos, los más importantes, aunque fueran elementales, para que posteriormente se siguiera trabajando sobre ellos y poder conseguir que la destreza tenga cuerpo y forma de arte liberal, pudiéndose estudiar como cualquier otra, así de esta manera se haría un bien público, ya que los jóvenes se instruirían eficazmente en el uso de las armas, aunque el verdadero fin se encuentra en la conservación de la vida como manda la Fe Católica, siendo la destreza uno de los medios más eficaces para conseguirlo. Hemos dedicado un apartado de técnica y de táctica donde se refleja todo lo relacionado con las posiciones y movimientos que debe realizar el diestro para llegar a conseguir su objetivo, que es herir sin ser herido. Se han analizado las distintas tretas y el porqué de cada una desde el punto de vista del gesto y del movimiento. Si lo que se hace en destreza se relaciona con el adversario, nos adentramos en el terreno de la táctica donde se han estudiado como más importantes los conceptos del tiempo y la distancia, así como las energías que debe conservar el diestro para poder llevar a cabo un combate y del mismo salir victorioso sin llegar al agotamiento. Concluimos diciendo que de todo el estudio que se ha realizado, se ha podido comprobar que Carranza fue quien dotó a la destreza de unos principios técnicos, tácticos y metodológicos, por su forma de concebir este nuevo arte, así como que por la manera en que estableció sus teorías hizo que la destreza que se practicaba en España disfrutara de una estructura interna coherente que perduró a través de los años. SUMMARY The sport of fencing has not always been the respected sport that we know it to be today ñor has the use of weapons been the same throughout history. If we concéntrate on Spainish weapons, we can say that one particular type of sword ¡s spoken about. this sword being very respected by outher European countries, it was also the one that was respected and used in Italy. As with any activity that develops in time, it must evlove from some simple beginnings. Such basics beginnings are always in relation to a cause. To concéntrate on our study, the beginnings are, the use of the sword in a reasoned and logical manner, brought together in the life and times of Jerónimo Sánchez Carranza because until he decided to study in depth the science of weapons, we cannot see with calrity if their use was correct or not and if the vast majority , when they had to use them, used any foundation or coherence, that ¡s to say if any exactness of logical use could be demonstrated. Carranza studied the sword used in his time and those that had gone before, bearing in mind that he had a new visión of the form of use of weapons, different to what the vast majority had until then understood. Carranza has been considered by many historians as the inventor of the Spanish sword, a fact which can be seen with relative ease if one flicks through any work which deals with the Spanish sword, however, they also speak of Luis Pacheco de Narváez affording him the same title, even though he followed Carranza. In ar H our study has been centred on the life of Jerónimo Sánchez Carranza and his ne-" use of weapons. In effect this thesis is a biographical thesis of the said wherein the aspect of the use of weapons stands out more than their mastery. Given the following hypothesis: It was Carranza who evolved the first techniques giving form and coherence to the .Spanish School of Fencing, thanks to his contributions to the different aspects of method, íechnique and tactic. The Spanish School of Fencing had an ¡nternal structure anaswerable to pre-detremined characteristics and served as a base for the fencing that was to, in later days, be practised. For this study to come to a head, we had to design a plan wherein we could collate all of the aspects we could, related to our inventor. From there springs the reason for each of the chapters that we have put together. The said plan responding to the actual visión of different facets that are studied today in different sciences, that were not known in Carranza's lifetime. To collect information on his person and his works we bore in mind the different places in which we could lócate the necessary documentation, above all in libraries and archives. Developing the work-method that consisted in extracing from every source, every thing relative to the theme, re-writing later our interpretation of the same. This brought us closer and made us focus of those aspects that much later we would have to analize in greater detail. In the thesis one can observe two defferent parts that are related; on the one hand his life and works and on the other his theories, which are those that should be really analised and as such, necessarily analised within the confines of a specific knowledge of fencing. In that his life has been isolated and studied the most important facts that stand out above all, is that he was considered to be the inventor of swordmanship and the particular manner of interpreting the said art, different to its interpretaion uptil then. It gave a footing to what they understood as scientific fencing, giving shape and form to the creation of a doctrine and a new form of fencing which developed a line of action that was continued by numerious followers. For all that, much had to do with the facts that Carranza was a military man, the culture, the level of studies he had and the situation in which he found himself. What's more the people with whom he mixed were, in general, cultured and of high social standing. We have also seen in the same article on his life some dubious facts which in our opinión are erróneos. We have considered the most relevent to be that it wasnt Carranza who was in dispute with Quevedo as is stated in some of the works with which we have dealt but rather it was with Pacheco he had such disputes. What's more Quevedo demonstrated his partiality to the teachings of Carranza, going against Pacheco ñor was it him who invented The Florete, a famous Spanish sword, as was said on some ocassions, eventhough the florete appeared later as a weapon in the study of fencing technique. With respect to the article on his works, we must say that there was only one article which was published in 1582, even though it was finished in 1569. In the article on his life one must distinguish between the foundations on which he based his teachings in which swordmanship reached the same levéis as other libral art forms and what he did through the study of the self same mastery. Throughout the study which we have done, one can appreciate how he was developing an art which uptill then had not been studied, seeing for himself the problems he had fortold, from the organisation of materials at hand to how it should be taught, at times having to domínate comparative concepts again or clarify and modify ones which were anchored in erróneos points of a fencing match, feeling these to be the main forseeable jobs-at-hand. Differenciating between two basic concepts which must exist in whatever arte form and more concretly in the skill that is; the theory and practice , both being fundamental to the reason why the skill endured through time, together with this reason he was supported by other sciences and the beginnings of such. Carranza was of the opinión that the swordsman must acquired by way of study, the fundemental elements with which he had to work, these elements being the body of the swordsman and the weapons, because both were going to intervene in whatever movement or action that was going to be taken. The body studied, each of the parts having more importance each time the skill intervened and above all what it did based on medicne relating it to matemathics to exact the máximum advantage, one could employ in certain circumstances, that if they were not employed, the same advantages would not result. On weapons, what resulted best was, on the one hand, the sword should be the only weapon that the swordsman should use and on the other hand, the sword should be graded to show that one cannot do the same with the different parts of the same because not all of the weapon had the same properties when used. One of the recomendations he made was that the part nearest to the hand-guard should be used for defence because one could use more forcé with it than the point and he demonstrated this with mathematical principies. One can see on reading this thesis how Carranza brought forth a new work form, in which he put much importance on the application of experience that had previously been acquired and because of it, it was important to know well the strenghts and weaknesses of an adversery. The acquisition of technique should be realised through repetition to form the habit necessary for movement to flow freely each time the swordsman executed a movement. None of this would be possible if whoever was teaching did not know each one of the elements that intervened, affording the fencing master a great reverence, in that it was he who had to guide the students he was to teach. The first thing that the master had to do was to make sure he had the maximun knowledge over which he was going to teach, to that end, the master had to know almost everything about the theory and practice of the skill of fencing but what's more that such theory and practice had to be the correct one. Carranza persued his studies, establishing the principies of technique, at least, the most important ones even though they were elementary, so that later they could continué working on them and it could be seen that the technique had a shape and form of any other art form, allowing it to be studied like any other form, as such it had a good following, even young people could be instructed in the correct use of weapons, however the real end could be found in the conservaron of life as ordered by the Catholic Church, feeling that skill with the sword was one of the most effective methods for assuring it. We have dedicated an article to technique and tactics wherein is reflected everything related to positions and movement that the swordsman must do to achieve his objective, that is, wound without being wounded. We have analised the different tricks and the reasons from every point of view of movement and action. If what is done by technique is related with the adversery we enter in the territory of tactics wherein we have studied, most importantly, the concepts of time and distance just as, the energy the swordsman muse conserve to bring to a head a bout and arrive victorious without being exhausted. We conclude by saying that everything that has been realised by this study, has shown that it was Carranza who gave to the skill, the first basic techniques, tactics and methodology, by his conception of this new art form, just as the manner in which he established his theories, made possible the tecnhiques practiced in Spain would enjoy an intemal coherent structure, which would endure throughout the years.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tesis doctoral se centra principalmente en técnicas de ataque y contramedidas relacionadas con ataques de canal lateral (SCA por sus siglas en inglés), que han sido propuestas dentro del campo de investigación académica desde hace 17 años. Las investigaciones relacionadas han experimentado un notable crecimiento en las últimas décadas, mientras que los diseños enfocados en la protección sólida y eficaz contra dichos ataques aún se mantienen como un tema de investigación abierto, en el que se necesitan iniciativas más confiables para la protección de la información persona de empresa y de datos nacionales. El primer uso documentado de codificación secreta se remonta a alrededor de 1700 B.C., cuando los jeroglíficos del antiguo Egipto eran descritos en las inscripciones. La seguridad de la información siempre ha supuesto un factor clave en la transmisión de datos relacionados con inteligencia diplomática o militar. Debido a la evolución rápida de las técnicas modernas de comunicación, soluciones de cifrado se incorporaron por primera vez para garantizar la seguridad, integridad y confidencialidad de los contextos de transmisión a través de cables sin seguridad o medios inalámbricos. Debido a las restricciones de potencia de cálculo antes de la era del ordenador, la técnica de cifrado simple era un método más que suficiente para ocultar la información. Sin embargo, algunas vulnerabilidades algorítmicas pueden ser explotadas para restaurar la regla de codificación sin mucho esfuerzo. Esto ha motivado nuevas investigaciones en el área de la criptografía, con el fin de proteger el sistema de información ante sofisticados algoritmos. Con la invención de los ordenadores se ha acelerado en gran medida la implementación de criptografía segura, que ofrece resistencia eficiente encaminada a obtener mayores capacidades de computación altamente reforzadas. Igualmente, sofisticados cripto-análisis han impulsado las tecnologías de computación. Hoy en día, el mundo de la información ha estado involucrado con el campo de la criptografía, enfocada a proteger cualquier campo a través de diversas soluciones de cifrado. Estos enfoques se han fortalecido debido a la unificación optimizada de teorías matemáticas modernas y prácticas eficaces de hardware, siendo posible su implementación en varias plataformas (microprocesador, ASIC, FPGA, etc.). Las necesidades y requisitos de seguridad en la industria son las principales métricas de conducción en el diseño electrónico, con el objetivo de promover la fabricación de productos de gran alcance sin sacrificar la seguridad de los clientes. Sin embargo, una vulnerabilidad en la implementación práctica encontrada por el Prof. Paul Kocher, et al en 1996 implica que un circuito digital es inherentemente vulnerable a un ataque no convencional, lo cual fue nombrado posteriormente como ataque de canal lateral, debido a su fuente de análisis. Sin embargo, algunas críticas sobre los algoritmos criptográficos teóricamente seguros surgieron casi inmediatamente después de este descubrimiento. En este sentido, los circuitos digitales consisten típicamente en un gran número de celdas lógicas fundamentales (como MOS - Metal Oxide Semiconductor), construido sobre un sustrato de silicio durante la fabricación. La lógica de los circuitos se realiza en función de las innumerables conmutaciones de estas células. Este mecanismo provoca inevitablemente cierta emanación física especial que puede ser medida y correlacionada con el comportamiento interno del circuito. SCA se puede utilizar para revelar datos confidenciales (por ejemplo, la criptografía de claves), analizar la arquitectura lógica, el tiempo e incluso inyectar fallos malintencionados a los circuitos que se implementan en sistemas embebidos, como FPGAs, ASICs, o tarjetas inteligentes. Mediante el uso de la comparación de correlación entre la cantidad de fuga estimada y las fugas medidas de forma real, información confidencial puede ser reconstruida en mucho menos tiempo y computación. Para ser precisos, SCA básicamente cubre una amplia gama de tipos de ataques, como los análisis de consumo de energía y radiación ElectroMagnética (EM). Ambos se basan en análisis estadístico y, por lo tanto, requieren numerosas muestras. Los algoritmos de cifrado no están intrínsecamente preparados para ser resistentes ante SCA. Es por ello que se hace necesario durante la implementación de circuitos integrar medidas que permitan camuflar las fugas a través de "canales laterales". Las medidas contra SCA están evolucionando junto con el desarrollo de nuevas técnicas de ataque, así como la continua mejora de los dispositivos electrónicos. Las características físicas requieren contramedidas sobre la capa física, que generalmente se pueden clasificar en soluciones intrínsecas y extrínsecas. Contramedidas extrínsecas se ejecutan para confundir la fuente de ataque mediante la integración de ruido o mala alineación de la actividad interna. Comparativamente, las contramedidas intrínsecas están integradas en el propio algoritmo, para modificar la aplicación con el fin de minimizar las fugas medibles, o incluso hacer que dichas fugas no puedan ser medibles. Ocultación y Enmascaramiento son dos técnicas típicas incluidas en esta categoría. Concretamente, el enmascaramiento se aplica a nivel algorítmico, para alterar los datos intermedios sensibles con una máscara de manera reversible. A diferencia del enmascaramiento lineal, las operaciones no lineales que ampliamente existen en criptografías modernas son difíciles de enmascarar. Dicho método de ocultación, que ha sido verificado como una solución efectiva, comprende principalmente la codificación en doble carril, que está ideado especialmente para aplanar o eliminar la fuga dependiente de dato en potencia o en EM. En esta tesis doctoral, además de la descripción de las metodologías de ataque, se han dedicado grandes esfuerzos sobre la estructura del prototipo de la lógica propuesta, con el fin de realizar investigaciones enfocadas a la seguridad sobre contramedidas de arquitectura a nivel lógico. Una característica de SCA reside en el formato de las fuentes de fugas. Un típico ataque de canal lateral se refiere al análisis basado en la potencia, donde la capacidad fundamental del transistor MOS y otras capacidades parásitas son las fuentes esenciales de fugas. Por lo tanto, una lógica robusta resistente a SCA debe eliminar o mitigar las fugas de estas micro-unidades, como las puertas lógicas básicas, los puertos I/O y las rutas. Las herramientas EDA proporcionadas por los vendedores manipulan la lógica desde un nivel más alto, en lugar de realizarlo desde el nivel de puerta, donde las fugas de canal lateral se manifiestan. Por lo tanto, las implementaciones clásicas apenas satisfacen estas necesidades e inevitablemente atrofian el prototipo. Por todo ello, la implementación de un esquema de diseño personalizado y flexible ha de ser tomado en cuenta. En esta tesis se presenta el diseño y la implementación de una lógica innovadora para contrarrestar SCA, en la que se abordan 3 aspectos fundamentales: I. Se basa en ocultar la estrategia sobre el circuito en doble carril a nivel de puerta para obtener dinámicamente el equilibrio de las fugas en las capas inferiores; II. Esta lógica explota las características de la arquitectura de las FPGAs, para reducir al mínimo el gasto de recursos en la implementación; III. Se apoya en un conjunto de herramientas asistentes personalizadas, incorporadas al flujo genérico de diseño sobre FPGAs, con el fin de manipular los circuitos de forma automática. El kit de herramientas de diseño automático es compatible con la lógica de doble carril propuesta, para facilitar la aplicación práctica sobre la familia de FPGA del fabricante Xilinx. En este sentido, la metodología y las herramientas son flexibles para ser extendido a una amplia gama de aplicaciones en las que se desean obtener restricciones mucho más rígidas y sofisticadas a nivel de puerta o rutado. En esta tesis se realiza un gran esfuerzo para facilitar el proceso de implementación y reparación de lógica de doble carril genérica. La viabilidad de las soluciones propuestas es validada mediante la selección de algoritmos criptográficos ampliamente utilizados, y su evaluación exhaustiva en comparación con soluciones anteriores. Todas las propuestas están respaldadas eficazmente a través de ataques experimentales con el fin de validar las ventajas de seguridad del sistema. El presente trabajo de investigación tiene la intención de cerrar la brecha entre las barreras de implementación y la aplicación efectiva de lógica de doble carril. En esencia, a lo largo de esta tesis se describirá un conjunto de herramientas de implementación para FPGAs que se han desarrollado para trabajar junto con el flujo de diseño genérico de las mismas, con el fin de lograr crear de forma innovadora la lógica de doble carril. Un nuevo enfoque en el ámbito de la seguridad en el cifrado se propone para obtener personalización, automatización y flexibilidad en el prototipo de circuito de bajo nivel con granularidad fina. Las principales contribuciones del presente trabajo de investigación se resumen brevemente a continuación: Lógica de Precharge Absorbed-DPL logic: El uso de la conversión de netlist para reservar LUTs libres para ejecutar la señal de precharge y Ex en una lógica DPL. Posicionamiento entrelazado Row-crossed con pares idénticos de rutado en redes de doble carril, lo que ayuda a aumentar la resistencia frente a la medición EM selectiva y mitigar los impactos de las variaciones de proceso. Ejecución personalizada y herramientas de conversión automática para la generación de redes idénticas para la lógica de doble carril propuesta. (a) Para detectar y reparar conflictos en las conexiones; (b) Detectar y reparar las rutas asimétricas. (c) Para ser utilizado en otras lógicas donde se requiere un control estricto de las interconexiones en aplicaciones basadas en Xilinx. Plataforma CPA de pruebas personalizadas para el análisis de EM y potencia, incluyendo la construcción de dicha plataforma, el método de medición y análisis de los ataques. Análisis de tiempos para cuantificar los niveles de seguridad. División de Seguridad en la conversión parcial de un sistema de cifrado complejo para reducir los costes de la protección. Prueba de concepto de un sistema de calefacción auto-adaptativo para mitigar los impactos eléctricos debido a la variación del proceso de silicio de manera dinámica. La presente tesis doctoral se encuentra organizada tal y como se detalla a continuación: En el capítulo 1 se abordan los fundamentos de los ataques de canal lateral, que abarca desde conceptos básicos de teoría de modelos de análisis, además de la implementación de la plataforma y la ejecución de los ataques. En el capítulo 2 se incluyen las estrategias de resistencia SCA contra los ataques de potencia diferencial y de EM. Además de ello, en este capítulo se propone una lógica en doble carril compacta y segura como contribución de gran relevancia, así como también se presentará la transformación lógica basada en un diseño a nivel de puerta. Por otra parte, en el Capítulo 3 se abordan los desafíos relacionados con la implementación de lógica en doble carril genérica. Así mismo, se describirá un flujo de diseño personalizado para resolver los problemas de aplicación junto con una herramienta de desarrollo automático de aplicaciones propuesta, para mitigar las barreras de diseño y facilitar los procesos. En el capítulo 4 se describe de forma detallada la elaboración e implementación de las herramientas propuestas. Por otra parte, la verificación y validaciones de seguridad de la lógica propuesta, así como un sofisticado experimento de verificación de la seguridad del rutado, se describen en el capítulo 5. Por último, un resumen de las conclusiones de la tesis y las perspectivas como líneas futuras se incluyen en el capítulo 6. Con el fin de profundizar en el contenido de la tesis doctoral, cada capítulo se describe de forma más detallada a continuación: En el capítulo 1 se introduce plataforma de implementación hardware además las teorías básicas de ataque de canal lateral, y contiene principalmente: (a) La arquitectura genérica y las características de la FPGA a utilizar, en particular la Xilinx Virtex-5; (b) El algoritmo de cifrado seleccionado (un módulo comercial Advanced Encryption Standard (AES)); (c) Los elementos esenciales de los métodos de canal lateral, que permiten revelar las fugas de disipación correlacionadas con los comportamientos internos; y el método para recuperar esta relación entre las fluctuaciones físicas en los rastros de canal lateral y los datos internos procesados; (d) Las configuraciones de las plataformas de pruebas de potencia / EM abarcadas dentro de la presente tesis. El contenido de esta tesis se amplia y profundiza a partir del capítulo 2, en el cual se abordan varios aspectos claves. En primer lugar, el principio de protección de la compensación dinámica de la lógica genérica de precarga de doble carril (Dual-rail Precharge Logic-DPL) se explica mediante la descripción de los elementos compensados a nivel de puerta. En segundo lugar, la lógica PA-DPL es propuesta como aportación original, detallando el protocolo de la lógica y un caso de aplicación. En tercer lugar, dos flujos de diseño personalizados se muestran para realizar la conversión de doble carril. Junto con ello, se aclaran las definiciones técnicas relacionadas con la manipulación por encima de la netlist a nivel de LUT. Finalmente, una breve discusión sobre el proceso global se aborda en la parte final del capítulo. El Capítulo 3 estudia los principales retos durante la implementación de DPLs en FPGAs. El nivel de seguridad de las soluciones de resistencia a SCA encontradas en el estado del arte se ha degenerado debido a las barreras de implantación a través de herramientas EDA convencionales. En el escenario de la arquitectura FPGA estudiada, se discuten los problemas de los formatos de doble carril, impactos parásitos, sesgo tecnológico y la viabilidad de implementación. De acuerdo con estas elaboraciones, se plantean dos problemas: Cómo implementar la lógica propuesta sin penalizar los niveles de seguridad, y cómo manipular un gran número de celdas y automatizar el proceso. El PA-DPL propuesto en el capítulo 2 se valida con una serie de iniciativas, desde características estructurales como doble carril entrelazado o redes de rutado clonadas, hasta los métodos de aplicación tales como las herramientas de personalización y automatización de EDA. Por otra parte, un sistema de calefacción auto-adaptativo es representado y aplicado a una lógica de doble núcleo, con el fin de ajustar alternativamente la temperatura local para equilibrar los impactos negativos de la variación del proceso durante la operación en tiempo real. El capítulo 4 se centra en los detalles de la implementación del kit de herramientas. Desarrollado sobre una API third-party, el kit de herramientas personalizado es capaz de manipular los elementos de la lógica de circuito post P&R ncd (una versión binaria ilegible del xdl) convertido al formato XDL Xilinx. El mecanismo y razón de ser del conjunto de instrumentos propuestos son cuidadosamente descritos, que cubre la detección de enrutamiento y los enfoques para la reparación. El conjunto de herramientas desarrollado tiene como objetivo lograr redes de enrutamiento estrictamente idénticos para la lógica de doble carril, tanto para posicionamiento separado como para el entrelazado. Este capítulo particularmente especifica las bases técnicas para apoyar las implementaciones en los dispositivos de Xilinx y su flexibilidad para ser utilizado sobre otras aplicaciones. El capítulo 5 se enfoca en la aplicación de los casos de estudio para la validación de los grados de seguridad de la lógica propuesta. Se discuten los problemas técnicos detallados durante la ejecución y algunas nuevas técnicas de implementación. (a) Se discute el impacto en el proceso de posicionamiento de la lógica utilizando el kit de herramientas propuesto. Diferentes esquemas de implementación, tomando en cuenta la optimización global en seguridad y coste, se verifican con los experimentos con el fin de encontrar los planes de posicionamiento y reparación optimizados; (b) las validaciones de seguridad se realizan con los métodos de correlación y análisis de tiempo; (c) Una táctica asintótica se aplica a un núcleo AES sobre BCDL estructurado para validar de forma sofisticada el impacto de enrutamiento sobre métricas de seguridad; (d) Los resultados preliminares utilizando el sistema de calefacción auto-adaptativa sobre la variación del proceso son mostrados; (e) Se introduce una aplicación práctica de las herramientas para un diseño de cifrado completa. Capítulo 6 incluye el resumen general del trabajo presentado dentro de esta tesis doctoral. Por último, una breve perspectiva del trabajo futuro se expone, lo que puede ampliar el potencial de utilización de las contribuciones de esta tesis a un alcance más allá de los dominios de la criptografía en FPGAs. ABSTRACT This PhD thesis mainly concentrates on countermeasure techniques related to the Side Channel Attack (SCA), which has been put forward to academic exploitations since 17 years ago. The related research has seen a remarkable growth in the past decades, while the design of solid and efficient protection still curiously remain as an open research topic where more reliable initiatives are required for personal information privacy, enterprise and national data protections. The earliest documented usage of secret code can be traced back to around 1700 B.C., when the hieroglyphs in ancient Egypt are scribed in inscriptions. Information security always gained serious attention from diplomatic or military intelligence transmission. Due to the rapid evolvement of modern communication technique, crypto solution was first incorporated by electronic signal to ensure the confidentiality, integrity, availability, authenticity and non-repudiation of the transmitted contexts over unsecure cable or wireless channels. Restricted to the computation power before computer era, simple encryption tricks were practically sufficient to conceal information. However, algorithmic vulnerabilities can be excavated to restore the encoding rules with affordable efforts. This fact motivated the development of modern cryptography, aiming at guarding information system by complex and advanced algorithms. The appearance of computers has greatly pushed forward the invention of robust cryptographies, which efficiently offers resistance relying on highly strengthened computing capabilities. Likewise, advanced cryptanalysis has greatly driven the computing technologies in turn. Nowadays, the information world has been involved into a crypto world, protecting any fields by pervasive crypto solutions. These approaches are strong because of the optimized mergence between modern mathematical theories and effective hardware practices, being capable of implement crypto theories into various platforms (microprocessor, ASIC, FPGA, etc). Security needs from industries are actually the major driving metrics in electronic design, aiming at promoting the construction of systems with high performance without sacrificing security. Yet a vulnerability in practical implementation found by Prof. Paul Kocher, et al in 1996 implies that modern digital circuits are inherently vulnerable to an unconventional attack approach, which was named as side-channel attack since then from its analysis source. Critical suspicions to theoretically sound modern crypto algorithms surfaced almost immediately after this discovery. To be specifically, digital circuits typically consist of a great number of essential logic elements (as MOS - Metal Oxide Semiconductor), built upon a silicon substrate during the fabrication. Circuit logic is realized relying on the countless switch actions of these cells. This mechanism inevitably results in featured physical emanation that can be properly measured and correlated with internal circuit behaviors. SCAs can be used to reveal the confidential data (e.g. crypto-key), analyze the logic architecture, timing and even inject malicious faults to the circuits that are implemented in hardware system, like FPGA, ASIC, smart Card. Using various comparison solutions between the predicted leakage quantity and the measured leakage, secrets can be reconstructed at much less expense of time and computation. To be precisely, SCA basically encloses a wide range of attack types, typically as the analyses of power consumption or electromagnetic (EM) radiation. Both of them rely on statistical analyses, and hence require a number of samples. The crypto algorithms are not intrinsically fortified with SCA-resistance. Because of the severity, much attention has to be taken into the implementation so as to assemble countermeasures to camouflage the leakages via "side channels". Countermeasures against SCA are evolving along with the development of attack techniques. The physical characteristics requires countermeasures over physical layer, which can be generally classified into intrinsic and extrinsic vectors. Extrinsic countermeasures are executed to confuse the attacker by integrating noise, misalignment to the intra activities. Comparatively, intrinsic countermeasures are built into the algorithm itself, to modify the implementation for minimizing the measurable leakage, or making them not sensitive any more. Hiding and Masking are two typical techniques in this category. Concretely, masking applies to the algorithmic level, to alter the sensitive intermediate values with a mask in reversible ways. Unlike the linear masking, non-linear operations that widely exist in modern cryptographies are difficult to be masked. Approved to be an effective counter solution, hiding method mainly mentions dual-rail logic, which is specially devised for flattening or removing the data-dependent leakage in power or EM signatures. In this thesis, apart from the context describing the attack methodologies, efforts have also been dedicated to logic prototype, to mount extensive security investigations to countermeasures on logic-level. A characteristic of SCA resides on the format of leak sources. Typical side-channel attack concerns the power based analysis, where the fundamental capacitance from MOS transistors and other parasitic capacitances are the essential leak sources. Hence, a robust SCA-resistant logic must eliminate or mitigate the leakages from these micro units, such as basic logic gates, I/O ports and routings. The vendor provided EDA tools manipulate the logic from a higher behavioral-level, rather than the lower gate-level where side-channel leakage is generated. So, the classical implementations barely satisfy these needs and inevitably stunt the prototype. In this case, a customized and flexible design scheme is appealing to be devised. This thesis profiles an innovative logic style to counter SCA, which mainly addresses three major aspects: I. The proposed logic is based on the hiding strategy over gate-level dual-rail style to dynamically overbalance side-channel leakage from lower circuit layer; II. This logic exploits architectural features of modern FPGAs, to minimize the implementation expenses; III. It is supported by a set of assistant custom tools, incorporated by the generic FPGA design flow, to have circuit manipulations in an automatic manner. The automatic design toolkit supports the proposed dual-rail logic, facilitating the practical implementation on Xilinx FPGA families. While the methodologies and the tools are flexible to be expanded to a wide range of applications where rigid and sophisticated gate- or routing- constraints are desired. In this thesis a great effort is done to streamline the implementation workflow of generic dual-rail logic. The feasibility of the proposed solutions is validated by selected and widely used crypto algorithm, for thorough and fair evaluation w.r.t. prior solutions. All the proposals are effectively verified by security experiments. The presented research work attempts to solve the implementation troubles. The essence that will be formalized along this thesis is that a customized execution toolkit for modern FPGA systems is developed to work together with the generic FPGA design flow for creating innovative dual-rail logic. A method in crypto security area is constructed to obtain customization, automation and flexibility in low-level circuit prototype with fine-granularity in intractable routings. Main contributions of the presented work are summarized next: Precharge Absorbed-DPL logic: Using the netlist conversion to reserve free LUT inputs to execute the Precharge and Ex signal in a dual-rail logic style. A row-crossed interleaved placement method with identical routing pairs in dual-rail networks, which helps to increase the resistance against selective EM measurement and mitigate the impacts from process variations. Customized execution and automatic transformation tools for producing identical networks for the proposed dual-rail logic. (a) To detect and repair the conflict nets; (b) To detect and repair the asymmetric nets. (c) To be used in other logics where strict network control is required in Xilinx scenario. Customized correlation analysis testbed for EM and power attacks, including the platform construction, measurement method and attack analysis. A timing analysis based method for quantifying the security grades. A methodology of security partitions of complex crypto systems for reducing the protection cost. A proof-of-concept self-adaptive heating system to mitigate electrical impacts over process variations in dynamic dual-rail compensation manner. The thesis chapters are organized as follows: Chapter 1 discusses the side-channel attack fundamentals, which covers from theoretic basics to analysis models, and further to platform setup and attack execution. Chapter 2 centers to SCA-resistant strategies against generic power and EM attacks. In this chapter, a major contribution, a compact and secure dual-rail logic style, will be originally proposed. The logic transformation based on bottom-layer design will be presented. Chapter 3 is scheduled to elaborate the implementation challenges of generic dual-rail styles. A customized design flow to solve the implementation problems will be described along with a self-developed automatic implementation toolkit, for mitigating the design barriers and facilitating the processes. Chapter 4 will originally elaborate the tool specifics and construction details. The implementation case studies and security validations for the proposed logic style, as well as a sophisticated routing verification experiment, will be described in Chapter 5. Finally, a summary of thesis conclusions and perspectives for future work are included in Chapter 5. To better exhibit the thesis contents, each chapter is further described next: Chapter 1 provides the introduction of hardware implementation testbed and side-channel attack fundamentals, and mainly contains: (a) The FPGA generic architecture and device features, particularly of Virtex-5 FPGA; (b) The selected crypto algorithm - a commercially and extensively used Advanced Encryption Standard (AES) module - is detailed; (c) The essentials of Side-Channel methods are profiled. It reveals the correlated dissipation leakage to the internal behaviors, and the method to recover this relationship between the physical fluctuations in side-channel traces and the intra processed data; (d) The setups of the power/EM testing platforms enclosed inside the thesis work are given. The content of this thesis is expanded and deepened from chapter 2, which is divided into several aspects. First, the protection principle of dynamic compensation of the generic dual-rail precharge logic is explained by describing the compensated gate-level elements. Second, the novel DPL is originally proposed by detailing the logic protocol and an implementation case study. Third, a couple of custom workflows are shown next for realizing the rail conversion. Meanwhile, the technical definitions that are about to be manipulated above LUT-level netlist are clarified. A brief discussion about the batched process is given in the final part. Chapter 3 studies the implementation challenges of DPLs in FPGAs. The security level of state-of-the-art SCA-resistant solutions are decreased due to the implementation barriers using conventional EDA tools. In the studied FPGA scenario, problems are discussed from dual-rail format, parasitic impact, technological bias and implementation feasibility. According to these elaborations, two problems arise: How to implement the proposed logic without crippling the security level; and How to manipulate a large number of cells and automate the transformation. The proposed PA-DPL in chapter 2 is legalized with a series of initiatives, from structures to implementation methods. Furthermore, a self-adaptive heating system is depicted and implemented to a dual-core logic, assumed to alternatively adjust local temperature for balancing the negative impacts from silicon technological biases on real-time. Chapter 4 centers to the toolkit system. Built upon a third-party Application Program Interface (API) library, the customized toolkit is able to manipulate the logic elements from post P&R circuit (an unreadable binary version of the xdl one) converted to Xilinx xdl format. The mechanism and rationale of the proposed toolkit are carefully convoyed, covering the routing detection and repairing approaches. The developed toolkit aims to achieve very strictly identical routing networks for dual-rail logic both for separate and interleaved placement. This chapter particularly specifies the technical essentials to support the implementations in Xilinx devices and the flexibility to be expanded to other applications. Chapter 5 focuses on the implementation of the case studies for validating the security grades of the proposed logic style from the proposed toolkit. Comprehensive implementation techniques are discussed. (a) The placement impacts using the proposed toolkit are discussed. Different execution schemes, considering the global optimization in security and cost, are verified with experiments so as to find the optimized placement and repair schemes; (b) Security validations are realized with correlation, timing methods; (c) A systematic method is applied to a BCDL structured module to validate the routing impact over security metric; (d) The preliminary results using the self-adaptive heating system over process variation is given; (e) A practical implementation of the proposed toolkit to a large design is introduced. Chapter 6 includes the general summary of the complete work presented inside this thesis. Finally, a brief perspective for the future work is drawn which might expand the potential utilization of the thesis contributions to a wider range of implementation domains beyond cryptography on FPGAs.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La tesis analiza la realidad residencial construida en los municipios del Área Metropolitana de Madrid durante la democracia, en términos de localización, cantidad y calidad/cualidad, y su relación con el desarrollo de las políticas de planeamiento y de vivienda. La pregunta central que ha guiado la investigación es la siguiente: ¿cómo han incidido los instrumentos de política de vivienda y de planeamiento urbanístico en el crecimiento residencial de los municipios del Área Metropolitana de Madrid? Se trata de poner en relación dos políticas públicas orientadas por la Administración en sus distintos niveles de actuación: una de carácter territorial, el planeamiento urbanístico -cuya ejecución es de competencia municipal-, y otra de carácter sectorial, las políticas de vivienda -definidas por la Administración Central y Autonómica-. Al considerar la política de vivienda como el resultado de la política financiera, la política fiscal y la política de suelo, se ha observado cómo en España las dos primeras suponen más del 70% de la intervención presupuestaria en vivienda. Esta investigación se ha centrado particularmente en la tercera, la política de suelo, por su vinculación directa con el planeamiento urbanístico, pero sin dejar de tener en cuenta las dos primeras, no sólo por su implicación en el gasto público, sino porque han tenido tanto efecto, o más, en la conformación de la ciudad como ha podido tenerlo el planeamiento. La primera parte de la tesis se centra en el estudio de las políticas, sus objetivos e instrumentos (normativos y de planificación), mientras que en la segunda parte se analiza la realidad construida, por medio de una serie de variables e indicadores relacionados con la producción residencial (suelo y viviendas); en la tercera se presenta la parte de análisis y las conclusiones generales. Al cruzar los objetivos y los instrumentos de ambas políticas se ha podido concluir con una propuesta de periodización evidenciando las ontinuidades, cambios o transformaciones: después de una etapa de transición –de 1975 a 1978, coincide con los años de la transición democrática, en el que se definen las bases de las nuevas políticas-, se han podido diferenciar tres períodos: 1979-1989, 1990-1997 y 1998-2007. El primer período corresponde a los años en los que se fue construyendo todo el aparato institucional regulador con las nuevas administraciones que surgieron de la democracia. El segundo período, aunque comenzó con la aprobación de la Ley del Suelo de 1990 como instrumento clave del planeamiento regulador, se caracterizó por el cuestionamiento del modelo intervencionista y por los primeros planteamientos de liberalización. Finalmente, en el tercer período se pusieron las bases normativas de la liberalización del suelo en España, con la reforma de la Ley del Suelo de 1998 y otras medidas “remediales”. Finalmente, se presenta el análisis de los resultados sobre la realidad construida, teniendo como clave de interpretación la periodización propuesta a partir de las políticas, con el propósito de conocer cómo han podido incidir en el crecimiento residencial del AMM. Por tanto, la tesis aborda la inquietud de cuándo, cómo y dónde las políticas públicas han construido ciudad y han generado barrios, pues también trata de analizar los espacios urbanos que han sido el resultado físico de dichas políticas (aspectos de los conjuntos residenciales, el entorno inmediato y su relación con el tejido urbano existente), y no sólo de mostrar cantidades de viviendas construidas. Posteriormente, el estudio se centra en el análisis de las actuaciones públicas sobre suelos destinados a uno de los llamados “usos débiles”, las viviendas protegidas. Éstas se han beneficiado, de una u otra manera, de las ayudas económicas que se incluyen en los planes de vivienda y, por ello, están sujetas a unos parámetros definidos por la normativa vigente en cada caso. Ha interesado realizar una valoración de las mismas a partir de criterios de integración social y funcional, y de equilibrio territorial. ABSTRACT The PhD thesis analyses the residential areas built in the Metropolitan Area of Madrid, in terms of location, quality and quantity, and the relationship to the resulting built environment planning and housing policies. Its cover a period of tree decades since the onset of democracy in Spain in 1975 up to the beginning of the great recession starting 2007. The central question that has guided the research is the following: how the instruments of housing policy and urban planning have influenced the residential growth of the municipalities of the Metropolitan Area of Madrid? It is about putting together two different public policies that are also carried out at different levels of government: spacial and urban planning –whose execution is under municipal jurisdiction under principles and guidelines defined at a regional scale; and the sectorial housing policies which are mostly defined by the Nacional and Regional governments and are very interlinked with the wider economic policies of the country. When considering housing policy as the result of financial, fiscal and land policy, it has been noted in Spain that instruments under the first two types of measures (financial and fiscal) account for over 70% of the housing budget intervention. This research has particularly focused on the third, Land Policy, because of its direct link to urban planning. Nevertheless, the research also considers f inancial and f iscal pol icies, not only because of thei r signi f icant level of publ ic spending, but al so because of thei r great impacto n shaping the way the ci ty is bui l t . The first part of the thesis focuses on the study of the policies, objectives and instruments (housing and planning), while the second part analyses the built reality by means of a number of variables and indicators related to the housing production (land and housing). In the third part the analysis and general conclusions are presented. After relating the objectives and instruments of both policies, the thesis concludes with a proposal for periodization showing continuities, changes and transformations: after a transition period – from 1975 to 1978 coinciding with the years of the democratic transition, in which the basis of the new policies were defined- tree periods (1979-1989, 1990- 1997 and 1998-2007) have been d i s t i n g u i s h e d . The first period covers the years in which a new institutional apparatus wa s b u i l t wi t h t h e n e w a r r a n g eme n t s t h a t eme r g e d from democracy. The second period, even though it began with the approval of the Land Act 1990 as key element of the regulatory planning, was characterized by the questioning of public intervention and early approaches to liberalization. Finally, in the third period, the normative basis of liberalization was set up in Spain, with the reform of the Land Act 1998 and other “corrective” measures. At a final point, the analisys of the results on the reality constructed is presented having as a key of interpretation the periodization proposed. This provides tools for interpreting how policies did affect residential growth in the Metropolitan Area of Madrid. Therefore, the thesis addresses the issues of when, how and where public policies have inf luenced and guided the development of resident ial áreas in the región dur ing this t ime f rame. I t is also concerned with analysing those urban spaces that have been the physical result of such policies (aspects of residential complexes, the immediate environment and its relationship with the existing urban infraestructure), going beyond the analisys of statistical data. Subsequently, the study focuses on the analysis of public actions on land for the so-called "weak uses" particularly social housing. These have benefited in one way or another, of financial assistance included in housing plans and, therefore, are subject to some parameters defined by the regulations in force in each case.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La gestión del tráfico aéreo (Air Traffic Management, ATM) está experimentando un cambio de paradigma hacia las denominadas operaciones basadas trayectoria. Bajo dicho paradigma se modifica el papel de los controladores de tráfico aéreo desde una operativa basada su intervención táctica continuada hacia una labor de supervisión a más largo plazo. Esto se apoya en la creciente confianza en las soluciones aportadas por las herramientas automatizadas de soporte a la decisión más modernas. Para dar soporte a este concepto, se precisa una importante inversión para el desarrollo, junto con la adquisición de nuevos equipos en tierra y embarcados, que permitan la sincronización precisa de la visión de la trayectoria, basada en el intercambio de información entre ambos actores. Durante los últimos 30 a 40 años las aerolíneas han generado uno de los menores retornos de la inversión de entre todas las industrias. Sin beneficios tangibles, la industria aérea tiene dificultades para atraer el capital requerido para su modernización, lo que retrasa la implantación de dichas mejoras. Esta tesis tiene como objetivo responder a la pregunta de si las capacidades actualmente instaladas en las aeronaves comerciales se pueden aplicar para lograr la sincronización de la trayectoria con el nivel de calidad requerido. Además, se analiza en ella si, conjuntamente con mejoras en las herramientas de predicción trayectorias instaladas en tierra en para facilitar la gestión de las arribadas, dichas capacidades permiten obtener los beneficios esperados en el marco de las operaciones basadas en trayectoria. Esto podría proporcionar un incentivo para futuras actualizaciones de la aviónica que podrían llevar a mejoras adicionales. El concepto operacional propuesto en esta tesis tiene como objetivo permitir que los aviones sean pilotados de una manera consistente con las técnicas actuales de vuelo optimizado. Se permite a las aeronaves que desciendan en el denominado “modo de ángulo de descenso gestionado” (path-managed mode), que es el preferido por la mayoría de las compañías aéreas, debido a que conlleva un reducido consumo de combustible. El problema de este modo es que en él no se controla de forma activa el tiempo de llegada al punto de interés. En nuestro concepto operacional, la incertidumbre temporal se gestiona en mediante de la medición del tiempo en puntos estratégicamente escogidos a lo largo de la trayectoria de la aeronave, y permitiendo la modificación por el control de tierra de la velocidad de la aeronave. Aunque la base del concepto es la gestión de las ordenes de velocidad que se proporcionan al piloto, para ser capaces de operar con los niveles de equipamiento típicos actualmente, dicho concepto también constituye un marco en el que la aviónica más avanzada (por ejemplo, que permita el control por el FMS del tiempo de llegada) puede integrarse de forma natural, una vez que esta tecnología este instalada. Además de gestionar la incertidumbre temporal a través de la medición en múltiples puntos, se intenta reducir dicha incertidumbre al mínimo mediante la mejora de las herramienta de predicción de la trayectoria en tierra. En esta tesis se presenta una novedosa descomposición del proceso de predicción de trayectorias en dos etapas. Dicha descomposición permite integrar adecuadamente los datos de la trayectoria de referencia calculada por el Flight Management System (FMS), disponibles usando Futuro Sistema de Navegación Aérea (FANS), en el sistema de predicción de trayectorias en tierra. FANS es un equipo presente en los aviones comerciales de fuselaje ancho actualmente en la producción, e incluso algunos aviones de fuselaje estrecho pueden tener instalada avionica FANS. Además de informar automáticamente de la posición de la aeronave, FANS permite proporcionar (parte de) la trayectoria de referencia en poder de los FMS, pero la explotación de esta capacidad para la mejora de la predicción de trayectorias no se ha estudiado en profundidad en el pasado. La predicción en dos etapas proporciona una solución adecuada al problema de sincronización de trayectorias aire-tierra dado que permite la sincronización de las dimensiones controladas por el sistema de guiado utilizando la información de la trayectoria de referencia proporcionada mediante FANS, y también facilita la mejora en la predicción de las dimensiones abiertas restantes usado un modelo del guiado que explota los modelos meteorológicos mejorados disponibles en tierra. Este proceso de predicción de la trayectoria de dos etapas se aplicó a una muestra de 438 vuelos reales que realizaron un descenso continuo (sin intervención del controlador) con destino Melbourne. Dichos vuelos son de aeronaves del modelo Boeing 737-800, si bien la metodología descrita es extrapolable a otros tipos de aeronave. El método propuesto de predicción de trayectorias permite una mejora en la desviación estándar del error de la estimación del tiempo de llegada al punto de interés, que es un 30% menor que la que obtiene el FMS. Dicha trayectoria prevista mejorada se puede utilizar para establecer la secuencia de arribadas y para la asignación de las franjas horarias para cada aterrizaje (slots). Sobre la base del slot asignado, se determina un perfil de velocidades que permita cumplir con dicho slot con un impacto mínimo en la eficiencia del vuelo. En la tesis se propone un nuevo algoritmo que determina las velocidades requeridas sin necesidad de un proceso iterativo de búsqueda sobre el sistema de predicción de trayectorias. El algoritmo se basa en una parametrización inteligente del proceso de predicción de la trayectoria, que permite relacionar el tiempo estimado de llegada con una función polinómica. Resolviendo dicho polinomio para el tiempo de llegada deseado, se obtiene de forma natural el perfil de velocidades optimo para cumplir con dicho tiempo de llegada sin comprometer la eficiencia. El diseño de los sistemas de gestión de arribadas propuesto en esta tesis aprovecha la aviónica y los sistemas de comunicación instalados de un modo mucho más eficiente, proporcionando valor añadido para la industria. Por tanto, la solución es compatible con la transición hacia los sistemas de aviónica avanzados que están desarrollándose actualmente. Los beneficios que se obtengan a lo largo de dicha transición son un incentivo para inversiones subsiguientes en la aviónica y en los sistemas de control de tráfico en tierra. ABSTRACT Air traffic management (ATM) is undergoing a paradigm shift towards trajectory based operations where the role of an air traffic controller evolves from that of continuous intervention towards supervision, as decision making is improved based on increased confidence in the solutions provided by advanced automation. To support this concept, significant investment for the development and acquisition of new equipment is required on the ground as well as in the air, to facilitate the high degree of trajectory synchronisation and information exchange required. Over the past 30-40 years the airline industry has generated one of the lowest returns on invested capital among all industries. Without tangible benefits realised, the airline industry may find it difficult to attract the required investment capital and delay acquiring equipment needed to realise the concept of trajectory based operations. In response to these challenges facing the modernisation of ATM, this thesis aims to answer the question whether existing aircraft capabilities can be applied to achieve sufficient trajectory synchronisation and improvements to ground-based trajectory prediction in support of the arrival management process, to realise some of the benefits envisioned under trajectory based operations, and to provide an incentive for further avionics upgrades. The proposed operational concept aims to permit aircraft to operate in a manner consistent with current optimal aircraft operating techniques. It allows aircraft to descend in the fuel efficient path managed mode as preferred by a majority of airlines, with arrival time not actively controlled by the airborne automation. The temporal uncertainty is managed through metering at strategically chosen points along the aircraft’s trajectory with primary use of speed advisories. While the focus is on speed advisories to support all aircraft and different levels of equipage, the concept also constitutes a framework in which advanced avionics as airborne time-of-arrival control can be integrated once this technology is widely available. In addition to managing temporal uncertainty through metering at multiple points, this temporal uncertainty is minimised by improving the supporting trajectory prediction capability. A novel two-stage trajectory prediction process is presented to adequately integrate aircraft trajectory data available through Future Air Navigation Systems (FANS) into the ground-based trajectory predictor. FANS is standard equipment on any wide-body aircraft in production today, and some single-aisle aircraft are easily capable of being fitted with FANS. In addition to automatic position reporting, FANS provides the ability to provide (part of) the reference trajectory held by the aircraft’s Flight Management System (FMS), but this capability has yet been widely overlooked. The two-stage process provides a ‘best of both world’s’ solution to the air-ground synchronisation problem by synchronising with the FMS reference trajectory those dimensions controlled by the guidance mode, and improving on the prediction of the remaining open dimensions by exploiting the high resolution meteorological forecast available to a ground-based system. The two-stage trajectory prediction process was applied to a sample of 438 FANS-equipped Boeing 737-800 flights into Melbourne conducting a continuous descent free from ATC intervention, and can be extrapolated to other types of aircraft. Trajectories predicted through the two-stage approach provided estimated time of arrivals with a 30% reduction in standard deviation of the error compared to estimated time of arrival calculated by the FMS. This improved predicted trajectory can subsequently be used to set the sequence and allocate landing slots. Based on the allocated landing slot, the proposed system calculates a speed schedule for the aircraft to meet this landing slot at minimal flight efficiency impact. A novel algorithm is presented that determines this speed schedule without requiring an iterative process in which multiple calls to a trajectory predictor need to be made. The algorithm is based on parameterisation of the trajectory prediction process, allowing the estimate time of arrival to be represented by a polynomial function of the speed schedule, providing an analytical solution to the speed schedule required to meet a set arrival time. The arrival management solution proposed in this thesis leverages the use of existing avionics and communications systems resulting in new value for industry for current investment. The solution therefore supports a transition concept from mixed equipage towards advanced avionics currently under development. Benefits realised under this transition may provide an incentive for ongoing investment in avionics.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El propósito de este estudio ha sido el desarrollo y validación de un Cuestionario de Inteligencia Contextual Percibida en el Deporte en una muestra de deportistas españoles de diferente nivel de pericia. Participaron 2091 deportistas (1519 hombres y 572 mujeres) de edades comprendidas entre los 11 y los 59 años (M = 20,8; DT = 6,14). Los análisis factoriales exploratorio y confirmatorio mostraron que el cuestionario presentaba una estructura de tres dimensiones (inteligencia anticipatoria, inteligencia táctica e inteligencia competitiva), además de permitir obtener la obtención de un valor de la escala general denominado Inteligencia Contextual en el Deporte. Las propiedades psicométricas de validez y la fiabilidad del instrumento fueron excelentes para poder ser empleado en estudios en los que esta dimensión sea de interés.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Para los entrenadores la inteligencia en el juego es uno de los intangibles que predicen el éxito en la competición. De ahí que el objetivo de este estudio fuera analizar la percepción que jugadores de fútbol de diferente nivel de pericia tenían de su inteligencia para el juego. Se aplicó el Cuestionario de Inteligencia Contextual en el Deporte (ICD) que evalúa tres dimensiones: Inteligencia Anticipatoria, Inteligencia Táctica e Inteligencia Competitiva. En este estudio participaron 690 jugadores de fútbol de diferente nivel competitivo. Los resultados mostrarion que a medida que aumentaba el nivel competitivo se incrementaba la percepción de los jugadores sobre su inteligencia contextual. Este estudio confirma el papel que para los jugadores posee el sentirse 308 competentes para solucionar los problemas tácticos de su deporte y que este sentimiento aumenta con su nivel de competencia.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Para los entrenadores la inteligencia en el juego es uno de los intangibles que predicen el éxito en la competición. De ahí que el objetivo de este estudio fuera analizar la percepción que jugadores de fútbol de diferente nivel de pericia tenían de su inteligencia para el juego. Se aplicó el Cuestionario de Inteligencia Contextual en el Deporte(ICD) que evalúa tres dimensiones: Inteligencia Anticipatoria, Inteligencia Táctica e Inteligencia Competitiva. En este estudio participar on 690 jugadores de fútbol de diferente nivel competitivo. Los resultados mostrarion que a medida que aumentaba el nivel competitivo se incrementaba la percepción de los jugadores sobre su inteligencia contextual. Este estudio confirma el papel que para los jugadores posee el sentirse competentes para solucionar los problemas tácticos de su deporte y que este sentimiento aumenta con su nivel de competencia.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

OBJETIVO: Esta tesis doctoral pretende analizar el rendimiento en fútbol desde un punto de vista físico de los jugadores de un equipo de excelencia (EE). Se entiende como EE a un equipo que presenta un prolongado bagaje de éxitos nacionales e internacionales a lo largo de varios años. MÉTODO: Se utilizó el sistema de registro (AMISCO) de la actividad del jugador de fútbol en competición (distancia total recorrida, distancias a distintas velocidades, y número de sprints) analizando a lo largo de seis temporadas continuada la actividad de jugadores de élite (N=2082), siendo 1051 pertenecientes al EE y 1031 a jugadores de los equipos rivales (ER). RSULTADO: El perfil de actividad (distancia total, distancia en distintas velocidades y nº de sprints) de los jugadores del EE muestran valores inferiores al de los jugadores de los ER. De igual forma ocurre en cada una de las partes del partido, el puesto específico de juego de los jugadores en las distintas temporadas analizadas y en los distintos meses de la temporada. El EE registra una mayor actividad (distancia total recorrida en el partido, distancia recorrida en velocidades altas V>17 km/h y nº de Sprints) cuando juega de local a cuando lo hace como visitante. Asimismo EE muestra demandas superiores de exigencia física en la competición europea (Champions League) frente a la Liga en la distancia total recorrida en el partido y a velocidades bajas (V<17 km/h), mientras que apenas muestra diferencias en los indicadores de exigencia física cuando se enfrenta a los equipos rivales de distinto nivel de rendimiento, exceptuando en la distancia recorrida andando (V=01-11 km/h) con diferencias significativas superiores cuando el nivel del oponente es de Máxima dificultad frente a Elevada dificultad (p<.01) o Media dificultad (p<.01). En función del estilo de juego se registran diferencias en la distancia total recorrida en el partido, en velocidades bajas (V<17 km/h) y en el nº de Sprints (V>24 km/h). Por último, el perfil de actividad del EE no se ve influenciado por el efecto de estar sometido a una alta densidad competitiva (jugar un partido entre semana). Se constata como un jugador de un EE está supeditado no sólo a las exigencias del puesto específico sino también está sujeta a las características propias del jugador al desempeñar el rol o función táctica encomendada. Esta influencia es más evidente en jugadores que ocupan puestos específicos avanzados. CONCLUSION: La presente investigación aporta la caracterización de la actividad de los jugadores de un EE frente al perfil de actividad de sus rivales, mostrando un nivel de respuesta específica y diferente, más estable frente a determinadas variables contextuales y donde la exigencia física en el puesto específico se ve condicionada por las características individuales del jugador, todos estos aspectos pueden ayudar a la hora de planificar el entrenamiento en este tipo de equipos. ABSTRACT OBJETIVE: This doctoral thesis aims to analyze the performance in football from a physical point of view on a team of excellence. METHOD: The registration system (AMISCO) activity soccer player in competition (total distance traveled distances at different speeds, and number of sprints) was used to analyze over six seasons continued activity elite players (N = 2082), with 1051 belonging to Team Excellence (EE) and 1031 players from rival teams (ER). RESULT: The competitive physical response of the US players are analyzed and compared with that of ER. The activity profile (total distance, distance at different speeds and number of sprints) of EE players shown below players ER values. The same occurs in each of the parts of the game, the specific game since players analyzed in different seasons and in different months of the season. The EE recorded increased activity (total distance traveled in the match, distance at high speeds V> 17 km / h and sprints number) when playing a local when it does on the road. EE also shows higher demands physical demands in European competition (Champions League) against the League in the total distance traveled in the party and at low speeds (V <17 km / h), while just shows differences in indicators of demand physics when the opposing teams with different levels of performance faces, except in the distance walked (V = 01-11 km / h) with significant differences when higher level Maximum opponent is facing difficulty High difficulty (p < .01) or Medium difficulty (p <.01). Depending on the style of play differences are recognized in the total distance traveled in the party, at low speeds (V <17 km / h) and the number of Sprints (V> 24 km / h). Finally, the activity profile of EE is not influenced by the effect of being subjected to a high competitive density (play a game during the week). It is found as a player on a team of Excellence is subject not only to the requirements of the specific position but is also subject to the characteristics of the player to play the role or function entrusted tactics. This influence is most evident in advanced players who occupy specific positions. CONCLUSION: This research provides the characterization of the activity of EE players versus activity profile of its rivals, showing a level of response specific and different, more stable against certain contextual variables and where the physical demands on the specific position is conditioned by the individual characteristics of the player, all these aspects can help in planning training in this type of equipment.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La tesis Flujo Laminar, El cementerio de Igualada y los procesos elásticos en la arquitectura de Enric Miralles y Carme Pinós analiza la metodología que utilizan y desarrollan los arquitectos Miralles y Pinós en el proyecto del cementerio de Igualada. Enric Miralles y Carme Pinós comienzan a trabajar juntos en 1983, separándose siete años después. La producción arquitectónica que generan durante este periodo ha sido valorada y considerada por la crítica como una de las de mayor calidad en el último cuarto del siglo XX. Respecto a esta etapa de colaboración existen artículos dispersos que analizan de manera aislada algunos aspectos de sus proyectos. Sin embargo, no se han realizado estudios que analicen su metodología proyectual, sus herramientas, sus estrategias y sus diferentes conexiones y referencias. Tampoco se han analizado hasta el momento, cómo son sus procesos proyectuales, sus tiempos y sus objetivos. En este sentido, el proyecto del cementerio de Igualada será clave en la trayectoria del equipo. El tiempo extenso empleado en el proceso y la singularidad de la obra, además de otros factores del propio imaginario de Miralles y Pinós, marcarán a este proyecto como un punto de inflexión en su trabajo. La investigación plantea, en primer lugar, la descripción del contexto en el cual se comienzan a desarrollar los proyectos iniciales de Miralles y Pinós, además de los antecedentes que generarán la propuesta para el cementerio de Igualada. Seguidamente, se describen y analizan los apoyos y las referencias que los arquitectos utilizan en este proyecto, tanto las vinculadas a la cultura local como las atrapadas desde el imaginario universal. Por otro lado, el bloque central de la investigación aporta doce herramientas que construyen la metodología proyectual de Miralles y Pinós. Esta contribución se ha realizado desde el análisis y el cruce de los documentos originales del proyecto de Igualada y los escritos existentes de los arquitectos. Las herramientas aportadas son: deslizar, desplazar, repetir, enterrar, constreñir, oscilar, estirar, desenredar, desviar, rehacer, hendir y fluir. Todas ellas se describen, analizan e interpretan desde setenta y dos documentos esenciales extraídos del proceso de Igualada. Un último capítulo de conclusiones, define lo que se presenta en la investigación como una metodología propia de Enric Miralles y Carme Pinós, denominada procesos elásticos, en el que se describen sus cualidades y sus tiempos, a la vez que se presenta también una táctica empleada en el proyecto de Igualada denominada flujo laminar. ABSTRACT The thesis Laminar Flow, the Igualada cemetery and the elastic processes in the architecture of Enric Miralles and Carme Pinós analyses the methodology that the architects Miralles and Pinós used in the project for the Igualada cemetery park. Enric Miralles and Carme Pinós began to work together in 1983, and went their different ways seven years later. The architectural production they generated during that period has been valued and considered by critics to be among the greatest quality of production in the final quarter of the twentieth century. There is a scattering of articles about this period which give an independent analysis of some features of their products. However, there are no studies which analyse their project design methodology, their tools, their strategies and their different connections and references. Neither has there been analysis to date of the nature of their project design processes, nor of their times and their aims. Within this context, the Igualada cemetery project was key in the path to be trodden by the team. The great length of time used on the process and the singularity of the work, alongside other factors from Miralles and Pinós's personal imaginarium, were to mark this project as a turning point in their work. This research sets out, first of all, to describe the context in which the early projects by Miralles and Pinós began to be developed, as well as the background to the generation of their proposal for the Igualada cemetery. There follows a description and analysis of the resources and of the references that the architects used in this project, both those linked to local culture and those picked from the universal imaginarium. Furthermore, the central block of the research identifies twelve tools which make up Miralles and Pinós's project design methodology. This contribution has been performed on the basis of analysis and comparison of the original Igualada project documents and of writings extant by the architects. The tools identified are: slide, shift, repeat, bury, constrain, oscillate, stretch, untangle, divert, redo, groove and flow. They are all described, analysed and interpreted on the basis of seventy-two essential documents extracted from the Igualada process. A final chapter of conclusions defines what is presented in the research as a methodology which is specific to Enric Miralles and Carme Pinós, denominated elastic processes, describing their qualities and their times, along with the presentation of a tactic used in the Igualada project which is denominated laminar flow.