852 resultados para Pasado y Presente


Relevância:

100.00% 100.00%

Publicador:

Resumo:

A lo largo de los últimos años se profundizó en Argentina la discusión en torno a los usos del pasado y la representación de los imaginarios políticos mediante la construcción de la memoria. Este trabajo se inscribe en el marco de ese debate académico, cuya relevancia se asienta en que las operaciones de sentido que implican los procesos antes citados fueron el camino elegido para la legitimación del poder en la política del presente. En este caso se eligió analizar las claves que guiaron la resignificación de los hechos ocurridos en el periodo 1973 - 1976 en el libro Nadie Fue, escrito en 2008 por Juan Bautista Yofre, desde una perspectiva que propone una ruptura con el relato que reivindica la lucha armada planteada desde el campo popular para acceder al poder

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El siglo XX en general y la Segunda Guerra Mundial en particular, marcan una inflexión en relación con los estudios sobre el concepto de memoria. Holocausto o Shoa se constituyen en una matriz, determinando lo que se denominó como "deber de memoria". Así Auschwitz como emblema del nazismo, pone de relevancia los problemas por la apropiación del pasado. A partir de ello, esta comunicación focalizará en dos textos de la literatura del Lager: La mort qu íl faut, de Jorge Semprún e I sommersi e i salvati, de Primo Levi. Ambos ponen de manifiesto situaciones en relación con la apropiación del pasado y la configuración de la memoria. Por un lado, la constitución de memorias en pugna: la del nazismo y la de los sobrevivientes de los campos. Y por otro, y estableciendo la relación de ésta y testimonio, la polémica asordinada que Semprún establece con Levi y algunos historiadores

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Algunas de las novelas de la saga Carvalho de Manuel Vázquez Montalbán (Asesinato en el comité central, Los Mares del Sur, El Balneario, Milenio) son particularmente interesantes para rastrear las tensiones que en las sociedades contemporáneas se registran en torno a la memoria y el olvido: ¿qué recordar y qué olvidar? parecen ser preguntas decisivas para el trazado de proyectos políticos y culturales que permitan a unos y otros convivir en la posmodernidad. En estos textos, la recuperación de la memoria aparece ligada en numerosas ocasiones a experiencias de viajes y exilio. Los viajeros de Vázquez Montalbán nunca son turistas, fieles a la consigna de Bowles, sólo saben dónde y cuándo empieza su viaje, nunca cuando termina. En Milenio esta conjunción viaje-memoria es el eje del relato, los personajes recorren el mundo y se encuentran en diferentes escenarios que son delineados con unos pocos trazos necesariamente gruesos, entre ellos los referentes a la historia y el pasado local. Lejos de conformar una postal remota, estas referencias configuran una red de factores que condicionan las vidas de quienes los transitan porque los recuerdos están enraizados en un lugar, y el espacio se convierte en tiempo y memoria cristalizados. En la novela todos los personajes están en movimiento, pasajeros en tránsito, unos y otros ofrecen sus propios relatos acerca de los hechos del pasado y el presente. Milenio resulta así una especie de balance (definitivamente el último de Vázquez Montalbán) de la memoria y la historia del mundo globalizado.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En el presente artículo se exponen los resultados de una investigación sobre el desarrollo del pensamiento histórico entre sujetos de diferentes edades y de diferentes niveles de escolaridad en México. El estudio trabajó aspectos de la Historia reciente a través de la fotografía como fuente histórica. Los resultados arrojan de manera general, deficientes desarrollos en el análisis de fuentes y de la capacidad de diferenciar el ejercicio analítico objetivo de las valoraciones personales y subjetivas sobre la Historia reciente. Las conclusiones muestran también una pluralidad en las formas de pensar el pasado y de analizar las fuentes, pues en ocasiones una mejor competencia narrativa o explicación histórica no necesariamente está directamente relacionada con un mejor análisis de la imagen. Esto nos obliga a preguntarnos sobre la relación entre los procesos de educación formal e informal en el desarrollo del pensamiento histórico. El estudio es de corte cualitativo. El acontecimiento histórico trabajado fue el levantamiento armado del EZLN en 1994

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Durante la segunda mitad del siglo XIX, bajo la influencia del pensamiento positivista imperante, la disciplina Historia pretendió brindar una versión 'exacta' del pasado y el devenir analizando en forma rigurosa documentos escritos como única fuente para la recolección de datos. Se forjó así un cierto prejuicio en cuanto a la utilización de la fotografía como fuente histórica o como instrumento de investigación. Sin embargo, y sobre todo desde los albores del siglo XX, esta situación comenzó a cambiar. Las imágenes se fueron convirtiendo en un medio de conservar un recuerdo, pero a su vez en un estímulo dinámico para la compresión, la asociación e interconexión de conceptos, ideas, experiencias. Y fueron adquiriendo la potencia del relato, como imágenes que se constituyen en íconos de memoria. Como todo proceso de re-construcción de memorias, siempre desde un presente, las fotografías ponen en tensión los modos selectivos de narrar: lo que se recuerda y lo que se olvida, lo visible y lo invisible, lo manifiesto y lo latente, lo dicho y lo silenciado. En este marco, hay muchos casos de silencios y vacíos políticos: analizaremos aquí una imagen, tomada del Proyecto de investigación 'Postales de la Memoria' de la UNLP, del enfrentamiento producido el 16 de septiembre de 1955 en el barrio Campamento de la ciudad de Ensenada (en ese entonces, perteneciente a la ciudad de La Plata), ejemplo de los vaciamientos simbólicos de la historia oficial, de los distintos caminos de las memorias colectivas

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El presente trabajo se inscribe en el marco de un proyecto que consiste en la intervención didáctica en forma de talleres por parte de graduados y estudiantes de la carrera de Historia de la UBA dentro del Programa Hogares de Día para adultos mayores en la Ciudad de Buenos Aires. La propuesta de los talleres, surgida en el año 2003 como respuesta al creciente interés del público no especializado por la historia, reside principalmente en conectar el mundo académico con los diferentes sectores de la sociedad, en nuestro caso, específicamente con adultos mayores. El vínculo con este actor social permite establecer un tratamiento dialógico entre el discurso histórico producido en los medios universitarios y las experiencias de vida, como así también con la concepción colectiva del pasado edificada en otras épocas en función del sentido de la historia y la forma en que ha sido trasmitida por anteriores procesos educativos. Esta actividad pedagógica, que significa también una novedosa modalidad de hacer historia, conforma el marco de una dinámica dialéctica del saber que reconfigura colectivamente la visión del pasado y nos permite comprender mejor los elementos de conocimiento histórico que circulan socialmente y se hacen parte del imaginario

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El acero es, junto con el hormigón, el material más ampliamente empleado en la construcción de obra civil y de edificación. Además de su elevada resistencia, su carácter dúctil resulta un aspecto de particular interés desde el punto de vista de la seguridad estructural, ya que permite redistribuir esfuerzos a elementos adyacentes y, por tanto, almacenar una mayor energía antes del colapso final de la estructura. No obstante, a pesar de su extendida utilización, todavía existen aspectos relacionados con su comportamiento en rotura que necesitan una mayor clarificación y que permitirían un mejor aprovechamiento de sus propiedades. Cuando un elemento de acero es ensayado a tracción y alcanza la carga máxima, sufre la aparición de un cuello de estricción que plantea dificultades para conocer el comportamiento del material desde dicho instante hasta la rotura. La norma ISO 6892-1, que define el método a emplear en un ensayo de tracción con materiales metálicos, establece procedimientos para determinar los parámetros relacionados con este tramo último de la curva F − E. No obstante, la definición de dichos parámetros resulta controvertida, ya que éstos presentan una baja reproducibilidad y una baja repetibilidad que resultan difíciles de explicar. En esta Tesis se busca profundizar en el conocimiento del último tramo de la curva F − E de los aceros de construcción. Para ello se ha realizado una amplia campaña experimental sobre dos aceros representativos en el campo de la construcción civil: el alambrón de partida empleado en la fabricación de alambres de pretensado y un acero empleado como refuerzo en hormigón armado. Los dos materiales analizados presentan formas de rotura diferentes: mientras el primero de ellos presenta una superficie de rotura plana con una región oscura claramente apreciable en su interior, el segundo rompe según la clásica superficie en forma de copa y cono. La rotura en forma de copa y cono ha sido ampliamente estudiada en el pasado y existen modelos de rotura que han logrado reproducirla con éxito, en especial el modelo de Gurson- Tvergaard-Needleman (GTN). En cuanto a la rotura exhibida por el primer material, en principio nada impide abordar su reproducción numérica con un modelo GTN, sin embargo, las diferencias observadas entre ambos materiales en los ensayos experimentales permiten pensar en otro criterio de rotura. En la presente Tesis se realiza una amplia campaña experimental con probetas cilíndricas fabricadas con dos aceros representativos de los empleados en construcción con comportamientos en rotura diferentes. Por un lado se analiza el alambrón de partida empleado en la fabricación de alambres de pretensado, cuyo frente de rotura es plano y perpendicular a la dirección de aplicación de la carga con una región oscura en su interior. Por otro lado, se estudian barras de acero empleadas como armadura pasiva tipo B 500 SD, cuyo frente de rotura presenta la clásica superficie en forma de copa y cono. Estos trabajos experimentales han permitido distinguir dos comportamientos en rotura claramente diferenciados entre ambos materiales y, en el caso del primer material, se ha identificado un comportamiento asemejable al exhibido por materiales frágiles. En este trabajo se plantea la hipótesis de que el primer material, cuya rotura provoca un frente de rotura plano y perpendicular a la dirección de aplicación de la carga, rompe de manera cuasifrágil como consecuencia de un proceso de decohesión, de manera que la región oscura que se observa en el centro del frente de rotura se asemeja a una entalla circular perpendicular a la dirección de aplicación de la carga. Para la reproducción numérica de la rotura exhibida por el primer material, se plantea un criterio de rotura basado en un modelo cohesivo que, como aspecto novedoso, se hace depender de la triaxialidad de tensiones, parámetro determinante en el fallo de este tipo de materiales. Este tipo de modelos presenta varias ventajas respecto a los modelos GTN habitualmente empleados. Mientras los modelos GTN precisan de numerosos parámetros para su calibración, los modelos cohesivos precisan fundamentalmente de dos parámetros para definir su curva de ablandamiento: la tensión de decohesión ft y la energía de fractura GF . Además, los parámetros de los modelos GTN no son medibles de manera experimental, mientras que GF sí lo es. En cuanto a ft, aunque no existe un método para su determinación experimental, sí resulta un parámetro más fácilmente interpretable que los empleados por los modelos GTN, que utilizan valores como el porcentaje de huecos presentes en el material para iniciar el fenómeno de coalescencia o el porcentaje de poros que provoca una pérdida total de la capacidad resistente. Para implementar este criterio de rotura se ha desarrollado un elemento de intercara cohesivo dependiente de la triaxialidad de tensiones. Se han reproducido con éxito los ensayos de tracción llevados a cabo en la campaña experimental empleando dicho elemento de intercara. Además, en estos modelos la rotura se produce fenomenológicamente de la misma manera observada en los ensayos experimentales: produciéndose una decohesión circular en torno al eje de la probeta. En definitiva, los trabajos desarrollados en esta Tesis, tanto experimentales como numéricos, contribuyen a clarificar el comportamiento de los aceros de construcción en el último tramo de la curva F − E y los mecanismos desencadenantes de la rotura final del material, aspecto que puede contribuir a un mejor aprovechamiento de las propiedades de estos aceros en el futuro y a mejorar la seguridad de las estructuras construidas con ellos. Steel is, together with concrete, the most widely used material in civil engineering works. Not only its high strength, but also its ductility is of special interest from the point of view of the structural safety, since it enables stress distribution with adjacent elements and, therefore, more energy can be stored before reaching the structural failure. However, despite of being extensively used, there are still some aspects related to its fracture behaviour that need to be clarified and that will allow for a better use of its properties. When a steel item is tested under tension and reaches the maximum load point, necking process begins, which makes difficult to define the material behaviour from that moment onward. The ISO standard 6892-1, which defines the tensile testing method for metallic materials, describes the procedures to obtain some parameters related to this last section of the F − E curve. Nevertheless, these parameters have proved to be controversial, since they have low reproducibility and repeatibility rates that are difficult to explain. This Thesis tries to deepen the knowledge of the last section of the F − E curve for construction steels. An extensive experimental campaign has been carried out with two representative steels used in civil engineering works: a steel rod used for manufacturing prestressing steel wires, before the cold-drawing process is applied, and steel bars used in reinforced concrete structures. Both materials have different fracture surfaces: while the first of them shows a flat fracture surface, perpendicular to the loading direction with a dark region in the centre of it, the second one shows the classical cup-cone fracture surface. The cup-cone fracture surface has been deeply studied in the past and different numerical models have been able to reproduce it with success, with a special mention to the Gurson-Tvergaard-Needleman model (GTN). Regarding the failure surface shown by the first material, in principle it can be numerically reproduced by a GTN model, but the differences observed between both materials in the experimental campaign suggest thinking of a different failure criterium. In the present Thesis, an extensive experimental campaign has been carried out using cylindrical specimens made of two representative construction steels with different fracture behaviours. On one hand, the initial eutectoid steel rod used for manufacturing prestressing steel wires is analysed, which presents a flat fracture surface, perpendicular to the loading direction, and with a dark region in the centre of it. On the other hand, B 500 SD steel bars, typically used in reinforced concrete structures and with the typical cup-cone fracture surface, are studied. These experimental works have allowed distinguishing two clearly different fracture behaviours between both materials and, in the case of the first one, a fragile-like behaviour has been identified. For the first material, which shows a flat fracture surface perpendicular to the loading direction, the following hypothesis is proposed in this study: a quasi-brittle fracture is developed as a consequence of a decohesion process, with the dark region acting as a circular crack perpendicular to the loading direction. To reproduce numerically the fracture behaviour shown by the first material, a failure criterium based on a cohesive model is proposed in this Thesis. As an innovative contribution, this failure criterium depends on the stress triaxiality state of the material, which is a key parameter when studying fracture in this kind of materials. This type of models have some advantages when compared to the widely used GTN models. While GTN models need a high number of parameters to be defined, cohesive models need basically two parameters to define the softening curve: the decohesion stress ft and the fracture energy GF . In addition to this, GTN models parameters cannot be measured experimentally, while GF is indeed. Regarding ft, although no experimental procedure is defined for its obtention, it has an easier interpretation than the parameters used by the GTN models like, for instance, the void volume needed for the coalescence process to start or the void volume that leads to a total loss of the bearing capacity. In order to implement this failure criterium, a triaxiality-dependent cohesive interface element has been developed. The experimental results obtained in the experimental campaign have been successfully reproduced by using this interface element. Furthermore, in these models the failure mechanism is developed in the same way as observed experimentally: with a circular decohesive process taking place around the longitudinal axis of the specimen. In summary, the works developed in this Thesis, both experimental and numerical, contribute to clarify the behaviour of construction steels in the last section of the F − E curve and the mechanisms responsible for the eventual material failure, an aspect that can lead to a better use of the properties of these steels in the future and a safety improvement in the structures built with them.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El Plan Director de la Vega Baja fue aprobado en Toledo el 9 de febrero de 2011. Su objetivo básico es fijar las líneas generales que guiarán la actuación para recuperar y poner en valor este ámbito. El presente libro es el resultado de las aportaciones de expertos de distintas disciplinas que participaron en el proceso de redacción del Plan, sus diferentes formas de aproximarse a este espacio constituyen la primera parte del libro. La segunda parte es el documento aprobado del Plan Director (memoria y planos). En el proceso de definición de la propuesta ha resultado fundamental el estudio del pasado y de la evolución de la Vega Baja, un espacio significado por sus características geográficas y medio ambientales, y por las fuertes connotaciones históricas y culturales que se reflejan en el diálogo paisajístico de la Vega y el Casco Antiguo de Toledo. En el argumento de la recuperación de la Vega Baja se suman los aspectos físicos y medioambientales, las necesidades de los ciudadanos del entorno, y la recuperación cultural y simbólica de la Vega Baja.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En numerosas ocasiones a lo largo de la historia la imaginación de los creadores ha ido por delante de las posibilidades técnicas de cada momento. Así, muchas de estas nuevas ideas han requerido largos periodos de tiempo para materializarse como realidad construida, hasta que el desarrollo tecnológico e industrial hubo alcanzado un grado de madurez suficiente. En el campo de la arquitectura, estas limitaciones técnicas se han ido acotando paulatinamente hasta desembocar en la situación actual en la que cualquier planteamiento formal puede ser representado gráficamente y analizado desde un punto de vista estructural, superádose de este modo la barrera existente históricamente en el tratamiento de las formas. A lo largo del presente tesis doctoral se analiza cómo la formulación del Método de los Elementos Finitos en la década de los cincuenta y las curvas de Bézier en la década de los sesenta del siglo pasado y la posterior generalización de los ordenadores personales y de los programas informáticos asociados (C.A.D. y F.E.M. principalmente) en los estudios de arquitectura e ingeniería a partir de la década de los noventa, posibilitó el desarrollo de cualquier propuesta arquitectónica, por compleja que ésta fuese, provocando una verdadera revolución a nivel formal en el mundo de la arquitectura, especialmente en el campo de la edificación singular o icónica. Se estudia este proceso a través de ocho edificios; cuatro anteriores y otros tantos posteriores a la desaparición de la barrera anteriormente referida, establecida de forma simbólica en la década de los años ochenta del siglo XX: Frontón de Recoletos en Madrid, Edificio Seagram en Nueva York, Habitat ’67 en Montreal, Ópera de Sídney, museo Guggenheim de Bilbao, ampliación del Victoria & Albert Museum en Londres, tanatorio “Meiso no Mori” en Gifu y nueva sede de la CCTV en Pekín. De entre ellos, la Ópera de Sídney, obra del arquitecto danés Jørn Utzon, condensa gran parte de los aspectos relevantes investigados en relación a la influencia que los métodos de representación y análisis estructural ejercen en la concepción y construcción de las obras de arquitectura. Por este motivo y por considerarse un hito de la arquitectura a nivel global se toma como caso de estudio. La idea general del edificio, que data de 1956, se enmarca en una época inmediatamente anterior a la del desarrollo científico y tecnológico anteriormente referido. Esta ausencia de herramientas de diseño disponibles acordes a la complejidad formal de la propuesta planteada condicionó enormente la marcha del proyecto, dilatándose dramáticamente en el tiempo y disparándose su coste hasta el punto de que el propio arquitecto danés fue separado de las obras antes de su conclusión. Además, la solución estructural finalmente construida de las cubiertas dista mucho de la prevista por Utzon inicialmente. Donde él había imaginado unas finas láminas de hormigón flotando sobre el paisaje se materializó una estructura más pesada, formada por costillas pretensadas de hormigón con unas secciones notablemente mayores. La forma también debió ser modificada de modo ostensible respecto a la propuesta inicial. Si este edificio se pretendiese construir en la actualidad, con toda seguridad el curso de los acontecimientos se desarrollaría por senderos muy diferentes. Ante este supuesto, se plantean las siguientes cuestiones: ¿sería posible realizar un análisis estructural de la cubierta laminar planteada por Utzon inicialmente en el concurso con las herramientas disponibles en la actualidad?; ¿sería dicha propuesta viable estructuralmente?. A lo largo de las siguientes páginas se pretende dar respuesta a estas cuestiones, poniendo de relieve el impacto que los ordenadores personales y los programas informáticos asociados han tenido en la manera de concebir y construir edificios. También se han analizado variantes a la solución laminar planteada en la fase de concurso, a través de las cuales, tratando en la medida de lo posible de ajustarse a las sugerencias que Ove Arup y su equipo realizaron a Jørn Utzon a lo largo del dilatado proceso de proyecto, mejorar el comportamiento general de la estructura del edificio. Por último, se ha pretendido partir de cero y plantear, desde una perspectiva contemporánea, posibles enfoques metodológicos aplicables a la búsqueda de soluciones estructurales compatibles con la forma propuesta originalmente por Utzon para las cubiertas de la Ópera de Sídney y que nunca llegó a ser construida (ni analizada), considerando para ello los medios tecnológicos, científicos e industriales disponibles en la actualidad. Abstract On numerous occasions throughout history the imagination of creators has gone well beyond of the technical possibilities of their time. Many new ideas have required a long period to materialize, until the technological and industrial development had time to catch up. In the architecture field, these technical limitations have gradually tightened leading to the current situation in which any formal approach can be represented and analyzed from a structural point of view, thus concluding that the structural analysis and the graphical representation’s barrier in the development of architectural projects has dissappeared. Throughout the following pages it is examined how the development of the Finite Element Method in the fifties and the Bezier curves in the sixties of the last century and the subsequent spread of personal computers and specialized software in the architectural and engineering offices from the nineties, enabled the development of any architectural proposal independently of its complexity. This has caused a revolution at a formal level in architecture, especially in the field of iconic building. This process is analyzed through eight buildings, four of them before and another four after the disappearance of the above mentioned barrier, roughly established in the eighties of the last century: Fronton Recoletos in Madrid, Seagram Building in New York Habitat '67 in Montreal, Sydney Opera House, Guggenheim Museum Bilbao, Victoria & Albert Museum extension in London, Crematorium “Meiso no Mori” in Gifu and the new CCTV headquarters in Beijing. Among them, the Sydney Opera House, designed by Danish architect Jørn Utzon, condenses many of the main aspects previously investigated regarding the impact of representation methods and structural analysis on the design and construction of architectural projects. For this reason and also because it is considered a global architecture milestone, it is selected as a case study. The building’s general idea, which dates from 1956, is framed at a time immediately preceding the above mentioned scientific and technological development. This lack of available design tools in accordance with the proposal’s formal complexity conditioned enormously the project’s progress, leading to a dramatic delay and multiplying the final budget disproportionately to the point that the Danish architect himself was separated from the works before completion. Furthermore, the built structure differs dramatically from the architect’s initial vision. Where Utzon saw a thin concrete shell floating over the landscape a heavier structure was built, consisting of prestressed concrete ribs with a significantly greater size. The geometry also had to be modified. If this building were to built today, the course of events surely would walk very different paths. Given this assumption, a number of questions could then be formulated: Would it be possible to perform a structural analysis of Utzon’s initially proposed competition-free-ways roof’s geometry with the tools available nowadays?; Would this proposal be structurally feasable?. Throughout the following pages it is intended to clarify this issues, highlighting personal computers and associated software’s impact in building design and construction procedures, especially in the field of iconic building. Variants have also been analyzed for the laminar solution proposed in the competition phase, through which, trying as far as possible to comply with the suggestions that Ove Arup and his team did to Jørn Utzon along the lengthy process project, improving the overall performance of the building structure. Finally, we have started from scratch and analyzed, from a contemporary perspective, possible structural solutions compatible with Utzon’s Opera House’s original geometry and vision –proposal that was never built (nor even analyzed)-, taking into consideration the technological, scientific and industrial means currently available.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Durante las últimas décadas se observa una tendencia sostenida al crecimiento en las dimensiones de los grandes buques portacontenedores, que produce, que las infraestructuras portuarias y otras destinadas al tráfico de contenedores deban adaptarse para poder brindar los servicios correspondientes y mantenerse competitivas con otras para no perder el mercado. Esta situación implica importantes inversiones y modificaciones en los sistemas de transporte de contenedores por el gran volumen de carga que se debe mover en un corto periodo de tiempo, lo que genera la necesidad de tomar previsiones relacionadas con la probable evolución a futuro de las dimensiones que alcanzarán los grandes buques portacontenedores. En relación a los aspectos citados surge la inquietud de determinar los condicionantes futuros del crecimiento de los grandes buques portacontenedores, con una visión totalizadora de todos los factores que incidirán en los próximos años, ya sea como un freno o un impulso a la tendencia que se verifica en el pasado y en el presente. En consideración a que el tema a tratar y resolver se encuentra en el futuro, con un horizonte de predicción de veinte años, se diseña y se aplica una metodología prospectiva, que permite alcanzar conclusiones con mayor grado de objetividad sobre probables escenarios futuros. La metodología prospectiva diseñada, conjuga distintas herramientas metodológicas, cualitativas, semi-cuantitativas y cuantitativas que se validan entre sí. Sobre la base del pasado y el presente, las herramientas cuantitativas permiten encontrar relaciones entre variables y hacer proyecciones, sin embargo, estas metodologías pierden validez más allá de los tres a cuatro años, por los vertiginosos y dinámicos cambios que se producen actualmente, en las áreas política, social y económica. Las metodologías semi-cuantitativas y cualitativas, empleadas en forma conjunta e integradas, permiten el análisis de circunstancias del pasado y del presente, obteniendo resultados cuantitativos que se pueden proyectar hacia un futuro cercano, los que integrados en estudios cualitativos proporcionan resultados a largo plazo, facilitando considerar variables cualitativas como la creciente preocupación por la preservación del medio ambiente y la piratería. La presente tesis, tiene como objetivo principal “identificar los condicionantes futuros del crecimiento de los grandes buques portacontenedores y determinar sus escenarios”. Para lo cual, la misma se estructura en fases consecutivas y que se retroalimentan continuamente. Las tres primeras fases son un enfoque sobre el pasado y el presente, que establece el problema a resolver. Se estudian los antecedentes y el estado del conocimiento en relación a los factores y circunstancias que motivaron y facilitaron la tendencia al crecimiento de los grandes buques. También se estudia el estado del conocimiento de las metodologías para predecir el futuro y se diseña de una metodología prospectiva. La cuarta fase, denominada Resultados, se desarrolla en distintas etapas, fundamentadas en las fases anteriores, con el fin de resolver el problema dando respuestas a las preguntas que se formularon para alcanzar el objetivo fijado. En el proceso de esta fase, con el objeto de predecir probables futuros, se aplica la metodología prospectiva diseñada, que contempla el análisis del pasado y el presente, que determina los factores cuya influencia provocó el crecimiento en dimensiones de los grandes buques hasta la actualidad, y que constituye la base para emplear los métodos prospectivos que permiten determinar qué factores condicionarán en el futuro la evolución de los grandes buques. El probable escenario futuro formado por los factores determinados por el criterio experto, es validado mediante un modelo cuantitativo dinámico, que además de obtener el probable escenario futuro basado en las tendencias de comportamiento hasta el presente de los factores determinantes considerados, permite estudiar distintos probables escenarios futuros en función de considerar un cambio en la tendencia futura de los factores determinantes. El análisis del pasado indica que la tendencia al crecimiento de los grandes buques portacontenedores hasta el presente, se ha motivado por un crecimiento económico mundial que se tradujo en un aumento del comercio internacional, particularmente entre los países de Asia, con Europa y Estados Unidos. Esta tendencia se ha visto favorecida por el factor globalización y la acelerada evolución tecnológica que ha permitido superar los obstáculos que se presentaron. Es de destacar que aún en periodos de crisis económicas, con pronósticos de contracciones en el comercio, en los últimos años continuó la tendencia al crecimiento en dimensiones, en busca de una economía de escala para el transporte marítimo de contenedores, en las rutas transoceánicas. La investigación de la evolución de los grandes buques portacontenedores en el futuro, se efectúa mediante el empleo de una metodología prospectiva en la que el criterio experto se valida con un método cuantitativo dinámico, y además se fundamenta en una solida base pre-prospectiva. La metodología diseñada permite evaluar con un alto grado de objetividad cuales serán los condicionantes que incidirán en el crecimiento en tamaño de los grandes buques portacontenedores en el escenario con mayor probabilidad de acontecer en los próximos veinte años (2032), y también en otros escenarios que podrían presentarse en el caso de que los factores modifiquen su tendencia o bien se produzcan hechos aleatorios. El resultado se sintetiza en que la tendencia al crecimiento de los grandes buques portacontenedores en los próximos 20 años se verá condicionada por factores en relación a los conceptos de oferta (los que facilitan u obstaculizan la tendencia), demanda (los que motivan o impulsan la tendencia) y factores externos (los que desestabilizan el equilibrio entre oferta y demanda). La tendencia al crecimiento de los grandes buques portacontenedores se verá obstaculizada / limitada principalmente por factores relacionados a las infraestructuras, resultando los pasos y/o canales vinculados a las rutas marítimas, los limitantes futuros al crecimiento en dimensiones de los grandes buques portacontenedores; y la interacción buque / infraestructura (grúas) un factor que tenderá a obstaculizar esta tendencia de los grandes portacontenedores. El desarrollo económico mundial que estimula el comercio internacional y los factores precio del petróleo y condicionantes medioambientales impulsarán la tendencia al crecimiento de los grandes buques portacontenedores. Recent years have seen a sustained tendency towards the growth in the dimensions of large container ships. This has meant that port and other infrastructure used for container traffic has had to be adapted in order to provide the required services and to maintain a competitive position, so as not to lose market share. This situation implies the need for major investments in modifications to the container transport system, on account of the large volume of traffic to be handled in a short period of time. This in turn has generated a need to make provision for the probable future evolution of the ultimate dimensions that will be reached by large container ships. Such considerations give rise to the question of what are the future determinants for the growth of large container ships, requiring an overall vision of all the factors that will apply in future years, whether as a brake on or an incentive to the growth tendency which has been seen in the past and present In view of the fact that the theme to be dealt with and resolved relates to the future, with a forecasting horizon of some 20 years, a foresight methodology has been designed and applied so as to enable conclusions about probable future scenarios to be reached with a greater degree of objectivity. The designed methodology contains different methodological tools, both qualitative, semi-quantitative and quantitative, which are internally consistent. On the basis of past and present observations, the quantitative elements enable relationships to be established and forecasts to be made. Nevertheless such an approach loses validity more than three or four years into the future, on account of the very rapid and dynamic changes which may be seen at present in political, social and economic spheres. The semi-quantitative and qualitative methodologies are used coherently together and allow the analysis of past and present conditions, thus obtaining quantitative results which for short-term projections, which when integrated with the qualitative studies provide results for the long-term, facilitating the consideration of qualitative variables such as the increasing importance of environmental protection and the impact of piracy. The principal objective of the present thesis is "to identify the future conditions affecting the growth of large container ships and to determine possible scenarios". The thesis is structured in consecutive and related phases. The first three phases focus on the past and present in order to determine the problem to be resolved. The background is studied in order to establish the state of knowledge about the factors and circumstances which have motivated and facilitated the growth tendency for large container ships and the methodologies that have been used. In this way a specific foresight methodology is designed. The fourth phase, Results, is developed in distinct stages based on the previous phases, so as to resolve the problem posed and responding to the questions that arise. In this way the determined objective is reached. The fourth phase sees the application of the methodology that has been designed in order to predict posible futures. This includes analysis of the past and present factors which have caused the growth in the dimensions of large container ships up to the present. These provide the basis on which to apply the foresight methods which enable the future factors which will condition the development of such large container ships. The probable future scenarios are made up of the factors identified by expert judgement (using the Delphi technique) and validated by means of a dynamic quantitative model. This model both identifies the probable future scenarios based on past and present factors and enables the different future scenarios to be analysed as a function of future changes in the conditioning factors. Analysis of the past shows that the growth tendency up to the present for large container ships has been motivated by the growth of the world economy and the consequent increased international trade, especially between the countries of Asia with Europe and the United States. This tendency has been favoured by the trend towards globalization and by the rapid technical evolution in ship design, which has allowed the obstacles encountered to be overcome. It should be noted that even in periods of economic crisis, with an expectation for reduced trade, as experienced in recent years, the tendency towards increased ship dimensions has continued in search of economies of scale for the maritime transport of containers on transoceanic routes. The present investigation of the future evolution of large container ships has been done using a foresight methodology in which the expert judgement is validated by a dynamic quantitative methodology, founded on a firm pre-foresight analysis. The methodology that has been designed permits the evaluation, with a high degree of objectivity, of the future factors that will affect the growth of large container ships for the most probable scenario expected in the next 20 years (up to 2032). The evaluation applies also to other scenarios which may arise, in the event that their component factors are modified or indeed in the light of random events. In summary, the conclusión is that the tendency for growth in large container ships in the future 20 years will be determined by: factors related to supply, which slow or halt the tendency; factors related to demand, which encourage the tendency and finally, external factors which interrupt the equilibrium between supply and demand. The tendency for increasing growth in large container ships will be limited or even halted by factors related to infrastructure, including the natural and man-made straits and canals used by maritime transport. In addition the infrastructure required to serve such vessels both in port (including cranes and other equipment) and related transport, will tend to slow the growth tendency. The factors which will continue to encourage the tendency towards the growth of large container ships include world economic development, which stimulates international trade, and an increasing emphasis on environmental aspects.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La presente Tesis analiza las posibilidades que ofrecen en la actualidad las tecnologías del habla para la detección de patologías clínicas asociadas a la vía aérea superior. El estudio del habla que tradicionalmente cubre tanto la producción como el proceso de transformación del mensaje y las señales involucradas, desde el emisor hasta alcanzar al receptor, ofrece una vía de estudio alternativa para estas patologías. El hecho de que la señal emitida no solo contiene este mensaje, sino también información acerca del locutor, ha motivado el desarrollo de sistemas orientados a la identificación y verificación de la identidad de los locutores. Estos trabajos han recibido recientemente un nuevo impulso, orientándose tanto hacia la caracterización de rasgos que son comunes a varios locutores, como a las diferencias existentes entre grabaciones de un mismo locutor. Los primeros resultan especialmente relevantes para esta Tesis dado que estos rasgos podrían evidenciar la presencia de características relacionadas con una cierta condición común a varios locutores, independiente de su identidad. Tal es el caso que se enfrenta en esta Tesis, donde los rasgos identificados se relacionarían con una de la patología particular y directamente vinculada con el sistema de físico de conformación del habla. El caso del Síndrome de Apneas Hipopneas durante el Sueno (SAHS) resulta paradigmático. Se trata de una patología con una elevada prevalencia mundo, que aumenta con la edad. Los pacientes de esta patología experimentan episodios de cese involuntario de la respiración durante el sueño, que se prolongan durante varios segundos y que se reproducen a lo largo de la noche impidiendo el correcto descanso. En el caso de la apnea obstructiva, estos episodios se deben a la imposibilidad de mantener un camino abierto a través de la vía aérea, de forma que el flujo de aire se ve interrumpido. En la actualidad, el diagnostico de estos pacientes se realiza a través de un estudio polisomnográfico, que se centra en el análisis de los episodios de apnea durante el sueño, requiriendo que el paciente permanezca en el hospital durante una noche. La complejidad y el elevado coste de estos procedimientos, unidos a las crecientes listas de espera, han evidenciado la necesidad de contar con técnicas rápidas de detección, que si bien podrían no obtener tasas tan elevadas, permitirían reorganizar las listas de espera en función del grado de severidad de la patología en cada paciente. Entre otros, los sistemas de diagnostico por imagen, así como la caracterización antropométrica de los pacientes, han evidenciado la existencia de patrones anatómicos que tendrían influencia directa sobre el habla. Los trabajos dedicados al estudio del SAHS en lo relativo a como esta afecta al habla han sido escasos y algunos de ellos incluso contradictorios. Sin embargo, desde finales de la década de 1980 se conoce la existencia de patrones específicos relativos a la articulación, la fonación y la resonancia. Sin embargo, su descripción resultaba difícilmente aprovechable a través de un sistema de reconocimiento automático, pero apuntaba la existencia de un nexo entre voz y SAHS. En los últimos anos las técnicas de procesado automático han permitido el desarrollo de sistemas automáticos que ya son capaces de identificar diferencias significativas en el habla de los pacientes del SAHS, y que los distinguen de los locutores sanos. Por contra, poco se conoce acerca de la conexión entre estos nuevos resultados, los sé que habían obtenido en el pasado y la patogénesis del SAHS. Esta Tesis continua la labor desarrollada en este ámbito considerando específicamente: el estudio de la forma en que el SAHS afecta el habla de los pacientes, la mejora en las tasas de clasificación automática y la combinación de la información obtenida con los predictores utilizados por los especialistas clínicos en sus evaluaciones preliminares. Las dos primeras tareas plantean problemas simbióticos, pero diferentes. Mientras el estudio de la conexión entre el SAHS y el habla requiere de modelos acotados que puedan ser interpretados con facilidad, los sistemas de reconocimiento se sirven de un elevado número de dimensiones para la caracterización y posterior identificación de patrones. Así, la primera tarea debe permitirnos avanzar en la segunda, al igual que la incorporación de los predictores utilizados por los especialistas clínicos. La Tesis aborda el estudio tanto del habla continua como del habla sostenida, con el fin de aprovechar las sinergias y diferencias existentes entre ambas. En el análisis del habla continua se tomo como punto de partida un esquema que ya fue evaluado con anterioridad, y sobre el cual se ha tratado la evaluación y optimización de la representación del habla, así como la caracterización de los patrones específicos asociados al SAHS. Ello ha evidenciado la conexión entre el SAHS y los elementos fundamentales de la señal de voz: los formantes. Los resultados obtenidos demuestran que el éxito de estos sistemas se debe, fundamentalmente, a la capacidad de estas representaciones para describir dichas componentes, obviando las dimensiones ruidosas o con poca capacidad discriminativa. El esquema resultante ofrece una tasa de error por debajo del 18%, sirviéndose de clasificadores notablemente menos complejos que los descritos en el estado del arte y de una única grabación de voz de corta duración. En relación a la conexión entre el SAHS y los patrones observados, fue necesario considerar las diferencias inter- e intra-grupo, centrándonos en la articulación característica del locutor, sustituyendo los complejos modelos de clasificación por el estudio de los promedios espectrales. El resultado apunta con claridad hacia ciertas regiones del eje de frecuencias, sugiriendo la existencia de un estrechamiento sistemático en la sección del tracto en la región de la orofaringe, ya prevista en la patogénesis de este síndrome. En cuanto al habla sostenida, se han reproducido los estudios realizados sobre el habla continua en grabaciones de la vocal /a/ sostenida. Los resultados son cualitativamente análogos a los anteriores, si bien en este caso las tasas de clasificación resultan ser más bajas. Con el objetivo de identificar el sentido de este resultado se reprodujo el estudio de los promedios espectrales y de la variabilidad inter e intra-grupo. Ambos estudios mostraron importantes diferencias con los anteriores que podrían explicar estos resultados. Sin embargo, el habla sostenida ofrece otras oportunidades al establecer un entorno controlado para el estudio de la fonación, que también había sido identificada como una fuente de información para la detección del SAHS. De su estudio se pudo observar que, en el conjunto de datos disponibles, no existen variaciones que pudieran asociarse fácilmente con la fonación. Únicamente aquellas dimensiones que describen la distribución de energía a lo largo del eje de frecuencia evidenciaron diferencias significativas, apuntando, una vez más, en la dirección de las resonancias espectrales. Analizados los resultados anteriores, la Tesis afronta la fusión de ambas fuentes de información en un único sistema de clasificación. Con ello es posible mejorar las tasas de clasificación, bajo la hipótesis de que la información presente en el habla continua y el habla sostenida es fundamentalmente distinta. Esta tarea se realizo a través de un sencillo esquema de fusión que obtuvo un 88.6% de aciertos en clasificación (tasa de error del 11.4%), lo que representa una mejora significativa respecto al estado del arte. Finalmente, la combinación de este clasificador con los predictores utilizados por los especialistas clínicos ofreció una tasa del 91.3% (tasa de error de 8.7%), que se encuentra dentro del margen ofrecido por esquemas más costosos e intrusivos, y que a diferencia del propuesto, no pueden ser utilizados en la evaluación previa de los pacientes. Con todo, la Tesis ofrece una visión clara sobre la relación entre el SAHS y el habla, evidenciando el grado de madurez alcanzado por la tecnología del habla en la caracterización y detección del SAHS, poniendo de manifiesto que su uso para la evaluación de los pacientes ya sería posible, y dejando la puerta abierta a futuras investigaciones que continúen el trabajo aquí iniciado. ABSTRACT This Thesis explores the potential of speech technologies for the detection of clinical disorders connected to the upper airway. The study of speech traditionally covers both the production process and post processing of the signals involved, from the speaker up to the listener, offering an alternative path to study these pathologies. The fact that utterances embed not just the encoded message but also information about the speaker, has motivated the development of automatic systems oriented to the identification and verificaton the speaker’s identity. These have recently been boosted and reoriented either towards the characterization of traits that are common to several speakers, or to the differences between records of the same speaker collected under different conditions. The first are particularly relevant to this Thesis as these patterns could reveal the presence of features that are related to a common condition shared among different speakers, regardless of their identity. Such is the case faced in this Thesis, where the traits identified would relate to a particular pathology, directly connected to the speech production system. The Obstructive Sleep Apnea syndrome (OSA) is a paradigmatic case for analysis. It is a disorder with high prevalence among adults and affecting a larger number of them as they grow older. Patients suffering from this disorder experience episodes of involuntary cessation of breath during sleep that may last a few seconds and reproduce throughout the night, preventing proper rest. In the case of obstructive apnea, these episodes are related to the collapse of the pharynx, which interrupts the air flow. Currently, OSA diagnosis is done through a polysomnographic study, which focuses on the analysis of apnea episodes during sleep, requiring the patient to stay at the hospital for the whole night. The complexity and high cost of the procedures involved, combined with the waiting lists, have evidenced the need for screening techniques, which perhaps would not achieve outstanding performance rates but would allow clinicians to reorganize these lists ranking patients according to the severity of their condition. Among others, imaging diagnosis and anthropometric characterization of patients have evidenced the existence of anatomical patterns related to OSA that have direct influence on speech. Contributions devoted to the study of how this disorder affects scpeech are scarce and somehow contradictory. However, since the late 1980s the existence of specific patterns related to articulation, phonation and resonance is known. By that time these descriptions were virtually useless when coming to the development of an automatic system, but pointed out the existence of a link between speech and OSA. In recent years automatic processing techniques have evolved and are now able to identify significant differences in the speech of OSAS patients when compared to records from healthy subjects. Nevertheless, little is known about the connection between these new results with those published in the past and the pathogenesis of the OSA syndrome. This Thesis is aimed to progress beyond the previous research done in this area by addressing: the study of how OSA affects patients’ speech, the enhancement of automatic OSA classification based on speech analysis, and its integration with the information embedded in the predictors generally used by clinicians in preliminary patients’ examination. The first two tasks, though may appear symbiotic at first, are quite different. While studying the connection between speech and OSA requires simple narrow models that can be easily interpreted, classification requires larger models including a large number dimensions for the characterization and posterior identification of the observed patterns. Anyhow, it is clear that any progress made in the first task should allow us to improve our performance on the second one, and that the incorporation of the predictors used by clinicians shall contribute in this same direction. The Thesis considers both continuous and sustained speech analysis, to exploit the synergies and differences between them. On continuous speech analysis, a conventional speech processing scheme, designed and evaluated before this Thesis, was taken as a baseline. Over this initial system several alternative representations of the speech information were proposed, optimized and tested to select those more suitable for the characterization of OSA-specific patterns. Evidences were found on the existence of a connection between OSA and the fundamental constituents of the speech: the formants. Experimental results proved that the success of the proposed solution is well explained by the ability of speech representations to describe these specific OSA-related components, ignoring the noisy ones as well those presenting low discrimination capabilities. The resulting scheme obtained a 18% error rate, on a classification scheme significantly less complex than those described in the literature and operating on a single speech record. Regarding the connection between OSA and the observed patterns, it was necessary to consider inter-and intra-group differences for this analysis, and to focus on the articulation, replacing the complex classification models by the long-term average spectra. Results clearly point to certain regions on the frequency axis, suggesting the existence of a systematic narrowing in the vocal tract section at the oropharynx. This was already described in the pathogenesis of this syndrome. Regarding sustained speech, similar experiments as those conducted on continuous speech were reproduced on sustained phonations of vowel / a /. Results were qualitatively similar to the previous ones, though in this case perfomance rates were found to be noticeably lower. Trying to derive further knowledge from this result, experiments on the long-term average spectra and intraand inter-group variability ratios were also reproduced on sustained speech records. Results on both experiments showed significant differences from the previous ones obtained from continuous speech which could explain the differences observed on peformance. However, sustained speech also provided the opportunity to study phonation within the controlled framework it provides. This was also identified in the literature as a source of information for the detection of OSA. In this study it was found that, for the available dataset, no sistematic differences related to phonation could be found between the two groups of speakers. Only those dimensions which relate energy distribution along the frequency axis provided significant differences, pointing once again towards the direction of resonant components. Once classification schemes on both continuous and sustained speech were developed, the Thesis addressed their combination into a single classification system. Under the assumption that the information in continuous and sustained speech is fundamentally different, it should be possible to successfully merge the two of them. This was tested through a simple fusion scheme which obtained a 88.6% correct classification (11.4% error rate), which represents a significant improvement over the state of the art. Finally, the combination of this classifier with the variables used by clinicians obtained a 91.3% accuracy (8.7% error rate). This is within the range of alternative, but costly and intrusive schemes, which unlike the one proposed can not be used in the preliminary assessment of patients’ condition. In the end, this Thesis has shed new light on the underlying connection between OSA and speech, and evidenced the degree of maturity reached by speech technology on OSA characterization and detection, leaving the door open for future research which shall continue in the multiple directions that have been pointed out and left as future work.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El presente artículo pretende analizar la obra de Peter Eisenman que va desde 1978 a 1988, como destacado e influyente arquitecto dentro del panorama actual, haciendo énfasis en la particular forma en que entiende el contexto, así como en sus métodos de manipulación del suelo. La búsqueda del rastro de sus referencias nos lleva a analizar textos de Rosalind Krauss, Collin Rowe y Richard Morris, donde encontramos claras influencias en el modo en que Eisenman plantea el lugar. Por otro lado, a través de análisis de la exposición Cities of Artificial Excavation, especialmente mediante el concurso de Cannaregio, abordaremos las formas de proceder de Eisenman. Con este proyecto comienza una nueva etapa profesional, reinterpreta el suelo como huellas del pasado y redefine el contexto como lugar ficticio. Rastros y huellas, que expresan en definitiva las líneas claves para entender su pensamiento, y que han significado una gran aportación a la arquitectura contemporánea.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El director de cine y el arquitecto, exploran las posibilidades que les ofrece la imagen, en el sentido de la visualización de ciertas relaciones que son catalizadoras de las emociones. La obra cinematográfica y la obra arquitectónica son producto del pensamiento y contienen todos los procesos que las idearon, así como aquellos mecanismos necesarios para generar el espacio y la secuencia. El objetivo general de la tesis consiste en conocer las analogías existentes en el modo en que el arquitecto y el cineasta afrontan el proceso de creación de sus proyectos desde la acción gráfica. Si consideramos el medio gráfico como un recurso creativo en el proyecto arquitectónico y cinematográfico, el boceto, croquis o “storyboard” se convierten en documentos fundamentales, objeto de estudio, para extraer las claves y la manera en que se desarrolla dicho proceso. El pensamiento gráfico se encuentra íntimamente unido a su modo de expresión. El estudio de ese proceso de pensamiento basado principalmente en imágenes, permite establecer analogías en la manera en que ambos autores hacen uso del dibujo para imaginar acontecimientos evocadores de emociones que definan el carácter dramático de sus ideas. La conexión y yuxtaposición de imágenes mentales, como operaciones de montaje que alientan la construcción de ideas, conceptos y sensaciones, son claves en el curso de la concepción arquitectónica y cinematográfica, y el dibujo, una herramienta que permite a ambos autores su desarrollo. La aproximación al modo en que el arquitecto y el cineasta emprenden el proceso de ideación de sus proyectos a través del dibujo, se aborda desde las estrategias gráficas de cuatro autores: Sergei Eisenstein, Le Corbusier, Akira Kurosawa y Rem Koolhaas. La estructura del trabajo se desarrolla en dos bloques. El primero, compuesto por los primeros cuatro capítulos, afronta desde un punto de vista general, la potencialidad de la imagen en el pensamiento gráfico y el papel de la acción gráfica en el curso proyectual que realiza el arquitecto, por un lado, y el director de cine por otro, tratando de extraer las analogías y los puntos de encuentro de ambos autores durante el proceso. El segundo bloque, correspondiente a los cuatro últimos capítulos, aborda el uso del medio gráfico de manera más concreta, en la figura de dos de los arquitectos y dos de los cineastas más influyentes del pasado y del presente siglo, tratando de comprender el papel del dibujo en el desarrollo conceptual de su obra. ABSTRACT Both the movie director and the architect explore the potential offered by the image, as the visualization of certain relations that are catalyst of emotions. Cinematography and architecture works are a result of a thought and they include all the processes that created them, as much as the essential tools to generate the space and the sequence. This thesis aims to get an understanding of the analogies underlying in which architects and movie directors face the creation process of theirs projects from the graphic action. If we consider graphic media as a creative resource in the architectural and the cinematographic project, the sketch or storyboard becomes the fundamental documents, the study object, to decode the clues and the way in which the process unfolds. Graphic thinking comes across its way of expression. The study of this thinking, based mainly in images, let set up analogies in a way in which both authors use a drawing to imagine events of emotions that define the dramatic nature of their ideas. The connection and juxtaposition of mental images, as editing or montages that encourage the creation of ideas, concepts and sensations, are key in the course of the architectural and the cinematographic conception, and the drawing, a tool that allows both authors their development. The approach to the way the architect and the movie director get to the process of the creation of their projects through the drawing is addressed from the graphic strategies of these four authors: Sergei Eisenstein, Le Corbusier, Akira Kurosawa and Rem Koolhaas. The structure of the work is developed in two blocks. The first one, the first four chapters, face up, from a general point of view, the potential of the image in the graphic thinking and the role of the graphic action in the course of the project, that architects, as well as movie directors, are making trying to find the analogies and common points during the process. The second block, the last four chapters, deal with the use of the graphic media in a more detail manner, taking as example two of the architects and two of the movie directors more influential of the past and the present centuries, trying to understand the role of the drawing in the conceptual development of the their work.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este proyecto ha sido estructurado en tres bloques diferenciados que tiene como objetivo analizar el presente, pasado y futuro de la gestión de proyectos con una orientación clara a ofrecer apoyo a aquellas empresas que planeen realizar un giro en sus estructura de organización de trabajo hacia filosofías ágiles. La gestión de proyectos a acompañado al hombre desde el inicio de los tiempos, pero sin embargo no fue hasta nuestra historia más cercana cuando se comienza a tener conciencia de la necesidad de establecer aplicar métodos generales a la hora de afrontar proyectos de ingeniería. Pioneros fueron en este sentido personajes como Taylor, Fayol o Gantt, cuyas aportaciones iniciales posibilitaron el nacimiento de la gestión de proyectos a mediados del siglo XX. En las década sucesivas hasta nuestros días han aparecido un número considerable de metodologías, perfeccionando elementos anteriormente asimilados y adaptándose a la realidad tecnológica y social del momento. Este recorrido histórico se aborda en el primer bloque de este proyecto. Los puntos revisados en la introducción histórica proporcionan las bases de conocimiento para entender las principales características entre las grandes familias de metodologías que actualmente son implantadas en el mundo empresarial. Es precisamente este punto, el de la exposición y análisis de las metodologías más extendidas y contemporáneas a la elaboración de este proyecto, lo que se aborda en el segundo bloque. En él se desarrolla con intenso detalle dos metodologías de la familia de filosofías ágiles, elegidas entre las más extendidas en la industria: Scrum, eXtreme Programming (XP) y un híbrido de ambas. Para entender la dimensión del cambio filosófico en cuanto a la gestión de proyectos que emprenden estas metodologías, se hace necesario repasar cuales son las metodologías no ágiles más extendidas actualmente. Para ello se introducen metodologías como la llamada tradicional o PRINCE2, principalmente, ya que también se realiza un repaso más superficial por otras aproximaciones notables. El último bloque que construye el desenlace del proyecto, intenta responder a las cuestiones futuras relacionadas con la adopción de metodologías ágiles. Para ello se revisa los puntos más conflictivos a señalar en este proceso y se ofrecerán soluciones teóricas y prácticas para ayudar a las empresas en su fase de migración hacia filosofías de organización ágiles. Ya que toda empresa hoy en día debería tener un soporte tecnológico que ofrezca apoyo a su desarrollo empresarial, gran parte de la elaboración de este proyecto se ha dedicado a hacer un estudio comparativo de las actuales herramientas Open Source. Se han instalado y probado 25 herramientas para posteriormente seleccionar 3 que han sido analizadas en profundidad. Así mismo, se enumeran pros y contras de estas herramientas, aportando ideas de mejoras y trazando cuál debería ser su evolución para ofrecer una alternativa real a las herramientas comerciales orientadas a esta labor. Las empresas pueden utilizar este índice de herramientas de software para decidir si pueden sustentar su proceso de migración en una herramienta Open Source o si deben orientarse a herramientas comerciales o de creación propias. ABSTRACT. This project has been divided into three different blocks that aims to analyze the past, present and future of project management with a clear focus on providing support to those companies that are planning to make a shift in its organizational structure working towards agile philosophies . The project management has walked together with the humanity since the beginning of time , but it was on our recent history when it begins to become aware of the need to establish general methods to apply to engineering projects. There was pioneers like Taylor , Fayol or Gantt, whose contributions made possible the birth of project management in the mid- twentieth century. In the following decades, there was a considerable number of new methodologies, improving concepts and adapting then to the technological and social reality of the moment . This historical journey is addressed in the first block of this project. The different facts reviewed at the first block provide the knowledge to understand the key features among the most important families of methodologies that nowadays are implemented in the business world. It is precisely this point, the presentation and analysis of the most widespread methodologies what is addressed in the second block. Two of the most widespread agile methodologies are detailed: Scrum , eXtreme Programming ( XP ) and a hybrid of both . In order to understand the philosophical shift in terms of project management performed by these methodologies , it is necessary to review what are the most widespread no agile methodologies currently. For this purpose, methodologies like Waterfall or PRINCE2 are explained. Other no agile methodologies are explained as well, but not so deeply in comparison with them. The last section of this project is the conclusion, it tries to answer future questions related to the adoption of agile methodologies. For that reason, the most important milestones are reviewed to provide theoretical and practical solutions and answers to help companies in this migration process toward agile methodologies. Since every company should has a solid technical support for its business development, a considerably part of the time has been applied to make a comparative study of the existing Open Source tools. 25 tools have been installed and tested. Then, 3 tools has been selected to be analyzed deeply. Also, pros and cons of these tools have been exposed in order to suggest a roadmap to offer a real alternative to the existing commercial tools in this business area. The companies that are involved in a migration progress toward a agile methodology can used this study about the available Open Source tools to decide if they can afford the migration process based on one of them or if they should use a commercial tool or a tailor-made software.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Las nuevas relaciones internacionales establecidas en Japón a mediados del siglo XIX dieron lugar a una evolución de la cultura nipona, con un abandono paulatino de la tradición. La casa de té, origen de la arquitectura japonesa, quedó relegada al mundo rural, hasta caer casi en el olvido. Este proceso propició un espíritu crítico, del que surgieron arquitectos que defendían la búsqueda de un equilibrio entre el pasado y el presente. Tadao Ando ha destacado entre estos arquitectos por su tenacidad, humildad y perseverancia, cualidades que le han permitido desarrollar una arquitectura muy personal, cuyas obras representan su camaleónica capacidad, las preocupaciones de su cultura natal y una crítica social de la época moderna. Ando es un maestro de la abstracción ; un arquitecto atemporal y universal. Sus obras más representativas se sitúan en el periodo comprendido entre 1976-1995, cuando se recuperan los principios básicos de la casa de té: el diálogo entre arquitectura y naturaleza, los contrastes y la simplificación formal. El resultado conforma una arquitectura primitiva y moderna, con una precisión artesanal muy potente. Este trabajo pretende poner de manifiesto la influencia que la arquitectura tradicional japonesa y la arquitectura moderna internacional han tenido sobre la obra de Tadao Ando, un obra que, aun pasadas cuatro décadas, impacta profundamente en el observador y a nadie deja indiferente.