39 resultados para Teatro de la escena

em Universidad Politécnica de Madrid


Relevância:

100.00% 100.00%

Publicador:

Resumo:

El propósito de este Proyecto Fin de Carrera es el estudio acústico y electroacústico de la realización del musical “Hoy no me puedo levantar” en el Teatro Rialto de Madrid en 2005. En primer lugar, se realiza una breve introducción histórica, citando sus remodelaciones y comentando la situación actual del recinto. Posteriormente, es analizado el equipo de sonido empleado en el espectáculo a partir de cada uno de los distintos controles de sonido: FOH (Front of Hause), monitores y microfonía inalámbrica. De cada uno de ellos se explican sus principales funciones y los sistemas que los conforman. También se describe la utilización de las cabinas insonorizadas. A continuación, se detallan los sistemas electroacústicos (empleados en el diseño) de la sonorización de dicho musical, que se consideran divididos en las siguientes partes: sistema principal, refuerzos y retardos, efectos y monitores. Además, se detalla el software RMS (Remote Monitoring System), que aporta información del funcionamiento de estos sistemas en tiempo real. Seguidamente, se exponen el equipo, procedimiento y resultados de la medida in situ en el Teatro, aplicando la Norma UNE-EN ISO 3382-2/2008 para obtener el tiempo de reverberación y ruido de fondo. Con el objeto de inicializar la simulación por ordenador, primero se exportan los planos originales de AutoCAD a EASE 4.4, donde se finaliza el proceso de modelar el recinto. Posteriormente, se asignan materiales, áreas de audiencia, puntos de escucha y se ubican los sistemas electroacústicos. Se afina el tiempo de reverberación obtenido en la medida in situ mediante materiales de la base de datos del propio software. También se ajustan los sistemas electroacústicos en el recinto para obtener la ecualización empleada y los niveles de presión sonora directo y total para distintas frecuencias. Una vez finalizados los pasos anteriores, se procede a realizar estudios psicoacústicos para comprobar posibles ecos y el efecto precedencia (empleando retardos electrónicos o delays). Finalmente, se realizan estudios de inteligibilidad, en los que se justifica la Claridad de Voz (C50) y Claridad Musical (C80); el Índice de inteligibilidad del habla (SII), la Pérdida de articulación de consonantes (Alcons) y el Índice de transmisión del habla (STI). Por último se expone el presupuesto del proyecto y del alquiler del equipo de sonido del musical y se exponen las conclusiones del Proyecto Final de Carrera. ABSTRACT. The purpose of this Final Degree Project is the acoustic and electro-acoustic study of the musical “Hoy No Me Puedo Levantar” at Teatro Rialto in 2005 (Madrid, Spain). First of all, a brief review of its history is made, quoting its refurbishments and discussing the current situation of this enclosure. Later, the sound equipment of the show is analyzed through every different sound controls: FOH (Front Of House), monitors and wireless microphones. There is also an explanation about their principal functions and systems, as well as a description of the soundproof cabins. Then, the electro-acoustic systems are detailed and divided in the following parts: main system, boosters and delays, effects and monitors. The RMS software (Remote Monitoring System) is described too, since it gives relevant information of the systems operations in real time. Afterwards, equipment, procedures and results of the measurements are exposed, applying the UNE-EN ISO 3382-2/2008 regulation in order to obtain the reverberation time and background noise of the theatre. With the purpose of initialize the computer simulation, original plans are exported from AutoCad to EASE 4.4., where its modeling process is ended. Materials, audience areas, hearing points and electro-acoustic locations are assigned below. At the same time, reverberation time is tuned up using database materials of the software itself. Also, electro-acoustic systems of the enclosure are adjusted to get the equalization and pressure sound levels of the different frequencies. Once previous steps are finished, psycho-acoustic studies are made to check possible echoes and the precedence effect - using electronic delays -. Finally, intelligibility studies are detailed, where the Voice and Musical Clarities are justified: The Speech Intelligibility Index, the Loss of Consonants Articulation and the Talk Transmission Index. This Final Degree Project ends describing the budget and rent of the sound equipment and the final conclusions.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Profundizamos en el concepto "reciclajes urbanos" mediante el análisis de determinados aspectos del Plan de Renovación Urbana del entorno del río Manzanares (2008-2010). La investigación sobre la continua transformación de la ciudad, con la evolución de la escena, las ideas, los proyectos históricos y actuales, aportan al Plan y su proceso de redacción metodologías de investigación y criterios de actuación de aplicación teórica y práctica en la propuesta definitiva.El Ayuntamiento pretende consolidar mediante la renovación privada de la escena dos actuaciones públicas previas: el soterramiento de la M-30 y el gran parque urbano del Manzanares. Actuando en un borde heterogéneo, histórico, industrial y residencial, fruto del desarrollismo especulativo "asfixiado" posteriormente por la M-30. El Plan es una oportunidad de regeneración urbana a gran escala -en un ámbito de 390 Ha, 8 Km de longitud y 400-500 m de anchura- que afecta a más de 30.000 viviendas y plantea relaciones de escala y contenido con los ejes Castellana-Prado-Recoletos o Gran Vía. El modelo de rehabilitación actúa sobre edificación y suelos de propiedad privada o de distintas administraciones. Se realizará atrayendo y coordinando la inversión de los propietarios en la rehabilitación de sus viviendas y regenerando un eje de actividad capaz de crear dinámicas de renovación en focos de centralidad, aportando complejidad de usos al gran parque urbano, actualmente en realización. El "reciclaje de lo edificado" propone la clasificación de las intervenciones (rehabilitación funcional, de eficiencia energética y de escena urbana) y la intervención en conjuntos de renovación urbana. La estrategia de renovación a medio y largo plazo, en un espacio ya consolidado, impone varias líneas de investigación. El artículo profundiza especialmente en la relación del Plan con el análisis de evolución de la escena y la estructura urbana. Referencias pictóricas, fotográficas y cartográficas e imágenes del diagnóstico y la propuesta urbana ilustran este escrito

Relevância:

90.00% 90.00%

Publicador:

Resumo:

La denominación de empresa es aplicable a una gama variadísima de organizaciones, que abarca desde la gran transnacional que opera en decenas de países hasta la microempresa informal que sirve de sustento precario a una mujer pobre y aunque cada una tiene un papel que representar en la escena del desarrollo, su capacidad y sus responsabilidades son enormemente dispares

Relevância:

90.00% 90.00%

Publicador:

Resumo:

La intensa relación de las infotecnologías con el ámbito educativo no es algo nuevo. Ha ido pasando por diferentes etapas marcadas por uno u otro modelo para el proceso de enseñanza-aprendizaje: tele-enseñanza o educación a distancia, Computer-Based Learning (CBL), E-Learning, Blended Learning o B-Learning son algunos de ellos. En cada caso se han incorporando diferentes tecnologías, desde las cintas magnéticas de audio y vídeo hasta los portátiles, las tabletas y las pizarras electrónicas, pasando por ladeoconferencia o la mensajería instantánea. Hoy hablamos de E-Learning 2.0 (Downes, 2005) y Technology-Enhanced Learning (TEL). Todos esos modelos y sus metáforas asociadas han ido integrando, además de las diferentes capacidades tecnologías disponibles, distintas teorías pedagógicas, empezando por las tradicionalmente conocidas en la literatura del ámbito de la psicología educativa: el conductismo, el constructivismo o el constructivismo social. En la tabla 1 puede encontrar el lector esa asociación sintética, conjeturando con la definición de los roles de enseñante y aprendiz en cada modelo. Los cambios de “paradigma” –que habitualmente obvian la naturaleza original de este término para generalizarlo de forma poco rigurosa- anunciados y demandados en el ámbito educativo durante décadas se articulaban en (Barr y Tagg, 1995) alrededor de elementos como la misión y los objetivos de las instituciones educativas, la estructuración de los procesos educativos, su coste y productividad, los roles de los diferentes actores involucrados, la definición teórica del proceso de enseñanza-aprendizaje o las métricas de tal proceso. Downes (2005) lo resume de forma muy sintética con la siguiente afirmación (la traducción es mía): “el modelo de E-Learning que lo define en términos de unos contenidos, producidos por los editores, organizados y estructurados en cursos y consumidos por los estudiantes, se está dando la vuelta. En lo que se refiere al contenido, es mucho más probable que sea usado antes que “leído” y, en cualquier caso, es mucho más probable que sea producido por los propios estudiantes que por los autores especializados en la producción de cursos. En lo que se refiere a la estructura, es más probable que se parezca más a un idioma o una conversación que a un manual o libro de texto”. La irrupción en la escena tecnológica de la Web 2.0 como fenómeno social, sociotécnico en los términos de (Fumero, Roca y Sáez Vacas, 2007), ha hecho que se recuperen antiguas ambiciones teóricas asociadas a algunas de aquellas teorías clásicas, especialmente las que tienen que ver con el constructivismo cognitivo de J. Piaget (1964) y el constructivismo social de L. Vygotsky (1978). Esas teorías, enriquecidas con apuestas más atrevidas como el “conectivismo” (Siemens, 2004), han dado lugar al relanzamiento de modelos pedagógicos como el aprendizaje auto-gestionado o auto-dirigido, con sus matices de formulación (Self-Managed vs. Self-Directed Learning) que se han ido complementando a lo largo del tiempo con modelos de intervención asistidos, basados en un proceso de “andamiaje” o ‘scaffolding’ (véase en el capítulo 3, bajo el epígrafe “Psicología educativa para ingenieros”). Hoy podemos ver cómo, mientras se empieza a consolidar la reorganización del escenario institucional de la Educación Superior en Europa, tras el agotamiento de todos los plazos y las prórrogas contempladas por el acuerdo de Bolonia para su implementación –véase, por ejemplo, (Ortega, 2005) y su reflexión acerca de los “ingenieros creativos” en relación con esta reforma- se ha vuelto a plantear la implantación de procesos educativos basados en el aprendizaje informal (frente al formal y dando lugar a la definición del aprendizaje “no formal”), procesos que realmente se implementan como experiencias de aprendizaje mutuo (peer learning), en comunidad y ayudados por unas infotecnologías que, a pesar de su característica “cotidianeidad” (véase en el Prontuario el epígrafe “Tecnologías para la VIda Cotidiana”) siguen arrastrando el atributo de “educativas”. Evidentemente, la “tecnificación” de las instituciones de enseñanza superior ha ido consolidando algunos elementos tecnológicos que hoy son estándares de facto, como por ejemplo los sistemas integrados de gestión conocidos por sus siglas anglosajonas, LMS (Learning Management Systems). Los enormes esfuerzos, organizativos y técnicos, de integración que se han ido desarrollando en ese sentido –véase por ejemplo en (Aguirre, 2012)- han permanecido un tanto insensibles al desarrollo paralelo que, animados por la proliferación de herramientas más ricas y accesibles, llevaban a cabo los usuarios (profesores y alumnos; enseñantes y aprendices) que, manteniendo algún tipo de relación con una de esas instituciones (véase el escenario a que dan lugar en la figura 4) hacían un uso creativo de las tecnologías que la Red ponía a su alcance. En el escenario actual –aun predominando la excitación tecnológica- han acabado encontrándose ambas corrientes, generando un nuevo espacio de incertidumbre (léase de oportunidades) en el que se encuentran las soluciones establecidas, en forma de LMS, con las primeras formulaciones de esas combinaciones creativas de herramientas, metodologías y modelos, también conocidos como entornos personales de aprendizaje (Personal Learning Environments, PLE), que han revitalizado otras propuestas tecnológicas, como los e-Portfolios, o pedagógicas, como los contratos de aprendizaje (véase su aplicación en el caso de estudio del proyecto iCamp, en el capítulo 4). Es en ese escenario y desde una perspectiva interdisciplinar, híbrida, mestiza y conciliadora, donde tiene sentido plantear, como objeto de un trabajo de investigación consistente, la consolidación de un modelo que nos ayude a contextualizar la situación de cambio infotecnológico, organizativo y social a la que nos enfrentamos y que nos guíe en su instrumentalización para afrontar “situaciones de complejidad” similares que, sin duda, tendremos que abordar en el medio plazo. Esto me lleva a contemplar el problema desde una perspectiva suficientemente amplia, pero con un foco bien definido sobre los procesos educativos –de enseñanza y aprendizaje- en el ámbito de la Educación Superior y, específicamente, en lo referente a la formación de los infoprofesionales. Un escenario en el que se dan cita necesariamente la Tecnología Educativa y la Web 2.0 como fenómeno sociotécnico y que me llevan al análisis de modelos de intervención basados en lo que se conoce como “software social” –en sentido amplio, considerando herramientas, tecnologías y metodologías-, ensayados en ese ámbito extendido a la capacitación y la formación profesionales. Se establece, por tanto, como escenario del trabajo de investigación –y ámbito para el diseño de aquellas intervenciones- el de las organizaciones educativas, aplicando la definición sintética que recoge el propio Fernando Sáez Vacas (FSV) de la reingeniería de procesos (la negrita y las anotaciones, entre paréntesis, son mías), “que consiste en reinventar la forma de desarrollar las operaciones de la empresa (institución educativa, universitaria por ejemplo), partiendo de nuevos enfoques muy orientados a las necesidades de los clientes (los aprendices o estudiantes), con rotura de las tradicionales formas organizativas verticales y del desempeño humano y un uso masivo de las modernas tecnologías de la información y de la comunicación”; y que se aplicarán de acuerdo con la integración de los elementos metodológicos y conceptuales, que conformarán las bases de una SocioTecnología de la Información y Cultura (STIC) y que hunden sus raíces en la complejidad y la sistémica (véase en el Prontuario). El objetivo genérico que se planteaba en la propuesta original de tesis doctoral era ambicioso: “desarrollar y potenciar las bases de un ‘movimiento’ de I+D+i (+d) –con “d” minúscula de difusión, divulgación, diseminación-, sobre socioinfotecnocultura enfocado en el contexto de este trabajo específicamente en su difusión educativa y principalmente en el ámbito de la Educación Superior” y para la formación de los infoprofesionales. El objetivo específico del mismo era el de “diseñar un (conjunto) instrumental cognitivo básico, aunque relativamente complejo y denso en su formulación, para los infoprofesionales, considerados como agentes activos de la infotecnología con visión y aplicación social”. La tesis de partida es que existe –en palabras de FSV- la necesidad “de desarrollar educativamente los conocimientos y modelos socioinfotecnoculturales para nutrir una actitud en principio favorable a los progresos infotecnológicos, pero encauzada por una mentalidad “abierta, positiva, crítica, activa y responsable” y orientar con la mayor profundidad posible a los infoprofesionales y, en un grado razonable, a los infociudadanos hacia usos positivos desde puntos de vista humanos y sociales”. Justificar, documentar y caracterizar esa necesidad latente –y en muchos aspectos patente en el actual escenario educativo- será parte importante del trabajo; así como elaborar los elementos necesarios que ofrezcan coherencia y consistencia suficientes al marco conceptual de esa nueva “socioinfotecnocultura” que en la formulación adoptada aquí será el marco tecnocultural básico de una SocioTecnología de la Información y Cultura (STIC), debiendo integrar esos elementos en el proceso educativo de enseñanza-aprendizaje de tal manera que puedan ser objeto de diseño y experimentación, particularizándolo sobre los infoprofesionales en primera instancia, aunque dentro de un proyecto amplio para el desarrollo y promoción social de una STIC. Mi planteamiento aquí, si bien incorpora elementos y modelos considerados previamente en algunos de mis trabajos de análisis, investigación, experimentación y diseminación realizados a lo largo del periodo de formación –modelos de intervención desarrollados en el proyecto iCamp, ampliamente documentados en (Fiedler, 2006) o (Fiedler y Kieslinger, 2007) y comentados en el capítulo 4-, en gran parte, por simple coherencia, estará constituido por elementos propios y/o adaptados de FSV que constituirán el marco tecnocultural de una teoría general de la STIC, que está en la base de este planteamiento. La asimilación en términos educativos de ese marco tecnocultural supondrá un esfuerzo considerable de reingeniería y se apoyará en el circuito cognitivo individual ampliado de “información-esfuerzo-conocimiento-esfuerzo-acción” que se recoge en el Prontuario (figura 34) y que parte de (Sáez Vacas, 1991a). La mejor forma de visualizar la formulación de ese proceso educativo es ponerlo en los términos del modelo OITP (Organización, Individuos, Tecnologías y Procesos) tal y como se ilustra en el Prontuario (figura 25) y que se puede encontrar descrito brevemente por su autor en (Sáez Vacas, 1995), de la misma forma que se planteaba la experiencia INTL 2.0 en (Sáez Vacas, Fumero et al., 2007) y que es objeto de análisis en el capítulo 5. En este caso, el plano que atraviesa el Proceso (educativo) será el marco tecnocultural de nuestra STIC; la Organización será, en genérico, el ámbito institucional de la Educación Superior y, en concreto, el dedicado a la formación de los infoprofesionales –entendidos en el sentido amplio que se planteaba en (Sáez Vacas, 1983b)-, que serán los Individuos, la componente (I) del modelo OITP. Este trabajo de tesis doctoral es uno de los resultados del proyecto de investigación propuesto y comprometido con esos objetivos, que se presenta aquí como un “proyecto tecnocultural” más amplio (véase el epígrafe homónimo en el capítulo 1). Un resultado singular, por lo que representa en el proceso de formación y acreditación del investigador que lo suscribe. En este sentido, este trabajo constituye, por un lado, la base de un elemento divulgativo que se sumará a los esfuerzos de I+D+i+d (véase textículo 3), recogidos en parte como resultados de la investigación; mientras que, por el otro lado, incorpora elementos metodológicos teóricos originales que contribuyen al objetivo genérico planteado en la propuesta de tesis, además de constituir una parte importante de los procesos de instrumentalización, recogidos en parte en los objetivos específicos de la propuesta, que en este entregable formarán parte de líneas futuras de trabajo, que se presentan en el capítulo 6 de conclusiones y discusión de resultados. Dentro de esos elementos metodológicos, teóricos, resulta especialmente relevante –en términos de los objetivos planteados originalmente-, la simplificación instrumental de las aportaciones teóricas previas, que han sido fruto del esfuerzo de análisis sistemático e implementación de diferentes intervenciones en el ámbito educativo, que se centran específicamente en el proyecto iCamp (véase en el capítulo 4) y la experiencia INTL 2.0 (véase en el capítulo 5, junto a otras experiencias instrumentales en la UPM). Esa simplificación, como elaboración teórica y proceso de modelización, se realiza extrayendo elementos de la validación teórica y experimental, que de alguna forma proporcionan los casos de estudio (capítulos 4 y 5), para incorporarlos como argumentos en la consolidación de un enfoque tecnocultural que está en la base de la construcción de una SocioTecnología de la Información y Cultura (STIC) consistente, basada en el sistemismo aplicado en diferentes situaciones de complejidad y que requerirán de una inter/multidisciplinariedad que vaya más allá de la simple “yuxtaposición” de especialidades que conocemos en nuestra actual Universidad (me refiero, con mayúscula, a la institución universitaria en toda su extensión). Esa será la base para el diseño y la construcción de experiencias educativas, basadas en el generalismo sistémico, para infoprofesionales (véase en el capítulo 1) en particular e infociudadanos en general, que nos permitirán “cimentar, con suficientes garantías, un cierto nivel de humanismo en el proceso de construcción de una sociedad de la información y del conocimiento”. En el caso de iCamp pudimos experimentar, desde un enfoque (véase en el capítulo 4) basado en diseño (Design-based Research, DbR), con tres elementos que se pueden trasladar fácilmente al concepto de competencias –o incluso en su implementación funcional, como habilidades o capacidades instrumentales percibidas, léase ‘affordances’- y que introducen tres niveles de complejidad asociados (véase, en el Prontuario, el modelo de tres niveles de complejidad), a saber el aprendizaje auto-dirigido (complejidad individual), la colaboración (complejidad sistémica) y la construcción de una red de aprendizaje (complejidad sociotécnica). Esa experimentación nos llevó a evolucionar el propio concepto de entorno personal de aprendizaje (PLE, Personal Learning Environment), partiendo de su concepción originalmente tecnológica e instrumental, para llegar a una concepción más amplia y versátil desde el punto de vista de la intervención, basada en una visión “ecológica” de los sistemas abiertos de aprendizaje (véase en el capítulo 3). En el caso de las experiencias en la UPM (capítulo 5), el caso singular de INTL 2.0 nos muestra cómo el diseño basado en la sistémica aplicada a problemas (léase situaciones de complejidad específicas) no estructurados, como los procesos de enseñanza-aprendizaje, dan lugar a intervenciones coherentes con esa visión ecológica basada en la teoría de la actividad y con los elementos comunes de la psicología educativa moderna, que parte del constructivismo social de L. Vygotsky (1978). La contraposición de ese caso con otras realizaciones, centradas en la configuración instrumental de experiencias basadas en la “instrucción” o educación formal, debe llevarnos al rediseño –o al menos a la reformulación- de ciertos componentes ya consolidados en ese tipo de formación “institucionalizada” (véase en el capítulo 5), como pueden ser el propio curso, unidad académica de programación incuestionable, los procedimientos de acreditación, certificación y evaluación, ligados a esa planificación temporal de “entrega” de contenidos y la conceptualización misma del “aula” virtual como espacio para el intercambio en la Red y fuera de ella. Todas esas observaciones (empíricas) y argumentaciones (teóricas) que derivan de la situación de complejidad específica que aquí nos ocupa sirven, a la postre –tal y como requiere el objetivo declarado de este trabajo de investigación- para ir “sedimentando” unas bases sólidas de una teoría general de la SocioTecnología de la Información y Cultura (STIC) que formen parte de un marco tecnocultural más amplio que, a su vez, servirá de guía para su aplicación en otras situaciones de complejidad, en ámbitos distintos. En este sentido, aceptando como parte de ese marco tecnocultural las características de convivencialidad y cotidianeidad (véase, en el Prontuario el epígrafe “Tecnologías para la VIda Cotidiana, TVIC”) de una “infotecnología-uso” (modelo de las cinco subculturas infotecnológicas, también recogido en el Prontuario), consideraremos como aportaciones relevantes (véase capítulo 2): 1) la argumentación sociotécnica del proceso de popularización de la retórica informática del cambio de versión, de la que deriva el fenómeno de la Web 2.0; 2) el papel estelar del móvil inteligente y su capacidad para transformar las capacidades percibidas para la acción dentro del Nuevo Entorno Tecnosocial (NET), especialmente en la situación de complejidad que nos ocupa, que ya desarrollaran Rodríguez Sánchez, Sáez Vacas y García Hervás (2010) dentro del mismo marco teórico que caracterizamos aquí como enfoque STIC; 3) y la existencia de una cierta “inteligencia tecnosocial”, que ya conjeturara FSV en (Sáez Vacas, 2011d) y que cobra cada vez más relevancia por cuanto que resulta coherente con otros modelos consolidados, como el de las inteligencias múltiples de Gardner (2000), así como con las observaciones realizadas por otros autores en relación con la aparición de nuevos alfabetismos que conformarían “una nueva generación de inteligencia” (Fumero y Espiritusanto, 2011). En rigor, el método científico –entiéndase este trabajo como parte de un proceso de investigación tecnocientífica- implica el desarrollo de una componente dialéctica asociada a la presentación de resultados; aunque, evidentemente, la misma se apoya en una actitud crítica para la discusión de los resultados aportados, que debe partir, necesariamente, como condición sine qua non de un profundo escepticismo debidamente informado. Es ese el espíritu con el que se ha afrontado la redacción de este documento, que incluye, en el capítulo 6, una serie de argumentos específicamente destinados a plantear esa discusión de resultados a partir de estas aportaciones que he vertido sintéticamente en este resumen, que no persigue otra cosa que motivar al lector para adentrarse en la lectura de este texto al completo, tarea que requiere de un esfuerzo personal dirigido (véase el epígrafe “Cómo leer este texto” en el índice) que contará con elementos de apoyo, tanto hipertextuales (Fumero, 2012a y 2012b) como textuales, formando parte del contenido de este documento entregable de tesis doctoral (véase el Prontuario, o el Texticulario).

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Está Tesis refleja los trabajos de investigación que tienen como resultado el desarrollo de una metodología cuyo objetivo es la automatización optimizada en la generación de grandes entornos virtuales destinados a simulaciones de conducción terrestre guiada, es decir, sobre trayectorias predefinidas, bajo PC. En ella se aborda el ciclo completo de generación de un entorno virtual, aportando soluciones optimizadas en cada una de las fases. Para definir estas soluciones, se ha llevado a cabo un estudio en profundidad de las características y requisitos exigidos a este tipo de representaciones virtuales así como de las posibles vías resolutivas, concluyéndose con el establecimiento de tres fases constructivas. La primera fase es la del análisis perceptivo visual. La presente Tesis, tras sintetizar las características que definen a este tipo de entornos así como sus condiciones perceptivas, propone una metodología constructiva que saca el máximo partido de las mismas de una manera hasta ahora no considerada: la creación del entorno mediante el ensamblaje y repetición (instanciación) de un número finito de patrones repetitivos o módulos. Son múltiples las ventajas aportadas por este sistema modular de instanciación: disminución de las labores de modelado, reducción drástica de la memoria de almacenamiento requerida y de los tiempos de carga, facilitación de las tareas de creación y edición de los escenarios. La segunda fase es la generación geométrica y topológica del entorno. El elevado volumen y heterogeneidad de la información a manejar hace necesario el desarrollo de métodos que automaticen el procesamiento de la misma. La presente Tesis desarrolla un sistema consistente en varios criterios de organización, corrección y almacenamiento de la información de partida. Dicho sistema permite por un lado la construcción fácilmente escalable y editable de entornos que cumplan las normativas circulatorias vigentes y por otro lado garantiza un óptimo flujo de la información entre los diversos subsistemas integrantes de la simulación. Flujo que ha sido plasmado en la elaboración de diversos protocolos de comunicación. La tercera fase es la del posicionamiento 3D de la base de datos visual, su jerarquización y optimización escénica. En esta fase, la presente Tesis ha desarrollado una serie de Algoritmos de Posicionamiento modular que garantizan el correcto acoplamiento de los módulos a lo largo de una serie de líneas directrices. Dichas líneas son creadas a partir de la definición de las trayectorias circulatorias, lo que ha permitido a su vez, la definición por parte de esta Tesis de un sistema de niveles de detalle discretos pseudo-variantes con el punto de vista, que permite optimizar la carga geométrica del escenario, mediante la definición en tiempo de precarga de los posibles niveles de detalle de cada módulo en función de su distancia transversal a la trayectoria. Por otro lado, con el fin de potenciar las ventajas de este sistema de instanciación esta Tesis propone el empleo de una serie de shaders que deforman los módulos en tiempo real, lo que permite disminuir el número de módulos necesarios en tiempo de precarga y aumenta la versatilidad constructiva y realismo de los escenarios. Finalmente, esta Tesis organiza todo el escenario en un grafo de la escena (scene graph) que busca minimizar el recorrido del mismo con el fin de maximizar las velocidades de refresco y facilitar las labores de edición de los escenarios. En este punto, la construcción modular del entorno es fundamental para alcanzar dichos objetivos. Todos los planteamientos teóricos expuestos en esta Tesis se han materializado en las correspondientes aplicaciones informáticas que se han validado como herramientas de desarrollo en la creación de grandes entornos virtuales de simuladores actualmente en funcionamiento, como los de Metro de Madrid de las series 7000, 8000, 3000, 9000 y Citadis y en otros experimentales donde también se han implementado los criterios y resultados perceptivos que optimizan estos simuladores.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Ante un panorama editorial aséptico, la revista de arte y arquitectura Nueva Forma, editada en Madrid entre 1966 y 1975, formó parte activa en la construcción de una cultura arquitectónica española. Los textos de su director, Juan Daniel Fullaondo, aspiraron a mediar en el decurso histórico con el firme convencimiento de que la crítica, como tal, cumple con una función tan real como el de las propias obras construidas. Las cuatro ‘miradas’ presentadas en la investigación ahondan en problemáticas culturales del momento concernientes con la historiografía de la arquitectura, el eclecticismo teórico, la evolución de la crítica arquitectónica y la función propagandística de toda publicación. A ellas se suma un estudio previo que, de manera cronológica, presenta cuestiones relevantes en torno a la formación, formato, estructura, protagonistas, particularidades e influencias de otras publicaciones, nacionales e internacionales, de la revista. Un primer capítulo aborda cómo se estaba organizando el pasado de la arquitectura española de los años veinte y treinta. Fullaondo mostró una ‘mirada contestataria’ a lo escrito hasta la fecha que le llevó a cuestionar un acercamiento a la arquitectura exclusivamente disciplinar, reivindicar un lugar para la cultura vasco-navarra en la historia moderna de la arquitectura española - ante la predominante bifocalidad castellano-catalana dibujada por otros autores, como Carlos Flores u Oriol Bohigas - y rechazar las construcciones históricas basadas en una selección tendenciosa de obras afines a un lenguaje arquitectónico definido, en este caso el racionalista. El segundo, analiza cómo la arquitectura orgánica asentada en los ideales de Bruno Zevi tomó en sus manos una nueva dirección conscientemente conducida a dotar de soporte teórico a unas arquitecturas esencialmente dibujadas y ocasionalmente construidas. La constatación de una ‘década orgánica’ en la arquitectura española de los años sesenta, es una rotunda ejemplificación de la ‘mirada operativa’ omnipresente en la crítica de Fullaondo. Su acercamiento a obras, dibujos o figuras manifestaron una erudición inquietada por aspectos compositivos y formales, en unos años en los que otros veían en lo tecnológico, lo social o lo metodológico razón suficiente para crear una obra arquitectónica. Un tercer capítulo muestra la ‘mirada poliédrica’ ofrecida en torno a la obra y el pensamiento de Jorge Oteiza. Fullaondo encontró en él una figura magistral, una paternidad para la aceptada orfandad de la cultura arquitectónica nacional. Su condición de vasco-exiliado, su faceta de artista reflexivo, su trabajo interdisciplinar o su proyección internacional eran reflejo de una personalidad y una trayectoria profesional que aunaba rasgos y propósitos añorados en su crítica. Oteiza fue blanco de reflexiones varias que permiten penetrar en cómo evolucionó la propia labor reflexiva de Fullaondo. Finalmente, una cuarta mirada analiza la relación entre la revista con el panorama internacional. La escena francesa fue donde se encontraron ideales compartidos, esencialmente a través de la obra experimental de Claude Parent. La ‘mirada cruzada’ entre el panorama francés y el español permitió a Fullaondo escribir en L’architecture d’aujourd’hui y dar a conocer a una generación jóvenes arquitectos españoles beligerantes e innovadores, con una labor equiparable a las tendencias internacionales, constatando así, la rápida evolución de la arquitectura nacional, alejada ya de la tradición local, bi-focal y retardada ofrecida años atrás en las revistas Zodiac y Werk.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

La aparición de la arquitectura popular en la escena de la cultura arquitectónica siempre ha estado rodeada de escasa claridad, especialmente si se trata de determinar las circunstancias en que apareció el interés por ella o la primera vez que fue mostrada en alguna publicación. El origen de la estimación de la arquitectura popular como tal se presenta en principio envuelto en una nebulosa, difuminado por la suposición de un siempre anterior conocimiento de ella -por la obviedad de este fenómeno-, y por la escasa atención prestada al tema, a lo que hay que sumar los desconcertantes indicios de que en realidad sólo ha sido apreciada en tiempos más recientes. Este estudio intenta arrojar luz sobre ese momento en que la arquitectura popular es descubierta, reconocida y difundida, y posteriormente estudiada con detenimiento hasta que llega a adquirir el status que le corresponde, en el ámbito del territorio español. La arquitectura popular no aparece en un momento determinado, como cualquier tendencia en la evolución de cierta sensibilidad estética o movimiento. La arquitectura popular siempre ha estado ahí. Lo único que cambia, y que permite que de repente la arquitectura popular sea tenida en cuenta, es la mirada de quien la descubre, la valora, la estudia o la propone como fenómeno digno de la atención y la estimación de los arquitectos. Así pues, la interpretación de la arquitectura popular como una forma más de las distintas que adopta la arquitectura como manifestación técnica y artística, plenamente aceptada dentro la concepción vigente de la época, es la historia de las miradas que se han dirigido a ella, de las distintas sensibilidades que han reparado en ella y de las tendencias arquitectónicas, construidas o teóricas, que han acudido a ella como fuente de inspiración o como modelo de virtudes constructivas o proyectuales. Desde este punto de vista se hace necesario investigar en las diferentes etapas de la modernidad en España, en sus acontecimientos, sus discursos, y sus obras construidas, partiendo de las distintas mentalidades que las sustentaron, para de este modo profundizar en la trayectoria seguida a través del tiempo histórico y del espacio geográfico en que se han desarrollado esas miradas. Para ello se ha realizado un estudio de las publicaciones periódicas de arquitectura españolas como elementos susceptibles de proporcionar la información más fidedigna posible sobre el interés en la difusión, el debate y la reflexión arquitectónica en torno a este fenómeno de la arquitectura popular. Es conocido el inestimable valor de las revistas como transmisoras no sólo de los acontecimientos de actualidad –la arquitectura popular no es uno de ellos- sino de la opinión y la forma de pensar de la intelectualidad del mundo de la ciencia y del arte, de los arquitectos en sus distintas actividades –profesional, docente, teórica, directiva, artística- y de las instituciones y personajes vinculadas al mundo de la arquitectura y la edificación. Es además relevante el hecho de que proporcionan una visión inmejorable de la época en que se publican, con datos importantes de carácter social, cultural, político o económico, que facilitan el encuadre de los acontecimientos estudiados en su contexto histórico y permiten un acercamiento a éstos de una forma más afinada. ABSTRACT Vernacular architecture’s appearance in the architectural culture’s scene has always been involved by certain obscureness, specially if the task is to know the circumstances of its first appealing, or the first time that was published. Original vernacular architecture’s valuation in its own seems to be involved in a vague nebula, blurred by the supposed fact of an always previous and obvious knowledge, and the scarce attention kept over this theme, increased in confusion when considering some last traces showing that only in recent times it has been really appreciated. This work searches for clarity inquiring those moments in which vernacular architecture is discovered, then recognised and issued, and finally broadly studied till reaches the status that has today. This investigation is focused on the spanish context. Vernacular architecture does not come out at a certain moment, as any artistic or stylish trend; it has always been there. The only thing that changes, and suddenly makes vernacular architecture take place in architects’ mind, is the observer’s glance, who discovers it and takes care about it, studying and proposing it as a worthy architectonic phenomenon that deserves architect’s attention. Thus, vernacular architecture’s interpretation, as another one of the several forms of conceiving architecture as a technical and artistic expression, fully accepted in the spirit of its time, is the story of the glances that have focused on it, the story of the varied sensibilities that have felt concerned with it, and the story of theoretical or practical trends that gaze it as an inspiration’s source or a model for functional or designing values. From this point of view is necessary to dive into the different ages of modernity, their events, their programs, and their built architecture, departing from the different attitudes developing in the historic time and the geographic space of Spain. With this purpose it has been realized this study on spanish periodical journalism specialized in architecture, searching for the most reliable information possible, due to their attention to teorethical discussion, critique, and thoughts about the fact of vernacular architecture. Is well known the value of architecture magazines as excellent diffusers, not only of hot news –vernacular architecture is not one of them- , but also of intellectual activity in science and art, of the architects in their different activities –professional, academic, theoretical, executive, artistic- and of outstanding people and Institutions linked with architecture and building. Is also remarkable the fact that they provide an unbeatable vision of the whole world in the moment they appear, bringing at the same time significant information about social, cultural, political or economic nature, that make easier the understanding of the historical context, in a more fitting way.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Los procesos de creación contemporáneos desde la performance al happening pasando por la instalación o el vídeoarte son los idóneos en el marco de la enseñanza en secundaria y sobre todo en grupos de difícil desempeño y en circunstancias complejas, como las que aquí vamos a presentar. Nuestra propuesta es la defensa de una metodología más abierta y flexible en la enseñanza del Teatro en la actualidad, más cercana a propuestas artísticas contemporáneas. Aquí nos vamos a centrar en los inicios de un proyecto performativo, uno de los momentos más complejos y fascinantes de todo proceso escénico, artístico y didáctico.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

En esta tesis se recoge el trabajo realizado centrado en el estudio del vídeo estereoscópico y, en particular, la información que aportan los mapas de disparidad y sus posibles aplicaciones. El trabajo se ha dividido en tres bloques diferenciados: En primer lugar se presentan los resultados de un codificador dedeo multivista basado en mapas de disparidad previamente computados. La finalidad del estudio es comprobar los efectos de la aplicación directa de la disparidad para la compensación entre vistas en cuanto a reducción del tiempo de procesado y calidad de la compresión sobre algoritmos basados en división de bloques, como AVC o HEVC. También se ha trabajado para obtener un flujo dedeo compatible con MVC que contenga la información de los mapas de disparidad embebida en el flujo en forma de vectores de compensación. Estos mapas se usan como base para obtener la compensación entre bloques de la imagen derecha e izquierda. Para reducir aún más el coste computacional, se ha diseñado un algoritmo de decisión previa del tamaño del bloque de compensación. Aquí se presentan los resultados de ambas estrategias, con decisión previa y sin ella, para evaluar las alternativas. Se presentan los resultados tanto sobre imágenes estereoscópicas estáticas como secuencias dedeo estereoscópico, cada una de ellas a diferentes valores de compresión de forma que se obtenga una referencia parametrizada del comportamiento del algoritmo. Dichos resultados revelan una reducción drástica del tiempo de procesado con estabilización de la tasa binaria para valores de compresión moderados (compresión de alta calidad), mientras que para compresiones severas, la tasa binaria crece en comparación con el software de referencia JMVC. En segundo lugar se realiza un análisis de calidad relacionado con la información de disparidad de las secuencias estereoscópicas, sus valores absolutos y sus derivadas temporales, de modo que pueda servir tanto para generar sistemas automáticos de evaluación de la calidad, como para sintetizar una lista de buenas prácticas para la creación de contenidos audiovisuales estereoscópicos que ofrezcan una calidad de la experiencia elevada. Para relacionar la calidad de la experiencia y el confort visual generado por una secuencia estereoscópica se ha llevado a cabo una serie de tests de visualización por parte de un grupo de observadores, de secuencias previamente generadas y catalogadas en base a sus variaciones de la disparidad y de movimiento. Las conclusiones extraídas indican que los paralajes negativos son más efectistas y ofrecen una inmersión mayor y, por tanto, mejor calidad de la experiencia, cuando se utilizan de forma moderada. Variaciones rápidas de los valores de disparidad negativa y variaciones de movimiento de objetos con disparidad negativa generan disconfort visual. La probabilidad de que paralajes positivos generen disconfort visual son mucho menores, por lo que resulta interesante en este caso utilizar variaciones rápidas de disparidad y movimiento para compensar la falta de efectismo que producen dichos paralajes. Por último, se ha planteado el diseño de un sistema de inserción coherente de gráficos, en tiempo real, en una escena estereoscópica. Se ha hecho hincapié en la necesidad de la coherencia entre la disparidad de los objetos que conforman una escena y las oclusiones que éstos producen, por lo que la inserción de un elemento no nativo de la escena debe tener en cuenta esta circunstancia para mantener la calidad de la experiencia estereoscópica. Se ha estudiado la influencia de la calidad del mapa de disparidad de la escena como base sobre la que realizar la inserción, así como posibles formas de modificar dicho mapa para que la inserción produzca el efecto deseado de coherencia. En concreto se ha postulado que es preferible sacrificar la precisión punto a punto del mapa de disparidad si, de esa manera, se evita cometer pequeños errores aislados de inserción, a costa de introducir un ajuste menos fino en los bordes de los objetos.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

En las últimas tres décadas, las dinámicas de restructuración económica a nivel global han redefinido radicalmente el papel de las ciudades. La transición del keynesianismo al neoliberalismo ha provocado un cambio en las políticas urbanas de los gobiernos municipales, que han abandonado progresivamente las tareas de regulación y redistribución para centrarse en la promoción del crecimiento económico y la competitividad. En este contexto, muchas voces críticas han señalado que la regeneración urbana se ha convertido en un vehículo de extracción de valor de la ciudad y está provocando la expulsión de los ciudadanos más vulnerables. Sin embargo, la regeneración de áreas consolidadas supone también una oportunidad de mejora de las condiciones de vida de la población residente, y es una política necesaria para controlar la expansión de la ciudad y reducir las necesidades de desplazamiento, promoviendo así ciudades más sostenibles. Partiendo de la hipótesis de que la gobernanza de los procesos de regeneración urbana es clave en el resultado final de las operaciones y determina el modelo de ciudad resultante, el objetivo de esta investigación es verificar si la regeneración urbana es necesariamente un mecanismo de extracción de valor o si puede mejorar la calidad de vida en las ciudades a través de la participación de los ciudadanos. Para ello, propone un marco de análisis del proceso de toma de decisiones en los planes de regeneración urbana y su impacto en los resultados de los planes, tomando como caso de estudio la ciudad de Boston, que desde los años 1990 trata de convertirse en una “ciudad de los barrios”, fomentando la participación ciudadana al tiempo que se posiciona en la escena económica global. El análisis se centra en dos operaciones de regeneración iniciadas a finales de los años 1990. Por un lado, el caso de Jackson Square nos permite comprender el papel de la sociedad civil y el tercer sector en la regeneración de los barrios más desfavorecidos, en un claro ejemplo de urbanismo “desde abajo” (bottom-up planning). Por otro, la reconversión del frente marítimo de South Boston para la construcción del Distrito de Innovación nos acerca a las grandes operaciones de regeneración urbana con fines de estímulo económico, tradicionalmente vinculadas a los centros financieros (downtown) y dirigidas por las élites gubernamentales y económicas (la growth machine) a través de procesos más tecnocráticos (top-down planning). La metodología utilizada consiste en el análisis cualitativo de los procesos de toma de decisiones y la relación entre los agentes implicados, así como de la evaluación de la implementación de dichas decisiones y su influencia en el modelo urbano resultante. El análisis de los casos permite afirmar que la gobernanza de los procesos de regeneración urbana influye decisivamente en el resultado final de las intervenciones; sin embargo, la participación de la comunidad local en la toma de decisiones no es suficiente para que el resultado de la regeneración urbana contrarreste los efectos de la neoliberalización, especialmente si se limita a la fase de planeamiento y no se extiende a la fase de ejecución, y si no está apoyada por una movilización política de mayor alcance que asegure una acción pública redistributiva. Asimismo, puede afirmarse que los procesos de regeneración urbana suponen una redefinición del modelo de ciudad, dado que la elección de los espacios de intervención tiene consecuencias sobre el equilibrio territorial de la ciudad. Los resultados de esta investigación tienen implicaciones para la disciplina del planeamiento urbano. Por una parte, se confirma la vigencia del paradigma del “urbanismo negociado”, si bien bajo discursos de liderazgo público y sin apelación al protagonismo del sector privado. Por otra parte, la planificación colaborativa en un contexto de “responsabilización” de las organizaciones comunitarias puede desactivar la potencia política de la participación ciudadana y servir como “amortiguador” hacia el gobierno local. Asimismo, la sustitución del planeamiento general como instrumento de definición de la ciudad futura por una planificación oportunista basada en la actuación en áreas estratégicas que tiren del resto de la ciudad, no permite definir un modelo coherente y consensuado de la ciudad que se desea colectivamente, ni permite utilizar el planeamiento como mecanismo de redistribución. ABSTRACT In the past three decades, the dynamics of global economic restructuring have radically redefined the role of cities. The transition from keynesianism to neoliberalism has caused a shift in local governments’ urban policies, which have progressively abandoned the tasks of regulation and redistribution to focus on promoting economic growth and competitiveness. In this context, many critics have pointed out that urban regeneration has become a vehicle for extracting value from the city and is causing the expulsion of the most vulnerable citizens. However, regeneration of consolidated areas is also an opportunity to improve the living conditions of the resident population, and is a necessary policy to control the expansion of the city and reduce the need for transportation, thus promoting more sustainable cities. Assuming that the governance of urban regeneration processes is key to the final outcome of the plans and determines the resulting city model, the goal of this research is to verify whether urban regeneration is necessarily a value extraction mechanism or if it can improve the quality of life in cities through citizens’ participation. It proposes a framework for analysis of decision-making in urban regeneration processes and their impact on the results of the plans, taking as a case study the city of Boston, which since the 1990s is trying to become a "city of neighborhoods", encouraging citizen participation, while seeking to position itself in the global economic scene. The analysis focuses on two redevelopment plans initiated in the late 1990s. The Jackson Square case allows us to understand the role of civil society and the third sector in the regeneration of disadvantaged neighborhoods, in a clear example of bottom-up planning. On the contrary, the conversion of the South Boston waterfront to build the Innovation District takes us to the big redevelopment efforts with economic stimulus’ goals, traditionally linked to downtowns and led by government and economic elites (the local “growth machine”) through more technocratic processes (top-down planning). The research is based on a qualitative analysis of the processes of decision making and the relationship between those involved, as well as the evaluation of the implementation of those decisions and their influence on the resulting urban model. The analysis suggests that the governance of urban regeneration processes decisively influences the outcome of interventions; however, community engagement in the decision-making process is not enough for the result of the urban regeneration to counteract the effects of neoliberalization, especially if it is limited to the planning phase and does not extend to the implementation of the projects, and if it is not supported by a broader political mobilization to ensure a redistributive public action. Moreover, urban regeneration processes redefine the urban model, since the choice of intervention areas has important consequences for the territorial balance of the city. The results of this study have implications for the discipline of urban planning. On the one hand, it confirms the validity of the "negotiated planning" paradigm, albeit under public leadership discourse and without a direct appeal to the leadership role of the private sector. On the other hand, collaborative planning in a context of "responsibilization" of community based organizations can deactivate the political power of citizen participation and serve as a "buffer" towards the local government. Furthermore, the replacement of comprehensive planning, as a tool for defining the city's future, by an opportunistic planning based on intervention in strategic areas that are supposed to induce change in the rest of the city, does not allow a coherent and consensual urban model that is collectively desired, nor it allows to use planning as a redistribution mechanism.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

El desarrollo de la tecnología de la luz implicará la transformación de la vida social, cultural y económica. Tanto las consideraciones espaciales del Movimiento Moderno, como los efectos producidos por la segunda Guerra Mundial, tendrán efectos visibles en las nuevas configuraciones espaciales y en la relación simbiótica y recíproca que se dará entre ideología y tecnología. La transformación en la comprensión de la articulación espacial, asociada al desarrollo tecnológico, afectará al modo en que este espacio es experimentado y percibido. El espacio expositivo y el espacio escénico se convertirán en laboratorio práctico donde desarrollar y hacer comprensible todo el potencial ilusorio de la luz, la proyección y la imagen, como parámetros modificadores y dinamizadores del espacio arquitectónico. Esta experimentación espacial estará precedida por la investigación y creación conceptual en el mundo plástico, donde los nuevos medios mecánicos serán responsables de la construcción de una nueva mirada moderna mediatizada por los elementos técnicos. La experimentación óptica, a través de la fotografía, el cine, o el movimiento de la luz y su percepción, vinculada a nuevos modos de representación y comunicación, se convertirá en elemento fundamental en la configuración espacial. Este ámbito de experimentación se hará patente en la Escuela de la Bauhaus, de la mano de Gropius, Schlemmer o Moholy Nagy entre otros; tanto en reflexiones teóricas como en el desarrollo de proyectos expositivos, arquitectónicos o teatrales, que evolucionarán en base a la tecnología y la modificación de la relación con el espectador. El espacio expositivo y el espacio escénico se tomarán como oportunidad de investigación espacial y de análisis de los modos de percepción, convirtiéndose en lugares de experimentación básicos para el aprendizaje. El teatro se postula como punto de encuentro entre el arte y la técnica, cobrando especial importancia la intersección con otras disciplinas en la definición espacial. Las múltiples innovaciones técnicas ligadas a los nuevos fundamentos teatrales en la modificación de la relación con la escena, que se producen a principios del siglo XX, tendrán como consecuencia la transformación del espacio en un espacio dinámico, tanto física como perceptivamente, que dará lugar a nuevas concepciones espaciales, muchas de ellas utópicas. La luz, la proyección y la creación de ilusión en base a estímulos visuales y sonoros, aparecen como elementos proyectuales efímeros e inmateriales, que tendrán una gran incidencia en el espacio y su modo de ser experimentado. La implicación de la tecnología en el arte conllevará modificaciones en la visualización, así como en la configuración espacial de los espacios destinados a esta. Destacaremos como propuesta el Teatro Total de Walter Gropius, en cuyo desarrollo se recogen de algún modo las experiencias espaciales y las investigaciones desarrolladas sobre la estructura formal de la percepción realizadas por Moholy Nagy, además de los conceptos acerca del espacio escénico desarrollados en el taller de Teatro de la Bauhaus por Oskar Schlemmer. En el Teatro Total, Gropius incorporará su propia visión de cuestiones que pertenecen a la tradición de la arquitectura teatral y las innovaciones conceptuales que estaban teniendo lugar desde finales del s.XIX, tales como la participación activa del público o la superación entre escena y auditorio, estableciendo en el proyecto una nueva relación perceptual entre sala, espectáculo y espectador; aumentando la sensación de inmersión, a través del uso de la física, la óptica, y la acústica, creando una energía concéntrica capaz de extenderse en todas direcciones. El Teatro Total será uno de los primeros ejemplos en los que desde el punto de partida del proyecto, se conjuga la imagen como elemento comunicativo con la configuración espacial. Las nuevas configuraciones escénicas tendrán como premisa de desarrollo la capacidad de transformación tanto perceptiva, como física. En la segunda mitad del s.XX, la creación de centros de investigación como el CAVS (The Center for Advanced Visual Studies,1967), o el EAT (Experiments in Art and Technology, 1966), favorecerán la colaboración interdisciplinar entre arte y ciencia, implicando a empresas de carácter tecnológico, como Siemens, HP, IBM o Philips, facilitando soporte técnico y económico para el desarrollo de nuevos sistemas. Esta colaboración interdisciplinar dará lugar a una serie de intervenciones espaciales que tendrán su mayor visibilidad en algunas Exposiciones Universales. El resultado será, en la mayoría de los casos, la creación de espacios de carácter inmersivo, donde se establecerá una relación simbiótica entre espacio, imagen, sonido, y espectador. La colocación del espectador en el centro de la escena y la disposición dinámica de imagen y sonido, crearán una particular narrativa espacial no lineal, concebida para la experiencia. Desde las primeras proyecciones de cine a la pantalla múltiple de los Eames, las técnicas espaciales de difusión del sonido en Stockhausen, o los experimentos con el movimiento físico interactivo, la imagen, la luz en movimiento y el sonido, quedan inevitablemente convertidos en material arquitectónico. ABSTRACT. Light technology development would lead to a social, cultural and economic transformation. Both spatial consideration of “Modern Movement” and Second World War effects on technology, would have a visible aftereffect on spatial configuration and on the symbiotic and mutual relationship between ideology & technology. Comprehension adjustment on the articulation of space together with technology development, would impact on how space is perceived and felt. Exhibition space and scenic space would turn into a laboratory where developing and making comprehensive all illusory potential of light, projection and image. These new parameters would modify and revitalize the architectonic space. as modifying and revitalizing parameters of architectonic space. Spatial experimentation would be preceded by conceptual creation and investigation on the sculptural field, where new mechanic media would be responsible for a fresh and modern look influenced by technical elements. Optical experimentation, through photography, cinema or light movement and its perception, would turn into essential components for spatial arrangement linked to new ways of performance and communication. This experimentation sphere would be clear at The Bauhaus School, by the hand of Gropius, Schlemmer or Moholy Nag among others; in theoretical, theatrical or architectural performance’s projects, that would evolve based on technology and also based on the transformation of the relationship with the observer. Exhibition and perfor-mance areas would be taken as opportunities of spatial investigation and for the analysis of the different ways of perception, thus becoming key places for learning. Theater is postulated as a meeting point between art and technique, taking on a new significance at its intersection with other disciplines working with spatial definition too. The multiple innovation techniques linked to the new foundations for the theater regarding stage relation, would have as a consequence the regeneration of the space. Space would turn dynamic, both physically and perceptibly, bringing innovative spatial conceptions, many of them unrealistic. Light, projection and illusory creation based on sound and visual stimulus would appear as intangible and momentary design components, which would have a great impact on the space and on the way it is experienced. Implication of technology in art would bring changes on the observer as well as on the spatial configuration of the art spaces2. It would stand out as a proposal Walter Groupis Total Theater, whose development would include somehow the spatial experiments and studies about formal structure of perception accomplished by Moholy Nagy besides the concepts regarding stage space enhanced at the Bauhaus Theater Studio by Oskar Schlemmer. Within Total Theater, Groupis would incorporate his own view about traditional theatric architecture and conceptual innovations that were taking place since the end of the nineteenth century, such as active audience participation or the diffusing limits between scene and audience, establishing a new perception relationship between auditorium, performance and audience, improving the feeling of immersion through the use of physics, optics and acoustics, creating a concentric energy capable of spreading in all directions. Total Theater would be one of the first example in which, from the beginning of the Project, image is combined as a communicating element with the spatial configuration. As a premise of development, new stage arrangement would have the capacity of transformation, both perceptive and physically. During the second half or the twentieth century, the creation of investigation centers such as CAVS (Center for Advanced Visual Studies, 1967) or EAT (Experiments in Art and Technology, 1966), would help to the interdisciplinary collaboration between art and science, involving technology companies like Siemens, HP, IBM or Philips, providing technical and economic support to the development of new systems. This interdisciplinary collaboration would give room to a series of spatial interventions which would have visibility in some Universal Exhibitions. The result would be, in most cases, the creation of immersive character spaces, where a symbiotic relationship would be stablished between space, image, sound and audience. The new location of the audience in the middle of the display, together with the dynamic arrangement of sound and image would create a particular, no lineal narrative conceived to be experienced. Since the first cinema projections, the multiple screen of Eames, the spatial techniques for sound dissemination at Stockhausen or the interactive physical movement experimentation, image, motion light and sound would turn inevitably into architectural material.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

La tesis afronta el análisis del itinerario vital de Fernando Távora, una vida entregada apasionadamente a una causa de refundación estética y conceptual de una arquitectura portuguesa condenada a la mediocridad y al ostracismo en el momento en que empieza a ejercer la profesión. La investigación se adentra en todos los aspectos que convergen en su dedicación al logro de aquella misión, pues la que él mismo probablemente llamaría orteguianamente su circunstancia, resulta inseparable de su pensamiento y de su obra. Se pretende establecer la riqueza y complejidad de la figura de Fernando Távora y su importancia como punto de inflexión en la evolución de la arquitectura portuguesa, que ha llegado a alcanzar el reconocimiento internacional en las últimas décadas, fundamentalmente a partir de la consagración de Álvaro Siza Vieira y la denominada Escuela de Oporto. Desde una posición de absoluta autonomía respecto de lo que acontece dentro y fuera de las fronteras portuguesas, su labor se distinguirá por su singularidad teórica y arquitectónica, no dejando por ello de influir decisivamente en su entorno cercano. Dos manifiestos escritos, el juvenil O problema da Casa Portuguesa y el posterior Da Organização do Espaço son elementos estructurantes de un pensamiento teórico que germina en una obra construida inseparable de aquel, de cuya coherencia dan testimonio los aquí considerados verdaderos manifiestos proyectuales del arquitecto. Efectivamente, se analizarán detalladamente como tales la Casa sobre o Mar –manifiesto inicial-, el Pabellón de Tenis –manifiesto de confirmación- y la Casa dos 24 -manifiesto final-, proyectos que vieron la luz en diferentes etapas de su trayectoria y constituyen la aplicación práctica de sus teorías en una sintaxis magistral. En estos tres proyectos es donde verdaderamente la tesis cobra cuerpo, pues suponen el reflejo de la verdadera aportación del arquitecto al pensamiento arquitectónico europeo, la foto fija de la proclamación de resultados de un proyecto arquitectónico integral en momentos muy significativos de su itinerario vital, cuya complejidad se entiende a través de las fases más descriptivas de este documento. Se mostrará cómo para acometer su proyecto integral de arquitectura, una causa de regeneración de la arquitectura portuguesa a partir de la síntesis entre modernidad y tradición, entre universalidad y localidad, tomaría de sus dos personajes más admirados, Le Corbusier y Pessoa, la fuerza moral y la energía que le permitieron acometer apasionadamente tamaña misión. En una infatigable búsqueda en lo global y lo local, Távora conseguirá prestar gran atención al contexto del lugar de intervención sin renunciar a sus convicciones modernas, introduciendo la historia y el dibujo como herramientas de conocimiento del mismo y posteriormente del proceso creativo. El método proyectivo resultante de este modelo, que transmitirá a través de su ejercicio docente a sucesivas generaciones de arquitectos, se convertirá en elemento estructurante de una tendencia surgida de las aulas portuenses, que la crítica internacional acabará denominando Escuela de Oporto en un sentido más amplio. Por su importancia dentro del itinerario profesional del[os] arquitecto[s] portuense[s], las fases más destacadas de su evolución a partir de los años 50 se analizarán en paralelo a una serie de obras representativas de diferentes momentos de la trayectoria de Fernando Távora. En este itinerario vital, a pesar de la originalidad de su pensamiento y su obra, se atisban ciertos paralelismos con grandes arquitectos del siglo XX, que esta tesis afronta. Se puede distinguir entre influencias pasajeras de algunos maestros modernos en los que Távora buscaba la confirmación a sus propias teorías, similitudes con arquitectos coetáneos cuya obra conoció y a los que se encontró cercano por la convergencia de algunos de sus criterios e incluso sorprendentes coincidencias con arquitectos desconocidos para él, entre las que cabe destacar la de los maestros de la Escuela de Madrid Alejandro de la Sota y Javier Sáenz de Oiza. Por último, en una alegoría con los heterónimos de Fernando Pessoa, se analiza desde una perspectiva personal fruto de la investigación y de las entrevistas mantenidas con todos ellos, la importante labor de Álvaro Siza Vieira, Alexandre Alves Costa y su hijo José Bernardo Távora como agentes coadyuvantes en la consecución del proyecto integral de arquitectura [y vida] de Fernando Távora. Sin lugar a dudas, Álvaro Siza constituye el personaje fundamental e imprescindible para que la arquitectura portuguesa alcanzase la privilegiada consideración que en la actualidad ostenta en la escena internacional. Un arquitecto consagrado que ocupa ya, y ocupará siempre, un lugar privilegiado en la breve lista de maestros míticos e irrepetibles de la arquitectura contemporánea. Con todo, cabe afirmar con la paráfrasis bíblica que da título a la tesis que ‘En el principio era Távora...’ ABSTRACT This thesis addresses the analysis of Fernando Távora’s life journey, a life that was passionately devoted to the cause of aesthetically and conceptually overhauling Portuguese architecture, which was doomed to mediocrity and ostracism at the time when he started practicing professionally. This research delves into all aspects converging in his dedication to achieving that mission, since what he himself would probably call his circumstance – in the manner of José Ortega y Gasset – is inseparable from his thinking and his work. This thesis seeks also to establish the richness and complexity of Fernando Távora’s figure and his importance as a turning point in the evolution of Portuguese architecture, which has gone on to achieve international recognition in recent decades, especially after the consecration of Álvaro Siza Vieira and the so-called School of Oporto. From an absolutely autonomous position with regard to what is happening within and outside Portuguese borders, his work will stand out due to its theoretical and architectural uniqueness – this not being a reason to prevent its decisive influence on his close surroundings. Two written manifestos, his early O problema da Casa Portuguesa and his subsequent Da Organização do Espaço, become structural elements of the theoretical thinking that develops into works which are built in parallel with the former. The coherence of this thinking is reflected on the hereby considered the architect’s true project manifestos. Indeed, we will analyse as such the Casa sobre o Mar (initial manifesto), the Tennis Pavilion (confirmation manifesto) and Casa dos 24 (final manifesto), projects which saw the light at different stages of his career and constitute the practical application of his theories in a masterful syntax. These are the three projects where the thesis takes shape, as they become the reflection of the architect’s true contribution to the European architectural school of thought; the still picture of the results proclamation of a whole architectural project at highly significant moments in his life journey, whose complexity can be understood through this document’s most descriptive phases. This study will show how, in order to carry out his architectural project – regenerate Portuguese architecture by synthesizing modernity and tradition, universality and locality –, Távora would take the moral strength and energy from his two most admired figures, Le Corbusier and Pessoa, allowing him to passionately undertake such a colossal mission. In a tireless search within the global and the local, Távora will manage to pay more attention to the context of the intervention place without compromising his modern convictions, by introducing history and drawing as knowledge tools of the place and eventually of the creative process. The resulting projective method of this model, which he will transmit to successive generations of architects through his teaching, will become a structural element of a trend emerged from the Oporto classrooms which international critique will end up denominating School of Porto in a broader sense. Due to its importance within Porto architect[s]’ professional career, the most prominent phases of its evolution as of the 50s will be analysed in parallel to a series of representative works from different moments in Fernando Távora’s career. Despite the originality of his thinking and his work, certain parallelisms with great architects from the 20th century can be found in Távora’s life journey, which this thesis will address. Amongst temporary influences of some modern masters in whom Távora sought confirmation of his own theories, similarities can be spotted with contemporary architects whose work he knew and to whom he felt close because of the convergence of some of his views. It is also possible to see surprising coincidences with architects he did not know, such as Alejandro de la Sota and Javier Sáenz de Oiza, masters from the School of Madrid. Finally, in an allegory with Fernando Pessoa’s heteronyms, this thesis studies – from a personal perspective based on research and the interviews held with all of them – the important work of Álvaro Siza Vieira, Alexandre Alves Costa and his son Jose Bernardo Távora as auxiliaries in the achievement of Fernando Távora’s complete architectural [and life] project. Without the slightest doubt, Álvaro Siza constitutes the essential figure thanks to whom Portuguese architecture would reach the advantaged position it holds nowadays in the international arena. An acclaimed architect, Siza already holds a privileged spot in the brief list of legendary and unrepeatable masters of contemporary architecture. Nevertheless, with the biblical paraphrase that entitles this thesis it can be claimed that ‘In the beginning was Távora…’

Relevância:

90.00% 90.00%

Publicador:

Resumo:

El modelo dominante durante la Era Moderna asume la presencia del hombre como sujeto dentro del gran engranaje mecánico del Cosmos. Asimismo, recoge una idea acerca del ser natural dentro de la tradición ontológica iniciada por el eleatismo presocrático que concibe a éste como lo inmutable y estático frente al cambio y al movimiento, los cuales se constituyen como meras apariencias. Durante el periodo anterior a la aparición de los grandes filósofos griegos se produce una transformación en donde, de la inicial cosmología vinculada a un tiempo primordial, se pasará a una visión del Universo como ente indestructible, atemporal, inmutable, perfecto, geométrico y espacial. Si en Demócrito se admite un universo sometido al azar y a la necesidad, en Platón el Universo sólo atiende a la necesidad. Este modelo ontológico se pone en entredicho cuando el hombre ya no es concebido como pieza de un sistema más amplio, sino como centro radical del pensamiento. La condición radical del hombre es entonces su propia vida, siendo éste el concepto troncal del denominado vitalismo cuyo más influyente representante en España es José Ortega y Gasset. El estatismo del ser –del hombre- pierde sentido; en palabras del propio Ortega, “no es un ser sino un estar siendo” lo que caracteriza a la vida humana. La razón cartesiana es ahora la razón vital y su objeto de estudio no es la naturaleza sino el propio devenir, es decir, el tiempo, la historia. Este planteamiento es fundamental para comprender el edificio que es objeto de este estudio, el Museo de Arte Romano de Mérida (1980-1985) de Rafael Moneo. Por ello el concepto de tiempo es utilizado como marco y estructura de la presente tesis, a sabiendas del notorio y muy significativo papel que este edificio desempeñó en la carrera de su autor y en el panorama nacional e internacional de la arquitectura y de la museología. Este proyecto nos permite acercarnos al pensamiento de su autor a través de un edificio que, aun habiendo sido ampliamente reconocido, no cuenta con un estudio suficientemente exhaustivo que recoja la amplitud y riqueza que encierra. Esta tesis no es un compendio de lo que ya se ha investigado sobre Mérida; es una aproximación global e interpretativa cuyo sentido sólo puede concebirse al vislumbrar la estructura completa de la misma en sintonía con el "lógos" vital, histórico y narrativo que el proyecto encierra. Se revisará la concepción histórica según la cual, la configuración espacial de la forma habría tenido primacía respecto a su configuración temporal, al remitir esta última a una condición espacializada y circunstancial. La componente vicaria de la circunstancia será elevada por Ortega a la categoría de esencial, visualizando así una paradoja cuya reformulación nos lleva a la concepción de un tiempo sustancial. El diccionario de la RAE, en su tercera acepción, define la sustancia como “aquello que permanece en algo que cambia”, lo cual nos remite al pensamiento antiguo. Se mostrará que lo que permanece no necesariamente implica una concepción estática y eleática de la forma, que la arquitectura esencial no es unívocamente la arquitectura atemporal del platonismo y que cabe concebir la "firmitas" desde la atención a la "durée" bergsoniana. Al asociar tradicionalmente la sustancia con el referido estatismo, se margina al tiempo y a la duración a lo no sustancial; por ello, se tratará de aproximar los términos de tiempo y sustancia para definir la forma. Ello conllevará al estudio de las notables patologías derivadas de la asunción de un tiempo cronológico en nuestra contemporaneidad frente a las cuales, las intuiciones contenidas en Mérida, se alinearán con la actual actitud revisionista en el ámbito del pensamiento filosófico y científico. En Mérida, la memoria recogerá los aspectos de la conciencia así como los aspectos vinculados a la experiencia íntima y colectiva como soporte para la consecución de un discurso. La dualidad entre intuición e inteligencia será recogida por Moneo con idea de trascender su incomunicabilidad, mediante una operación que consistirá en la reivindicación de una memoria irreductible, cuya morada estaría incardinada en el propio tiempo de la duración y de la vida y no en la espacialidad coextensiva del presente y de la acción funcional sobre la materia. Moneo asumirá el papel de la memoria como condición central de una forma que se encarnará al concebirse como un teatro. En la respuesta a la contradicción entre el hecho físico y el efecto psíquico de la experiencia humana residirá la pertinencia de un tiempo narrativo. Será entonces el lenguaje el encargado de aportar sentido a la obra mediante el recurso fundado en la dramatización de la experiencia, es decir, a través de una conexión entre la conciencia íntima y el carácter social y colectivo intrínseco en la arquitectura. ABSTRACT TIME AS A SUBSTANCE OF FORM. AN APPROACH TO THE ROMAN ART MUSEUM OF MÉRIDA FROM THE VIEWPOINT OF VITALISM. The dominant model during the Modern Era placed man as a subject inside the great mechanism of the cosmos. It is also based in an idea about natural being within the ontological tradition initiated by the pre-Socratic Eleatism that conceives it as something immutable and static in respect with change and movement, which are considered as mere appearances. Prior to the emergence of the great Greek philosophers occurred a transformation where concepts of cosmology linked to a primordial time, changed to a view of the universe as indestructible, timeless, unchanging, perfect, geometric and spatial. If Democritus accepted a universe subjected to randomness and necessity, Plato thought that the universe only worked by necessity. This ontological model is called into question when man is not conceived as a piece of a broader system, but as a radical center of thinking. The radical condition of man then is his own life. This is the core concept of so-called Vitalism, whose most influential representative in Spain was José Ortega y Gasset. The stillness of being – of man - loses its meaning; in the words of Ortega, “it is not being but being in progress” that characterizes human life. The Cartesian reason is now the vital reason and its subject of study is no longer nature but its own evolution, in other words, time and history. This approach is fundamental to understand the building which is the subject of this study, the Museum of Roman Art in Mérida (1980-1985) by Rafael Moneo. The concept of time is used as a framework and structure of this thesis, demonstrating the notorious and very significant role this building has implied in the career of its author and in the national and international panorama of architecture and museology. This project allow us to approach the thought of its author through a building that, even whilst widely recognized, does not yet have a sufficiently comprehensive study covering its breadth and richness. This thesis is not a compendium of what already has been researched on Merida; it is a global and interpretative approach whose meaning can only be conceived as a study of its complete structure in line with the vital, historical and narrative logos the project implies. We will review the historical idea where spatial configuration of the form would have had primacy with respect to temporary configuration, because the latter refers to a spatial and circumstantial condition. The vicarious nature of the circumstance will be elevated by Ortega to the category of essential, thus showing a paradox which reformulation leads us to the conception of a substantial time. The dictionary of the Spanish Royal Academy, in its third meaning, defines substance as "that which remains in something that changes". This is a reference to ancient thought. It will be shown that what remains does not necessarily imply a static and Eleatic conception of form. It will also be shown that the essential architecture is not uniquely the timeless architecture of Platonism and that it is possible to conceive the "firmitas" parallel to the "durée" of Henri Bergson. As a result of this traditional association between substance and stillness, it marginalizes the time and the duration to the non-substantial; for this reason, we will try to approach terms of time and substance to define the shape. This will involve studying significant pathologies resulting from an assumption of chronological time in our contemporary world against which, the insights contained in Merida, will be aligned with the current revisionist attitude in the fields of philosophical and scientific thought. In Merida, memory includes aspects of consciousness as well as aspects linked to the intimate and collective experience as a foundation for the achievement of discourse. The duality between intuition and intelligence is put forward by Moneo with the idea of transcending its lack of communication, by means of a resource consisting of the vindication of an irreducible memory, whose home would be embodied in the time of duration and life and not in the coextensive spatiality of the present and in the functional action on the matter. Moneo demonstrates the role of memory as a central condition of form as a theatre. In response to the contradiction between the physical fact and the psychological effect of human experience lies the relevance of narrative time. Language then assumes the responsibility of giving meaning to the work through the dramatization of experience, i.e., through a connection between the intimate consciousness and the intrinsic social and collective character of architecture.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

La premisa inicial de la tesis examina cómo las secuelas de Segunda Guerra mundial motivaron una revisión general de la Ciencia y procuraron una nueva relación entre el hombre y su entorno. Matemáticas, Física y Biología gestaron las Ciencias de la Computación como disciplina de convergencia. En un momento de re-definición del objeto científico, una serie de arquitectos vislumbraron la oportunidad para transformar ciertas convenciones disciplinares. Mediante la incorporación de ontologías y procedimientos de cibernética y computación, trazaron un nuevo espacio arquitectónico. Legitimados por un despegue tecnológico incuestionable, desafían los límites de la profesión explorando campos abiertos a nuevos programas y acciones; amplían el dominio natural de la Arquitectura más allá del objeto(terminado) hacia el proceso(abierto). Se da inicio a la tesis describiendo los antecedentes que conducen a ese escenario de cambio. Se anotan aspectos de Teoría de Sistemas, Computación, Biología y de ciertos referentes de Arquitectura con relevancia para esa nuevo planteamiento. En esos antecedentes residen los argumentos para orientar la disciplina hacia el trabajo con procesos. La linea argumental central del texto aborda la obra de Christopher Alexander, Nicholas Negroponte y Cedric Price a través de una producción teórica y práctica transformada por la computación, y examina la contribución conceptual de cada autor. El análisis comparado de sus modelos se dispone mediante la disección de tres conceptos convergentes: Sistema, Código y Proceso. La discusión crítica se articula por una triangulación entre los autores, donde se identifican comparando por pares las coincidencias y controversias entre ellos. Sirve este procedimiento al propósito de tender un puente conceptual con el escenario arquitectónico actual estimando el impacto de sus propuestas. Se valora su contribución en la deriva del programa cerrado a la especulación , de lo formal a lo informal, de lo único a lo múltiple; del estudio de arquitectura al laboratorio de investigación. Para guiar ese recorrido por la significación de cada autor en el desarrollo digital de la disciplina, se incorporan a la escena dos predicados esenciales; expertos en computación que trabajaron de enlace entre los autores, matizando el significado de sus modelos. El trabajo de Gordon Pask y John Frazer constituye el vehículo de transmisión de los hallazgos de aquellos años, prolonga los caminos iniciados entonces, en la arquitectura de hoy y la que ya se está diseñando para mañana. ABSTRACT The initial premise of the thesis examines how the aftermath of second world war motivated a general revision of science and procure the basis of a new relation between mankind and its environment. Mathematics, Physics, and Biology gave birth to the Computer Sciences as a blend of different knowledge and procedures. In a time when the object of major sciences was being redefined, a few architects saw a promising opportunity for transforming the Architectural convention. By implementing the concepts, ontology and procedures of Cybernetics, Artificial Intelligence and Information Technology, they envisioned a new space for their discipline. In the verge of transgression three prescient architects proposed complete architectural systems through their writings and projects; New systems that challenged the profession exploring open fields through program and action, questioning the culture of conservatism; They shifted architectural endeavor from object to process. The thesis starts describing the scientific and architectural background that lead to that opportunity, annotating aspects of Systems Theory, Computing, Biology and previous Architecture form the process perspective. It then focuses on the Works of Christopher Alexander, Nicholas Negroponte and Cedric Price through their work, and examines each authors conceptual contribution. It proceeds to a critical analysis of their proposals on three key converging aspects: system, architectural encoding and process. Finally, the thesis provides a comparative discussion between the three authors, and unfolds the impact of their work in todays architectural scenario. Their contribution to shift from service to speculation, from formal to informal , from unitary to multiple; from orthodox architecture studio to open laboratories of praxis through research. In order to conclude that triangle of concepts, other contributions come into scene to provide relevant predicates and complete those models. A reference to Gordon Pask and John Frazer is then provided with particular interest in their role as link between those pioneers and todays perspective, pushing the boundaries of both what architecture was and what it could become.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

En esta tesis se aborda la detección y el seguimiento automático de vehículos mediante técnicas de visión artificial con una cámara monocular embarcada. Este problema ha suscitado un gran interés por parte de la industria automovilística y de la comunidad científica ya que supone el primer paso en aras de la ayuda a la conducción, la prevención de accidentes y, en última instancia, la conducción automática. A pesar de que se le ha dedicado mucho esfuerzo en los últimos años, de momento no se ha encontrado ninguna solución completamente satisfactoria y por lo tanto continúa siendo un tema de investigación abierto. Los principales problemas que plantean la detección y seguimiento mediante visión artificial son la gran variabilidad entre vehículos, un fondo que cambia dinámicamente debido al movimiento de la cámara, y la necesidad de operar en tiempo real. En este contexto, esta tesis propone un marco unificado para la detección y seguimiento de vehículos que afronta los problemas descritos mediante un enfoque estadístico. El marco se compone de tres grandes bloques, i.e., generación de hipótesis, verificación de hipótesis, y seguimiento de vehículos, que se llevan a cabo de manera secuencial. No obstante, se potencia el intercambio de información entre los diferentes bloques con objeto de obtener el máximo grado posible de adaptación a cambios en el entorno y de reducir el coste computacional. Para abordar la primera tarea de generación de hipótesis, se proponen dos métodos complementarios basados respectivamente en el análisis de la apariencia y la geometría de la escena. Para ello resulta especialmente interesante el uso de un dominio transformado en el que se elimina la perspectiva de la imagen original, puesto que este dominio permite una búsqueda rápida dentro de la imagen y por tanto una generación eficiente de hipótesis de localización de los vehículos. Los candidatos finales se obtienen por medio de un marco colaborativo entre el dominio original y el dominio transformado. Para la verificación de hipótesis se adopta un método de aprendizaje supervisado. Así, se evalúan algunos de los métodos de extracción de características más populares y se proponen nuevos descriptores con arreglo al conocimiento de la apariencia de los vehículos. Para evaluar la efectividad en la tarea de clasificación de estos descriptores, y dado que no existen bases de datos públicas que se adapten al problema descrito, se ha generado una nueva base de datos sobre la que se han realizado pruebas masivas. Finalmente, se presenta una metodología para la fusión de los diferentes clasificadores y se plantea una discusión sobre las combinaciones que ofrecen los mejores resultados. El núcleo del marco propuesto está constituido por un método Bayesiano de seguimiento basado en filtros de partículas. Se plantean contribuciones en los tres elementos fundamentales de estos filtros: el algoritmo de inferencia, el modelo dinámico y el modelo de observación. En concreto, se propone el uso de un método de muestreo basado en MCMC que evita el elevado coste computacional de los filtros de partículas tradicionales y por consiguiente permite que el modelado conjunto de múltiples vehículos sea computacionalmente viable. Por otra parte, el dominio transformado mencionado anteriormente permite la definición de un modelo dinámico de velocidad constante ya que se preserva el movimiento suave de los vehículos en autopistas. Por último, se propone un modelo de observación que integra diferentes características. En particular, además de la apariencia de los vehículos, el modelo tiene en cuenta también toda la información recibida de los bloques de procesamiento previos. El método propuesto se ejecuta en tiempo real en un ordenador de propósito general y da unos resultados sobresalientes en comparación con los métodos tradicionales. ABSTRACT This thesis addresses on-road vehicle detection and tracking with a monocular vision system. This problem has attracted the attention of the automotive industry and the research community as it is the first step for driver assistance and collision avoidance systems and for eventual autonomous driving. Although many effort has been devoted to address it in recent years, no satisfactory solution has yet been devised and thus it is an active research issue. The main challenges for vision-based vehicle detection and tracking are the high variability among vehicles, the dynamically changing background due to camera motion and the real-time processing requirement. In this thesis, a unified approach using statistical methods is presented for vehicle detection and tracking that tackles these issues. The approach is divided into three primary tasks, i.e., vehicle hypothesis generation, hypothesis verification, and vehicle tracking, which are performed sequentially. Nevertheless, the exchange of information between processing blocks is fostered so that the maximum degree of adaptation to changes in the environment can be achieved and the computational cost is alleviated. Two complementary strategies are proposed to address the first task, i.e., hypothesis generation, based respectively on appearance and geometry analysis. To this end, the use of a rectified domain in which the perspective is removed from the original image is especially interesting, as it allows for fast image scanning and coarse hypothesis generation. The final vehicle candidates are produced using a collaborative framework between the original and the rectified domains. A supervised classification strategy is adopted for the verification of the hypothesized vehicle locations. In particular, state-of-the-art methods for feature extraction are evaluated and new descriptors are proposed by exploiting the knowledge on vehicle appearance. Due to the lack of appropriate public databases, a new database is generated and the classification performance of the descriptors is extensively tested on it. Finally, a methodology for the fusion of the different classifiers is presented and the best combinations are discussed. The core of the proposed approach is a Bayesian tracking framework using particle filters. Contributions are made on its three key elements: the inference algorithm, the dynamic model and the observation model. In particular, the use of a Markov chain Monte Carlo method is proposed for sampling, which circumvents the exponential complexity increase of traditional particle filters thus making joint multiple vehicle tracking affordable. On the other hand, the aforementioned rectified domain allows for the definition of a constant-velocity dynamic model since it preserves the smooth motion of vehicles in highways. Finally, a multiple-cue observation model is proposed that not only accounts for vehicle appearance but also integrates the available information from the analysis in the previous blocks. The proposed approach is proven to run near real-time in a general purpose PC and to deliver outstanding results compared to traditional methods.