26 resultados para Apariencia
em Universidad Politécnica de Madrid
Resumo:
La apariencia industrial. Las townhouses en Lafayette Park de Mies van der Rohe = The industrial appearance. Townhouses in Lafayette Park by Mies van der Rohe
Resumo:
El desarrollo económico y social, a veces excesivamente rápido, que se ha producido en las últimas décadas ha generado una serie de problemas medioambientales generalmente más acuciantes en el entorno de las grandes ciudades. Dentro de este contexto y debido a este desarrollo exponencial de las actividades humanas, la contaminación acústica se ha convertido en uno de los problemas de peor solución, tanto a nivel de reducción como de atenuación, por lo que el diseño de pantallas acústicas está siendo uno de los objetivos prioritarios en la lucha contra la contaminación sonora. La expresión más extendida para designar a las barreras acústicas es la de pantallas acústicas, entendiéndose por éstas, muros de espesor relativamente pequeño concebidos como barreras acústicas. Hasta la fecha los avances en el diseño de estas pantallas han sido notables y ya se cuentan por cientos los kilómetros de las mismas que han sido construidas e instaladas, sobre todo en la periferia de las grandes ciudades cerca de las llamadas vías de tráfico rápido. Estos avances se han centrado sobre todo en el diseño de materiales de gran poder de absorción de las ondas, como método principal de atenuación, o bien en la forma geométrica de la superficie expuesta al tráfico, formas que por medio de reflexiones son capaces de anular o mitigar parte de la energía transportada por las ondas sonoras. A la vista de estos resultados las actuales pantallas acústicas reducen el nivel sonoro por atenuación, pero no son capaces de anular la onda incidente. Por otro lado, los últimos estudios de la tecnología japonesa en estos temas es el análisis del problema de borde, ya que este fenómeno de difracción es uno de los causantes principales del nivel sonoro en el trasdós de la pantalla. Pese a que es imposible anular este efecto de borde los estudios se han encauzado a intentar obtener una forma de la sección de la pantalla en su parte superior que sea capaz de mitigar este efecto, bien por interferencia entre las ondas incidentes o bien por superposición de diversos fenómenos de difracciones. En este orden de cosas entra a escena el concepto de pantalla tubular, como una nueva pantalla perforada que anula ondas sonoras basándose en el efecto físico de los tubos de Kundt. Su funcionamiento es debido a la propiedad de las ondas sonoras de producir resonancias al transmitirse dentro de cavidades de diferentes secciones tipo. Este tipo de pantallas se olvida del concepto clásico de pantalla acústica y su forma de atenuar el sonido y pasa al cálculo de la atenuación por eliminación de frecuencias. Esta tesis ofrece una nueva visión de este tipo de pantallas tubulares, optimizando su funcionamiento en función de la longitud de las cavidades tubulares, que han de ser diseñadas no de forma rectilínea, sino según directrices de curvas conocidas. El método operativo consistirá en aplicar las propiedades morfológicas de estas curvas a la propagación de ondas dentro de cavidades curvilíneas, obteniendo una serie de funciones de onda transmitidas y otras anuladas, lo que permite evaluar el porcentaje de energía que es capaz de anular cada tipo de curva para un espesor prefijado de pantalla. Este planteamiento nos permite elaborar un método de diseño y optimización por consideraciones exclusivamente geométricas, en función de un número muy reducido de parámetros, entre los que destaca la frecuencia que se presenta con mayor asiduidad, que es la principal causante del nivel sonoro. Asimismo, el método está apoyado en gran manera en un soporte gráfico, lo que le hace de sencilla aplicación incluso entre técnicos no excesivamente acostumbrados a trabajar con ondas sonoras. Como resumen final, las aportaciones más relevantes que incorpora esta tesis son las siguientes: Desarrollo práctico de la teoría global de pantallas acústicas tubulares ; Aplicación de la geometría clásica, en el concepto de longitudes de curvas tipo, a las técnicas de ingeniería del medio ambiente lo que representa un avance cualitativo notable ya que hasta la fecha no se había planteado la interacción de dos disciplinas en apariencia tan dispares y de conceptos tan heterogéneos ; Desarrollo de un método secuencial que es capaz de engarzar el análisis acústico de un cierto flujo de tráfico vehicular con el análisis geométrico de curvas tipo y dotar así al futuro diseñador de pantallas acústicas de una poderosa herramienta que le permita variar la tipología y forma de la pantalla en función de parámetros que pueden variar de manera aleatoria.
Resumo:
La presente Tesis Doctoral aborda la aplicación de métodos meshless, o métodos sin malla, a problemas de autovalores, fundamentalmente vibraciones libres y pandeo. En particular, el estudio se centra en aspectos tales como los procedimientos para la resolución numérica del problema de autovalores con estos métodos, el coste computacional y la viabilidad de la utilización de matrices de masa o matrices de rigidez geométrica no consistentes. Además, se acomete en detalle el análisis del error, con el objetivo de determinar sus principales fuentes y obtener claves que permitan la aceleración de la convergencia. Aunque en la actualidad existe una amplia variedad de métodos meshless en apariencia independientes entre sí, se han analizado las diferentes relaciones entre ellos, deduciéndose que el método Element-Free Galerkin Method [Método Galerkin Sin Elementos] (EFGM) es representativo de un amplio grupo de los mismos. Por ello se ha empleado como referencia en este análisis. Muchas de las fuentes de error de un método sin malla provienen de su algoritmo de interpolación o aproximación. En el caso del EFGM ese algoritmo es conocido como Moving Least Squares [Mínimos Cuadrados Móviles] (MLS), caso particular del Generalized Moving Least Squares [Mínimos Cuadrados Móviles Generalizados] (GMLS). La formulación de estos algoritmos indica que la precisión de los mismos se basa en los siguientes factores: orden de la base polinómica p(x), características de la función de peso w(x) y forma y tamaño del soporte de definición de esa función. Se ha analizado la contribución individual de cada factor mediante su reducción a un único parámetro cuantificable, así como las interacciones entre ellos tanto en distribuciones regulares de nodos como en irregulares. El estudio se extiende a una serie de problemas estructurales uni y bidimensionales de referencia, y tiene en cuenta el error no sólo en el cálculo de autovalores (frecuencias propias o carga de pandeo, según el caso), sino también en términos de autovectores. This Doctoral Thesis deals with the application of meshless methods to eigenvalue problems, particularly free vibrations and buckling. The analysis is focused on aspects such as the numerical solving of the problem, computational cost and the feasibility of the use of non-consistent mass or geometric stiffness matrices. Furthermore, the analysis of the error is also considered, with the aim of identifying its main sources and obtaining the key factors that enable a faster convergence of a given problem. Although currently a wide variety of apparently independent meshless methods can be found in the literature, the relationships among them have been analyzed. The outcome of this assessment is that all those methods can be grouped in only a limited amount of categories, and that the Element-Free Galerkin Method (EFGM) is representative of the most important one. Therefore, the EFGM has been selected as a reference for the numerical analyses. Many of the error sources of a meshless method are contributed by its interpolation/approximation algorithm. In the EFGM, such algorithm is known as Moving Least Squares (MLS), a particular case of the Generalized Moving Least Squares (GMLS). The accuracy of the MLS is based on the following factors: order of the polynomial basis p(x), features of the weight function w(x), and shape and size of the support domain of this weight function. The individual contribution of each of these factors, along with the interactions among them, has been studied in both regular and irregular arrangement of nodes, by means of a reduction of each contribution to a one single quantifiable parameter. This assessment is applied to a range of both one- and two-dimensional benchmarking cases, and includes not only the error in terms of eigenvalues (natural frequencies or buckling load), but also of eigenvectors
Resumo:
Un estudiante arquitecto disimula su espíritu burgués bajo una apariencia de vagabundo y enmascara su cinismo bajo la convención de la ironía. SIMULACRO Una joven arquitectura americana de California se revuelca complacida en el culto a la cabaña de madera y a la falsa granja de cubierta retorcida y pintoresca. Una arquitectura internacional politizada busca en el neorrealismo el sentido tan masoquista de la miseria del buen gusto y de la anécdota irrelevante para calmar su conciencia extraviada. Una arquitectura italiana de investigación se refugia en los más increíbles revivals de las épocas más alejadas; transformando alegremente la moda antigua en vieja decoración, influenciando al mundo y justificando su postura de anticuario con el intento vano de elevarla no solo al nivel de una tendencia más, sino al de escuela de arquitectura. SIMULACRO Una arquitectura tradicional cansada, que intenta su revitalización, disfrazándose bajo la etimología neodecorativa de “brutalismo”. Una arquitectura falaz que corrompe los lugares de placer con su exotismo y su folclore de bazar. Una arquitectura indiferente que esconde su falta de pasión bajo la coartada moderna del muro cortina y bajo la máscara de la técnica.
Resumo:
En esta tesis se aborda la detección y el seguimiento automático de vehículos mediante técnicas de visión artificial con una cámara monocular embarcada. Este problema ha suscitado un gran interés por parte de la industria automovilística y de la comunidad científica ya que supone el primer paso en aras de la ayuda a la conducción, la prevención de accidentes y, en última instancia, la conducción automática. A pesar de que se le ha dedicado mucho esfuerzo en los últimos años, de momento no se ha encontrado ninguna solución completamente satisfactoria y por lo tanto continúa siendo un tema de investigación abierto. Los principales problemas que plantean la detección y seguimiento mediante visión artificial son la gran variabilidad entre vehículos, un fondo que cambia dinámicamente debido al movimiento de la cámara, y la necesidad de operar en tiempo real. En este contexto, esta tesis propone un marco unificado para la detección y seguimiento de vehículos que afronta los problemas descritos mediante un enfoque estadístico. El marco se compone de tres grandes bloques, i.e., generación de hipótesis, verificación de hipótesis, y seguimiento de vehículos, que se llevan a cabo de manera secuencial. No obstante, se potencia el intercambio de información entre los diferentes bloques con objeto de obtener el máximo grado posible de adaptación a cambios en el entorno y de reducir el coste computacional. Para abordar la primera tarea de generación de hipótesis, se proponen dos métodos complementarios basados respectivamente en el análisis de la apariencia y la geometría de la escena. Para ello resulta especialmente interesante el uso de un dominio transformado en el que se elimina la perspectiva de la imagen original, puesto que este dominio permite una búsqueda rápida dentro de la imagen y por tanto una generación eficiente de hipótesis de localización de los vehículos. Los candidatos finales se obtienen por medio de un marco colaborativo entre el dominio original y el dominio transformado. Para la verificación de hipótesis se adopta un método de aprendizaje supervisado. Así, se evalúan algunos de los métodos de extracción de características más populares y se proponen nuevos descriptores con arreglo al conocimiento de la apariencia de los vehículos. Para evaluar la efectividad en la tarea de clasificación de estos descriptores, y dado que no existen bases de datos públicas que se adapten al problema descrito, se ha generado una nueva base de datos sobre la que se han realizado pruebas masivas. Finalmente, se presenta una metodología para la fusión de los diferentes clasificadores y se plantea una discusión sobre las combinaciones que ofrecen los mejores resultados. El núcleo del marco propuesto está constituido por un método Bayesiano de seguimiento basado en filtros de partículas. Se plantean contribuciones en los tres elementos fundamentales de estos filtros: el algoritmo de inferencia, el modelo dinámico y el modelo de observación. En concreto, se propone el uso de un método de muestreo basado en MCMC que evita el elevado coste computacional de los filtros de partículas tradicionales y por consiguiente permite que el modelado conjunto de múltiples vehículos sea computacionalmente viable. Por otra parte, el dominio transformado mencionado anteriormente permite la definición de un modelo dinámico de velocidad constante ya que se preserva el movimiento suave de los vehículos en autopistas. Por último, se propone un modelo de observación que integra diferentes características. En particular, además de la apariencia de los vehículos, el modelo tiene en cuenta también toda la información recibida de los bloques de procesamiento previos. El método propuesto se ejecuta en tiempo real en un ordenador de propósito general y da unos resultados sobresalientes en comparación con los métodos tradicionales. ABSTRACT This thesis addresses on-road vehicle detection and tracking with a monocular vision system. This problem has attracted the attention of the automotive industry and the research community as it is the first step for driver assistance and collision avoidance systems and for eventual autonomous driving. Although many effort has been devoted to address it in recent years, no satisfactory solution has yet been devised and thus it is an active research issue. The main challenges for vision-based vehicle detection and tracking are the high variability among vehicles, the dynamically changing background due to camera motion and the real-time processing requirement. In this thesis, a unified approach using statistical methods is presented for vehicle detection and tracking that tackles these issues. The approach is divided into three primary tasks, i.e., vehicle hypothesis generation, hypothesis verification, and vehicle tracking, which are performed sequentially. Nevertheless, the exchange of information between processing blocks is fostered so that the maximum degree of adaptation to changes in the environment can be achieved and the computational cost is alleviated. Two complementary strategies are proposed to address the first task, i.e., hypothesis generation, based respectively on appearance and geometry analysis. To this end, the use of a rectified domain in which the perspective is removed from the original image is especially interesting, as it allows for fast image scanning and coarse hypothesis generation. The final vehicle candidates are produced using a collaborative framework between the original and the rectified domains. A supervised classification strategy is adopted for the verification of the hypothesized vehicle locations. In particular, state-of-the-art methods for feature extraction are evaluated and new descriptors are proposed by exploiting the knowledge on vehicle appearance. Due to the lack of appropriate public databases, a new database is generated and the classification performance of the descriptors is extensively tested on it. Finally, a methodology for the fusion of the different classifiers is presented and the best combinations are discussed. The core of the proposed approach is a Bayesian tracking framework using particle filters. Contributions are made on its three key elements: the inference algorithm, the dynamic model and the observation model. In particular, the use of a Markov chain Monte Carlo method is proposed for sampling, which circumvents the exponential complexity increase of traditional particle filters thus making joint multiple vehicle tracking affordable. On the other hand, the aforementioned rectified domain allows for the definition of a constant-velocity dynamic model since it preserves the smooth motion of vehicles in highways. Finally, a multiple-cue observation model is proposed that not only accounts for vehicle appearance but also integrates the available information from the analysis in the previous blocks. The proposed approach is proven to run near real-time in a general purpose PC and to deliver outstanding results compared to traditional methods.
Resumo:
Las técnicas de cirugía de mínima invasión (CMI) se están consolidando hoy en día como alternativa a la cirugía tradicional, debido a sus numerosos beneficios para los pacientes. Este cambio de paradigma implica que los cirujanos deben aprender una serie de habilidades distintas de aquellas requeridas en cirugía abierta. El entrenamiento y evaluación de estas habilidades se ha convertido en una de las mayores preocupaciones en los programas de formación de cirujanos, debido en gran parte a la presión de una sociedad que exige cirujanos bien preparados y una reducción en el número de errores médicos. Por tanto, se está prestando especial atención a la definición de nuevos programas que permitan el entrenamiento y la evaluación de las habilidades psicomotoras en entornos seguros antes de que los nuevos cirujanos puedan operar sobre pacientes reales. Para tal fin, hospitales y centros de formación están gradualmente incorporando instalaciones de entrenamiento donde los residentes puedan practicar y aprender sin riesgos. Es cada vez más común que estos laboratorios dispongan de simuladores virtuales o simuladores físicos capaces de registrar los movimientos del instrumental de cada residente. Estos simuladores ofrecen una gran variedad de tareas de entrenamiento y evaluación, así como la posibilidad de obtener información objetiva de los ejercicios. Los diferentes estudios de validación llevados a cabo dan muestra de su utilidad; pese a todo, los niveles de evidencia presentados son en muchas ocasiones insuficientes. Lo que es más importante, no existe un consenso claro a la hora de definir qué métricas son más útiles para caracterizar la pericia quirúrgica. El objetivo de esta tesis doctoral es diseñar y validar un marco de trabajo conceptual para la definición y validación de entornos para la evaluación de habilidades en CMI, en base a un modelo en tres fases: pedagógica (tareas y métricas a emplear), tecnológica (tecnologías de adquisición de métricas) y analítica (interpretación de la competencia en base a las métricas). Para tal fin, se describe la implementación práctica de un entorno basado en (1) un sistema de seguimiento de instrumental fundamentado en el análisis del vídeo laparoscópico; y (2) la determinación de la pericia en base a métricas de movimiento del instrumental. Para la fase pedagógica se diseñó e implementó un conjunto de tareas para la evaluación de habilidades psicomotoras básicas, así como una serie de métricas de movimiento. La validación de construcción llevada a cabo sobre ellas mostró buenos resultados para tiempo, camino recorrido, profundidad, velocidad media, aceleración media, economía de área y economía de volumen. Adicionalmente, los resultados obtenidos en la validación de apariencia fueron en general positivos en todos los grupos considerados (noveles, residentes, expertos). Para la fase tecnológica, se introdujo el EVA Tracking System, una solución para el seguimiento del instrumental quirúrgico basado en el análisis del vídeo endoscópico. La precisión del sistema se evaluó a 16,33ppRMS para el seguimiento 2D de la herramienta en la imagen; y a 13mmRMS para el seguimiento espacial de la misma. La validación de construcción con una de las tareas de evaluación mostró buenos resultados para tiempo, camino recorrido, profundidad, velocidad media, aceleración media, economía de área y economía de volumen. La validación concurrente con el TrEndo® Tracking System por su parte presentó valores altos de correlación para 8 de las 9 métricas analizadas. Finalmente, para la fase analítica se comparó el comportamiento de tres clasificadores supervisados a la hora de determinar automáticamente la pericia quirúrgica en base a la información de movimiento del instrumental, basados en aproximaciones lineales (análisis lineal discriminante, LDA), no lineales (máquinas de soporte vectorial, SVM) y difusas (sistemas adaptativos de inferencia neurodifusa, ANFIS). Los resultados muestran que en media SVM presenta un comportamiento ligeramente superior: 78,2% frente a los 71% y 71,7% obtenidos por ANFIS y LDA respectivamente. Sin embargo las diferencias estadísticas medidas entre los tres no fueron demostradas significativas. En general, esta tesis doctoral corrobora las hipótesis de investigación postuladas relativas a la definición de sistemas de evaluación de habilidades para cirugía de mínima invasión, a la utilidad del análisis de vídeo como fuente de información y a la importancia de la información de movimiento de instrumental a la hora de caracterizar la pericia quirúrgica. Basándose en estos cimientos, se han de abrir nuevos campos de investigación que contribuyan a la definición de programas de formación estructurados y objetivos, que puedan garantizar la acreditación de cirujanos sobradamente preparados y promocionen la seguridad del paciente en el quirófano. Abstract Minimally invasive surgery (MIS) techniques have become a standard in many surgical sub-specialties, due to their many benefits for patients. However, this shift in paradigm implies that surgeons must acquire a complete different set of skills than those normally attributed to open surgery. Training and assessment of these skills has become a major concern in surgical learning programmes, especially considering the social demand for better-prepared professionals and for the decrease of medical errors. Therefore, much effort is being put in the definition of structured MIS learning programmes, where practice with real patients in the operating room (OR) can be delayed until the resident can attest for a minimum level of psychomotor competence. To this end, skills’ laboratory settings are being introduced in hospitals and training centres where residents may practice and be assessed on their psychomotor skills. Technological advances in the field of tracking technologies and virtual reality (VR) have enabled the creation of new learning systems such as VR simulators or enhanced box trainers. These systems offer a wide range of tasks, as well as the capability of registering objective data on the trainees’ performance. Validation studies give proof of their usefulness; however, levels of evidence reported are in many cases low. More importantly, there is still no clear consensus on topics such as the optimal metrics that must be used to assess competence, the validity of VR simulation, the portability of tracking technologies into real surgeries (for advanced assessment) or the degree to which the skills measured and obtained in laboratory environments transfer to the OR. The purpose of this PhD is to design and validate a conceptual framework for the definition and validation of MIS assessment environments based on a three-pillared model defining three main stages: pedagogical (tasks and metrics to employ), technological (metric acquisition technologies) and analytical (interpretation of competence based on metrics). To this end, a practical implementation of the framework is presented, focused on (1) a video-based tracking system and (2) the determination of surgical competence based on the laparoscopic instruments’ motionrelated data. The pedagogical stage’s results led to the design and implementation of a set of basic tasks for MIS psychomotor skills’ assessment, as well as the definition of motion analysis parameters (MAPs) to measure performance on said tasks. Validation yielded good construct results for parameters such as time, path length, depth, average speed, average acceleration, economy of area and economy of volume. Additionally, face validation results showed positive acceptance on behalf of the experts, residents and novices. For the technological stage the EVA Tracking System is introduced. EVA provides a solution for tracking laparoscopic instruments from the analysis of the monoscopic video image. Accuracy tests for the system are presented, which yielded an average RMSE of 16.33pp for 2D tracking of the instrument on the image and of 13mm for 3D spatial tracking. A validation experiment was conducted using one of the tasks and the most relevant MAPs. Construct validation showed significant differences for time, path length, depth, average speed, average acceleration, economy of area and economy of volume; especially between novices and residents/experts. More importantly, concurrent validation with the TrEndo® Tracking System presented high correlation values (>0.7) for 8 of the 9 MAPs proposed. Finally, the analytical stage allowed comparing the performance of three different supervised classification strategies in the determination of surgical competence based on motion-related information. The three classifiers were based on linear (linear discriminant analysis, LDA), non-linear (support vector machines, SVM) and fuzzy (adaptive neuro fuzzy inference systems, ANFIS) approaches. Results for SVM show slightly better performance than the other two classifiers: on average, accuracy for LDA, SVM and ANFIS was of 71.7%, 78.2% and 71% respectively. However, when confronted, no statistical significance was found between any of the three. Overall, this PhD corroborates the investigated research hypotheses regarding the definition of MIS assessment systems, the use of endoscopic video analysis as the main source of information and the relevance of motion analysis in the determination of surgical competence. New research fields in the training and assessment of MIS surgeons can be proposed based on these foundations, in order to contribute to the definition of structured and objective learning programmes that guarantee the accreditation of well-prepared professionals and the promotion of patient safety in the OR.
Resumo:
Durante las operaciones de recolección, transporte y manipulación de frutas y hortalizas se producen inevitablemente lesiones que progresivamente se acumulan sobre cada uno de los frutos, resultando disminuida su calidad, y por tanto su valor comercial. Los mercados actuales, tanto nacionales como internacionales, demandan frutas de alta calidad. Uno de los aspectos que constituyen esa calidad es la apariencia externa del producto, y dentro de ésta la ausencia de daños mecánicos, heridas, defectos de coloración etc. Es por tanto necesario revisar todos aquellos factores y procesos que afectan al producto, desde el momento de la recolección hasta la llegada del producto a manos del consumidor, con el fin de reducir las cuantiosas pérdidas (alrededor del 20% de la cosecha), debidas a la aplicación de diferentes tipos de cargas mecánicas (impacto, compresión, fricción, etc) a lo largo de los procesos, y mejorar el aspecto externo del fruto. Son bien conocidas las consecuencias del estado actual de los procesos de recolección y post-recolección a nivel de fruto. Cuando un fruto es sometido reiteradamente a cargas mecánicas exteriores, éste induce una respuesta fisiológica de autodefensa y, como consecuencia, puede desencadenar en los tejidos cambios tales como envejecimiento acelerado, degeneración y degradación. Todas estas reacciones redundan indiscutiblemente en las pérdidas de calidad arriba mencionadas. Una vez definido el problema, es necesario conocer en detalle las causas, los procesos en si mismos, ser capaces de detectar los puntos potencialmente peligrosos en los que los frutos están expuestos a impactos, compresiones y otras situaciones de estrés mecánico, cuestión que hasta hace poco ha sido mal resuelta. Hasta ahora la detección y caracterización de los puntos críticos se venía realizando de un modo intuitivo, basado en la simple observación de la ejecución de las operaciones por parte del responsable de cada proceso. Actualmente, con la ayuda de los frutos electrónicos simulados, es posible realizar la evaluación de cualquier procedimiento de forma rápida, precisa y objetiva. El desarrollo de los frutos electrónicos viene a cubrir una demanda del sector, tanto de los productores como de los agentes de comercialización, que necesitaban un método objetivo para la evaluación de los procedimientos y líneas de manipulación. Agencias de extensión agraria y algunas cooperativas han mostrado interés por estos dispositivos, empleándolos para la detección de puntos críticos en sus instalaciones. Incluso algunos agentes de grandes cadenas de supermercados han empezado a solicitar "certificados de calidad" de las líneas que manipulan los productos que ellos comercializan como garantía de su calidad.
Resumo:
La actuación de personajes ajenos -a la disciplina de la arquitectura- sobre la misma subyace en la misma base de los condicionantes históricos desde los que se conforma el proyecto de arquitectura. El carácter áulico de las grandes obras, o la permanencia en un tiempo más amplio que el de la vida humana han atraído al ser humano desde tiempos sin registro. No supondría mayor novedad el que un filósofo, en la convulsa Viena de entreguerras, se interesara en una vivienda que su hermana deseaba construirse en los extramuros de una ciudad en plena transformación postindustrial. Despierta nuestro interés los personajes concretos, siendo el filósofo Ludwig Wittgenstein, el filósofo de la lógica regulada del Tractatus, amigo íntimo de Adolf Loos; y su hermana, Margaret Stonborough-Wittgenstein, una de las mecenas más solicitadas de la cultura vienesa de la época. Y aquella casa, no es sino el palais Wittgenstein, llevado a la realidad entre 1925 y 1929, en el tiempo germinal del Movimiento Moderno. Esta casa toma el nombre de Wittgenstein, que, lejos de la coincidencia con el de su propietaria, sintetiza la atribución que la crítica y la historiografía ?tanto arquitectónica como filosófica- ha hecho de ella. Esta casa es, en apariencia, el fruto de un filósofo obsesionado con el concepto de la verdad; que ha erigido un palacete suburbano con os rígidos principios de un discurso estructuralista. La casa ha sido y es leída como ?lógica encarnada en casa? -según las propias palabras de su propietaria-. Un intento de dotar de orden metalingüístico al elenco material y técnico que es un proyecto de arquitectura. Con ese carácter mitificado, algunos estudios sobre la misma son publicados desde los inicios de la década de los 80. Remueve conciencias postmodernas, al poder ser presentada como un arranque atípico del Movimiento Moderno, y por la búsqueda de esa excepción su estatus permanece invariablemente fijado en los márgenes de aquel. Sin embargo, cuando la casa es estudiada documentalmente, se descubren contradicciones iniciadas en el ambiguo papel de Paul Engelmann -el arquitecto que comenzaba el proyecto- y que llegan hasta las deficiencias en la res aedificatoria básica de una vivienda. Cuando la casa es habitada, se descubre una complejidad espacial que dista mucho de los acotados espacios que conforman la planta, una extraña posición respecto al entorno, una construcción realizada con elementos radicalmente reducidos. Una casa que al ser descubierta contrasta con lo que la crítica dice mayoritariamente de ella, una casa que al ser estudiada desvela un proceso de proyecto que, por complejo, es terriblemente actual; una casa cuya realización no es fruto del pragmatismo moderno aunque finja serlo. Y al estudiarla, se presenta una casa que no es sólo un proyecto de arquitectura, sino un instrumento de investigación que enriquece la percepción que de la realidad tenía Wittgenstein, y con este desplazamiento en su pensamiento nos facilita, aún hoy, el incremento de la riqueza de nuestro mirar.
Resumo:
La edificación singular demanda cada vez más el empleo de materiales de altas prestaciones, que en el caso del hormigón, además de una resistencia y durabilidad elevada, se exige una apariencia uniforme y alta calidad superficial. En el caso del hormigón vibrado, una vez definidas las características del material en estado fresco, la responsabilidad sobre la calidad superficial finalmente conseguida recae fundamentalmente sobre el constructor que es quien coloca y compacta el hormigón. Sin embargo, en el caso del HAC, la inexistencia de compactación puede hacer que el constructor, aun habiendo controlado la idoneidad de la mezcla respecto a alguna de las medidas de autocompactabilidad, se encuentre en situación de incumplimiento de la calidad superficial requerida. Con el objeto de evitarlo ha sido necesario que la calidad requerida se haya pactado previamente tras la elaboración de elementos prototipo y para ello se han utilizado superficies de referencia. Independientemente del hormigón que se utilice, esta situación pone de manifiesto la importancia de alcanzar una metodología que, teniendo en cuenta las características de la aplicación, permita definir rangos de aceptabilidad de las calidades superficiales como ya recogen recomendaciones internacionales.
Resumo:
El cáncer de próstata es el tipo de cáncer con mayor prevalencia entre los hombres del mundo occidental y, pese a tener una alta tasa de supervivencia relativa, es la segunda mayor causa de muerte por cáncer en este sector de la población. El tratamiento de elección frente al cáncer de próstata es, en la mayoría de los casos, la radioterapia externa. Las técnicas más modernas de radioterapia externa, como la radioterapia modulada en intensidad, permiten incrementar la dosis en el tumor mientras se reduce la dosis en el tejido sano. Sin embargo, la localización del volumen objetivo varía con el día de tratamiento, y se requieren movimientos muy pequeños de los órganos para sacar partes del volumen objetivo fuera de la región terapéutica, o para introducir tejidos sanos críticos dentro. Para evitar esto se han desarrollado técnicas más avanzadas, como la radioterapia guiada por imagen, que se define por un manejo más preciso de los movimientos internos mediante una adaptación de la planificación del tratamiento basada en la información anatómica obtenida de imágenes de tomografía computarizada (TC) previas a la sesión terapéutica. Además, la radioterapia adaptativa añade la información dosimétrica de las fracciones previas a la información anatómica. Uno de los fundamentos de la radioterapia adaptativa es el registro deformable de imágenes, de gran utilidad a la hora de modelar los desplazamientos y deformaciones de los órganos internos. Sin embargo, su utilización conlleva nuevos retos científico-tecnológicos en el procesamiento de imágenes, principalmente asociados a la variabilidad de los órganos, tanto en localización como en apariencia. El objetivo de esta tesis doctoral es mejorar los procesos clínicos de delineación automática de contornos y de cálculo de dosis acumulada para la planificación y monitorización de tratamientos con radioterapia adaptativa, a partir de nuevos métodos de procesamiento de imágenes de TC (1) en presencia de contrastes variables, y (2) cambios de apariencia del recto. Además, se pretende (3) proveer de herramientas para la evaluación de la calidad de los contornos obtenidos en el caso del gross tumor volumen (GTV). Las principales contribuciones de esta tesis doctoral son las siguientes: _ 1. La adaptación, implementación y evaluación de un algoritmo de registro basado en el flujo óptico de la fase de la imagen como herramienta para el cálculo de transformaciones no-rígidas en presencia de cambios de intensidad, y su aplicabilidad a tratamientos de radioterapia adaptativa en cáncer de próstata con uso de agentes de contraste radiológico. Los resultados demuestran que el algoritmo seleccionado presenta mejores resultados cualitativos en presencia de contraste radiológico en la vejiga, y no distorsiona la imagen forzando deformaciones poco realistas. 2. La definición, desarrollo y validación de un nuevo método de enmascaramiento de los contenidos del recto (MER), y la evaluación de su influencia en el procedimiento de radioterapia adaptativa en cáncer de próstata. Las segmentaciones obtenidas mediante el MER para la creación de máscaras homogéneas en las imágenes de sesión permiten mejorar sensiblemente los resultados de los algoritmos de registro en la región rectal. Así, el uso de la metodología propuesta incrementa el índice de volumen solapado entre los contornos manuales y automáticos del recto hasta un valor del 89%, cercano a los resultados obtenidos usando máscaras manuales para el registro de las dos imágenes. De esta manera se pueden corregir tanto el cálculo de los nuevos contornos como el cálculo de la dosis acumulada. 3. La definición de una metodología de evaluación de la calidad de los contornos del GTV, que permite la representación de la distribución espacial del error, adaptándola a volúmenes no-convexos como el formado por la próstata y las vesículas seminales. Dicha metodología de evaluación, basada en un nuevo algoritmo de reconstrucción tridimensional y una nueva métrica de cuantificación, presenta resultados precisos con una gran resolución espacial en un tiempo despreciable frente al tiempo de registro. Esta nueva metodología puede ser una herramienta útil para la comparación de distintos algoritmos de registro deformable orientados a la radioterapia adaptativa en cáncer de próstata. En conclusión, el trabajo realizado en esta tesis doctoral corrobora las hipótesis de investigación postuladas, y pretende servir como cimiento de futuros avances en el procesamiento de imagen médica en los tratamientos de radioterapia adaptativa en cáncer de próstata. Asimismo, se siguen abriendo nuevas líneas de aplicación futura de métodos de procesamiento de imágenes médicas con el fin de mejorar los procesos de radioterapia adaptativa en presencia de cambios de apariencia de los órganos, e incrementar la seguridad del paciente. I.2 Inglés Prostate cancer is the most prevalent cancer amongst men in the Western world and, despite having a relatively high survival rate, is the second leading cause of cancer death in this sector of the population. The treatment of choice against prostate cancer is, in most cases, external beam radiation therapy. The most modern techniques of external radiotherapy, as intensity modulated radiotherapy, allow increasing the dose to the tumor whilst reducing the dose to healthy tissue. However, the location of the target volume varies with the day of treatment, and very small movements of the organs are required to pull out parts of the target volume outside the therapeutic region, or to introduce critical healthy tissues inside. Advanced techniques, such as the image-guided radiotherapy (IGRT), have been developed to avoid this. IGRT is defined by more precise handling of internal movements by adapting treatment planning based on the anatomical information obtained from computed tomography (CT) images prior to the therapy session. Moreover, the adaptive radiotherapy adds dosimetric information of previous fractions to the anatomical information. One of the fundamentals of adaptive radiotherapy is deformable image registration, very useful when modeling the displacements and deformations of the internal organs. However, its use brings new scientific and technological challenges in image processing, mainly associated to the variability of the organs, both in location and appearance. The aim of this thesis is to improve clinical processes of automatic contour delineation and cumulative dose calculation for planning and monitoring of adaptive radiotherapy treatments, based on new methods of CT image processing (1) in the presence of varying contrasts, and (2) rectum appearance changes. It also aims (3) to provide tools for assessing the quality of contours obtained in the case of gross tumor volume (GTV). The main contributions of this PhD thesis are as follows: 1. The adaptation, implementation and evaluation of a registration algorithm based on the optical flow of the image phase as a tool for the calculation of non-rigid transformations in the presence of intensity changes, and its applicability to adaptive radiotherapy treatment in prostate cancer with use of radiological contrast agents. The results demonstrate that the selected algorithm shows better qualitative results in the presence of radiological contrast agents in the urinary bladder, and does not distort the image forcing unrealistic deformations. 2. The definition, development and validation of a new method for masking the contents of the rectum (MER, Spanish acronym), and assessing their impact on the process of adaptive radiotherapy in prostate cancer. The segmentations obtained by the MER for the creation of homogenous masks in the session CT images can improve significantly the results of registration algorithms in the rectal region. Thus, the use of the proposed methodology increases the volume overlap index between manual and automatic contours of the rectum to a value of 89%, close to the results obtained using manual masks for both images. In this way, both the calculation of new contours and the calculation of the accumulated dose can be corrected. 3. The definition of a methodology for assessing the quality of the contours of the GTV, which allows the representation of the spatial distribution of the error, adapting it to non-convex volumes such as that formed by the prostate and seminal vesicles. Said evaluation methodology, based on a new three-dimensional reconstruction algorithm and a new quantification metric, presents accurate results with high spatial resolution in a time negligible compared to the registration time. This new approach may be a useful tool to compare different deformable registration algorithms oriented to adaptive radiotherapy in prostate cancer In conclusion, this PhD thesis corroborates the postulated research hypotheses, and is intended to serve as a foundation for future advances in medical image processing in adaptive radiotherapy treatment in prostate cancer. In addition, it opens new future applications for medical image processing methods aimed at improving the adaptive radiotherapy processes in the presence of organ’s appearance changes, and increase the patient safety.
Resumo:
La consola portátil Nintendo DS es una plataforma de desarrollo muy presente entre la comunidad de desarrolladores independientes, con una extensa y nutrida escena homebrew. Si bien las capacidades 2D de la consola están muy aprovechadas, dado que la mayor parte de los esfuerzos de los creadores amateur están enfocados en este aspecto, el motor 3D de ésta (el que se encarga de representar en pantalla modelos tridimensionales) no lo está de igual manera. Por lo tanto, en este proyecto se tiene en vista determinar las capacidades gráficas de la Nintendo DS. Para ello se ha realizado una biblioteca de funciones en C que permite aprovechar las posibilidades que ofrece la consola en el terreno 3D y que sirve como herramienta para la comunidad homebrew para crear aplicaciones 3D de forma sencilla, dado que se ha diseñado como un sistema modular y accesible. En cuanto al proceso de renderizado se han sacado varias conclusiones. En primer lugar se ha determinado la posibilidad de asignar varias componentes de color a un mismo vértice (color material reactivo a la iluminación, color por vértice directo y color de textura), tanto de forma independiente como simultáneamente, pudiéndose utilizar para aplicar diversos efectos al modelo, como iluminación pre-calculada o simulación de una textura mediante color por vértice, ahorrando en memoria de video. Por otro lado se ha implementado un sistema de renderizado multi-capa, que permite realizar varias pasadas de render, pudiendo, de esta forma, aplicar al modelo una segunda textura mezclada con la principal o realizar un efecto de reflexión esférica. Uno de los principales avances de esta herramienta con respecto a otras existentes se encuentra en el apartado de animación. El renderizador desarrollado permite por un lado animación por transformación, consistente en la animación de mallas o grupos de vértices del modelo mediante el movimiento de una articulación asociada que determina su posición y rotación en cada frame de animación. Por otro lado se ha implementado un sistema de animación por muestreo de vértices mediante el cual se determina la posición de éstos en cada instante de la animación, generando frame a frame las poses que componen el movimiento (siendo este último método necesario cuando no se puede animar una malla por transformación). Un mismo modelo puede contener diferentes esqueletos, animados independientemente entre sí, y cada uno de ellos tener definidas varias costumbres de animación que correspondan a movimientos contextuales diferentes (andar, correr, saltar, etc). Además, el sistema permite extraer cualquier articulación para asociar su transformación a un objeto estático externo y que éste siga el movimiento de la animación, pudiendo así, por ejemplo, equipar un objeto en la mano de un personaje. Finalmente se han implementado varios efectos útiles en la creación de escenas tridimensionales, como el billboarding (tanto esférico como cilíndrico), que restringe la rotación de un modelo para que éste siempre mire a cámara y así poder emular la apariencia de un objeto tridimensional mediante una imagen plana, ahorrando geometría, o emplearlo para realizar efectos de partículas. Por otra parte se ha implementado un sistema de animación de texturas por subimágenes que permite generar efectos de movimiento mediante imágenes, sin necesidad de transformar geometría. ABSTRACT. The Nintendo DS portable console has received great interest within the independent developers’ community, with a huge homebrew scene. The 2D capabilities of this console are well known and used since most efforts of the amateur creators has been focused on this point. However its 3D engine (which handles with the representation of three-dimensional models) is not equally used. Therefore, in this project the main objective is to assess the Nintendo DS graphic capabilities. For this purpose, a library of functions in C programming language has been coded. This library allows the programmer to take advantage of the possibilities that the 3D area brings. This way the library can be used by the homebrew community as a tool to create 3D applications in an easy way, since it has been designed as a modular and accessible system. Regarding the render process, some conclusions have been drawn. First, it is possible to assign several colour components to the same vertex (material colour, reactive to the illumination, colour per vertex and texture colour), independently and simultaneously. This feature can be useful to apply certain effects on the model, such as pre-calculated illumination or the simulation of a texture using colour per vertex, providing video memory saving. Moreover, a multi-layer render system has been implemented. This system allows the programmer to issue several render passes on the same model. This new feature brings the possibility to apply to the model a second texture blended with the main one or simulate a spherical reflection effect. One of the main advances of this tool over existing ones consists of its animation system. The developed renderer includes, on the one hand, transform animation, which consists on animating a mesh or groups of vertices of the model by the movement of an associated joint. This joint determines position and rotation of the mesh at each frame of the animation. On the other hand, this tool also implements an animation system by vertex sampling, where the position of vertices is determined at every instant of the animation, generating the poses that build up the movement (the latter method is mandatory when a mesh cannot be animated by transform). A model can contain multiple skeletons, animated independently, each of them being defined with several animation customs, corresponding to different contextual movements (walk, run, jump, etc). Besides, the system allows extraction of information from any joint in order to associate its transform to a static external object, which will follow the movement of the animation. This way, any object could be equipped, for example, on the hand of a character. Finally, some useful effects for the creation of three-dimensional scenes have been implemented. These effects include billboarding (both spherical and cylindrical), which constraints the rotation of a model so it always looks on the camera's direction. This feature can provide the ability to emulate the appearance of a three-dimensional model through a flat image (saving geometry). It can also be helpful in the implementation of particle effects. Moreover, a texture animation system using sub-images has also been implemented. This system allows the generation of movement by using images as textures, without having to transform geometry.
Resumo:
Este Proyecto de Fin de Carrera presenta un prototipo de aplicación móvil híbrida multi-plataforma para Android y iOS. Las aplicaciones móviles híbridas son una combinación de aplicaciones web móviles y aplicaciones móviles nativas. Se desarrollan parcialmente con tecnologías web y pueden acceder a la capa nativa y sensores del teléfono. Para el usuario se presentan como aplicaciones nativas, ya que se pueden descargar de las tiendas de aplicaciones y son instaladas en el dispositivo. El prototipo consiste en la migración del módulo de noticias financieras de las aplicaciones actuales para móviles de una compañía bancaria reimplementándolo como aplicación híbrida utilizando uno de los entornos de desarrollo disponibles en el mercado para este propósito. El desarrollo de aplicaciones híbridas puede ahorrar tiempo y dinero cuando se pretende alcanzar más de una plataforma móvil. El objetivo es la evaluación de las ventajas e inconvenientes que ofrece el desarrollo de aplicaciones híbridas en términos de reducción de costes, tiempo de desarrollo y resultado final de la aplicación. El proyecto consta de varias fases. Durante la primera fase se realiza un estudio sobre las aplicaciones híbridas que podemos encontrar hoy en día en el mercado utilizando los ejemplos de linkedIn, Facebook y Financial times. Se hace hincapié en las tecnologías utilizadas, uso de la red móvil y problemas encontrados. Posteriormente se realiza una comparación de distintos entornos de desarrollo multi-plataforma para aplicaciones híbridas en términos de la estrategia utilizada, plataformas soportadas, lenguajes de programación, acceso a capacidades nativas de los dispositivos y licencias de uso. Esta primera fase da como resultado la elección del entorno de desarrollo más adecuado a las exigencias del proyecto, que es PhoneGap, y continua con un análisis más detallado de dicho entorno en cuanto a su arquitectura, características y componentes. La siguiente fase comienza con un estudio de las aplicaciones actuales de la compañía para extraer el código fuente necesario y adaptarlo a la arquitectura que tendrá la aplicación. Para la realización del prototipo se hace uso de la característica que ofrece PhoneGap para acceder a la capa nativa del dispositivo, esto es, el uso de plugins. Se diseña y desarrolla un plugin que permite acceder a la capa nativa para cada plataforma. Una vez desarrollado el prototipo para la plataforma Android, se migra y adapta para la plataforma iOS. Por último se hace una evaluación de los prototipos en cuanto a su facilidad y tiempo de desarrollo, rendimiento, funcionalidad y apariencia de la interfaz de usuario. ABSTRACT. This bachelor's thesis presents a prototype of a hybrid cross-platform mobile application for Android and iOS. Hybrid mobile applications are a combination of mobile web and mobile native applications. They are built partially with web technologies and they can also access native features and sensors of the device. For a user, they look like native applications as they are downloaded from the application stores and installed on the device. This prototype consists of the migration of the financial news module of current mobile applications from a financial bank reimplementing them as a hybrid application using one of the frameworks available in the market for that purpose. Development of applications on a hybrid way can help reducing costs and effort when targeting more than one platform. The target of the project is the evaluation of the advantages and disadvantages that hybrid development can offer in terms of reducing costs and efforts and the final result of the application. The project starts with an analysis of successfully released hybrid applications using the examples of linkedIn, Facebook and Financial Times, emphasizing the different used technologies, the transmitted network data and the encountered problems during the development. This analysis is followed by a comparison of most popular hybrid crossplatform development frameworks in terms of the different approaches, supported platforms, programming languages, access to native features and license. This first stage has the outcome of finding the development framework that best fits to the requirements of the project, that is PhoneGap, and continues with a deeper analysis of its architecture, features and components. Next stage analyzes current company's applications to extract the needed source code and adapt it to the architecture of the prototype. For the realization of the application, the feature that PhoneGap offers to access the native layer of the device is used. This feature is called plugin. A custom plugin is designed and developed to access the native layer of each targeted platform. Once the prototype is finished for Android, it is migrated and adapted to the iOS platform. As a final conclusion the prototypes are evaluated in terms of ease and time of development, performance, functionality and look and feel.
Resumo:
A todos nos ocurre que ciertas frases tópicas nos ponen de los nervios. En mi caso particular, mi sistema nervioso tiende a turbarse al oír expresiones tales como "todo está ya inventado", "en el fondo, las cosas son siempre iguales", o "la historia siempre se repite", que pertenecen a la familia de latiguillos al servicio de la idea de que nunca hay cambios,sino sólo apariencia de cambios.
Resumo:
Como en toda reflexión humana desde el inicio de la modernidad, en la arquitectura se entrelazan las aspiraciones de racionalidad con las contaminaciones, errores e interferencias aleatorias propias de cualquier contexto real. De un lado, los modelos de pensamiento y control describen los hechos y los procedimientos, amplificando las pautas de una explicación coherente de los mismos; de otro, el contacto continuo con entornos reales distorsiona cualquier sistema de leyes internas, aumenta la complejidad de los modelos y abre la vía a la indeterminación y la aleatoriedad tanto en la producción como en el pensamiento. Este escenario de conflicto entre el orden abstracto y la singularidad de cada circunstancia real se reproduce reiteradamente en los problemas arquitectónicos, provocando que los mensajes no sigan pautas lineales. Por el contrario, estos se difunden siguiendo un modelo más parecido al de las ondas, en el que las respuestas obtenidas no son unívocas sino múltiples y deformadas, alteradas por las superposiciones y contaminaciones derivadas de este escenario. En la década de 1920 el movimiento Surrealista había detectado no solo la presencia de este conflicto, sino también su condición estructural en la naturaleza de lo contemporáneo y su permanente dilema entre la proyección hacia un futuro utópico predicado en el progreso tecnológico y el peso de la memoria de un pasado igualmente idealizado por la nostalgia. Un conflicto definitivamente magnificado por la Gran Guerra, capaz de poner en duda la existencia incluso de un futuro. La razón ilustrada y el desarrollo tecnológico se ven profundamente contaminados por la destrucción irracional y la mortal maquinaria bélica. Sus imágenes y experiencia directa constituyen, de hecho, uno de los detonantes de la reacción surrealista ante el ‘statu quo’, exacerbada por hechos circustanciales que se tornan intensamente significativos, como la prematura muerte de Apollinaire como consecuencia precisamente de las heridas recibidas en la guerra. “If reality’, Aragon writes in 1924,’ is the apparent absence of contradiction’, a construct that effaces conflict, then ‘the marvellous is the eruption of contradiction in the real’, an eruption that exposes this construct as such.” El shock traumático de la confrontación y las imágenes de una destrucción ajena a cualquier razón están en el origen de la pregunta que formula Aragon: enfrentados con lo absurdo e inexplicable de los hechos, de la destrucción irracional, debe existir necesariamente otro nivel de conciencia y comprensión bajo la apariencia de estabilidad y normalidad que facilite otra descripción de la realidad, por anormal e irracional que esta sea. Las actividades surrealistas en el París de entreguerras se centraron en el potencial de tales contradicciones, las cuales atravesaban, de medio a medio, las certezas de un futuro predicado en la razón objetiva y el avance tecnológico. Y, a pesar de su imprecisa relación con la arquitectura –no existe, de hecho, una arquitectura que pueda calificarse como ‘surrealista’-, identificaron en la construcción misma de la ciudad y de su experiencia diaria, a un tiempo rutinaria y desestabilizadora, los síntomas de tales conflictos.
Resumo:
La exigente dinámica del concurso de arquitectura ha permitido integrar las investigaciones gráficas de territorios fronterizos al ensimismado mundo arquitectónico. Algunos autores plásticos han encontrado en este formato un nuevo escenario que trasciende las limitaciones de su soporte habitual, desde el que dotar a su andamiaje teórico de una dimensión urbana. En esta comunicación se pretende analizar esta enriquecedora alianza establecida entre diversas corrientes artísticas y el proyecto gráfico presentado en los concursos. Para ello se han escogido cuatro proyectos no realizados que ilustraban las emergentes teorías de las vanguardias europeas del siglo XX. En el proyecto presentado en 1924 para una galería comercial con café-restaurante en La Haya, Theo van Doesburg y Cornelis van Eesteren ejemplarizaban las premisas del neoplasticismo. Con las variantes axonometrías se atisban el principio astático, y la coloración selectiva de planos que desvela la armonía de las relaciones arquitectónicas. Naum Gabo entregó en 1931 su propuesta para el Palacio de los Soviets en Moscú, donde pone en juego las sinergias compositivas de sus esculturas constructivistas en la narración gráfica, siguiendo su sistema estereométrico. Dentro del panorama nacional, destaca el concurso para el Monumento a José Batlle en Montevideo, presentado por Jorge Oteiza y Roberto Puig en 1958. Oteiza pretendía mostrar la desocupación del espacio por medio de una esencialidad geométrica, por lo que se sirve de alzados lejanos de apariencia analítica. Finalmente se escoge la propuesta presentada en 1961 por Pablo Palazuelo junto a su hermano Juan, Fernando Aguirre y Ramón Melgarejo para un hotel en Madrid. Intervino en la definición de la envolvente con un intenso trabajo en planta y en la representación perceptiva final. Tomando como base los trabajos de los referentes internacionales, se pretende desvelar las conexiones ocultas que se establecen con dos de las figuras más importantes del ámbito artístico español del pasado siglo. Para esta investigación se emplearán los fondos gráficos inéditos que he estado catalogando para la Fundación Pablo Palazuelo.