867 resultados para Visión del intérprete
Resumo:
El texto plantea la visión del pabellón de Barcelona como un organismo evolutivo a partir de las opiniones y obras de los arquitectos seleccionados.
Resumo:
La tesis destaca la influencia que ejerció la teoría, las técnicas y la metodología de proyecto de los principales tratados de la época renacentista en la concepción, diseño y realización de algunos de los más importantes jardines de la época. Los tratados de Vitruvio, Alberti, Filarete, Di Giorgio, Serlio, Palladio, Colonna y Del Riccio establecen una nueva estética y una nueva visión del mundo, basadas en la geometría elemental y en los números simples. En la Grecia antigua, Platón y Pitágoras intuyeron la necesidad existencial del hombre de apoyarse en unas leyes seguras de orden superior. Sus teorías sobre las leyes del Universo son retomadas y aplicadas en el arte y en el jardín por Vitruvio y por los tratadistas del Renacimiento. Según los tratadistas, la estética es el núcleo generador del que se activan la información y las leyes hacia todos los campos del conocimiento y de la vida social y, por lo tanto, la finalidad de los tratados es buscar, a través de un procedimiento científico y racional, las reglas de la belleza. Las leyes estéticas formuladas por los tratadistas examinados se aplican con el mismo rigor y respeto ya sea al paisaje que al jardín, exaltando el elemento natural al igual que el construido (la ciudad y la arquitectura). De los tratados renacentistas se han extraídos términos y conceptos que ayudan a revalorizar, reinterpretar e integrar en el debate los temas del paisaje y del jardín. La tesis sostiene que: 1) una idea moderna de jardín se tiene que fundar en la historia; 2) que la historia es indispensable incluso para enfrentar el problema del mantenimiento y de la restauración de los jardines históricos; 3) que la teoría y las ideas que tienen valor, así como nos enseña Alberti, producen obras que también tienen valor; 4) la influencia de la estética de los tratadistas se encuentra incluso en algunos importantes jardines de época moderna y contemporánea. El capítulo 1 contiene la definición de tratado y la concepción estética del Renacimiento, analizada por medio de: a) la idea de ciencia y b) a través de las pinturas. Los capítulos 2 y 3 contienen respectivamente los principios teóricos de los tratados y el diseño, la metodología, las técnicas constructivas y los métodos de representación del proyecto según los tratadistas. Estos capítulos resultan propedéuticos de los capítulos siguientes por proporcionar el instrumento de lectura e interpretación de los jardines renacentistas y modernos. El capítulo 4 destaca la gran influencia de los tratados sobre las villas y jardines renacentistas y describe sus elementos. El último capítulo, el quinto, contiene un análisis de algunos jardines modernos. Entre ellos: Chiswick, la Villa “I Tatti”, Sutton Place, y la Villa “Il Roseto” que renuevan y prosiguen, en nuestra opinión, la lección de los tratadistas. El primer anexo contiene la propuesta de líneas de investigación que surgen a la luz de la tesis, y el segundo anexo contiene las noticias biográficas de los tratadistas examinados. ABSTRACT The thesis investigates the influence exercised by the theory, techniques and project methodology contained in the most relevant essays on art and architecture of the Renaissance on the concept, design and making of some of the most important gardens of that time. The essays of Vitruvius, Alberti, Filarete, Di Giorgio, Serlio, Palladio, Colonna y Del Riccio established a new concept of aesthetics and a vision of the world based on basic geometry and simple numbers. In ancient Greece, Plato and Pythagoras understood that humans needed “superior laws” to anchor their existences. Their theories on laws of the Universe were adopted and applied in art and gardening by Vitruvius and Renaissance essays authors. According to the authors of these essays, aesthetics represents the core generating information and laws that branch out toward all the fields of knowledge and social life. Therefore, the purpose of art and architecture essays consists in exploring, through a scientific and rational process, the rules of beauty. The laws of aesthetics proposed by the authors apply to landscaping and gardening with the same rigor and exalt the natural component as much as the artificial one (city and architecture). Several terms and concepts are also extracted that, despite their age, still help us to understand and enrich the contemporary debate revolving around landscaping and gardening. The thesis argues that: 1) the modern idea of gardening must be based on history; 2) history is fundamental even to address the topics of maintenance and restoration of historical gardens; 3) like Leon Battista Alberti maintains, valid theory and ideas produce valuable works; 4) the influence played by aesthetics on authors can be found in many important modern and contemporary gardens. Chapter 1 contains the definition of essay and of the Renaissance concept of aesthetics, analyzed by: a) the idea of science and 2) the analysis of some paintings of the period. Chapters 2 and 3 discuss respectively the theoretical principles of the essays and the design, methodology, construction techniques and the methods of representation of the project according to the authors. These chapters are preparatory toward the following chapters and provide us with the keys necessary to read and interpret Renaissance and modern gardens. Chapter 4 highlights the great influence exercised by those authors on the planning of important villas and gardens from the Renaissance while describing their elements. The 5th and final chapter analyzes some modern gardens among which Chiswick, Villa “I Tatti”, Sutton Place, Villa “Il Roseto”. These villas renew and in our opinion carry on the lesson of the essays written in the Renaissance. The first addendum suggests future lines of research derived from the thesis, while the second addendum contains biographical information regarding the authors examined.
Resumo:
Dentro del objetivo común que persigue alcanzar una estabilidad social y una economía de éxito sostenible en el actual e incierto contexto mundial, el pronóstico es que la demanda de energía siga aumentando y que la generación mundial de electricidad se duplique entre los años 2005 y 2030. En este escenario, los combustibles fósiles podrían mantener una contribución muy significativa al mix energético posiblemente hasta el año 2050, participando del mercado de generación de energía eléctrica mundial en aproximadamente un 70% y siendo base de la generación de energía eléctrica europea en un 60%. El carbón sin duda seguirá teniendo una contribución clave. Este incremento en la demanda energética y energía eléctrica, en el consumo de carbón y de combustibles fósiles en general, sin duda tendrá impacto sobre los niveles de concentración de CO2 a nivel global en los diferentes escenarios evaluados, con un fatal pronóstico de triplicar, si no se contiene de alguna manera su emisión, los niveles actuales de concentración de CO2 hasta valores próximos a 1.200 ppm para finales de este siglo XXI. El Protocolo de Kyoto, adoptado en 1997, fue el primer tratado de responsabilidad a nivel mundial para el monitoreo y limitación de las emisiones de CO2, realizando una primera aproximación hasta el año 2012 y tomando como valores de referencia los referidos a los niveles de concentración de gases de efecto invernadero registrados en 1990. Algunos de los principales países emisores de CO2 como USA y China no ratificaron los objetivos de límite de emisión y niveles de reducción de CO2, y sin embargo están tomando sus propias acciones y medidas en paralelo para reducir sus emisiones. Los procesos de combustión más eficientes y con menor consumo de combustible, proporcionan una significativa contribución del sector de generación eléctrica a la reducción de los niveles de concentración de CO2, pero podría no ser suficiente. Tecnologías de captura y almacenamiento de carbono (CCS, del inglés Carbon Capture and Storage) han comenzado a ganar más importancia desde principios de esta década, se ha intensificado la investigación y proliferado la creación de fondos que impulsen su desarrollo y estimulen su despliegue. Tras los primeros proyectos de investigación básica y ensayos a pequeña escala, casi embrionaria, tres procesos de captura se posicionan como los más viables actualmente, con potencial para alcanzar niveles de reducción de CO2 del 90%, mediante su aplicación en centrales de carbón para generación eléctrica. En referencia al último paso del esquema CCS en el proceso de reducción de las ingentes cantidades de CO2 que habría que eliminar de la atmósfera, dos opciones deberían ser consideradas: la reutilización (EOR y EGR) y el almacenamiento. El presente artículo evalúa el estado de las diferentes tecnologías de captura de CO2, su disponibilidad, su desarrollo y su coste de instalación estimado. Se incorpora un pequeño análisis de los costes de operación y varias extrapolaciones, dado que solo están disponibles algunos de estos datos hasta la fecha. Además este artículo muestra los principales hallazgos y los potenciales de reducción de emisiones de CO2 en la utilización del carbón para generar electricidad y proporciona una visión del desarrollo y despliegue actual de la tecnología. Se realiza una revisión de las iniciativas existentes a nivel mundial mediante proyectos de demostración orientados a la viabilidad comercial del esquema CCS para el período 2020 ? 2030. Se evalúan los diferentes programas en curso y sus avances, como el programa de UK, el EEPR (European Energy Program for Recovery), etc. Las principales fuentes empleadas en la elaboración de este artículo son el DOE, NETL, MIT, EPRI, Centros e Institutos de Investigación, Universidades Europeas, Administraciones Públicas y Agencias Internacionales, suministradores de tecnología crítica, compañías eléctricas (utilities) y empresas tecnológicas.
Resumo:
La visión del riesgo es muy importante a la hora de diseñar y construir estructuras. Sobre todo en presencia de catástrofes naturales. Esta tesis presenta las consideraciones y recomendaciones a tener en cuenta para proyectar estructuras en zonas con riesgo de tsunami, tras haber estudiado todos los riesgos y soluciones posibles mediante tres técnicas diferentes. Esto se ha obtenido aplicando el método LOGRO (Líder de Organización de Gestión de Riesgos y Oportunidades). Se puede pensar que la única solución posible ante esta catástrofe es no construir en zonas vulnerables, pero no es posible. Hay que tener en cuenta que no todos los tsunamis son de la misma magnitud e intensidad y este trabajo contempla todos ellos con distintos niveles de actuación para cada situación. Por otro lado, existen lugares costeros muy urbanizados en los que sería imposible fomentar la emigración, y zonas turísticas donde lo que prima es la cercanía a la costa. Las resultados obtenidos de esta investigación tienen como objetivo reducir el riesgo vinculado al tsunami, minimizando tanto probabilidades de ocurrencia como consecuencias. The hazard view is very important when designing and building structures, mainly, under natural disasters. This thesis presents the considerations and recommendations to take into account to project structures in tsunami prone areas after having studied all the hazards and possible solutions through three different techniques. This has been obtained using LOGRO´s method. It is easy to think that the only possible solution to this disaster is not to build in vulnerable areas, but it is not like this. It has to be taken into account that not all tsunamis are of the same magnitude neither of the same intensity and this work considers all of them with different performance levels for each situation. On the other hand, there are very developed coastal places where it would be impossible to encourage emigration, and touristic areas where the closeness to the coast is what comes first. The aim of the results obtained in this research is to reduce the tsunami hazard minimising not only probabilities but also consequences.
Resumo:
Esta tesis se ha realizado en el contexto del proyecto UPMSat-2, que es un microsatélite diseñado, construido y operado por el Instituto Universitario de Microgravedad "Ignacio Da Riva" (IDR / UPM) de la Universidad Politécnica de Madrid. Aplicación de la metodología Ingeniería Concurrente (Concurrent Engineering: CE) en el marco de la aplicación de diseño multidisciplinar (Multidisciplinary Design Optimization: MDO) es uno de los principales objetivos del presente trabajo. En los últimos años, ha habido un interés continuo en la participación de los grupos de investigación de las universidades en los estudios de la tecnología espacial a través de sus propios microsatélites. La participación en este tipo de proyectos tiene algunos desafíos inherentes, tales como presupuestos y servicios limitados. Además, debido al hecho de que el objetivo principal de estos proyectos es fundamentalmente educativo, por lo general hay incertidumbres en cuanto a su misión en órbita y cargas útiles en las primeras fases del proyecto. Por otro lado, existen limitaciones predeterminadas para sus presupuestos de masa, volumen y energía, debido al hecho de que la mayoría de ellos están considerados como una carga útil auxiliar para el lanzamiento. De este modo, el costo de lanzamiento se reduce considerablemente. En este contexto, el subsistema estructural del satélite es uno de los más afectados por las restricciones que impone el lanzador. Esto puede afectar a diferentes aspectos, incluyendo las dimensiones, la resistencia y los requisitos de frecuencia. En la primera parte de esta tesis, la atención se centra en el desarrollo de una herramienta de diseño del subsistema estructural que evalúa, no sólo las propiedades de la estructura primaria como variables, sino también algunas variables de nivel de sistema del satélite, como la masa de la carga útil y la masa y las dimensiones extremas de satélite. Este enfoque permite que el equipo de diseño obtenga una mejor visión del diseño en un espacio de diseño extendido. La herramienta de diseño estructural se basa en las fórmulas y los supuestos apropiados, incluyendo los modelos estáticos y dinámicos del satélite. Un algoritmo genético (Genetic Algorithm: GA) se aplica al espacio de diseño para optimizaciones de objetivo único y también multiobjetivo. El resultado de la optimización multiobjetivo es un Pareto-optimal basado en dos objetivo, la masa total de satélites mínimo y el máximo presupuesto de masa de carga útil. Por otro lado, la aplicación de los microsatélites en misiones espaciales es de interés por su menor coste y tiempo de desarrollo. La gran necesidad de las aplicaciones de teledetección es un fuerte impulsor de su popularidad en este tipo de misiones espaciales. Las misiones de tele-observación por satélite son esenciales para la investigación de los recursos de la tierra y el medio ambiente. En estas misiones existen interrelaciones estrechas entre diferentes requisitos como la altitud orbital, tiempo de revisita, el ciclo de vida y la resolución. Además, todos estos requisitos puede afectar a toda las características de diseño. Durante los últimos años la aplicación de CE en las misiones espaciales ha demostrado una gran ventaja para llegar al diseño óptimo, teniendo en cuenta tanto el rendimiento y el costo del proyecto. Un ejemplo bien conocido de la aplicación de CE es la CDF (Facilidad Diseño Concurrente) de la ESA (Agencia Espacial Europea). Está claro que para los proyectos de microsatélites universitarios tener o desarrollar una instalación de este tipo parece estar más allá de las capacidades del proyecto. Sin embargo, la práctica de la CE a cualquier escala puede ser beneficiosa para los microsatélites universitarios también. En la segunda parte de esta tesis, la atención se centra en el desarrollo de una estructura de optimización de diseño multidisciplinar (Multidisciplinary Design Optimization: MDO) aplicable a la fase de diseño conceptual de microsatélites de teledetección. Este enfoque permite que el equipo de diseño conozca la interacción entre las diferentes variables de diseño. El esquema MDO presentado no sólo incluye variables de nivel de sistema, tales como la masa total del satélite y la potencia total, sino también los requisitos de la misión como la resolución y tiempo de revisita. El proceso de diseño de microsatélites se divide en tres disciplinas; a) diseño de órbita, b) diseño de carga útil y c) diseño de plataforma. En primer lugar, se calculan diferentes parámetros de misión para un rango práctico de órbitas helio-síncronas (sun-synchronous orbits: SS-Os). Luego, según los parámetros orbitales y los datos de un instrumento como referencia, se calcula la masa y la potencia de la carga útil. El diseño de la plataforma del satélite se estima a partir de los datos de la masa y potencia de los diferentes subsistemas utilizando relaciones empíricas de diseño. El diseño del subsistema de potencia se realiza teniendo en cuenta variables de diseño más detalladas, como el escenario de la misión y diferentes tipos de células solares y baterías. El escenario se selecciona, de modo de obtener una banda de cobertura sobre la superficie terrestre paralelo al Ecuador después de cada intervalo de revisita. Con el objetivo de evaluar las interrelaciones entre las diferentes variables en el espacio de diseño, todas las disciplinas de diseño mencionados se combinan en un código unificado. Por último, una forma básica de MDO se ajusta a la herramienta de diseño de sistema de satélite. La optimización del diseño se realiza por medio de un GA con el único objetivo de minimizar la masa total de microsatélite. Según los resultados obtenidos de la aplicación del MDO, existen diferentes puntos de diseños óptimos, pero con diferentes variables de misión. Este análisis demuestra la aplicabilidad de MDO para los estudios de ingeniería de sistema en la fase de diseño conceptual en este tipo de proyectos. La principal conclusión de esta tesis, es que el diseño clásico de los satélites que por lo general comienza con la definición de la misión y la carga útil no es necesariamente la mejor metodología para todos los proyectos de satélites. Un microsatélite universitario, es un ejemplo de este tipo de proyectos. Por eso, se han desarrollado un conjunto de herramientas de diseño para encarar los estudios de la fase inicial de diseño. Este conjunto de herramientas incluye diferentes disciplinas de diseño centrados en el subsistema estructural y teniendo en cuenta una carga útil desconocida a priori. Los resultados demuestran que la mínima masa total del satélite y la máxima masa disponible para una carga útil desconocida a priori, son objetivos conflictivos. En este contexto para encontrar un Pareto-optimal se ha aplicado una optimización multiobjetivo. Según los resultados se concluye que la selección de la masa total por satélite en el rango de 40-60 kg puede considerarse como óptima para un proyecto de microsatélites universitario con carga útil desconocida a priori. También la metodología CE se ha aplicado al proceso de diseño conceptual de microsatélites de teledetección. Los resultados de la aplicación del CE proporcionan una clara comprensión de la interacción entre los requisitos de diseño de sistemas de satélites, tales como la masa total del microsatélite y la potencia y los requisitos de la misión como la resolución y el tiempo de revisita. La aplicación de MDO se hace con la minimización de la masa total de microsatélite. Los resultados de la aplicación de MDO aclaran la relación clara entre los diferentes requisitos de diseño del sistema y de misión, así como que permiten seleccionar las líneas de base para el diseño óptimo con el objetivo seleccionado en las primeras fase de diseño. ABSTRACT This thesis is done in the context of UPMSat-2 project, which is a microsatellite under design and manufacturing at the Instituto Universitario de Microgravedad “Ignacio Da Riva” (IDR/UPM) of the Universidad Politécnica de Madrid. Application of Concurrent Engineering (CE) methodology in the framework of Multidisciplinary Design application (MDO) is one of the main objectives of the present work. In recent years, there has been continuing interest in the participation of university research groups in space technology studies by means of their own microsatellites. The involvement in such projects has some inherent challenges, such as limited budget and facilities. Also, due to the fact that the main objective of these projects is for educational purposes, usually there are uncertainties regarding their in orbit mission and scientific payloads at the early phases of the project. On the other hand, there are predetermined limitations for their mass and volume budgets owing to the fact that most of them are launched as an auxiliary payload in which the launch cost is reduced considerably. The satellite structure subsystem is the one which is most affected by the launcher constraints. This can affect different aspects, including dimensions, strength and frequency requirements. In the first part of this thesis, the main focus is on developing a structural design sizing tool containing not only the primary structures properties as variables but also the satellite system level variables such as payload mass budget and satellite total mass and dimensions. This approach enables the design team to obtain better insight into the design in an extended design envelope. The structural design sizing tool is based on the analytical structural design formulas and appropriate assumptions including both static and dynamic models of the satellite. A Genetic Algorithm (GA) is applied to the design space for both single and multiobejective optimizations. The result of the multiobjective optimization is a Pareto-optimal based on two objectives, minimum satellite total mass and maximum payload mass budget. On the other hand, the application of the microsatellites is of interest for their less cost and response time. The high need for the remote sensing applications is a strong driver of their popularity in space missions. The satellite remote sensing missions are essential for long term research around the condition of the earth resources and environment. In remote sensing missions there are tight interrelations between different requirements such as orbital altitude, revisit time, mission cycle life and spatial resolution. Also, all of these requirements can affect the whole design characteristics. During the last years application of the CE in the space missions has demonstrated a great advantage to reach the optimum design base lines considering both the performance and the cost of the project. A well-known example of CE application is ESA (European Space Agency) CDF (Concurrent Design Facility). It is clear that for the university-class microsatellite projects having or developing such a facility seems beyond the project capabilities. Nevertheless practicing CE at any scale can be beneficiary for the university-class microsatellite projects. In the second part of this thesis, the main focus is on developing a MDO framework applicable to the conceptual design phase of the remote sensing microsatellites. This approach enables the design team to evaluate the interaction between the different system design variables. The presented MDO framework contains not only the system level variables such as the satellite total mass and total power, but also the mission requirements like the spatial resolution and the revisit time. The microsatellite sizing process is divided into the three major design disciplines; a) orbit design, b) payload sizing and c) bus sizing. First, different mission parameters for a practical range of sun-synchronous orbits (SS-Os) are calculated. Then, according to the orbital parameters and a reference remote sensing instrument, mass and power of the payload are calculated. Satellite bus sizing is done based on mass and power calculation of the different subsystems using design estimation relationships. In the satellite bus sizing, the power subsystem design is realized by considering more detailed design variables including a mission scenario and different types of solar cells and batteries. The mission scenario is selected in order to obtain a coverage belt on the earth surface parallel to the earth equatorial after each revisit time. In order to evaluate the interrelations between the different variables inside the design space all the mentioned design disciplines are combined in a unified code. The integrated satellite system sizing tool developed in this section is considered as an application of the CE to the conceptual design of the remote sensing microsatellite projects. Finally, in order to apply the MDO methodology to the design problem, a basic MDO framework is adjusted to the developed satellite system design tool. Design optimization is done by means of a GA single objective algorithm with the objective function as minimizing the microsatellite total mass. According to the results of MDO application, there exist different optimum design points all with the minimum satellite total mass but with different mission variables. This output demonstrates the successful applicability of MDO approach for system engineering trade-off studies at the conceptual design phase of the design in such projects. The main conclusion of this thesis is that the classical design approach for the satellite design which usually starts with the mission and payload definition is not necessarily the best approach for all of the satellite projects. The university-class microsatellite is an example for such projects. Due to this fact an integrated satellite sizing tool including different design disciplines focusing on the structural subsystem and considering unknown payload is developed. According to the results the satellite total mass and available mass for the unknown payload are conflictive objectives. In order to find the Pareto-optimal a multiobjective GA optimization is conducted. Based on the optimization results it is concluded that selecting the satellite total mass in the range of 40-60 kg can be considered as an optimum approach for a university-class microsatellite project with unknown payload(s). Also, the CE methodology is applied to the remote sensing microsatellites conceptual design process. The results of CE application provide a clear understanding of the interaction between satellite system design requirements such as satellite total mass and power and the satellite mission variables such as revisit time and spatial resolution. The MDO application is done with the total mass minimization of a remote sensing satellite. The results from the MDO application clarify the unclear relationship between different system and mission design variables as well as the optimum design base lines according to the selected objective during the initial design phases.
Resumo:
Nowadays, we can send audio on the Internet for multiples uses like telephony, broadcast audio or teleconferencing. The issue comes when you need to synchronize the sound from different sources because the network where we are going to work could lose packets and introduce delay in the delivery. This can also come because the sound cards could be work in different speeds. In this project, we will work with two computers emitting sound (one will simulate the left channel (mono) of a stereo signal, and the other the right channel) and connected with a third computer by a TCP network. The last computer must get the sound from both computers and reproduce it in a speaker properly (without delay). So, basically, the main goal of the project is to synchronize multi-track sound over a network. TCP networks introduce latency into data transfers. Streaming audio suffers from two problems: a delay and an offset between the channels. This project explores the causes of latency, investigates the affect of the inter-channel offset and proposes a solution to synchronize the received channels. In conclusion, a good synchronization of the sound is required in a time when several audio applications are being developed. When two devices are ready to send audio over a network, this multi-track sound will arrive at the third computer with an offset giving a negative effect to the listener. This project has dealt with this offset achieving a good synchronization of the multitrack sound getting a good effect on the listener. This was achieved thanks to the division of the project into several steps having constantly a good vision of the problem, a good scalability and having controlled the latency at all times. As we can see in the chapter 4 of the project, a lack of synchronization over c. 100μs is audible to the listener. RESUMEN. A día de hoy, podemos transmitir audio a través de Internet por varios motivos como pueden ser: una llamada telefónica, una emisión de audio o una teleconferencia. El problema viene cuando necesitas sincronizar ese sonido producido por los diferentes orígenes ya que la red a la que nos vamos a conectar puede perder los paquetes y/o introducir un retardo en las entregas de los mismos. Así mismo, estos retardos también pueden venir producidos por las diferentes velocidades a las que trabajan las tarjetas de sonido de cada dispositivo. En este proyecto, se ha trabajado con dos ordenadores emitiendo sonido de manera intermitente (uno se encargará de simular el canal izquierdo (mono) de la señal estéreo emitida, y el otro del canal derecho), estando conectados a través de una red TCP a un tercer ordenador, el cual debe recibir el sonido y reproducirlo en unos altavoces adecuadamente y sin retardo (deberá juntar los dos canales y reproducirlo como si de estéreo de tratara). Así, el objetivo principal de este proyecto es el de encontrar la manera de sincronizar el sonido producido por los dos ordenadores y escuchar el conjunto en unos altavoces finales. Las redes TCP introducen latencia en la transferencia de datos. El streaming de audio emitido a través de una red de este tipo puede sufrir dos grandes contratiempos: retardo y offset, los dos existentes en las comunicaciones entre ambos canales. Este proyecto se centra en las causas de ese retardo, investiga el efecto que provoca el offset entre ambos canales y propone una solución para sincronizar los canales en el dispositivo receptor. Para terminar, una buena sincronización del sonido es requerida en una época donde las aplicaciones de audio se están desarrollando continuamente. Cuando los dos dispositivos estén preparados para enviar audio a través de la red, la señal de sonido multi-canal llegará al tercer ordenador con un offset añadido, por lo que resultará en una mala experiencia en la escucha final. En este proyecto se ha tenido que lidiar con ese offset mencionado anteriormente y se ha conseguido una buena sincronización del sonido multi-canal obteniendo un buen efecto en la escucha final. Esto ha sido posible gracias a una división del proyecto en diversas etapas que proporcionaban la facilidad de poder solucionar los errores en cada paso dando una importante visión del problema y teniendo controlada la latencia en todo momento. Como se puede ver en el capítulo 4 del proyecto, la falta de sincronización sobre una diferencia de 100μs entre dos canales (offset) empieza a ser audible en la escucha final.
Resumo:
La interoperabilidad o habilidad para intercambiar información entre sistemas informáticos es una cuestión de gran importancia en la informática médica. La interoperabilidad influye directamente en la calidad de los sistemas médicos existentes en la práctica clínica, ya que permite que la información se trate de manera eficiente y consistente. Para la comunicación entre sistemas informáticos heterogéneos se necesitan terminologías o diccionarios que representen e identifiquen conceptos médicos de forma única, sin importar el idioma o la forma lingüística en la que aparezcan. Estas terminologías permiten a los sistemas informáticos tener la misma visión del mundo y que la información intercambiada sea entendible. Actualmente, los esfuerzos para la adopción de estas terminologías en la práctica clínica recaen en los profesionales del dominio médico. Los profesionales son los encargados de reconocer conceptos médicos manualmente en documentos del área de la medicina y anotarlos con el código del concepto asociado en la terminología. No existe ningún método automático que permita el reconocimiento de conceptos de un determinado dominio, como por ejemplo las enfermedades, y que posteriormente encuentre el concepto asociado dentro de una terminología con un grado de precisión suficientemente elevado para que pueda ser adoptado en la práctica clínica. En esta tesis de máster se propone un nuevo método para el reconocimiento de enfermedades en fichas técnicas de medicamentos y su posterior mapeo con la terminología médica SNOMED-CT en español. El método utiliza dos nuevas técnicas propuestas en la tesis para cada fase. La nueva técnica para el reconocimiento de enfermedades propuesta está basada en reglas y en diccionarios especializados en medicina. La nueva técnica de mapeo está basada en la generación de las posibles combinaciones lingüísticas en las que puede aparecer la enfermedad para realizar comparaciones exactas de palabras, utilizando las funciones sintácticas de las palabras como guía. El método propuesto se centra en la identificación de enfermedades dentro de la sección de indicaciones terapéuticas de las fichas técnicas de medicamentos.
Resumo:
El principal objetivo de este trabajo es proporcionar una solución en tiempo real basada en visión estéreo o monocular precisa y robusta para que un vehículo aéreo no tripulado (UAV) sea autónomo en varios tipos de aplicaciones UAV, especialmente en entornos abarrotados sin señal GPS. Este trabajo principalmente consiste en tres temas de investigación de UAV basados en técnicas de visión por computador: (I) visual tracking, proporciona soluciones efectivas para localizar visualmente objetos de interés estáticos o en movimiento durante el tiempo que dura el vuelo del UAV mediante una aproximación adaptativa online y una estrategia de múltiple resolución, de este modo superamos los problemas generados por las diferentes situaciones desafiantes, tales como cambios significativos de aspecto, iluminación del entorno variante, fondo del tracking embarullado, oclusión parcial o total de objetos, variaciones rápidas de posición y vibraciones mecánicas a bordo. La solución ha sido utilizada en aterrizajes autónomos, inspección de plataformas mar adentro o tracking de aviones en pleno vuelo para su detección y evasión; (II) odometría visual: proporciona una solución eficiente al UAV para estimar la posición con 6 grados de libertad (6D) usando únicamente la entrada de una cámara estéreo a bordo del UAV. Un método Semi-Global Blocking Matching (SGBM) eficiente basado en una estrategia grueso-a-fino ha sido implementada para una rápida y profunda estimación del plano. Además, la solución toma provecho eficazmente de la información 2D y 3D para estimar la posición 6D, resolviendo de esta manera la limitación de un punto de referencia fijo en la cámara estéreo. Una robusta aproximación volumétrica de mapping basada en el framework Octomap ha sido utilizada para reconstruir entornos cerrados y al aire libre bastante abarrotados en 3D con memoria y errores correlacionados espacialmente o temporalmente; (III) visual control, ofrece soluciones de control prácticas para la navegación de un UAV usando Fuzzy Logic Controller (FLC) con la estimación visual. Y el framework de Cross-Entropy Optimization (CEO) ha sido usado para optimizar el factor de escala y la función de pertenencia en FLC. Todas las soluciones basadas en visión en este trabajo han sido probadas en test reales. Y los conjuntos de datos de imágenes reales grabados en estos test o disponibles para la comunidad pública han sido utilizados para evaluar el rendimiento de estas soluciones basadas en visión con ground truth. Además, las soluciones de visión presentadas han sido comparadas con algoritmos de visión del estado del arte. Los test reales y los resultados de evaluación muestran que las soluciones basadas en visión proporcionadas han obtenido rendimientos en tiempo real precisos y robustos, o han alcanzado un mejor rendimiento que aquellos algoritmos del estado del arte. La estimación basada en visión ha ganado un rol muy importante en controlar un UAV típico para alcanzar autonomía en aplicaciones UAV. ABSTRACT The main objective of this dissertation is providing real-time accurate robust monocular or stereo vision-based solution for Unmanned Aerial Vehicle (UAV) to achieve the autonomy in various types of UAV applications, especially in GPS-denied dynamic cluttered environments. This dissertation mainly consists of three UAV research topics based on computer vision technique: (I) visual tracking, it supplys effective solutions to visually locate interesting static or moving object over time during UAV flight with on-line adaptivity approach and multiple-resolution strategy, thereby overcoming the problems generated by the different challenging situations, such as significant appearance change, variant surrounding illumination, cluttered tracking background, partial or full object occlusion, rapid pose variation and onboard mechanical vibration. The solutions have been utilized in autonomous landing, offshore floating platform inspection and midair aircraft tracking for sense-and-avoid; (II) visual odometry: it provides the efficient solution for UAV to estimate the 6 Degree-of-freedom (6D) pose using only the input of stereo camera onboard UAV. An efficient Semi-Global Blocking Matching (SGBM) method based on a coarse-to-fine strategy has been implemented for fast depth map estimation. In addition, the solution effectively takes advantage of both 2D and 3D information to estimate the 6D pose, thereby solving the limitation of a fixed small baseline in the stereo camera. A robust volumetric occupancy mapping approach based on the Octomap framework has been utilized to reconstruct indoor and outdoor large-scale cluttered environments in 3D with less temporally or spatially correlated measurement errors and memory; (III) visual control, it offers practical control solutions to navigate UAV using Fuzzy Logic Controller (FLC) with the visual estimation. And the Cross-Entropy Optimization (CEO) framework has been used to optimize the scaling factor and the membership function in FLC. All the vision-based solutions in this dissertation have been tested in real tests. And the real image datasets recorded from these tests or available from public community have been utilized to evaluate the performance of these vision-based solutions with ground truth. Additionally, the presented vision solutions have compared with the state-of-art visual algorithms. Real tests and evaluation results show that the provided vision-based solutions have obtained real-time accurate robust performances, or gained better performance than those state-of-art visual algorithms. The vision-based estimation has played a critically important role for controlling a typical UAV to achieve autonomy in the UAV application.
Resumo:
En el ámbito de la robótica de servicio, actualmente no existe una solución automatizada para la inspección ultrasónica de las partes de material compuesto de una aeronave durante las operaciones de mantenimiento que realiza la aerolínea. El desarrollo de las nuevas técnicas de acoplamiento acústico en seco en el método de inspección no destructiva por ultrasonidos, está conduciendo a posibilitar su uso con soluciones de menor coste respecto a las técnicas tradicionales, sin perder eficacia para detectar las deficiencias en las estructuras de material compuesto. Aunque existen aplicaciones de esta técnica con soluciones manuales, utilizadas en las fases de desarrollo y fabricación del material compuesto, o con soluciones por control remoto en sectores diferentes al aeronáutico para componentes metálicos, sin embargo, no existen con soluciones automatizadas para la inspección no destructiva por ultrasonidos de las zonas del avión fabricadas en material compuesto una vez la aeronave ha sido entregada a la aerolínea. El objetivo de este trabajo fin de master es evaluar el sistema de localización, basado en visión por ordenador, de una solución robotizada aplicada la inspección ultrasónica estructural de aeronaves en servicio por parte de las propias aerolíneas, utilizando las nuevas técnicas de acoplamiento acústico en seco, buscando la ventaja de reducir los tiempos y los costes en las operaciones de mantenimiento. Se propone como solución un robot móvil autónomo de pequeño tamaño, con control de posición global basado en técnicas de SLAM Visual Monocular, utilizando marcadores visuales externos para delimitar el área de inspección. Se ha supuesto la inspección de elementos de la aeronave cuya superficie se pueda considerar plana y horizontal, como son las superficies del estabilizador horizontal o del ala. Este supuesto es completamente aceptable en zonas acotadas de estos componentes, y de cara al objetivo del proyecto, no le resta generalidad. El robot móvil propuesto es un vehículo terrestre triciclo, de dos grados de libertad, con un sistema de visión monocular completo embarcado, incluyendo el hardware de procesamiento de visión y control de trayectoria. Las dos ruedas delanteras son motrices y la tercera rueda, loca, sirve únicamente de apoyo. La dirección, de tipo diferencial, permite al robot girar sin necesidad de desplazamiento, al conseguirse por diferencia de velocidad entre la rueda motriz derecha e izquierda. El sistema de inspección ultrasónica embarcado está compuesto por el hardware de procesamiento y registro de señal, y una rueda-sensor situada coaxialmente al eje de las ruedas motrices, y centrada entre estas, de modo que la medida de inspección se realiza en el centro de rotación del robot. El control visual propuesto se realiza mediante una estrategia “ver y mover” basada en posición, ejecutándose de forma secuencial la extracción de características visuales de la imagen, el cálculo de la localización global del robot mediante SLAM visual y el movimiento de éste mediante un algoritmo de control de posición-orientación respecto a referencias de paso de la trayectoria. La trayectoria se planifica a partir del mapa de marcas visuales que delimitan el área de inspección, proporcionado también por SLAM visual. Para validar la solución propuesta se ha optado por desarrollar un prototipo físico tanto del robot como de los marcadores visuales externos, a los que se someterán a una prueba de validación como alternativa a utilizar un entorno simulado por software, consistente en el reconocimiento del área de trabajo, planeamiento de la trayectoria y recorrido de la misma, de forma autónoma, registrando el posicionamiento real del robot móvil junto con el posicionamiento proporcionado por el sistema de localización SLAM. El motivo de optar por un prototipo es validar la solución ante efectos físicos que son muy complicados de modelar en un entorno de simulación, derivados de las limitaciones constructivas de los sistemas de visión, como distorsiones ópticas o saturación de los sensores, y de las limitaciones constructivas de la mecánica del robot móvil que afectan al modelo cinemático, como son el deslizamiento de las ruedas o la fluctuación de potencia de los motores eléctricos. El prototipo de marcador visual externo utilizado para la prueba de validación, ha sido un símbolo plano vertical, en blanco y negro, que consta de un borde negro rectangular dentro del cual se incluye una serie de marcas cuadradas de color negro, cuya disposición es diferente para cada marcador, lo que permite su identificación. El prototipo de robot móvil utilizado para la prueba de validación, ha sido denominado VINDUSTOR: “VIsual controlled Non-Destructive UltraSonic inspecTOR”. Su estructura mecánica ha sido desarrollada a partir de la plataforma comercial de robótica educacional LEGO© MINDSTORMS NXT 2.0, que incluye los dos servomotores utilizados para accionar las dos ruedas motrices, su controlador, las ruedas delanteras y la rueda loca trasera. La estructura mecánica ha sido especialmente diseñada con piezas LEGO© para embarcar un ordenador PC portátil de tamaño pequeño, utilizado para el procesamiento visual y el control de movimiento, y el sistema de captación visual compuesto por dos cámaras web de bajo coste, colocadas una en posición delantera y otra en posición trasera, con el fin de aumentar el ángulo de visión. El peso total del prototipo no alcanza los 2 Kg, siendo sus dimensiones máximas 20 cm de largo, 25 cm de ancho y 26 cm de alto. El prototipo de robot móvil dispone de un control de tipo visual. La estrategia de control es de tipo “ver y mover” dinámico, en la que se realiza un bucle externo, de forma secuencial, la extracción de características en la imagen, la estimación de la localización del robot y el cálculo del control, y en un bucle interno, el control de los servomotores. La estrategia de adquisición de imágenes está basada en un sistema monocular de cámaras embarcadas. La estrategia de interpretación de imágenes está basada en posición tridimensional, en la que los objetivos de control se definen en el espacio de trabajo y no en la imagen. La ley de control está basada en postura, relacionando la velocidad del robot con el error en la posición respecto a las referencias de paso de una trayectoria. La trayectoria es generada a partir del mapa de marcadores visuales externo. En todo momento, la localización del robot respecto a un sistema de referencia externo y el mapa de marcadores, es realizado mediante técnicas de SLAM visual. La auto-localización de un robot móvil dentro de un entorno desconocido a priori constituye uno de los desafíos más importantes en la robótica, habiéndose conseguido su solución en las últimas décadas, con una formulación como un problema numérico y con implementaciones en casos que van desde robots aéreos a robots en entornos cerrados, existiendo numerosos estudios y publicaciones al respecto. La primera técnica de localización y mapeo simultáneo SLAM fue desarrollada en 1989, más como un concepto que como un algoritmo único, ya que su objetivo es gestionar un mapa del entorno constituido por posiciones de puntos de interés, obtenidos únicamente a partir de los datos de localización recogidos por los sensores, y obtener la pose del robot respecto al entorno, en un proceso limitado por el ruido de los sensores, tanto en la detección del entorno como en la odometría del robot, empleándose técnicas probabilísticas aumentar la precisión en la estimación. Atendiendo al algoritmo probabilístico utilizado, las técnicas SLAM pueden clasificarse en las basadas en Filtros de Kalman, en Filtros de Partículas y en su combinación. Los Filtros de Kalman consideran distribuciones de probabilidad gaussiana tanto en las medidas de los sensores como en las medidas indirectas obtenidas a partir de ellos, de modo que utilizan un conjunto de ecuaciones para estimar el estado de un proceso, minimizando la media del error cuadrático, incluso cuando el modelo del sistema no se conoce con precisión, siendo el más utilizado el Filtro de Kalman Extendido a modelos nolineales. Los Filtros de Partículas consideran distribuciones de probabilidad en las medidas de los sensores sin modelo, representándose mediante un conjunto de muestras aleatorias o partículas, de modo que utilizan el método Montecarlo secuencial para estimar la pose del robot y el mapa a partir de ellas de forma iterativa, siendo el más utilizado el Rao-Backwell, que permite obtener un estimador optimizado mediante el criterio del error cuadrático medio. Entre las técnicas que combinan ambos tipos de filtros probabilísticos destaca el FastSLAM, un algoritmo que estima la localización del robot con un Filtro de Partículas y la posición de los puntos de interés mediante el Filtro de Kalman Extendido. Las técnicas SLAM puede utilizar cualquier tipo de sensor que proporcionen información de localización, como Laser, Sonar, Ultrasonidos o Visión. Los sensores basados en visión pueden obtener las medidas de distancia mediante técnicas de visión estereoscópica o mediante técnica de visión monocular. La utilización de sensores basados en visión tiene como ventajas, proporcionar información global a través de las imágenes, no sólo medida de distancia, sino también información adicional como texturas o patrones, y la asequibilidad del hardware frente a otros sensores. Sin embargo, su principal inconveniente es el alto coste computacional necesario para los complejos algoritmos de detección, descripción, correspondencia y reconstrucción tridimensional, requeridos para la obtención de la medida de distancia a los múltiples puntos de interés procesados. Los principales inconvenientes del SLAM son el alto coste computacional, cuando se utiliza un número elevado de características visuales, y su consistencia ante errores, derivados del ruido en los sensores, del modelado y del tratamiento de las distribuciones de probabilidad, que pueden producir el fallo del filtro. Dado que el SLAM basado en el Filtro de Kalman Extendido es una las técnicas más utilizadas, se ha seleccionado en primer lugar cómo solución para el sistema de localización del robot, realizando una implementación en la que las medidas de los sensores y el movimiento del robot son simulados por software, antes de materializarla en el prototipo. La simulación se ha realizado considerando una disposición de ocho marcadores visuales que en todo momento proporcionan ocho medidas de distancia con ruido aleatorio equivalente al error del sensor visual real, y un modelo cinemático del robot que considera deslizamiento de las ruedas mediante ruido aleatorio. Durante la simulación, los resultados han mostrado que la localización estimada por el algoritmo SLAM-EKF presenta tendencia a corregir la localización obtenida mediante la odometría, pero no en suficiente cuantía para dar un resultado aceptable, sin conseguir una convergencia a una solución suficientemente cercana a la localización simulada del robot y los marcadores. La conclusión obtenida tras la simulación ha sido que el algoritmo SLAMEKF proporciona inadecuada convergencia de precisión, debido a la alta incertidumbre en la odometría y a la alta incertidumbre en las medidas de posición de los marcadores proporcionadas por el sensor visual. Tras estos resultados, se ha buscado una solución alternativa. Partiendo de la idea subyacente en los Filtros de Partículas, se ha planteado sustituir las distribuciones de probabilidad gaussianas consideradas por el Filtro de Kalman Extendido, por distribuciones equi-probables que derivan en funciones binarias que representan intervalos de probabilidad no-nula. La aplicación de Filtro supone la superposición de todas las funciones de probabilidad no-nula disponibles, de modo que el resultado es el intervalo donde existe alguna probabilidad de la medida. Cómo la efectividad de este filtro aumenta con el número disponible de medidas, se ha propuesto obtener una medida de la localización del robot a partir de cada pareja de medidas disponibles de posición de los marcadores, haciendo uso de la Trilateración. SLAM mediante Trilateración Estadística (SLAM-ST) es como se ha denominado a esta solución propuesta en este trabajo fin de master. Al igual que con el algoritmo SLAM-EKF, ha sido realizada una implementación del algoritmo SLAM-ST en la que las medidas de los sensores y el movimiento del robot son simulados, antes de materializarla en el prototipo. La simulación se ha realizado en las mismas condiciones y con las mismas consideraciones, para comparar con los resultados obtenidos con el algoritmo SLAM-EKF. Durante la simulación, los resultados han mostrado que la localización estimada por el algoritmo SLAM-ST presenta mayor tendencia que el algoritmo SLAM-EKF a corregir la localización obtenida mediante la odometría, de modo que se alcanza una convergencia a una solución suficientemente cercana a la localización simulada del robot y los marcadores. Las conclusiones obtenidas tras la simulación han sido que, en condiciones de alta incertidumbre en la odometría y en la medida de posición de los marcadores respecto al robot, el algoritmo SLAM-ST proporciona mejores resultado que el algoritmo SLAM-EKF, y que la precisión conseguida sugiere la viabilidad de la implementación en el prototipo. La implementación del algoritmo SLAM-ST en el prototipo ha sido realizada en conjunción con la implementación del Sensor Visual Monocular, el Modelo de Odometría y el Control de Trayectoria. El Sensor Visual Monocular es el elemento del sistema SLAM encargado de proporcionar la posición con respecto al robot de los marcadores visuales externos, a partir de las imágenes obtenidas por las cámaras, mediante técnicas de procesamiento de imagen que permiten detectar e identificar los marcadores visuales que se hallen presentes en la imagen capturada, así como obtener las características visuales a partir de las cuales inferir la posición del marcador visual respecto a la cámara, mediante reconstrucción tridimensional monocular, basada en el conocimiento a-priori del tamaño real del mismo. Para tal fin, se ha utilizado el modelo matemático de cámara pin-hole, y se ha considerado las distorsiones de la cámara real mediante la calibración del sensor, en vez de utilizar la calibración de la imagen, tras comprobar el alto coste computacional que requiere la corrección de la imagen capturada, de modo que la corrección se realiza sobre las características visuales extraídas y no sobre la imagen completa. El Modelo de Odometría es el elemento del sistema SLAM encargado de proporcionar la estimación de movimiento incremental del robot en base a la información proporcionada por los sensores de odometría, típicamente los encoders de las ruedas. Por la tipología del robot utilizado en el prototipo, se ha utilizado un modelo cinemático de un robot tipo uniciclo y un modelo de odometría de un robot móvil de dos ruedas tipo diferencial, en el que la traslación y la rotación se determinan por la diferencia de velocidad de las ruedas motrices, considerando que no existe deslizamiento entre la rueda y el suelo. Sin embargo, el deslizamiento en las ruedas aparece como consecuencia de causas externas que se producen de manera inconstante durante el movimiento del robot que provocan insuficiente contacto de la rueda con el suelo por efectos dinámicos. Para mantener la validez del modelo de odometría en todas estas situaciones que producen deslizamiento, se ha considerado un modelo de incertidumbre basado en un ensayo representativo de las situaciones más habituales de deslizamiento. El Control de Trayectoria es el elemento encargado de proporcionar las órdenes de movimiento al robot móvil. El control implementado en el prototipo está basado en postura, utilizando como entrada la desviación en la posición y orientación respecto a una referencia de paso de la trayectoria. La localización del robot utilizada es siempre de la estimación proporcionada por el sistema SLAM y la trayectoria es planeada a partir del conocimiento del mapa de marcas visuales que limitan el espacio de trabajo, mapa proporcionado por el sistema SLAM. Las limitaciones del sensor visual embarcado en la velocidad de estabilización de la imagen capturada han conducido a que el control se haya implementado con la estrategia “mirar parado”, en la que la captación de imágenes se realiza en posición estática. Para evaluar el sistema de localización basado en visión del prototipo, se ha diseñado una prueba de validación que obtenga una medida cuantitativa de su comportamiento. La prueba consiste en la realización de forma completamente autónoma de la detección del espacio de trabajo, la planificación de una trayectoria de inspección que lo transite completamente, y la ejecución del recorrido de la misma, registrando simultáneamente la localización real del robot móvil junto con la localización proporcionada por el sistema SLAM Visual Monocular. Se han realizado varias ejecuciones de prueba de validación, siempre en las mismas condiciones iniciales de posición de marcadores visuales y localización del robot móvil, comprobando la repetitividad del ensayo. Los resultados presentados corresponden a la consideración de las medidas más pesimistas obtenidas tras el procesamiento del conjunto de medidas de todos los ensayos. Los resultados revelan que, considerando todo el espacio de trabajo, el error de posición, diferencia entre los valores de proporcionados por el sistema SLAM y los valores medidos de posición real, se encuentra en el entorno de la veintena de centímetros. Además, los valores de incertidumbre proporcionados por el sistema SLAM son, en todos los casos, superiores a este error. Estos resultados conducen a concluir que el sistema de localización basado en SLAM Visual, mediante un algoritmo de Trilateración Estadística, usando un sensor visual monocular y marcadores visuales externos, funciona, proporcionando la localización del robot móvil con respecto al sistema de referencia global inicial y un mapa de su situación de los marcadores visuales, con precisión limitada, pero con incertidumbre conservativa, al estar en todo momento el error real de localización por debajo del error estimado. Sin embargo, los resultados de precisión del sistema de localización no son suficientemente altos para cumplir con los requerimientos como solución robotizada aplicada a la inspección ultrasónica estructural de aeronaves en servicio. En este sentido, los resultados sugieren que la posible continuación de este trabajo en el futuro debe centrarse en la mejora de la precisión de localización del robot móvil, con líneas de trabajo encaminadas a mejorar el comportamiento dinámico del prototipo, en mejorar la precisión de las medidas de posición proporcionadas por el sensor visual y en optimizar el resultado del algoritmo SLAM. Algunas de estas líneas futuras podrían ser la utilización de plataformas robóticas de desarrollo alternativas, la exploración de técnicas de visión por computador complementarias, como la odometría visual, la visión omnidireccional, la visión estereoscópica o las técnicas de reconstrucción tridimensional densa a partir de captura monocular, y el análisis de algoritmos SLAM alternativos condicionado a disponer de una sustancial mejora de precisión en el modelo de odometría y en las medidas de posición de los marcadores.
Resumo:
La presente tesis propone un nuevo método de cartografía de ensayos no destructivos en edificios históricos mediante el uso de técnicas basadas en SIG. Primeramente, se define el método por el cual es posible elaborar y convertir una cartografía 3D basada en nubes de puntos de un elemento arquitectónico obtenida mediante fotogrametría, en cartografía raster y vectorial, legible por los sistemas SIG mediante un sistema de coordenadas particular que referencian cada punto de la nube obtenida por fotogrametría. A esta cartografía inicial la denominaremos cartografía base. Después, se define el método por el cual los puntos donde se realiza un ensayo NDT se referencian al sistema de coordenadas del plano base, lo que permite la generación de cartografías de los ensayos referenciadas y la posibilidad de obtener sobre un mismo plano base diferentes datos de múltiples ensayos. Estas nuevas cartografías las denominaremos cartografías de datos, y se demostrará la utilidad de las mismas en el estudio del deterioro y la humedad. Se incluirá el factor tiempo en las cartografías, y se mostrará cómo este nuevo hecho posibilita el trabajo interdisciplinar en la elaboración del diagnóstico. Finalmente, se generarán nuevas cartografías inéditas hasta entonces consistentes en la combinación de diferentes cartografías de datos con la misma planimetría base. Estas nuevas cartografías, darán pie a la obtención de lo que se ha definido como mapas de isograma de humedad, mapa de isograma de salinidad, factor de humedad, factor de evaporación, factor de salinidad y factor de degradación del material. Mediante este sistema se facilitará una mejor visión del conjunto de los datos obtenidos en el estudio del edificio histórico, lo que favorecerá la correcta y rigurosa interpretación de los datos para su posterior restauración. ABSTRACT This research work proposes a new mapping method of non-destructive testing in historical buildings, by using techniques based on GIS. First of all, the method that makes it possible to produce and convert a 3D map based on cloud points from an architectural element obtained by photogrammetry, are defined, as raster and vector, legible by GIS mapping systems using a particular coordinate system that will refer each cloud point obtained by photogrammetry. This initial mapping will be named base planimetry. Afterwards, the method by which the points where the NDT test is performed are referenced to the coordinate system of the base plane , which allows the generation of maps of the referenced tests and the possibility of obtaining different data from multiple tests on the same base plane. These new maps will be named mapping data and their usefulness will be demonstrated in the deterioration and moisture study. The time factor in maps will be included, and how this new fact will enable the interdisciplinary work in the elaboration of the diagnosis will be proved. Finally, new maps (unpublished until now) will be generated by combining different mapping from the same planimetry data base. These new maps will enable us to obtain what have been called isograma moisture maps, isograma salinity- maps, humidity factor, evaporation factor, salinity factor and the material degradation factor. This system will provide a better vision of all data obtained in the study of historical buildings , and will ease the proper and rigorous data interpretation for its subsequent restoration.
Resumo:
Esta tesis integra un estudio reflexivo sobre la relación de dependencia entre la creación y la memoria a través del análisis de la última obra del escultor Juan Muñoz: Double Bind (Tate Modern, Londres, 2001). Desde esta posición es obligado replantear el análisis de la obra, lo que hace necesario su estudio cubriendo el mayor espectro posible de información accesible más allá de la obra en sí, para aproximarse a la convergencia entre memoria y creación. La perspectiva de análisis propuesta abre camino a nuevas consideraciones so¬bre la relevancia del conocimiento en el desarrollo del proceso creativo. Este análisis no debe tan sólo suponer una aportación al conocimiento del trabajo de Juan Muñoz. Debe también desprenderse de él la innegable participación y necesaria lectura del pasado en el presente. La amnesia de los tiempos pasados impide completar el atlas de imágenes en las que se apoya la creación impidiendo el conocimiento del origen de las fuentes de inspi¬ración y las bases de la creación de una determinada obra. Este hecho limita y distorsiona sus posibles interpretaciones. Pretendo un acercamiento al entendimiento de la forma de mirar y de crear a través del tiempo que es memoria. La memoria tiene un cometido de crucial importancia para la actividad mental y juega un papel fundamental en la conducta y en la creación. La obra es el resultado de la búsqueda de una idea que exprese algo que el creador no puede ex¬presar de otra manera. Es la necesidad de expresar las ideas mediante un lenguaje que se desarrolla en el tiempo y en el espacio, reflejo del ser que responde al pensamiento. Es una forma de experiencia donde subyacen las sendas del pasado y donde se plantea el futuro. Sólo el creador accede a la obra desde dentro, el observador llega a ella desde el exterior y mediante su propia subjetividad. Las obras son formas de experiencia de sus autores, comunicar el mensaje de dicha experiencia supone por tanto interpretar. Persiguiendo la necesidad de saber y entender, pretender explicar el sentido de una cosa implica una apreciación intencionada asociada al entendimiento del intérprete. Las obras son produc¬tos que portan un mensaje y que contienen en su estructura las trazas del tiempo vivido por su creador. Si se quiere adquirir un acercamiento que represente la posición de un autor, será necesario no solo mirar a través de ella, si no introducirse en el contexto de su historia. Mirar hacia atrás, hacia la profundidad del presente para tener conciencia del pensamiento presente y futuro. Recorrer de este modo la instalación Double Bind de Juan Muñoz proporciona una síntesis de sus preocupaciones e intereses a la vez que aporta un conocimiento no necesariamente inmediato, pero relevante y trascendente de la obra, su creador y la historia. ABSTRACT This thesis comprises a reflective study of the dependence relationship between creation and memory through the analysis of the latest work by the sculptor Juan Muñoz: Double Bind (Tate Modern, London, 2001). From this position, it is mandatory to rethink the analysis of the work, making it necessary to cover the widest possible range of information available beyond the work itself, in order to obtain a closer view of the convergence between memory and creation. The proposed analytical approach opens up new considerations on the relevance of knowledge during the development of the creative process. This analysis should not only make a contribution to the knowledge of the work of Juan Muñoz. It should also infer the undeniable involvement and the necessary reading of the past in the present. Amnesia regarding past makes it impossible to complete the atlas of images on which the creation is based, blocking knowledge of the origin of the sources of inspiration and the basis for the creation of a specific work. This fact limits and distorts its possible interpretations. My intention is an approach to how to understand memory as the way of looking and creating over time. Memory has a crucial role to mental activity and plays a key role in behaviour and creation. The work is the result of finding an idea that expresses something that the creator can not express otherwise. It is the need to express ideas by means of a language that develops throughout time and space, a reflection of the being that responds to the thought. It is a way of experience underlying the paths of the past and where the future is set out. Only the creator can access the work from the inside. The observer sees it from the outside and in accordance with his/her own subjectivity. The works form a part of the experience of their authors, thus implying the interpretation of the message of their experience being passed on. The pursuit of knowledge and understanding, and trying to explain the meaning of something implies a deliberate appreciation associated with the understanding of the interpreter. The works are products bearing a message and containing in their structure traces of the time lived by their creator. If one wants to come close to what the author’s posture represents, it will not only be necessary to penetrate it, but also to introduce oneself into the context of its history. Take a look back, towards the depth of the present in order to become aware of present and future thinking. To go across the installation of Double Bind by Juan Muñoz in this way offers a synthesis of his concerns and interests while also providing a not necessarily immediate knowledge, but one which is relevant and important to the work, its creator and history.
Resumo:
The role of matter has remained central to the making and the thinking of architecture, yet many attempts to capture its essence have been trapped in a dialectic tension between form and materiality, between material consistency and immaterial modes of perception, between static states and dynamic processes, between the real and the virtual, thus advancing an increasing awareness of the perplexing complexity of the material world. Within that complexity, the notion of agency – emerging from and within ecological, politico-economic and socio-cultural processes – calls for a reconceptualization of matter, and consequently processes of materialisation, offering a new understanding of context and space, approached as a field of dynamic relationships. In this context, cutting across boundaries between architectural discourse and practice as well as across the vast trans-disciplinary territory, this dissertation aims to illustrate a variety of design methodologies that have derived from the relational approach. More specifically, the intention is to offer new insights into spatial epistemologies embedded within the notion of atmosphere – commonly associated with the so-called New Phenomenology – and to reflect upon its implications for architectural production. In what follows, the intended argumentation has a twofold dimension. First, through a scrutiny of the notion of atmosphere, the aim is to explore ways of thinking and shaping reality through relations, thus acknowledging the aforementioned complexity of the material universe disclosed through human and non-human as well as material and immaterial forces. Secondly, despite the fact that concerns for atmospherics have flourished over the last few decades, the objective is to reveal that the conceptual foundations and procedures for the production of atmosphere might be found beneath the surface of contemporary debates. Hence, in order to unfold and illustrate previously advocated assumptions, an archaeological approach is adopted, tracing a particular projective genealogy, one that builds upon an atmospheric awareness. Accordingly, in tracing such an atmospheric awareness the study explores the notoriously ambiguous nature and the twofold dimension of atmosphere – meteorological and aesthetic – and the heterogeneity of meanings embedded in them. In this context, the notion of atmosphere is presented as parallactic. It transgresses the formal and material boundaries of bodies. It calls for a reevaluation of perceptual experience, opening a new gap that exposes the orthodox space-bodyenvironment relationships to questioning. It offers to architecture an expanded domain in which to manifest itself, defining architectural space as a contingent construction and field of engagement, and presenting matter as a locus of production/performance/action. Consequently, it is such an expanded or relational dimension that constitutes the foundation of what in the context of this study is to be referred to as affective tectonics. Namely, a tectonics that represents processual and experiential multiplicity of convergent time and space, body and environment, the material and the immaterial; a tectonics in which matter neither appears as an inert and passive substance, nor is limited to the traditionally regarded tectonic significance or expressive values, but is presented as an active element charged with inherent potential and vitality. By defining such a relational materialism, the intention is to expand the spectrum of material attributes revealing the intrinsic relationships between the physical properties of materials and their performative, transformative and affective capacities, including effects of interference and haptic dynamics – i.e. protocols of transmission and interaction. The expression that encapsulates its essence is: ACTIVE MATERIALITY RESUMEN El significado de la materia ha estado desde siempre ligado al pensamiento y el quehacer arquitectónico. Sin embargo, muchos intentos de capturar su esencia se han visto sumergidos en una tensión dialéctica entre la forma y la materialidad, entre la consistencia material y los modos inmateriales de la percepción, entre los estados estáticos y los procesos dinámicos, entre lo real y lo virtual, revelando una creciente conciencia de la desconcertante complejidad del mundo material. En esta complejidad, la noción de la operatividad o capacidad agencial– que emerge desde y dentro de los procesos ecológicos, políticos y socio-culturales– requiere de una reconceptualización de la materia y los procesos inherentes a la materialización, ofreciendo una nueva visión del contexto y el espacio, entendidos como un campo relacional dinámico. Oscilando entre el discurso arquitectónico y la práctica arquitectónica, y atravesando un extenso territorio trans-disciplinar, el objetivo de la presente tesis es ilustrar la variedad de metodologías proyectuales que emergieron desde este enfoque relacional. Concretamente, la intención es indagar en las epistemologías espaciales vinculadas a la noción de la atmósfera– generalmente asociada a la llamada Nueva Fenomenología–, reflexionando sobre su impacto en la producción arquitectónica. A continuación, el estudio ofrece una doble línea argumental. Primero, a través del análisis crítico de la noción de atmósfera, el objetivo es explorar maneras de pensar y dar forma a la realidad a través de las relaciones, reconociendo la mencionada complejidad del universo material revelado a través de fuerzas humanas y no-humanas, materiales e inmateriales. Segundo, a pesar de que el interés por las atmósferas ha florecido en las últimas décadas, la intención es demostrar que las bases conceptuales y los protocolos proyectuales de la creación de atmósferas se pueden encontrar bajo la superficie de los debates contemporáneos. Para corroborar e ilustrar estas hipótesis se propone una metodología de carácter arqueológico, trazando una particular genealogía de proyectos– la que se basa en una conciencia atmosférica. Asimismo, al definir esta conciencia atmosférica, el estudio explora tanto la naturaleza notoriamente ambigua y la dimensión dual de la atmósfera– meteorológica y estética–, como la heterogeneidad de significados derivados de ellas. En este contexto, la atmósfera se entiende como un concepto detonante, ya que sobrepasa los limites formales y materiales de los cuerpos, llevando a la re-evaluación de la experiencia perceptiva y abriendo a preguntas la ortodoxa relación espacio- cuerpo-ambiente. En consecuencia, la noción de la atmósfera ofrece a la arquitectura una dimensión expandida donde manifestarse, definiendo el espacio como una construcción contingente, performativa y afectiva, y presentando la materia como locus de producción/ actuación/ acción. Es precisamente esta dimensión expandida relacional la que constituye una base para lo que en el contexto del presente estudio se define como una tectónica afectiva. Es decir, una tectónica que representa una multiplicidad procesual y experiencial derivada de la convergencia entre el tiempo y el espacio, el cuerpo y el entorno, lo material y lo inmaterial; una tectónica en la que la materia no aparece como una substancia pasiva e inerte, ni es limitada al significado considerado tradicionalmente constructivo o a sus valores expresivos, sino que se presenta como elemento activo cargado de un potencial y vitalidad inherentes. A través de la definición de este tipo de materialismo afectivo, la intención es expandir el espectro de los atributos materiales, revelando las relaciones intrínsecas entre las propiedades físicas de los materiales y sus capacidades performativas, transformativas y afectivas, incluyendo efectos de interferencias y dinámicas hápticas– o dicho de otro modo, protocolos de transmisión e interacción. Una expresión que encapsula su esencia vendría a ser: MATERIALIDAD ACTIVA
Resumo:
Son numerosas las investigaciones que desde hace más de dos décadas han investigado posibles influencias de género en el comportamiento en la empresa y en los estilos de dirección. Sin embargo, en el análisis no se han contemplado los aspectos institucionales y organizativos, que juegan un papel relevante en el comportamiento y en el trabajo de los directivos. Atendiendo a lo anterior, este trabajo muestra las implicaciones organizativas que tiene la forma institucional Cooperativa de trabajo asociado (CTA) y cómo afectan al trabajo directivo. Asimismo, y desde una perspectiva de género, se investigan en CTAs valencianas las capacidades directivas vinculadas a diferencias de género. Los resultados obtenidos sugieren que la naturaleza del trabajo que realizan las directivas (mujeres) así como su visión del trabajo directivo, responde a un estilo directivo contemporáneo, y tienen un mayor “encaje” con el contexto organizativo de la CTA caracterizado por relaciones entre iguales.
Resumo:
La tesis doctoral La identidad como estrategia en la obra de Murakami Takashi. Un discurso de ida y vuelta, analiza la obra del artista japonés Murakami Takashi desde el inicio de su carrera artística hasta finales de la década de 2000, poniendo el foco en la estrategia seguida por el artista para lograr triunfar en la escena del arte internacional, articulando en su favor las cuestiones identitarias. En este sentido, la tesis plantea el análisis pormenorizado de la actividad expositiva de Murakami como ejemplo de un artista de la llamada periferia artística que es consciente de la necesidad de acomodar su práctica a los dictámenes occidentales, que son los que siguen rigiendo el mundo del arte en la actualidad, a pesar de que las voces de la periferia artística hayan conquistado una mayor visibilidad. El marco teórico en el que se plantea este análisis es el del discurso del orientalismo, y una serie de discursos que surgieron en respuesta a la visión orientalizante de la alteridad, poniendo el foco en el auto-orientalismo y el orientalismo reverso. A estas cuestiones hace referencia el subtítulo de la tesis: los discursos de ida y vuelta se refieren principalmente a cómo, en el mundo globalizado actual en el que priman los flujos e intercambio de información, también fluctúan estas visones estereotipadas de la identidad y, en el caso que aquí se analiza, se cruzan la visión estereotipada de Murakami de su propia cultura, con la visión estereotipada que de lo japonés tiene Occidente. El estudio está planteado como un análisis pormenorizado del proyecto Superflat ideado por el artista, como instrumento fundamental de su estrategia artística: la invención y definición de un movimiento artístico específicamente japonés, con el que presentarse ante el público occidental, apelando por un lado al gusto de lo exótico y por otro lado reivindicando la autenticidad de su propia cultura. Este proyecto, desarrollado entre los años 2000 y 2005, se articuló principalmente por medio de tres exposiciones colectivas, comisariadas por el propio Murakami, en las que el artista-comisario, presentó su obra junto con la de otros jóvenes creadores japoneses de distintas ramas artísticas. El artista acompañó estas tres exposiciones con un entramado teórico que fundamentaba su visión del arte japonés en el pasado (la historia del arte japonesa anterior a la apertura a Occidente), el presente (la cultura popular contemporánea de su país), y finalmente la dependencia de lo occidental (por la imposición especialmente de la cultura norteamericana)...
Resumo:
Los portales utilizados en la artroscopia de muñeca inicialmente son portales dorsales. Con el desarrollo de los portales volares, ha sido posible el abordaje artroscópico de la muñeca desde cualquier ángulo. PORTALES DORSALES. Los portales dorsales de la articulación radiocarpiana se nombran según su relación con los tendones de los compartimentos extensores del dorso del radio 1-/2, 3-/4, 4-/5, 6R y 6U. Los portales dorsales mediocarpianos radial y ulnar se encuentran 1 cm distal a los portales 3-/4 y 4-/5 respectivamente. Son los portales más utilizados y obtienen una adecuada visión de la articulación radiocarpiana y de la cápsula volar, pero no permiten una adecuada visión del ligamento radiopiramidal dorsal ni de la región palmar de los ligamentos lunopiramidal y escafolunar. PORTALES VOLARES. Aunque algunos autores han descrito portales volares para la articulación radiocarpiana, los más utilizados en la actualidad son los propuestos por Slutsky: portal volar radial y portal volar ulnar. También describe un portal volar para la articulación mediocarpiana a través de la misma incisión que para el portal volar radial y a 11cm distal a la misma. Los portales volares obtienen una adecuada visión de la región dorsal de la muñeca, y de la porción palmar de los ligamentos lunopiramidal y escafolunar…