685 resultados para mensaje
Resumo:
Con este proyecto se busca la posibilidad de manejar la calidad de servicio de un grupo de usuarios, llevando a cabo para ello un seguimiento continuo de su conexión y los parámetros característicos de ésta. Una vez detectado un parámetro defectuoso, ya fuese por falta o exceso de capacidad, se actuará sobre la red, de modo que el usuario obtenga la calidad que le corresponda. El cuánto le corresponde a cada usuario vendrá fijado en un servidor, que al recibir el aviso de parámetro defectuoso, mandará un mensaje al controlador de la red para actuar.
Resumo:
La última década ha sido testigo de importantes avances en el campo de la tecnología de reconocimiento de voz. Los sistemas comerciales existentes actualmente poseen la capacidad de reconocer habla continua de múltiples locutores, consiguiendo valores aceptables de error, y sin la necesidad de realizar procedimientos explícitos de adaptación. A pesar del buen momento que vive esta tecnología, el reconocimiento de voz dista de ser un problema resuelto. La mayoría de estos sistemas de reconocimiento se ajustan a dominios particulares y su eficacia depende de manera significativa, entre otros muchos aspectos, de la similitud que exista entre el modelo de lenguaje utilizado y la tarea específica para la cual se está empleando. Esta dependencia cobra aún más importancia en aquellos escenarios en los cuales las propiedades estadísticas del lenguaje varían a lo largo del tiempo, como por ejemplo, en dominios de aplicación que involucren habla espontánea y múltiples temáticas. En los últimos años se ha evidenciado un constante esfuerzo por mejorar los sistemas de reconocimiento para tales dominios. Esto se ha hecho, entre otros muchos enfoques, a través de técnicas automáticas de adaptación. Estas técnicas son aplicadas a sistemas ya existentes, dado que exportar el sistema a una nueva tarea o dominio puede requerir tiempo a la vez que resultar costoso. Las técnicas de adaptación requieren fuentes adicionales de información, y en este sentido, el lenguaje hablado puede aportar algunas de ellas. El habla no sólo transmite un mensaje, también transmite información acerca del contexto en el cual se desarrolla la comunicación hablada (e.g. acerca del tema sobre el cual se está hablando). Por tanto, cuando nos comunicamos a través del habla, es posible identificar los elementos del lenguaje que caracterizan el contexto, y al mismo tiempo, rastrear los cambios que ocurren en estos elementos a lo largo del tiempo. Esta información podría ser capturada y aprovechada por medio de técnicas de recuperación de información (information retrieval) y de aprendizaje de máquina (machine learning). Esto podría permitirnos, dentro del desarrollo de mejores sistemas automáticos de reconocimiento de voz, mejorar la adaptación de modelos del lenguaje a las condiciones del contexto, y por tanto, robustecer al sistema de reconocimiento en dominios con condiciones variables (tales como variaciones potenciales en el vocabulario, el estilo y la temática). En este sentido, la principal contribución de esta Tesis es la propuesta y evaluación de un marco de contextualización motivado por el análisis temático y basado en la adaptación dinámica y no supervisada de modelos de lenguaje para el robustecimiento de un sistema automático de reconocimiento de voz. Esta adaptación toma como base distintos enfoque de los sistemas mencionados (de recuperación de información y aprendizaje de máquina) mediante los cuales buscamos identificar las temáticas sobre las cuales se está hablando en una grabación de audio. Dicha identificación, por lo tanto, permite realizar una adaptación del modelo de lenguaje de acuerdo a las condiciones del contexto. El marco de contextualización propuesto se puede dividir en dos sistemas principales: un sistema de identificación de temática y un sistema de adaptación dinámica de modelos de lenguaje. Esta Tesis puede describirse en detalle desde la perspectiva de las contribuciones particulares realizadas en cada uno de los campos que componen el marco propuesto: _ En lo referente al sistema de identificación de temática, nos hemos enfocado en aportar mejoras a las técnicas de pre-procesamiento de documentos, asimismo en contribuir a la definición de criterios más robustos para la selección de index-terms. – La eficiencia de los sistemas basados tanto en técnicas de recuperación de información como en técnicas de aprendizaje de máquina, y específicamente de aquellos sistemas que particularizan en la tarea de identificación de temática, depende, en gran medida, de los mecanismos de preprocesamiento que se aplican a los documentos. Entre las múltiples operaciones que hacen parte de un esquema de preprocesamiento, la selección adecuada de los términos de indexado (index-terms) es crucial para establecer relaciones semánticas y conceptuales entre los términos y los documentos. Este proceso también puede verse afectado, o bien por una mala elección de stopwords, o bien por la falta de precisión en la definición de reglas de lematización. En este sentido, en este trabajo comparamos y evaluamos diferentes criterios para el preprocesamiento de los documentos, así como también distintas estrategias para la selección de los index-terms. Esto nos permite no sólo reducir el tamaño de la estructura de indexación, sino también mejorar el proceso de identificación de temática. – Uno de los aspectos más importantes en cuanto al rendimiento de los sistemas de identificación de temática es la asignación de diferentes pesos a los términos de acuerdo a su contribución al contenido del documento. En este trabajo evaluamos y proponemos enfoques alternativos a los esquemas tradicionales de ponderado de términos (tales como tf-idf ) que nos permitan mejorar la especificidad de los términos, así como también discriminar mejor las temáticas de los documentos. _ Respecto a la adaptación dinámica de modelos de lenguaje, hemos dividimos el proceso de contextualización en varios pasos. – Para la generación de modelos de lenguaje basados en temática, proponemos dos tipos de enfoques: un enfoque supervisado y un enfoque no supervisado. En el primero de ellos nos basamos en las etiquetas de temática que originalmente acompañan a los documentos del corpus que empleamos. A partir de estas, agrupamos los documentos que forman parte de la misma temática y generamos modelos de lenguaje a partir de dichos grupos. Sin embargo, uno de los objetivos que se persigue en esta Tesis es evaluar si el uso de estas etiquetas para la generación de modelos es óptimo en términos del rendimiento del reconocedor. Por esta razón, nosotros proponemos un segundo enfoque, un enfoque no supervisado, en el cual el objetivo es agrupar, automáticamente, los documentos en clusters temáticos, basándonos en la similaridad semántica existente entre los documentos. Por medio de enfoques de agrupamiento conseguimos mejorar la cohesión conceptual y semántica en cada uno de los clusters, lo que a su vez nos permitió refinar los modelos de lenguaje basados en temática y mejorar el rendimiento del sistema de reconocimiento. – Desarrollamos diversas estrategias para generar un modelo de lenguaje dependiente del contexto. Nuestro objetivo es que este modelo refleje el contexto semántico del habla, i.e. las temáticas más relevantes que se están discutiendo. Este modelo es generado por medio de la interpolación lineal entre aquellos modelos de lenguaje basados en temática que estén relacionados con las temáticas más relevantes. La estimación de los pesos de interpolación está basada principalmente en el resultado del proceso de identificación de temática. – Finalmente, proponemos una metodología para la adaptación dinámica de un modelo de lenguaje general. El proceso de adaptación tiene en cuenta no sólo al modelo dependiente del contexto sino también a la información entregada por el proceso de identificación de temática. El esquema usado para la adaptación es una interpolación lineal entre el modelo general y el modelo dependiente de contexto. Estudiamos también diferentes enfoques para determinar los pesos de interpolación entre ambos modelos. Una vez definida la base teórica de nuestro marco de contextualización, proponemos su aplicación dentro de un sistema automático de reconocimiento de voz. Para esto, nos enfocamos en dos aspectos: la contextualización de los modelos de lenguaje empleados por el sistema y la incorporación de información semántica en el proceso de adaptación basado en temática. En esta Tesis proponemos un marco experimental basado en una arquitectura de reconocimiento en ‘dos etapas’. En la primera etapa, empleamos sistemas basados en técnicas de recuperación de información y aprendizaje de máquina para identificar las temáticas sobre las cuales se habla en una transcripción de un segmento de audio. Esta transcripción es generada por el sistema de reconocimiento empleando un modelo de lenguaje general. De acuerdo con la relevancia de las temáticas que han sido identificadas, se lleva a cabo la adaptación dinámica del modelo de lenguaje. En la segunda etapa de la arquitectura de reconocimiento, usamos este modelo adaptado para realizar de nuevo el reconocimiento del segmento de audio. Para determinar los beneficios del marco de trabajo propuesto, llevamos a cabo la evaluación de cada uno de los sistemas principales previamente mencionados. Esta evaluación es realizada sobre discursos en el dominio de la política usando la base de datos EPPS (European Parliamentary Plenary Sessions - Sesiones Plenarias del Parlamento Europeo) del proyecto europeo TC-STAR. Analizamos distintas métricas acerca del rendimiento de los sistemas y evaluamos las mejoras propuestas con respecto a los sistemas de referencia. ABSTRACT The last decade has witnessed major advances in speech recognition technology. Today’s commercial systems are able to recognize continuous speech from numerous speakers, with acceptable levels of error and without the need for an explicit adaptation procedure. Despite this progress, speech recognition is far from being a solved problem. Most of these systems are adjusted to a particular domain and their efficacy depends significantly, among many other aspects, on the similarity between the language model used and the task that is being addressed. This dependence is even more important in scenarios where the statistical properties of the language fluctuates throughout the time, for example, in application domains involving spontaneous and multitopic speech. Over the last years there has been an increasing effort in enhancing the speech recognition systems for such domains. This has been done, among other approaches, by means of techniques of automatic adaptation. These techniques are applied to the existing systems, specially since exporting the system to a new task or domain may be both time-consuming and expensive. Adaptation techniques require additional sources of information, and the spoken language could provide some of them. It must be considered that speech not only conveys a message, it also provides information on the context in which the spoken communication takes place (e.g. on the subject on which it is being talked about). Therefore, when we communicate through speech, it could be feasible to identify the elements of the language that characterize the context, and at the same time, to track the changes that occur in those elements over time. This information can be extracted and exploited through techniques of information retrieval and machine learning. This allows us, within the development of more robust speech recognition systems, to enhance the adaptation of language models to the conditions of the context, thus strengthening the recognition system for domains under changing conditions (such as potential variations in vocabulary, style and topic). In this sense, the main contribution of this Thesis is the proposal and evaluation of a framework of topic-motivated contextualization based on the dynamic and non-supervised adaptation of language models for the enhancement of an automatic speech recognition system. This adaptation is based on an combined approach (from the perspective of both information retrieval and machine learning fields) whereby we identify the topics that are being discussed in an audio recording. The topic identification, therefore, enables the system to perform an adaptation of the language model according to the contextual conditions. The proposed framework can be divided in two major systems: a topic identification system and a dynamic language model adaptation system. This Thesis can be outlined from the perspective of the particular contributions made in each of the fields that composes the proposed framework: _ Regarding the topic identification system, we have focused on the enhancement of the document preprocessing techniques in addition to contributing in the definition of more robust criteria for the selection of index-terms. – Within both information retrieval and machine learning based approaches, the efficiency of topic identification systems, depends, to a large extent, on the mechanisms of preprocessing applied to the documents. Among the many operations that encloses the preprocessing procedures, an adequate selection of index-terms is critical to establish conceptual and semantic relationships between terms and documents. This process might also be weakened by a poor choice of stopwords or lack of precision in defining stemming rules. In this regard we compare and evaluate different criteria for preprocessing the documents, as well as for improving the selection of the index-terms. This allows us to not only reduce the size of the indexing structure but also to strengthen the topic identification process. – One of the most crucial aspects, in relation to the performance of topic identification systems, is to assign different weights to different terms depending on their contribution to the content of the document. In this sense we evaluate and propose alternative approaches to traditional weighting schemes (such as tf-idf ) that allow us to improve the specificity of terms, and to better identify the topics that are related to documents. _ Regarding the dynamic language model adaptation, we divide the contextualization process into different steps. – We propose supervised and unsupervised approaches for the generation of topic-based language models. The first of them is intended to generate topic-based language models by grouping the documents, in the training set, according to the original topic labels of the corpus. Nevertheless, a goal of this Thesis is to evaluate whether or not the use of these labels to generate language models is optimal in terms of recognition accuracy. For this reason, we propose a second approach, an unsupervised one, in which the objective is to group the data in the training set into automatic topic clusters based on the semantic similarity between the documents. By means of clustering approaches we expect to obtain a more cohesive association of the documents that are related by similar concepts, thus improving the coverage of the topic-based language models and enhancing the performance of the recognition system. – We develop various strategies in order to create a context-dependent language model. Our aim is that this model reflects the semantic context of the current utterance, i.e. the most relevant topics that are being discussed. This model is generated by means of a linear interpolation between the topic-based language models related to the most relevant topics. The estimation of the interpolation weights is based mainly on the outcome of the topic identification process. – Finally, we propose a methodology for the dynamic adaptation of a background language model. The adaptation process takes into account the context-dependent model as well as the information provided by the topic identification process. The scheme used for the adaptation is a linear interpolation between the background model and the context-dependent one. We also study different approaches to determine the interpolation weights used in this adaptation scheme. Once we defined the basis of our topic-motivated contextualization framework, we propose its application into an automatic speech recognition system. We focus on two aspects: the contextualization of the language models used by the system, and the incorporation of semantic-related information into a topic-based adaptation process. To achieve this, we propose an experimental framework based in ‘a two stages’ recognition architecture. In the first stage of the architecture, Information Retrieval and Machine Learning techniques are used to identify the topics in a transcription of an audio segment. This transcription is generated by the recognition system using a background language model. According to the confidence on the topics that have been identified, the dynamic language model adaptation is carried out. In the second stage of the recognition architecture, an adapted language model is used to re-decode the utterance. To test the benefits of the proposed framework, we carry out the evaluation of each of the major systems aforementioned. The evaluation is conducted on speeches of political domain using the EPPS (European Parliamentary Plenary Sessions) database from the European TC-STAR project. We analyse several performance metrics that allow us to compare the improvements of the proposed systems against the baseline ones.
Resumo:
El desarrollo como política de las naciones marca el período de la postguerra, que en América Latina se concreta en múltiples programas de Desarrollo Rural. El modelo inicial de crecimiento económico se va enriqueciendo con visiones centradas en el ser humano y sus múltiples concepciones de desarrollo. En este entender el desarrollo desde la diversidad cultural y antropológica de los pueblos de América Latina, surge la comunicación radiofónica como camino común para la persuasión, socialización y apropiación colectiva de conocimientos y ámbito participativo para consensuar objetivos y acordar actividades. El activismo de los años setenta y ochenta produjo un número considerable de experiencias. La mayoría de ellas han llegado hasta nuestros días, pero el giro tomado por las sociedades digitalizadas y las prioridades medioambientales han dado un nuevo rostro a aquellas primeras experiencias centradas en el desarrollo rural endógeno. Este estudio investiga el complejo práctico-teórico que integra comunicación y desarrollo en contextos territoriales interculturales con población marginal y aplicación de políticas de desarrollo rural. En el capítulo I se recogen las modalidades de cómo se ha aplicado la comunicación en programas de desarrollo, para profundizar en el concepto de comunicación para el desarrollo, conocer sus actores y resultados, y concluir que el desarrollo “con rostro humano” se hace con personas no con políticas oficiales. El capítulo II presenta a los Pueblos Indígenas de la Sierra Ecuatoriana como actores de su proceso de desarrollo hacia el Sumak Kawsay. Los temas tratados en este capítulo muestran los valores y capacidades de las comunidades indígenas de la Sierra Ecuatoriana para la autogestión de su desarrollo, y deja constancia y denuncia de la lectura negativa que se ha venido haciendo de su cosmovisión. Se encuentra respuesta conceptual y metodológica en el Workng With People para optimizar aportes culturales de los Pueblos Indígenas al proceso comunicacional y participativo para mejorar las condiciones de vida y lograr mayores espacios de autonomía y libertad El conocimiento que explica la realidad sin cambiarla no tiene sentido para los pobres. La realidad requiere ser comprendida para construir el conocimiento que la explique y la cambie: ese es el aporte del modelo conocimiento/acción que se presenta en el capítulo III. En este capítulo se exponen metodologías abiertas a la creatividad y flexibles que responden a los principios del modelo conocimiento/acción. La comunicación para el desarrollo se abre a todas ellas como ágora pluricultural que requiere un lenguaje común que se construye desde el aprendizaje social. Los conceptos expuestos en el capítulo III se vinculan en una propuesta metodológica que integra el conocimiento y la acción con los principios del Working With People, propuesta que se expone en el capítulo IV. El modelo del Proyecto de Comunicación para el Desarrollo junta en un modelo de comunicación popular y prácticas liberadoras con métodos cognitivos de la realidad para planificar el cambio desde la población y con la población. Finalmente, el capítulo V recoge la experiencia de la Casa Campesina Cayambe ejecutora del Proyecto de Comunicación para el Desarrollo en la adaptación ejecutada con Radio Mensaje. La riqueza de la experiencia tiende a escaparse de los límites conceptuales y los esquemas dejan espacios de vida ignotos; pero los conceptos y esquemas constituyen el camino para que la experiencia pase a ser objeto conocido y conocimiento socializado. El Proyecto de Comunicación para el Desarrollo es resultado de un proceso de desarrollo construido desde la acción de la Casa Campesina Cayambe durante 25 años en Cayambe. En el capítulo V se describe el contexto del territorio de Cayambe, la identidad de la Casa Campesina Cayambe y de Radio Mensaje, y termina describiendo los logros de 25 años trabajando con la gente. El estudio concluye que la comunicación participativa, como ámbito de aprendizaje social aplicado en procesos de desarrollo rural, integra el conocimiento/acción e incorpora nuevos conocimientos en la población con los que se desarrollan competencias locales para planificar el desarrollo endógeno con flexibilidad y de abajo-arriba. La Figura 0-1 grafica los elementos bases sobre los que se construye el proceso de desarrollo. ABSTRACT Development as a policy of nations marks the postwar period which created several Rural Development Programs in Latin America. The initial model of economic growth was enriched with approaches focused on human beings and their multiple conceptions of development. In this regard, the development from cultural and anthropological diversity in Latin America, radio communication emerges as a common means for persuasion, socialization and collective appropriation of knowledge and scope for participation in order to agree on objectives and activities. Activism of the seventies and eighties generated a considerable number of experiences, most of which are present today. However, a turn taken by digitalized societies and environmental priorities has given those first experiences which focused on endogenous rural development a new face. This study researches the theoretical-practical status that integrates communication and development in intercultural contexts with marginal population and the use of rural development policies. Chapter one shows the modalities of how communication in development programs have been applied to deepen the concept of communication for development, to know those who are involved and its findings, and conclude that development “with a human face” is done with people not with official policies. Chapter two presents Indigenous communities in the Ecuadorian highlands, as people involved in their development process towards Sumak Kawsay. The topics in this chapter show the values and capacities indigenous communities in the Ecuadorian highlands have to self-manage their development, and proves, as well as denounces, that their cosmovision has been negatively perceived. A conceptual and methodological response is found in Working With People in order to optimize cultural contributions of Indigenous People to the communicational and participative process to improve life conditions and have greater spaces of autonomy and freedom. Knowledge which explains reality without changing it does not make any sense for the poor. Reality need to be understood in order to build the knowledge that will explain it and change it: that is the contribution of the knowledge/action model presented in chapter three. This chapter presents open methodologies to creativity which are flexible to respond to the principles of the knowledge/action model. Communication for development is open to all of them as pluricultural agora which requires a common language that is built from social learning. The concepts presented in chapter three are linked in a methodological proposal which integrates knowledge and action with principles of Working With People, proposal which is presented chapter four. The model of the Communication for Development Project includes popular communication elements and liberating practices with cognitive methods of reality to plan change from the population and with the population. Finally, chapter five presents the experiences from the Cayambe Country House, which conducted the Communication for Development Project in the adaptation implemented with Radio Mensaje. The wealth of experience tends to scape from the conceptual limits and the schemes leave gaps of unexplored life; but the concepts and schemes constitute the way so that experience becomes a known object and socialized knowledge. The Communication for Development Project is the result of a development process built from the actions of the Cayambe Country House during 25 years in Cayambe. Chapter five describes the context of Cayambe, the identity of the Cayambe Country House and Radio Mensaje, and the achievements after 25 years of working with its people. The study concludes that participatory communication, as an area of social learning applied to rural development processes, integrates knowledge/action and incorporates new knowledge in communities to develop local competencies to plan endogenous development with flexibility and from the bottom – up.
Resumo:
En los últimos años, la seguridad en redes y servicios ha evolucionado de manera exponencial debido al crecimiento de dispositivos conectados a Internet. Con el avance de las nuevas tecnologías es imprescindible dotar a cualquier servicio o dispositivo de la seguridad adecuada dado que éstos se pueden ver afectados por diversas amenazas tales como la accesibilidad, la integridad, la identidad del usuario, la disponibilidad y la confidencialidad de los datos. Cuando se trata de comunicaciones, la seguridad cobra especial importancia dado que los datos enviados a través de la red pueden ser interceptados por un agente no autorizado y utilizarlos para su propio beneficio o alterar su contenido. Para contrarrestar estos ataques, se han definido unos servicios de seguridad como son, por ejemplo, la confidencialidad y la integridad de los datos. Existen diversos mecanismos de seguridad que implementan estos servicios los cuales se apoyan en técnicas criptográficas. Desde el comienzo de las primeras comunicaciones se han desarrollado diferentes técnicas criptográficas que han ido evolucionando a la vez que éstas. La primera de estas técnicas conocida fue escítala lacedemonia en el siglo V a.C. Los éforos espartanos, que eran los que utilizaban dicha técnica, escribían el mensaje en una cinta de cuero o papiro enrollada en una vara de grosor variable. A continuación desenrollaban la cinta y la enviaban al receptor. Sí el mensaje era interceptado solo podrían leer una pila de letras sin sentido. Sí el mensaje llegaba al receptor, éste enrollaría de nuevo la cinta en una vara del mismo grosor que lo hizo el emisor y leería el mensaje. En este proyecto de fin de grado se va a realizar un estudio del estado de arte sobre mecanismos de seguridad para posteriormente diseñar e implementar un componente de seguridad que ofrecerá los servicios citados. Dicho componente se integrará en el sistema del proyecto Europeo I3RES como un servicio más de los definidos dentro del propio proyecto. Los servicios de seguridad que requiere el proyecto I3RES, y por tanto los que ofrecerá el componente, son los de autenticación, integridad, no repudio y confidencialidad. El proyecto I3RES basa su sistema en una arquitectura distribuida por lo que es necesario realizar un estudio del estado del arte sobre dichas arquitecturas para el correcto despliegue del componente en el sistema. Actualmente, la mayoría de los sistemas mantienen una arquitectura distribuida. Este tipo de arquitectura conecta distintos equipos y dispositivos que están separados físicamente mediante una red llamada middleware. Estos equipos trabajan conjuntamente para implementar un conjunto de servicios. En el documento presente se tratan todos los temas anteriormente citados y se detalla el componente a desarrollar así como las correspondientes pruebas de validación y las conclusiones obtenidas. ABSTRACT. Security in networks and services have been extensively developed in last decades due to the arising of multiple devices connected to Internet. Advances in new technologies enhanced the necessity of security requirements to in order to avoid several warnings such as accessibility, integrity, user identity, availability, and confidentiality of our data. In terms of communications, security is crucial due to data could be intercepted on Internet by non-authorised agents which could use them or even alter their content. In order to avoid this warnings, security services have been defined such as data confidentiality and integrity. There is several security mechanism which implement this services based on cryptographic techniques. In parallel to the evolution of communication, cryptographic technics have been also developed with. The most ancient of technics was described in s. V b.C called escitala lacedemonia. Spartan ephorts, which extensively used this method, were used to write messages on the surface of a leather tape or papyri which were rolled on a rod. Next, they unrolled the tape and they sent to the receptor. Whether the message was intercepted they just would be able to read a mess of letters without sense. On the other hand, if the message arrive to the proper receptor, he roll the tape again in a rod with similar anchor of the transmitter one which leads to the adequate read. This Degree Project is focused on an analysis of the state of art about security mechanism together with a design and implement of a security component which offered the services mentioned. This component will be integrated within the European project I3RES as one of the security elements defined inside the project. The security components required in project I3REs are authentication, integrity and non-repudiation will be offered by the designed component as well. Nowadays, the most of the systems maintain a distributed architecture. This type of architecture connect several devices which are physically separated by a network called middleware. This equipment work altogether to implement a set of services. This document is focused on all the topics mentioned as well as the details of the component developed together with the validation tests required and the conclusions obtained.
Resumo:
Las patologías de la voz se han transformado en los últimos tiempos en una problemática social con cierto calado. La contaminación de las ciudades, hábitos como el de fumar, el uso de aparatos de aire acondicionado, etcétera, contribuyen a ello. Esto alcanza más relevancia en profesionales que utilizan su voz de manera frecuente, como, por ejemplo, locutores, cantantes, profesores o teleoperadores. Por todo ello resultan de especial interés las técnicas de ayuda al diagnóstico que son capaces de extraer conclusiones clínicas a partir de una muestra de la voz grabada con un micrófono, frente a otras invasivas que implican la exploración utilizando laringoscopios, fibroscopios o videoendoscopios, técnicas en cualquier caso mucho más molestas para los pacientes al exigir la introducción parcial del instrumental citado por la garganta, en actuaciones consideradas de tipo quirúrgico. Dentro de aquellas técnicas se ha avanzado mucho en un período de tiempo relativamente corto. En lo que se refiere al diagnóstico de patologías, hemos pasado en los últimos quince años de trabajar principalmente con parámetros extraídos de la señal de voz –tanto en el dominio del tiempo como en el de la frecuencia– y con escalas elaboradas con valoraciones subjetivas realizadas por expertos a hacerlo también con parámetros procedentes de estimaciones de la fuente glótica. La importancia de utilizar la fuente glótica reside, a grandes rasgos, en que se trata de una señal vinculada directamente al estado de la estructura laríngea del locutor y también en que está generalmente menos influida por el tracto vocal que la señal de voz. Es conocido que el tracto vocal guarda más relación con el mensaje hablado, y su presencia dificulta el proceso de detección de patología vocal. Estas estimaciones de la fuente glótica han sido obtenidas a través de técnicas de filtrado inverso desarrolladas por nuestro grupo de investigación. Hemos conseguido, además, profundizar en la naturaleza de la señal glótica: somos capaces de descomponerla y relacionarla con parámetros biomecánicos de los propios pliegues vocales, obteniendo estimaciones de elementos como la masa, la pérdida de energía o la elasticidad del cuerpo y de la cubierta del pliegue, entre otros. De las componentes de la fuente glótica surgen también los denominados parámetros biométricos, relacionados con la forma de la señal, que constituyen por sí mismos una firma biométrica del individuo. También trabajaremos con parámetros temporales, relacionados con las diferentes etapas que se observan dentro de la señal glótica durante un ciclo de fonación. Por último, consideraremos parámetros clásicos de perturbación y energía de la señal. En definitiva, contamos ahora con una considerable cantidad de parámetros glóticos que conforman una base estadística multidimensional, destinada a ser capaz de discriminar personas con voces patológicas o disfónicas de aquellas que no presentan patología en la voz o con voces sanas o normofónicas. Esta tesis doctoral se ocupa de varias cuestiones: en primer lugar, es necesario analizar cuidadosamente estos nuevos parámetros, por lo que ofreceremos una completa descripción estadística de los mismos. También estudiaremos cuestiones como la distribución de los parámetros atendiendo a criterios como el de normalidad estadística de los mismos, ocupándonos especialmente de la diferencia entre las distribuciones que presentan sujetos sanos y sujetos con patología vocal. Para todo ello emplearemos diferentes técnicas estadísticas: generación de elementos y diagramas descriptivos, pruebas de normalidad y diversos contrastes de hipótesis, tanto paramétricos como no paramétricos, que considerarán la diferencia entre los grupos de personas sanas y los grupos de personas con alguna patología relacionada con la voz. Además, nos interesa encontrar relaciones estadísticas entre los parámetros, de cara a eliminar posibles redundancias presentes en el modelo, a reducir la dimensionalidad del problema y a establecer un criterio de importancia relativa en los parámetros en cuanto a su capacidad discriminante para el criterio patológico/sano. Para ello se aplicarán técnicas estadísticas como la Correlación Lineal Bivariada y el Análisis Factorial basado en Componentes Principales. Por último, utilizaremos la conocida técnica de clasificación Análisis Discriminante, aplicada a diferentes combinaciones de parámetros y de factores, para determinar cuáles de ellas son las que ofrecen tasas de acierto más prometedoras. Para llevar a cabo la experimentación se ha utilizado una base de datos equilibrada y robusta formada por doscientos sujetos, cien de ellos pertenecientes al género femenino y los restantes cien al género masculino, con una proporción también equilibrada entre los sujetos que presentan patología vocal y aquellos que no la presentan. Una de las aplicaciones informáticas diseñada para llevar a cabo la recogida de muestras también es presentada en esta tesis. Los distintos estudios estadísticos realizados nos permitirán identificar aquellos parámetros que tienen una mayor contribución a la hora de detectar la presencia de patología vocal. Alguno de los estudios, además, nos permitirá presentar una ordenación de los parámetros en base a su importancia para realizar la detección. Por otra parte, también concluiremos que en ocasiones es conveniente realizar una reducción de la dimensionalidad de los parámetros para mejorar las tasas de detección. Por fin, las propias tasas de detección constituyen quizá la conclusión más importante del trabajo. Todos los análisis presentes en el trabajo serán realizados para cada uno de los dos géneros, de acuerdo con diversos estudios previos que demuestran que los géneros masculino y femenino deben tratarse de forma independiente debido a las diferencias orgánicas observadas entre ambos. Sin embargo, en lo referente a la detección de patología vocal contemplaremos también la posibilidad de trabajar con la base de datos unificada, comprobando que las tasas de acierto son también elevadas. Abstract Voice pathologies have become recently in a social problem that has reached a certain concern. Pollution in cities, smoking habits, air conditioning, etc. contributes to it. This problem is more relevant for professionals who use their voice frequently: speakers, singers, teachers, actors, telemarketers, etc. Therefore techniques that are capable of drawing conclusions from a sample of the recorded voice are of particular interest for the diagnosis as opposed to other invasive ones, involving exploration by laryngoscopes, fiber scopes or video endoscopes, which are techniques much less comfortable for patients. Voice quality analysis has come a long way in a relatively short period of time. In regard to the diagnosis of diseases, we have gone in the last fifteen years from working primarily with parameters extracted from the voice signal (both in time and frequency domains) and with scales drawn from subjective assessments by experts to produce more accurate evaluations with estimates derived from the glottal source. The importance of using the glottal source resides broadly in that this signal is linked to the state of the speaker's laryngeal structure. Unlike the voice signal (phonated speech) the glottal source, if conveniently reconstructed using adaptive lattices, may be less influenced by the vocal tract. As it is well known the vocal tract is related to the articulation of the spoken message and its influence complicates the process of voice pathology detection, unlike when using the reconstructed glottal source, where vocal tract influence has been almost completely removed. The estimates of the glottal source have been obtained through inverse filtering techniques developed by our research group. We have also deepened into the nature of the glottal signal, dissecting it and relating it to the biomechanical parameters of the vocal folds, obtaining several estimates of items such as mass, loss or elasticity of cover and body of the vocal fold, among others. From the components of the glottal source also arise the so-called biometric parameters, related to the shape of the signal, which are themselves a biometric signature of the individual. We will also work with temporal parameters related to the different stages that are observed in the glottal signal during a cycle of phonation. Finally, we will take into consideration classical perturbation and energy parameters. In short, we have now a considerable amount of glottal parameters in a multidimensional statistical basis, designed to be able to discriminate people with pathologic or dysphonic voices from those who do not show pathology. This thesis addresses several issues: first, a careful analysis of these new parameters is required, so we will offer a complete statistical description of them. We will also discuss issues such as distribution of the parameters, considering criteria such as their statistical normality. We will take special care in the analysis of the difference between distributions from healthy subjects and the distributions from pathological subjects. To reach these goals we will use different statistical techniques such as: generation of descriptive items and diagramas, tests for normality and hypothesis testing, both parametric and nonparametric. These latter techniques consider the difference between the groups of healthy subjects and groups of people with an illness related to voice. In addition, we are interested in finding statistical relationships between parameters. There are various reasons behind that: eliminate possible redundancies in the model, reduce the dimensionality of the problem and establish a criterion of relative importance in the parameters. The latter reason will be done in terms of discriminatory power for the criterion pathological/healthy. To this end, statistical techniques such as Bivariate Linear Correlation and Factor Analysis based on Principal Components will be applied. Finally, we will use the well-known technique of Discriminant Analysis classification applied to different combinations of parameters and factors to determine which of these combinations offers more promising success rates. To perform the experiments we have used a balanced and robust database, consisting of two hundred speakers, one hundred of them males and one hundred females. We have also used a well-balanced proportion where subjects with vocal pathology as well as subjects who don´t have a vocal pathology are equally represented. A computer application designed to carry out the collection of samples is also presented in this thesis. The different statistical analyses performed will allow us to determine which parameters contribute in a more decisive way in the detection of vocal pathology. Therefore, some of the analyses will even allow us to present a ranking of the parameters based on their importance for the detection of vocal pathology. On the other hand, we will also conclude that it is sometimes desirable to perform a dimensionality reduction in order to improve the detection rates. Finally, detection rates themselves are perhaps the most important conclusion of the work. All the analyses presented in this work have been performed for each of the two genders in agreement with previous studies showing that male and female genders should be treated independently, due to the observed functional differences between them. However, with regard to the detection of vocal pathology we will consider the possibility of working with the unified database, ensuring that the success rates obtained are also high.
Resumo:
Según la Organización de Aviación Civil Internacional (OACI), las cartas aeronáuticas son un medio adecuado para el suministro de información aeronáutica de manera manejable, condensada y coordinada. Sobre esta cartografía temática los editores autorizados sintetizan datos específicos relacionados con la orientación espacial y la salvaguarda de la seguridad del vuelo. En consecuencia, se postulan como un recurso de referencia básico para la planificación, el control de tránsito aéreo y la propia navegación aérea. Mediante una indagación inicial, en la cual participaron más de 250 pilotos españoles de aviación civil, se revelaron múltiples ineficiencias en el sistema de comunicación gráfica de las cartas aeronáuticas. Su constatación nos lleva a plantear, como punto de partida, que las innovaciones metodológicas que puedan ser alcanzadas, en lo referente a la expresión gráfica de los modelos cartográficos para la navegación aérea, tendrán plena actualidad y recorrido en el contexto conceptual, tecnológico y científico de la información aeronáutica. En consecuencia, se plantea la necesidad de proponer estrategias o pautas de simbolización basadas en el estudio de la interferencia entre conjuntos de símbolos agrupados en distintos ámbitos o niveles de significado o realidad. El fin último es conseguir, en el caso de las cartas aeronáuticas complejas, una carga visual adecuada y ponderada que facilite y mejore la percepción e interpretación durante las labores de vuelo visual. Este propósito se ha materializado en el diseño de una serie de prototipos que tratan así de mejorar la comunicabilidad de las cartas aeronáuticas complejas, en términos de comprensión y legibilidad del mensaje portado. Para alcanzar este objetivo, la metodología propuesta ha sido dividida en tareas sucesivas: (a) caracterizar la utilización práctica de la información geo-aeronáutica, (b) concretar un conjunto limitado de cartas estereotipadas, (c) diseñar y aplicar una metodología para el análisis de la eficiencia comunicacional, (d) determinar la influencia perceptual provocada por la combinación de variables visuales en la representación y, finalmente, (e) el diseño y evaluación de un prototipo de mejora. Una vez analizado un conjunto de Cartas de Aproximación Visual (VAC) vigentes de ediciones características de distintas regiones y continentes, se ha constatado que la observancia de los distintos principios relativos a factores humanos es manifiestamente mejorable. Adicionalmente existe una llamativa diversidad al respecto entre las series de los distintos Servicios de Información Aeronáutica (AIS) autorizados; este hecho se ha sistematizado mediante una escala de grados, permitiendo así calcular la intensidad de cambio o diferencia existente en cada uno de los símbolos analizados con respecto a la especificación simbólica recomendada de OACI. A partir de la sistematización anterior, se ha alcanzado un estereotipado de tendencias de simbolización, permitiendo así elaborar una serie de modelos de representación cartográfica estereotipo. Aplicando algoritmos de saliencia, se han calculado las capacidades de prominencia visual y de atención temprana de cada uno de ellos. A su vez, mediante técnicas de seguimiento ocular, se han cotejado las cualidades comunicativas calculadas de forma teórica con las medidas en una actividad de lectura e interpretación, en la que participaron pilotos militares y profesionales de la información geográfica. Los resultados obtenidos permiten afirmar que es factible predecir de forma básica las capacidades de atención temprana de los objetos gráficos que componen una carta aeronáutica, posibilitando dirigir de forma planificada la atención visual del lector hacia determinados elementos y símbolos, según el propósito que tenga cada carta en particular. Adicionalmente se ha constatado que una adecuación en términos de contraste relacional y combinatoria de variables visuales mejora la eficiencia de los recorridos visuales, optimiza la duración de las fijaciones oculares y, como resultado, se reduce el tiempo de adquisición de la información en la lectura de las cartas aeronáuticas. En consecuencia, tomando en consideración los requerimientos de factores humanos como parámetros de calidad para que el lenguaje gráfico alcance una comunicabilidad adecuada, podemos afirmar que puede mejorarse la eficiencia comunicacional de las cartas aeronáuticas, en términos de velocidad, claridad y cantidad de información que se puede ser percibida y procesada con respecto al desempeño humano óptimo.
Resumo:
En todo el mundo se ha observado un crecimiento exponencial en la incidencia de enfermedades crónicas como la hipertensión y enfermedades cardiovasculares y respiratorias, así como la diabetes mellitus, que causa un número de muertes cada vez mayor en todo el mundo (Beaglehole et al., 2008). En concreto, la prevalencia de diabetes mellitus (DM) está aumentando de manera considerable en todas las edades y representa un serio problema de salud mundial. La diabetes fue la responsable directa de 1,5 millones de muertes en 2012 y 89 millones de años de vida ajustados por discapacidad (AVAD) (OMS, 2014). Uno de los principales dilemas que suelen asociarse a la gestión de EC es la adherencia de los pacientes a los tratamientos, que representa un aspecto multifactorial que necesita asistencia en lo relativo a: educación, autogestión, interacción entre los pacientes y cuidadores y compromiso de los pacientes. Medir la adherencia del tratamiento es complicado y, aunque se ha hablado ampliamente de ello, aún no hay soluciones “de oro” (Reviews, 2002). El compromiso de los pacientes, a través de la participación, colaboración, negociación y a veces del compromiso firme, aumentan las oportunidades para una terapia óptima en la que los pacientes se responsabilizan de su parte en la ecuación de adherencia. Comprometer e involucrar a los pacientes diabéticos en las decisiones de su tratamiento, junto con expertos profesionales, puede ayudar a favorecer un enfoque centrado en el paciente hacia la atención a la diabetes (Martin et al., 2005). La motivación y atribución de poder de los pacientes son quizás los dos factores interventores más relevantes que afectan directamente a la autogestión de la atención a la diabetes. Se ha demostrado que estos dos factores desempeñan un papel fundamental en la adherencia a la prescripción, así como en el fomento exitoso de un estilo de vida sana y otros cambios de conducta (Heneghan et al., 2013). Un plan de educación personalizada es indispensable para proporcionarle al paciente las herramientas adecuadas que necesita para la autogestión efectiva de la enfermedad (El-Gayar et al. 2013). La comunicación efectiva es fundamental para proporcionar una atención centrada en el paciente puesto que influye en las conductas y actitudes hacia un problema de salud ((Frampton et al. 2008). En este sentido, la interactividad, la frecuencia, la temporalización y la adaptación de los mensajes de texto pueden promover la adherencia a un régimen de medicación. Como consecuencia, adaptar los mensajes de texto a los pacientes puede resultar ser una manera de hacer que las sugerencias y la información sean más relevantes y efectivas (Nundy et al. 2013). En este contexto, las tecnologías móviles en el ámbito de la salud (mHealth) están desempeñando un papel importante al conectar con pacientes para mejorar la adherencia a medicamentos recetados (Krishna et al., 2009). La adaptación de los mensajes de texto específicos de diabetes sigue siendo un área de oportunidad para mejorar la adherencia a la medicación y ofrecer motivación a adultos con diabetes. Sin embargo, se necesita más investigación para entender totalmente su eficacia. Los consejos de texto personalizados han demostrado causar un impacto positivo en la atribución de poder a los pacientes, su autogestión y su adherencia a la prescripción (Gatwood et al., 2014). mHealth se puede utilizar para ofrecer programas de asistencia de autogestión a los pacientes con diabetes y, al mismo tiempo, superar las dificultades técnicas y financieras que supone el tratamiento de la diabetes (Free at al., 2013). El objetivo principal de este trabajo de investigación es demostrar que un marco tecnológico basado en las teorías de cambios de conducta, aplicado al campo de la mHealth, permite una mejora de la adherencia al tratamiento en pacientes diabéticos. Como método de definición de una solución tecnológica, se han adoptado un conjunto de diferentes técnicas de conducta validadas denominado marco de compromiso de retroacción conductual (EBF, por sus siglas en inglés) para formular los mensajes, guiar el contenido y evaluar los resultados. Los estudios incorporan elementos del modelo transteórico (TTM, por sus siglas en inglés), la teoría de la fijación de objetivos (GST, por sus siglas en inglés) y los principios de comunicación sanitaria persuasiva y eficaz. Como concepto general, el modelo TTM ayuda a los pacientes a progresar a su próxima fase de conducta a través de mensajes de texto motivados específicos y permite que el médico identifique la fase actual y adapte sus estrategias individualmente. Además, se adoptan las directrices del TTM para fijar objetivos personalizados a un nivel apropiado a la fase de cambio del paciente. La GST encierra normas que van a ponerse en práctica para promover la intervención educativa y objetivos de pérdida de peso. Finalmente, los principios de comunicación sanitaria persuasiva y eficaz aplicados a la aparición de los mensajes se han puesto en marcha para aumentar la efectividad. El EBF tiene como objetivo ayudar a los pacientes a mejorar su adherencia a la prescripción y encaminarlos a una mejora general en la autogestión de la diabetes mediante mensajes de texto personalizados denominados mensajes de retroacción automáticos (AFM, por sus siglas en inglés). Después de una primera revisión del perfil, consistente en identificar características significativas del paciente basadas en las necesidades de tratamiento, actitudes y conductas de atención sanitaria, el sistema elige los AFM personalizados, los aprueba el médico y al final se transfieren a la interfaz del paciente. Durante el tratamiento, el usuario recopila los datos en dispositivos de monitorización de pacientes (PMD, por sus siglas en inglés) de una serie de dispositivos médicos y registros manuales. Los registros consisten en la toma de medicación, dieta y actividad física y tareas de aprendizaje y control de la medida del metabolismo. El compromiso general del paciente se comprueba al estimar el uso del sistema y la adherencia del tratamiento y el estado de los objetivos del paciente a corto y largo plazo. El módulo de análisis conductual, que consiste en una serie de reglas y ecuaciones, calcula la conducta del paciente. Tras lograr el análisis conductual, el módulo de gestión de AFM actualiza la lista de AFM y la configuración de los envíos. Las actualizaciones incluyen el número, el tipo y la frecuencia de mensajes. Los AFM los revisa periódicamente el médico que también participa en el perfeccionamiento del tratamiento, adaptado a la fase transteórica actual. Los AFM se segmentan en distintas categorías y niveles y los pacientes pueden ajustar la entrega del mensaje de acuerdo con sus necesidades personales. El EBF se ha puesto en marcha integrado dentro del sistema METABO, diseñado para facilitar al paciente diabético que controle sus condiciones relevantes de una manera menos intrusiva. El dispositivo del paciente se vincula en una plataforma móvil, mientras que una interfaz de panel médico permite que los profesionales controlen la evolución del tratamiento. Herramientas específicas posibilitan que los profesionales comprueben la adherencia del paciente y actualicen la gestión de envíos de AFM. El EBF fue probado en un proyecto piloto controlado de manera aleatoria. El principal objetivo era examinar la viabilidad y aceptación del sistema. Los objetivos secundarios eran también la evaluación de la eficacia del sistema en lo referente a la mejora de la adherencia, el control glucémico y la calidad de vida. Se reclutaron participantes de cuatro centros clínicos distintos en Europa. La evaluación del punto de referencia incluía datos demográficos, estado de la diabetes, información del perfil, conocimiento de la diabetes en general, uso de las plataformas TIC, opinión y experiencia con dispositivos electrónicos y adopción de buenas prácticas con la diabetes. La aceptación y eficacia de los criterios de evaluación se aplicaron para valorar el funcionamiento del marco tecnológico. El principal objetivo era la valoración de la eficacia del sistema en lo referente a la mejora de la adherencia. En las pruebas participaron 54 pacientes. 26 fueron asignados al grupo de intervención y equipados con tecnología móvil donde estaba instalado el EBF: 14 pacientes tenían T1DM y 12 tenían T2DM. El grupo de control estaba compuesto por 25 pa cientes que fueron tratados con atención estándar, sin el empleo del EBF. La intervención profesional tanto de los grupos de control como de intervención corrió a cargo de 24 cuidadores, entre los que incluían diabetólogos, nutricionistas y enfermeras. Para evaluar la aceptabilidad del sistema y analizar la satisfacción de los usuarios, a través de LimeSurvey, se creó una encuesta multilingüe tanto para los pacientes como para los profesionales. Los resultados también se recopilaron de los archivos de registro generados en los PMD, el panel médico profesional y las entradas de la base de datos. Los mensajes enviados hacia y desde el EBF y los archivos de registro del sistema y los servicios de comunicación se grabaron durante las cinco semanas del estudio. Se entregaron un total de 2795 mensajes, lo que supuso una media de 107,50 mensajes por paciente. Como se muestra, los mensajes disminuyen con el tiempo, indicando una mejora global de la adherencia al plan de tratamiento. Como se esperaba, los pacientes con T1DM recibieron más consejos a corto plazo, en relación a su estado. Del mismo modo, al ser el centro de T2DM en cambios de estilo de vida sostenible a largo plazo, los pacientes con T2DM recibieron más consejos de recomendación, en cuanto a dietas y actividad física. También se ha llevado a cabo una comparación de la adherencia e índices de uso para pacientes con T1DM y T2DM, entre la primera y la segunda mitad de la prueba. Se han observado resultados favorables para el uso. En lo relativo a la adherencia, los resultados denotaron una mejora general en cada dimensión del plan de tratamiento, como la nutrición y las mediciones de inserción de glucosa en la sangre. Se han llevado a cabo más estudios acerca del cambio a nivel educativo antes y después de la prueba, medidos tanto para grupos de control como de intervención. Los resultados indicaron que el grupo de intervención había mejorado su nivel de conocimientos mientras que el grupo de control mostró una leve disminución. El análisis de correlación entre el nivel de adherencia y las AFM ha mostrado una mejora en la adherencia de uso para los pacientes que recibieron los mensajes de tipo alertas, y unos resultados no significativos aunque positivos relacionados con la adherencia tanto al tratamiento que al uso correlacionado con los recordatorios. Por otra parte, los AFM parecían ayudar a los pacientes que no tomaban suficientemente en serio su tratamiento en el principio y que sí estaban dispuestos a responder a los mensajes recibidos. Aun así, los pacientes que recibieron demasiadas advertencias, comenzaron a considerar el envío de mensajes un poco estresante. El trabajo de investigación llevado a cabo al desarrollar este proyecto ofrece respuestas a las cuatro hipótesis de investigación que fueron la motivación para el trabajo. • Hipótesis 1 : es posible definir una serie de criterios para medir la adherencia en pacientes diabéticos. • Hipótesis 2: es posible diseñar un marco tecnológico basado en los criterios y teorías de cambio de conducta mencionados con anterioridad para hacer que los pacientes diabéticos se comprometan a controlar su enfermedad y adherirse a planes de atención. • Hipótesis 3: es posible poner en marcha el marco tecnológico en el sector de la salud móvil. • Hipótesis 4: es posible utilizar el marco tecnológico como solución de salud móvil en un contexto real y tener efectos positivos en lo referente a indicadores de control de diabetes. La verificación de cada hipótesis permite ofrecer respuesta a la hipótesis principal: La hipótesis principal es: es posible mejorar la adherencia diabética a través de un marco tecnológico mHealth basado en teorías de cambio de conducta. El trabajo llevado a cabo para responder estas preguntas se explica en este trabajo de investigación. El marco fue desarrollado y puesto en práctica en el Proyecto METABO. METABO es un Proyecto I+D, cofinanciado por la Comisión Europea (METABO 2008) que integra infraestructura móvil para ayudar al control, gestión y tratamiento de los pacientes con diabetes mellitus de tipo 1 (T1DM) y los que padecen diabetes mellitus de tipo 2 (T2DM). ABSTRACT Worldwide there is an exponential growth in the incidence of Chronic Diseases (CDs), such as: hypertension, cardiovascular and respiratory diseases, as well as diabetes mellitus, leading to rising numbers of deaths worldwide (Beaglehole et al. 2008). In particular, the prevalence of diabetes mellitus (DM) is largely increasing among all ages and constitutes a major worldwide health problem. Diabetes was directly responsible for 1,5 million deaths in 2012 and 89 million Disability-adjusted life year (DALYs) (WHO 2014). One of the key dilemmas often associated to CD management is the patients’ adherence to treatments, representing a multi-factorial aspect that requires support in terms of: education, self-management, interaction between patients and caregivers, and patients’ engagement. Measuring adherence is complex and, even if widely discussed, there are still no “gold” standards ((Giardini et al. 2015), (Costa et al. 2015). Patient’s engagement, through participation, collaboration, negotiation, and sometimes compromise, enhance opportunities for optimal therapy in which patients take responsibility for their part of the adherence equation. Engaging and involving diabetic patients in treatment decisions, along with professional expertise, can help foster a patient-centered approach to diabetes care (Martin et al. 2005). Patients’ motivation and empowerment are perhaps the two most relevant intervening factors that directly affect self-management of diabetes care. It has been demonstrated that these two factors play an essential role in prescription adherence, as well as for the successful encouragement of a healthy life-style and other behavioural changes (Heneghan et al. 2013). A personalised education plan is indispensable in order to provide the patient with the appropriate tools needed for the effective self-management of the disease (El-Gayar et al. 2013). Effective communication is at the core of providing patient-centred care since it influences behaviours and attitudes towards a health problem (Frampton et al. 2008). In this regard, interactivity, frequency, timing, and tailoring of text messages may promote adherence to a medication regimen. As a consequence, tailoring text messages to patients can constitute a way of making suggestions and information more relevant and effective (Nundy et al. 2013). In this context, mobile health technologies (mHealth) are playing significant roles in improving adherence to prescribed medications (Krishna et al. 2009). The tailoring of diabetes-specific text messages remains an area of opportunity to improve medication adherence and provide motivation to adults with diabetes but further research is needed to fully understand their effectiveness. Personalized text advices have proven to produce a positive impact on patients’ empowerment, self-management, and adherence to prescriptions (Gatwood et al. 2014). mHealth can be used for offering self-management support programs to diabetes patients and at the same time surmounting the technical and financial difficulties involved in diabetes treatment (Free et al. 2013). The main objective of this research work is to demonstrate that a technological framework, based on behavioural change theories, applied to mHealth domain, allows improving adherence treatment in diabetic patients. The framework, named Engagement Behavioural Feedback Framework (EBF), is built on top of validated behavioural techniques to frame messages, guide the definition of contents and assess outcomes: elements from the Transtheoretical Model (TTM), the Goal-Setting Theory (GST), Effective Health Communication (EHC) guidelines and Principles of Persuasive Technology (PPT) were incorporated. The TTM helps patients to progress to a next behavioural stage, through specific motivated text messages, and allow clinician’s identifying the current stage and tailor its strategies individually. Moreover, TTM guidelines are adopted to set customised goals at a level appropriate to the patient’s stage of change. The GST was used to build rules to be applied for enhancing educational intervention and weight loss objectives. Finally, the EHC guidelines and the PPT were applied to increase the effectiveness of messages. The EBF aims to support patients on improving their prescription adherence and persuade them towards a general improvement in diabetes self-management, by means of personalised text messages, named Automatic Feedback Messages (AFM). After a first profile screening, consisting in identifying meaningful patient characteristics based on treatment needs, attitudes and health care behaviours, customised AFMs are selected by the system, approved by the professional, and finally transferred into the patient interface. During the treatment, the user collects the data into a Patient Monitoring Device (PMD) from a set of medical devices and from manual inputs. Inputs consist in medication intake, diet and physical activity, metabolic measurement monitoring and learning tasks. Patient general engagement is checked by estimating the usage of the system and the adherence of treatment and patient goals status in the short and the long term period. The Behavioural Analysis Module, consisting in a set of rules and equations, calculates the patient’s behaviour. After behavioural analysis is accomplished, the AFM library and the dispatch setting are updated by the AFM Manager module. Updates include the number, the type and the frequency of messages. The AFMs are periodically supervised by the professional who also participates to the refinement of the treatment, adapted to the current transtheoretical stage. The AFMs are segmented in different categories and levels and patients can adjust message delivery in accordance with their personal needs. The EBF was integrated to the METABO system, designed to facilitate diabetic patients in managing their disease in a less intrusive approach. Patient device corresponds in a mobile platform, while a medical panel interface allows professionals to monitoring the treatment evolution. Specific tools allow professional to check patient adherence and to update the AFMs dispatch management. The EBF was tested in a randomised controlled pilot. The main objective was to examine the feasibility and acceptance of the system. Secondary objectives were also the assessment of the effectiveness of system in terms of adherence improvement, glycaemic control, and quality of life. Participants were recruited from four different clinical centres in Europe. The baseline assessment included demographics, diabetes status, profile information, knowledge about diabetes in general, usage of ICT platforms, opinion and experience about electronic devices and adoption of good practices with diabetes. Acceptance and the effectiveness evaluation criteria were applied to evaluate the performance of the technological framework. The main objective was the assessment of the effectiveness of system in terms of adherence improvement. Fifty-four patients participated on the trials. Twenty-six patients were assigned in the intervention group and equipped with mobile where the EBF was installed: 14 patients were T1DM and 12 were T2DM. The control group was composed of 25 patients that were treated through a standard care, without the usage of the EBF. Professional’s intervention for both intervention and control groups was carried out by 24 care providers, including endocrinologists, nutritionists, and nurses. In order to evaluate the system acceptability and analyse the users’ satisfaction, an online multi-language survey, using LimeSurvey, was produced for both patients and professionals. Results were also collected from the log-files generated in the PMDs, the professional medical panel and the entries of the data base. The messages sent to and from the EBF and the log-files of the system and communication services were recorded over 5 weeks of the study. A total of 2795 messages were submitted, representing an average of 107,50 messages per patient. As demonstrated, messages decrease over time indicating an overall improvement of the care plan’s adherence. As expected, T1DM patients were more loaded with short-term advices, in accordance with their condition. Similarly, being the focus of T2DM on long-term sustainable lifestyle changes, T2DM received more reminders advices, as for diet and physical activity. Favourable outcomes were observed for treatment and usage adherences of the intervention group: for both the adherence indices, results denoted a general improvement on each care plan’s dimension, such as on nutrition and blood glucose input measurements. Further studies were conducted on the change on educational level before and after the trial, measured for both control and intervention groups. The outcomes indicated the intervention group has improved its level of knowledge, while the control group denoted a low decrease. The correlation analysis between the level of adherences and the AFMs showed an improvement in usage adherence for patients who received warnings message, while non-significantly yet even positive indicators related to both treatment and usage adherence correlated with the Reminders. Moreover, the AFMs seemed to help those patients who did not take their treatment seriously enough in the beginning and who were willing to respond to the messages they received. Even though, patients who received too many Warnings, started to consider the message dispatch to be a bit stressful. The research work carried out in developing this research work provides responses to the four research hypothesis that were the motivation for the work: •Hypothesis 1: It is possible to define a set of criteria to measure adherence in diabetic patients. •Hypothesis 2: It is possible to design a technological framework, based on the aforementioned criteria and behavioural change theories, to engage diabetic patients in managing their disease and adhere to care plans. •Hypothesis 3: It is possible to implement the technological framework in the mobile health domain. •Hypothesis 4: It is possible to use the technological framework as a mobile health solution in a real context and have positive effects in terms of diabetes management indicators. The verification of each hypothesis allowed us to provide a response to the main hypothesis: The Main Hypothesis is: It is possible to improve diabetic adherence through a mHealth technological framework based on behavioural change theories. The work carried out to answer these questions is explained in this research work. The framework was developed and applied in the METABO project. METABO is an R&D project, co-funded by the European Commission (METABO 2008) that integrates mobile infrastructure for supporting the monitoring, management, and treatment of type 1 diabetes mellitus (T1DM) and type 2 diabetes mellitus (T2DM) patients.
Resumo:
La computación ubicua está extendiendo su aplicación desde entornos específicos hacia el uso cotidiano; el Internet de las cosas (IoT, en inglés) es el ejemplo más brillante de su aplicación y de la complejidad intrínseca que tiene, en comparación con el clásico desarrollo de aplicaciones. La principal característica que diferencia la computación ubicua de los otros tipos está en como se emplea la información de contexto. Las aplicaciones clásicas no usan en absoluto la información de contexto o usan sólo una pequeña parte de ella, integrándola de una forma ad hoc con una implementación específica para la aplicación. La motivación de este tratamiento particular se tiene que buscar en la dificultad de compartir el contexto con otras aplicaciones. En realidad lo que es información de contexto depende del tipo de aplicación: por poner un ejemplo, para un editor de imágenes, la imagen es la información y sus metadatos, tales como la hora de grabación o los ajustes de la cámara, son el contexto, mientras que para el sistema de ficheros la imagen junto con los ajustes de cámara son la información, y el contexto es representado por los metadatos externos al fichero como la fecha de modificación o la de último acceso. Esto significa que es difícil compartir la información de contexto, y la presencia de un middleware de comunicación que soporte el contexto de forma explícita simplifica el desarrollo de aplicaciones para computación ubicua. Al mismo tiempo el uso del contexto no tiene que ser obligatorio, porque si no se perdería la compatibilidad con las aplicaciones que no lo usan, convirtiendo así dicho middleware en un middleware de contexto. SilboPS, que es nuestra implementación de un sistema publicador/subscriptor basado en contenido e inspirado en SIENA [11, 9], resuelve dicho problema extendiendo el paradigma con dos elementos: el Contexto y la Función de Contexto. El contexto representa la información contextual propiamente dicha del mensaje por enviar o aquella requerida por el subscriptor para recibir notificaciones, mientras la función de contexto se evalúa usando el contexto del publicador y del subscriptor. Esto permite desacoplar la lógica de gestión del contexto de aquella de la función de contexto, incrementando de esta forma la flexibilidad de la comunicación entre varias aplicaciones. De hecho, al utilizar por defecto un contexto vacío, las aplicaciones clásicas y las que manejan el contexto pueden usar el mismo SilboPS, resolviendo de esta forma la incompatibilidad entre las dos categorías. En cualquier caso la posible incompatibilidad semántica sigue existiendo ya que depende de la interpretación que cada aplicación hace de los datos y no puede ser solucionada por una tercera parte agnóstica. El entorno IoT conlleva retos no sólo de contexto, sino también de escalabilidad. La cantidad de sensores, el volumen de datos que producen y la cantidad de aplicaciones que podrían estar interesadas en manipular esos datos está en continuo aumento. Hoy en día la respuesta a esa necesidad es la computación en la nube, pero requiere que las aplicaciones sean no sólo capaces de escalar, sino de hacerlo de forma elástica [22]. Desgraciadamente no hay ninguna primitiva de sistema distribuido de slicing que soporte un particionamiento del estado interno [33] junto con un cambio en caliente, además de que los sistemas cloud actuales como OpenStack u OpenNebula no ofrecen directamente una monitorización elástica. Esto implica que hay un problema bilateral: cómo puede una aplicación escalar de forma elástica y cómo monitorizar esa aplicación para saber cuándo escalarla horizontalmente. E-SilboPS es la versión elástica de SilboPS y se adapta perfectamente como solución para el problema de monitorización, gracias al paradigma publicador/subscriptor basado en contenido y, a diferencia de otras soluciones [5], permite escalar eficientemente, para cumplir con la carga de trabajo sin sobre-provisionar o sub-provisionar recursos. Además está basado en un algoritmo recientemente diseñado que muestra como añadir elasticidad a una aplicación con distintas restricciones sobre el estado: sin estado, estado aislado con coordinación externa y estado compartido con coordinación general. Su evaluación enseña como se pueden conseguir notables speedups, siendo el nivel de red el principal factor limitante: de hecho la eficiencia calculada (ver Figura 5.8) demuestra cómo se comporta cada configuración en comparación con las adyacentes. Esto permite conocer la tendencia actual de todo el sistema, para saber si la siguiente configuración compensará el coste que tiene con la ganancia que lleva en el throughput de notificaciones. Se tiene que prestar especial atención en la evaluación de los despliegues con igual coste, para ver cuál es la mejor solución en relación a una carga de trabajo dada. Como último análisis se ha estimado el overhead introducido por las distintas configuraciones a fin de identificar el principal factor limitante del throughput. Esto ayuda a determinar la parte secuencial y el overhead de base [26] en un despliegue óptimo en comparación con uno subóptimo. Efectivamente, según el tipo de carga de trabajo, la estimación puede ser tan baja como el 10 % para un óptimo local o tan alta como el 60 %: esto ocurre cuando se despliega una configuración sobredimensionada para la carga de trabajo. Esta estimación de la métrica de Karp-Flatt es importante para el sistema de gestión porque le permite conocer en que dirección (ampliar o reducir) es necesario cambiar el despliegue para mejorar sus prestaciones, en lugar que usar simplemente una política de ampliación. ABSTRACT The application of pervasive computing is extending from field-specific to everyday use. The Internet of Things (IoT) is the shiniest example of its application and of its intrinsic complexity compared with classical application development. The main characteristic that differentiates pervasive from other forms of computing lies in the use of contextual information. Some classical applications do not use any contextual information whatsoever. Others, on the other hand, use only part of the contextual information, which is integrated in an ad hoc fashion using an application-specific implementation. This information is handled in a one-off manner because of the difficulty of sharing context across applications. As a matter of fact, the application type determines what the contextual information is. For instance, for an imaging editor, the image is the information and its meta-data, like the time of the shot or camera settings, are the context, whereas, for a file-system application, the image, including its camera settings, is the information and the meta-data external to the file, like the modification date or the last accessed timestamps, constitute the context. This means that contextual information is hard to share. A communication middleware that supports context decidedly eases application development in pervasive computing. However, the use of context should not be mandatory; otherwise, the communication middleware would be reduced to a context middleware and no longer be compatible with non-context-aware applications. SilboPS, our implementation of content-based publish/subscribe inspired by SIENA [11, 9], solves this problem by adding two new elements to the paradigm: the context and the context function. Context represents the actual contextual information specific to the message to be sent or that needs to be notified to the subscriber, whereas the context function is evaluated using the publisher’s context and the subscriber’s context to decide whether the current message and context are useful for the subscriber. In this manner, context logic management is decoupled from context management, increasing the flexibility of communication and usage across different applications. Since the default context is empty, context-aware and classical applications can use the same SilboPS, resolving the syntactic mismatch that there is between the two categories. In any case, the possible semantic mismatch is still present because it depends on how each application interprets the data, and it cannot be resolved by an agnostic third party. The IoT environment introduces not only context but scaling challenges too. The number of sensors, the volume of the data that they produce and the number of applications that could be interested in harvesting such data are growing all the time. Today’s response to the above need is cloud computing. However, cloud computing applications need to be able to scale elastically [22]. Unfortunately there is no slicing, as distributed system primitives that support internal state partitioning [33] and hot swapping and current cloud systems like OpenStack or OpenNebula do not provide elastic monitoring out of the box. This means there is a two-sided problem: 1) how to scale an application elastically and 2) how to monitor the application and know when it should scale in or out. E-SilboPS is the elastic version of SilboPS. I t is the solution for the monitoring problem thanks to its content-based publish/subscribe nature and, unlike other solutions [5], it scales efficiently so as to meet workload demand without overprovisioning or underprovisioning. Additionally, it is based on a newly designed algorithm that shows how to add elasticity in an application with different state constraints: stateless, isolated stateful with external coordination and shared stateful with general coordination. Its evaluation shows that it is able to achieve remarkable speedups where the network layer is the main limiting factor: the calculated efficiency (see Figure 5.8) shows how each configuration performs with respect to adjacent configurations. This provides insight into the actual trending of the whole system in order to predict if the next configuration would offset its cost against the resulting gain in notification throughput. Particular attention has been paid to the evaluation of same-cost deployments in order to find out which one is the best for the given workload demand. Finally, the overhead introduced by the different configurations has been estimated to identify the primary limiting factor for throughput. This helps to determine the intrinsic sequential part and base overhead [26] of an optimal versus a suboptimal deployment. Depending on the type of workload, this can be as low as 10% in a local optimum or as high as 60% when an overprovisioned configuration is deployed for a given workload demand. This Karp-Flatt metric estimation is important for system management because it indicates the direction (scale in or out) in which the deployment has to be changed in order to improve its performance instead of simply using a scale-out policy.
Resumo:
LLas nuevas tecnologías orientadas a la nube, el internet de las cosas o las tendencias "as a service" se basan en el almacenamiento y procesamiento de datos en servidores remotos. Para garantizar la seguridad en la comunicación de dichos datos al servidor remoto, y en el manejo de los mismos en dicho servidor, se hace uso de diferentes esquemas criptográficos. Tradicionalmente, dichos sistemas criptográficos se centran en encriptar los datos mientras no sea necesario procesarlos (es decir, durante la comunicación y almacenamiento de los mismos). Sin embargo, una vez es necesario procesar dichos datos encriptados (en el servidor remoto), es necesario desencriptarlos, momento en el cual un intruso en dicho servidor podría a acceder a datos sensibles de usuarios del mismo. Es más, este enfoque tradicional necesita que el servidor sea capaz de desencriptar dichos datos, teniendo que confiar en la integridad de dicho servidor de no comprometer los datos. Como posible solución a estos problemas, surgen los esquemas de encriptación homomórficos completos. Un esquema homomórfico completo no requiere desencriptar los datos para operar con ellos, sino que es capaz de realizar las operaciones sobre los datos encriptados, manteniendo un homomorfismo entre el mensaje cifrado y el mensaje plano. De esta manera, cualquier intruso en el sistema no podría robar más que textos cifrados, siendo imposible un robo de los datos sensibles sin un robo de las claves de cifrado. Sin embargo, los esquemas de encriptación homomórfica son, actualmente, drás-ticamente lentos comparados con otros esquemas de encriptación clásicos. Una op¬eración en el anillo del texto plano puede conllevar numerosas operaciones en el anillo del texto encriptado. Por esta razón, están surgiendo distintos planteamientos sobre como acelerar estos esquemas para un uso práctico. Una de las propuestas para acelerar los esquemas homomórficos consiste en el uso de High-Performance Computing (HPC) usando FPGAs (Field Programmable Gate Arrays). Una FPGA es un dispositivo semiconductor que contiene bloques de lógica cuya interconexión y funcionalidad puede ser reprogramada. Al compilar para FPGAs, se genera un circuito hardware específico para el algorithmo proporcionado, en lugar de hacer uso de instrucciones en una máquina universal, lo que supone una gran ventaja con respecto a CPUs. Las FPGAs tienen, por tanto, claras difrencias con respecto a CPUs: -Arquitectura en pipeline: permite la obtención de outputs sucesivos en tiempo constante -Posibilidad de tener multiples pipes para computación concurrente/paralela. Así, en este proyecto: -Se realizan diferentes implementaciones de esquemas homomórficos en sistemas basados en FPGAs. -Se analizan y estudian las ventajas y desventajas de los esquemas criptográficos en sistemas basados en FPGAs, comparando con proyectos relacionados. -Se comparan las implementaciones con trabajos relacionados New cloud-based technologies, the internet of things or "as a service" trends are based in data storage and processing in a remote server. In order to guarantee a secure communication and handling of data, cryptographic schemes are used. Tradi¬tionally, these cryptographic schemes focus on guaranteeing the security of data while storing and transferring it, not while operating with it. Therefore, once the server has to operate with that encrypted data, it first decrypts it, exposing unencrypted data to intruders in the server. Moreover, the whole traditional scheme is based on the assumption the server is reliable, giving it enough credentials to decipher data to process it. As a possible solution for this issues, fully homomorphic encryption(FHE) schemes is introduced. A fully homomorphic scheme does not require data decryption to operate, but rather operates over the cyphertext ring, keeping an homomorphism between the cyphertext ring and the plaintext ring. As a result, an outsider could only obtain encrypted data, making it impossible to retrieve the actual sensitive data without its associated cypher keys. However, using homomorphic encryption(HE) schemes impacts performance dras-tically, slowing it down. One operation in the plaintext space can lead to several operations in the cyphertext space. Because of this, different approaches address the problem of speeding up these schemes in order to become practical. One of these approaches consists in the use of High-Performance Computing (HPC) using FPGAs (Field Programmable Gate Array). An FPGA is an integrated circuit designed to be configured by a customer or a designer after manufacturing - hence "field-programmable". Compiling into FPGA means generating a circuit (hardware) specific for that algorithm, instead of having an universal machine and generating a set of machine instructions. FPGAs have, thus, clear differences compared to CPUs: - Pipeline architecture, which allows obtaining successive outputs in constant time. -Possibility of having multiple pipes for concurrent/parallel computation. Thereby, In this project: -We present different implementations of FHE schemes in FPGA-based systems. -We analyse and study advantages and drawbacks of the implemented FHE schemes, compared to related work.
Resumo:
El proyecto se trata de una API de desarrollo para el DNI electrónico que permita crear de forma sencilla aplicaciones cuya funcionalidad se apoye en el uso del DNI electrónico. De esta forma, el framework facilita el acceso a las principales operaciones soportadas por el DNIe mediante la invocación de métodos sencillos. Una de las funcionalidades es la de realizar un proceso de autenticación con el DNIe utilizando para ello las capacidades criptográficas del chip que incorpora y el certificado de autenticación. Esta funcionalidad puede ser accedida también de forma dividida en dos pasos, para dar soporte a aplicaciones con arquitectura cliente-servidor. El framework también ofrece la funcionalidad de firma electrónica con el DNIe, una firma legalmente válida y que permite chequear también la integridad del mensaje firmado. También se soporta por el framework la comprobación de un certificado mediante el protocolo OCSP, funcionalidad que si bien no implica directamente al DNIe, sí que es importante en el marco de procesos que se ven involucrados en cualquier Infraestructura de Clave Pública. ABSTRACT The project is a development API for DNIe card that allows easily create applications whose functionality is supported in the use of DNIe. Thus, the framework provides access to the main operations supported by the DNIe by invoking simple methods. One of the features is to perform an authentication process with the DNIe using its chip’s capabilities and authentication certificate. This functionality can also be accessed so divided into two steps, to support applications with client-server architecture. The framework also provides the functionality of electronic signatures with DNIe, a legally valid signature and allows also check the integrity of the signed message. Verification of a certificate using OCSP, functionality but does not imply directly to DNIe is also supported by the framework, yes it is important in the context of processes that are involved in any Public Key Infrastructure.
Resumo:
Esta tesis integra un estudio reflexivo sobre la relación de dependencia entre la creación y la memoria a través del análisis de la última obra del escultor Juan Muñoz: Double Bind (Tate Modern, Londres, 2001). Desde esta posición es obligado replantear el análisis de la obra, lo que hace necesario su estudio cubriendo el mayor espectro posible de información accesible más allá de la obra en sí, para aproximarse a la convergencia entre memoria y creación. La perspectiva de análisis propuesta abre camino a nuevas consideraciones so¬bre la relevancia del conocimiento en el desarrollo del proceso creativo. Este análisis no debe tan sólo suponer una aportación al conocimiento del trabajo de Juan Muñoz. Debe también desprenderse de él la innegable participación y necesaria lectura del pasado en el presente. La amnesia de los tiempos pasados impide completar el atlas de imágenes en las que se apoya la creación impidiendo el conocimiento del origen de las fuentes de inspi¬ración y las bases de la creación de una determinada obra. Este hecho limita y distorsiona sus posibles interpretaciones. Pretendo un acercamiento al entendimiento de la forma de mirar y de crear a través del tiempo que es memoria. La memoria tiene un cometido de crucial importancia para la actividad mental y juega un papel fundamental en la conducta y en la creación. La obra es el resultado de la búsqueda de una idea que exprese algo que el creador no puede ex¬presar de otra manera. Es la necesidad de expresar las ideas mediante un lenguaje que se desarrolla en el tiempo y en el espacio, reflejo del ser que responde al pensamiento. Es una forma de experiencia donde subyacen las sendas del pasado y donde se plantea el futuro. Sólo el creador accede a la obra desde dentro, el observador llega a ella desde el exterior y mediante su propia subjetividad. Las obras son formas de experiencia de sus autores, comunicar el mensaje de dicha experiencia supone por tanto interpretar. Persiguiendo la necesidad de saber y entender, pretender explicar el sentido de una cosa implica una apreciación intencionada asociada al entendimiento del intérprete. Las obras son produc¬tos que portan un mensaje y que contienen en su estructura las trazas del tiempo vivido por su creador. Si se quiere adquirir un acercamiento que represente la posición de un autor, será necesario no solo mirar a través de ella, si no introducirse en el contexto de su historia. Mirar hacia atrás, hacia la profundidad del presente para tener conciencia del pensamiento presente y futuro. Recorrer de este modo la instalación Double Bind de Juan Muñoz proporciona una síntesis de sus preocupaciones e intereses a la vez que aporta un conocimiento no necesariamente inmediato, pero relevante y trascendente de la obra, su creador y la historia. ABSTRACT This thesis comprises a reflective study of the dependence relationship between creation and memory through the analysis of the latest work by the sculptor Juan Muñoz: Double Bind (Tate Modern, London, 2001). From this position, it is mandatory to rethink the analysis of the work, making it necessary to cover the widest possible range of information available beyond the work itself, in order to obtain a closer view of the convergence between memory and creation. The proposed analytical approach opens up new considerations on the relevance of knowledge during the development of the creative process. This analysis should not only make a contribution to the knowledge of the work of Juan Muñoz. It should also infer the undeniable involvement and the necessary reading of the past in the present. Amnesia regarding past makes it impossible to complete the atlas of images on which the creation is based, blocking knowledge of the origin of the sources of inspiration and the basis for the creation of a specific work. This fact limits and distorts its possible interpretations. My intention is an approach to how to understand memory as the way of looking and creating over time. Memory has a crucial role to mental activity and plays a key role in behaviour and creation. The work is the result of finding an idea that expresses something that the creator can not express otherwise. It is the need to express ideas by means of a language that develops throughout time and space, a reflection of the being that responds to the thought. It is a way of experience underlying the paths of the past and where the future is set out. Only the creator can access the work from the inside. The observer sees it from the outside and in accordance with his/her own subjectivity. The works form a part of the experience of their authors, thus implying the interpretation of the message of their experience being passed on. The pursuit of knowledge and understanding, and trying to explain the meaning of something implies a deliberate appreciation associated with the understanding of the interpreter. The works are products bearing a message and containing in their structure traces of the time lived by their creator. If one wants to come close to what the author’s posture represents, it will not only be necessary to penetrate it, but also to introduce oneself into the context of its history. Take a look back, towards the depth of the present in order to become aware of present and future thinking. To go across the installation of Double Bind by Juan Muñoz in this way offers a synthesis of his concerns and interests while also providing a not necessarily immediate knowledge, but one which is relevant and important to the work, its creator and history.
Resumo:
Cuando se trata de Rem Koolhaas, su espejo no refleja una sola imagen sino múltiples, es un prisma poliédrico. Su espejo nos devuelve el Rem mediático, el intelectual, el conceptualizador, el constructor, el analista, el periodista, el actor... En el caso de esta investigación, fijamos el punto de mira en el Rem COMUNICADOR. “Rem a los dos lados del espejo” se enmarca en una investigación sobre los medios de comunicación de arquitectura, su reflejo en la producción arquitectónica y viceversa. Se trata de llegar a discernir si comunicación y producción arquitectónica colisionan y confluyen en el caso de grandes comunicadores como Rem Koolhaas, si el mensaje y el medio transmisor adquieren las mismas cualidades. Centrándose en la figura de Rem Koolhaas, la tesis aborda la evolución de su faceta comunicativa y las transformaciones sucesivas en el campo de la comunicación arquitectónica, en paralelo a su evolución conceptual a lo largo de su trayectoria. La investigación, por tanto, no se centra tanto en su componente teórica o en la práctica arquitectónica de OMA, sino en la exposición de su producción al mundo, especialmente a través de sus ensayos y libros. “Delirious New York” y “SMLXL” son un reflejo del momento conceptual en que se inscriben, y contienen mucha información sobre los referentes gráficos que irremediablemente han influido en su composición. Especialmente, la aparición de “SMLXL” supuso un revulsivo para el mundo de la comunicación arquitectónica, porque puso el foco sobre la importancia de dejar atrás un discurso narrativo linea y unifocal, para afrontar la comunicación barajando múltiples variables, y aproximaciones, en un proceso similar al desarrollo de un proyecto de arquitectura. Presenta un diseño muy novedoso y una edición extremadamente cuidada, que atiende a parámetros mucho más ambiciosos que los meramente narrativos. Profundiza en la necesidad de una temática global, planteando cuál es la aproximación más apropiada para cada uno de los proyectos que describe, transmitiendo al lector una percepción más allá de lo estrictamente visual, más próximo a lo sensorial. Además, su enorme repercusión a nivel internacional y el gran interés que despertó (no solamente entre los arquitectos, sino también entre diseñadores gráficos, publicistas, personas provenientes de todo tipo de tendencias artísticas y público en general), provocó la globalización del fenómeno de las publicaciones arquitectónicas y puso de manifiesto la importancia de la comunicación como una disciplina en sí misma, dentro de la producción arquitectónica en la era actual. A pesar de la importancia de “SMLXL” a todos los niveles, la presente tesis plantea que, donde realmente se culmina esa experiencia comunicativa, es en “Content”, al incluir nuevos parámetros relacionados con la fusión conceptual de continente y contenido. Es en esta publicación donde el objeto de la comunicación y la expresión de la misma se convierten en un único elemento, que se rige por leyes similares. En este caso, la ley fundamental es la aplicación hasta sus máximas consecuencias de la “cultura de la congestión”, tanto en el mensaje como en el medio, generando lo que hemos convenido en denominar “comunicación congestiva”. Esta concepción deviene en que necesariamente se materialice como un producto efímero, desechable, casi virtual, porque responde a las condiciones de un momento muy concreto y específico y fuera de ese contexto pierde su significación.. La “cultura de la congestión” empieza a surgir en los planteamientos de Koolhaas en la Architectural Association School of Architecture de Londres, bajo la tutela de Elia Zenghelis. Posteriormente se desarrolla en su manifiesto retroactivo sobre Manhattan, “Delirious New York”, donde declara la guerra abierta al urbanismo del movimiento moderno y afirma que la ciudad realmente contemporánea es aquella que es fruto de un desarrollo no planificado, hiperdensa y posible gracias a los avances tecnológicos de su era. Finalmente comienza a materializarse en la Diploma Unit 9 de la AA, donde entra como profesor en 1975, dejando una huella indeleble en las generaciones posteriores de arquitectos que pasaron dicha unidad. Rem Koolhaas es ante todo un intelectual y por ello, todo el constructo teórico sobre la metrópolis comienza a reflejarse en su obra a través de OMA desde el comienzo de su producción. Podemos decir a grandes rasgos que su carrera está marcada por dos hitos históricos fundamentales que determinan tres etapas diferenciadas en su producción. En sus primeros años de profesión, Koolhaas sigue fascinado por la metrópolis urbana y la aplicación del método paranoico crítico a su producción arquitectónica. Es un arquitecto profundamente surrealista. Entiende este método como una estrategia de conocimiento y aproximación al mundo que le rodea: “dejar salir el inconsciente pero sostenerlo con las muletas de la racionalidad”. Pero lo que en realidad le interesa es su aplicación a la gran escala, el “Bigness”, y por ello, participa en proyectos muy ambiciosos de los que surgen conceptos que, más allá de resultar premiados o no, han dejado una huella ideológica en el devenir de la arquitectura. Entre estos proyectos, cabe destacar su propuesta para el Parque de la Villette o la Très Grande Bibliotèque de París. Sus proyectos de esta época destilan una gran carga conceptual, que devienen en unos interiores sorprendentes pero una apariencia exterior sobria o incluso podríamos decir "povera", por el uso de materiales efímeros, poco habituales en la macro-arquitectura hasta ese momento. Súbitamente, en 1997, explotó el denominado “Efecto Bilbao”, de la mano de Frank Gehry (1). El Museo Guggenheim de Bilbao, con su espectacularidad, sus formas pregnantes e imposibles, impacta al mundo. Nace la era de la “Arquitectura del Espectáculo”; la transformación de la ciudad a través de ICONOS que actúen como nodos de atracción y concentración en torno a los cuales supuestamente se revitaliza la actividad económica, cultural y sociopolítica de la ciudad, como si a través de un único gesto se pudieran regenerar todos los tejidos internos de la urbe. Rem Koolhaas comprende rápidamente que la aproximación a la ciudad ha cambiado y, sobre todo, el mercado. En el mundo de la globalización, la única manera de llegar a materializar el “Bigness”, es encerrando sus ejercicios intelectuales en formas pregnantes, bellas, icónicas, espectaculares. Koolhaas encuentra su marca personal en la estética “Stealth”, proveniente de los aviones de combate facetados para evitar los radares, elaborados en los años 80. De esta época surgen proyectos como la Casa da Música de Oporto o la Biblioteca de Seattle; ambos edificios son iconos facetados, de belleza pregnante, que dejan una huella indeleble en la ciudad y provocan, al igual que el Guggenheim, un cierto efecto de recuperación y revitalización en el entorno en que se asientan, al menos de manera temporal. En cualquier caso, Koolhaas nunca abandona los ejercicios meramente teóricos, pero segrega su actividad en dos: OMA produce aquello que tiene vocación de ser construido y se rige por los parámetros del mercado global y AMO, la otra cara del espejo de Rem, aplica el pensamiento arquitectónico a campos no explorados, sin la dependencia de agentes externos, pudiendo permitirse ser un laboratorio puramente experimental. En este escenario, llega el 11 de septiembre de 2001 y el ataque a las Torres Gemelas de Nueva York tiene efectos devastadores a todos los niveles, significando, en un período de tiempo sorprendentemente corto, un cambio en el orden mundial. Rem Koolhaas da entonces un giro de 180 grados, dirige su mirada hacia China, donde entiende que sus aportaciones tienen un beneficio social más directo que en occidente. (2) Para presentar al mundo su nuevo cambio de rumbo y la creación del “Think Tank” AMO, plantea una gran exposición en la NeueGallerie de Berlín bajo el título de “Content”, experiencia paralela a la edición del libro con el mismo título, que inicialmente nace como “catálogo de la exposición, pero que internamente siempre se concibió como el documento más trascendente en el estudio desde “SMLXL”. Sin embargo, en muchos aspectos se trata de su opuesto: una publicación con formato revista, de tapa blanda, con paginado muy fino, formato de "folleto de supermercado" y contenido hiperdenso. Es un experimento efímero, fugaz, ligero, barato, de “usar y tirar”. De hecho, está fuera de stock, ya no se edita. Probablemente Rem Koolhaas desaprobaría que se hiciera una investigación que pusiera el foco sobre el mismo, porque diez años después de su publicación seguramente opine que su vigencia ha caducado. Sin embargo, muestra con una claridad meridiana el estado conceptual y vital de OMA en el momento de su publicación y representa, además un verdadero hito en la comunicación arquitectónica, un punto de no retorno, el máximo exponente de lo que hemos denominado “comunicación congestiva”. La presente tesis plantea que “Content” contiene la esencia de la mayor aportación de Rem Koolhaas al mundo de la arquitectura: la transformación profunda y definitiva de la comunicación arquitectónica mediante la convergencia del estado conceptual y la transmisión del mismo. Su legado arquitectónico y conceptual ha marcado a todas las generaciones posteriores de manera indeleble. Sus ensayos, sus teorías, sus proyectos y sus edificaciones ya pertenecen a la historia de la arquitectura, sin ninguna duda. Pero es su revisión del concepto de la comunicación en arquitectura lo que ha tenido y tendrá un reflejo inmediato en las generaciones futuras, no solamente en la comunicación sino en su arquitectura, a través de un intercambio biyectivo. El planteamiento a futuro sería determinar qué sucede tras “Content”, tras la hiperdensidad máxima, tras la cultura de la congestión visual; qué es lo que propone Koolhaas y qué se va a plantear también en el mundo de la comunicación arquitectónica. Para ello, estudiaremos en profundidad sus últimos proyectos relacionados con la comunicación, como su propuesta para la Biennale de Arquitectura de Venecia de 2014, su intensa investigación sobre el “Metabolismo” en “Project Japan: Metabolism Talks...”, o la dirección de sus últimos planteamientos territoriales. En los últimos tiempos Rem Koolhaas habla de “Preservación”, de “Sobriedad”, de “Esencialismo”, de “Performance”... El autor intelectual de la cultura de la congestión habla ahora de la “low density”...como no podía ser de otra manera en la otra cara del espejo. En definitiva, el color blanco como suma de todos los colores, todas las longitudes de onda del espectro visible recibidas al tiempo. ABSTRACT When talking about Rem Koolhaas, the mirror does not only reflect one but numerous images: it is nothing but a polyhedral prism. His mirror gives us the image of Rem the media celebrity, the intellectual, the conceptualizer, the builder, the analyst, the journalist, the actor... This research sets the spotlight on Rem the COMMUNICATOR. "Rem on both sides of the mirror" belongs to a research on architectural media, its influence on the architectural production and vice versa. It is aimed at getting to discern whether communication and architectural production collide and converge in the case of great communicators such as Rem Koolhaas, and whether the message and transmission media acquire the same features. Focusing on the figure of Rem Koolhaas, this thesis addresses the evolution of his communicative facet and the successive transformations in the field of architectural communication, parallel to the conceptual evolution he underwent throughout his career. Therefore, this research is not so much focused on his theoretical component or on the OMA’s architectural practice, but on the exhibition of his production to the world, especially through his essays and books. "Delirious New York" and "SMLXL" hold up a mirror to the conceptual moment they are part of, and contain a great deal of information about the graphic references that have inevitably influenced his work. Specially, the launch of "SMLXL" was a salutary shock for the architectural communication world, since it set the spotlight on the importance of leaving a linear and unifocal narrative behind in order to face communication considering multiple variables and approaches, based on a process similar to the development of an architectural project. It offers a very innovative design and an extremely careful editing, which deals with parameters much more ambitious than those merely narrative. It explores the need for a global subject and suggests the most appropriate approach for each of the projects described, giving the reader a closer insight to the sensory that goes beyond what’s strictly visual. In addition, its huge international impact and the great interest shown, not only by architects but also by graphic designers, publishers, people from all kinds of artistic trends and the general public, led to the globalisation of the architectural publications phenomenon and brought the importance of communication as a discipline in itself, within the architectural production in the age at hand, to light. Despite the importance of "SMLXL" at all levels, this thesis suggests that the communication experience really culminates in "Content", for it includes new conceptual parameters associated with the container-content conceptual fusion. It is in this book where the purpose of communication and the expression of such become a single element, ruled by similar laws. In this particular case, the fundamental law is to implement the "culture of congestion" to its extreme consequences in both the message and the media, leading to what we have agreed to refer to as "congestive communication”. This concept leads to its inevitable materialisation into an ephemeral, disposable, almost virtual product, because it meets the conditions of a very concrete and specific time, and outside that context it loses its significance. The "culture of congestion" emerged in Koolhaas’ approaches under the guidance of Elia Zenghelis, in the Architectural Association School of Architecture of London. Subsequently, his retroactive manifesto on Manhattan, "Delirious New York" developed it, waging an all-out war against the modern movement urbanism and maintaining that the really contemporary cities are those hyperdense ones that rise as a result of an unplanned development and thanks to the typical technological advances of their time. Finally it began to materialise in the Diploma Unit 9 of the AA, in which he started lecturing in 1975, leaving an indelible mark on subsequent generations of architects who passed that unit. First and foremost, Rem Koolhaas is an intellectual and, therefore, all the theoretical construct in the metropolis began to be reflected in his work through OMA since the beginnings of his production. Broadly speaking, we can say that his career is influenced by two essential historic events, which determine three different stages in his production. In the early years of his career, Koolhaas was still fascinated by the urban metropolis and the implementation of the paranoiac-critical method to his architectural production. He was then a deeply surreal architect. He understood this method as a knowledge strategy and an approach to the world around him: "let the subconscious out but hold it with the crutches of reasonableness”. However, he was actually interested in its implementation on a broad scale, the "Bigness", and therefore, he took part in ambitious projects that led to the accrual of concepts that, beyond being rewarded, left an ideological impression on the evolution of architecture. These projects included his proposal for the Parc de la Villette or the Très Grande Bibliotèque in Paris. The projects he carried out during this period showed a great conceptual background, which evolved into surprising interiors but a sober, or even "povera", exterior appearance, thanks to the use of ephemeral materials that were atypical in the macro-architecture field until that moment. Suddenly, in 1997, the so-called "Bilbao effect" boomed thanks to Frank Gehry (1). The Guggenheim Museum of Bilbao amazed the world with its spectacular nature and its pregnant and impossible shapes. It was the beginning of the era of “The architecture of spectacle”: the transformation of the city through ICONS that would act as nodes of attraction and gathering, around which the economic, cultural and socio-political activity of the city was supposed to be revitalized, as if through a single gesture all internal tissues of the city could be rebuilt. Rem Koolhaas quickly realized that the approach to the city, and especially to the global market, had changed. In the world of globalisation, the only way to get to materialise such "Bigness" was by keeping his intellectual exercises in pregnant, beautiful, iconic and spectacular shapes. Koolhaas found his personal brand in the Stealth aesthetic, resulting from the eighties American combat aircrafts whose shape was faceted in order to avoid radars. Projects such as the Casa da Música in Porto or the Seattle Library date from this period; both buildings are faceted icons of pregnant beauty that left an indelible mark on the city and caused, like the Guggenheim, some degree of recovery and revitalization on the environment in which they were based, at least temporarily. In any case, Koolhaas never gave the merely theoretical exercises up, but he segregated his work in two: OMA produced what was destined to be built and ruled by the parameters of the global market and AMO, Rem’s other side of the mirror, applied the architectural thought in unexplored fields, notwithstanding external agents and being able to work as a purely experimental laboratory. In light of this backdrop, September 11th 2001 came and the attacks on the Twin Towers in New York had devastating effects at all levels, leading to a change in the world order, in a surprisingly short period of time. Rem Koolhaas made a 180° turn directing his vision towards China, where he believed his contributions would have a more direct social benefit than in the Western world. (2) In order to introduce his new course of direction and the creation of the AMO "Think Tank", he planned a major exhibition in the Neue Nationalgalerie of Berlin under the title "Content", in parallel with edition of the book with the same title, which was at first the "exhibition catalog” but, deep down, was always conceived as the most important document of the Office since "SMLXL". However, in many ways it was just the opposite: a publication characterised by its magazine format, soft cover, very fine paging, "supermarket brochure" form and hyperdense content. It was an ephemeral, brief, light, cheap and "disposable" experiment. In fact, it is currently out of stock and out of print. Rem Koolhaas would probably disapprove of a research that sets the spotlight on him, for he would probably say that his validity has expired given that it has been ten years since its publication. However, it shows OMA’s conceptual and vital status at the time of its publication with crystalline clarity and it is also a true milestone in architectural communication. A point of no return. The epitome of the so-called "congestive communication ". This thesis suggests that "Content" contains the essence of Rem Koolhaas’ greatest contribution to the world of architecture: the deep and definitive transformation of architectural communication through the convergence of the conceptual state and the transmission thereof. His architectural and conceptual legacy has left an indelible mark on all subsequent generations. There is no doubt his essays, theories, projects and buildings already belong to the history of architecture. But it is his review on the concept of communication in architecture that has had and shall have an immediate influence on future generations, not only in their communication but also in their architecture, through a bijective exchange. Future approaches should try to determine what happens after "Content", after the maximum hyperdensity, after the visual culture of congestion; what shall Koolhaas suggest as well as what shall happen in the world of architectural communication. To this end, we shall study his latest communication-related projects, such as the design of the Venetian Architecture Biennale in 2014, his intensive research on the "Metabolism" in "Project Japan: Metabolism Talks ...", or the course of his latest territorial approaches in depth. Most recently, Rem Koolhaas has talked about "Preservation", "Sobriety" of "Essentialism", "Performance", etc. The mastermind of the culture of congestion now speaks of the "low density"... as it could not be otherwise, on the other side of the mirror. Summarizing, the white color as the sum of all colors; all wavelengths of the visible spectrum received at the same time.
Resumo:
Existe en el panorama edificado un patrimonio construido que se reconoce como Centro Comercial. Un conjunto entendido, en sentido genérico, como familia arquitectónica que tiene características propias y específicas que la identifican. El objeto de la presente tesis doctoral consiste en argumentar que este conjunto constituye un nuevo tipo en el panorama de las tipologías arquitectónicas. Un tipo con entidad propia, que se conecta a una forma diferente de entender la idea de modelo. Un concepto que va más allá de la consideración tradicional del término. Modelo virtual. Este tipo, que surge de una estructura teórica que hemos denominado teoría tipológica, se constituye en una herramienta más para el estudio y el desarrollo proyectual de los espacios arquitectónicos, tanto del propio Centro Comercial como del conjunto de la disciplina arquitectónica, como referencia legítima. El presente trabajo de tesis se inicia con un bloque introductorio denominado Método. Definimos en él una metodología que hemos llamado emocional. Trata de la oportunidad de la tesis. Del porqué de un título que recoge la palabra ignorada. Del interés que suscita el asunto en el contexto del momento presente. Oportunidad e interés en base a una vida profesional dedicada al mundo del Centro Comercial y a la importancia del patrimonio elegido como objeto de estudio. También ha sido un aliciente detectar como las planificaciones del territorio y de los ámbitos de las relaciones colectivas no han sido capaces de integrar un resultado satisfactorio. Quizás por no considerar la complejidad de sus muchas facetas. En consecuencia, el texto busca la esencia del Centro Comercial como soporte para la crítica de su impacto en los nuevos escenarios de relación que la sociedad y el entorno físico imponen. Ámbitos donde los mecanismos históricos del asociacionismo tradicional han dado paso a otros, como el Centro Comercial, de exaltación del individualismo, pero demandados por una sociedad que se identifica con ellos. Espacios que, con Galbraith, existen por de la perversidad intrínseca del binomio consumo-producción que inducen la perplejidad. Ésta pasa a formar parte de la esencia del nuevo espacio comercial, como quedó de manifiesto en el Congreso de Minnesota de 1997, sobre el Centro Comercial. Una sociedad que ha girado hacia el logro material en términos de culto, ocasionando creciente valor significante del consumo. Razón última de la humanidad al decir de Rem Koolhaas. Culto que desemboca en la urgencia de alcanzar niveles de estatus y de identificación con el grupo. Dos parámetros que marcan la relación con el otro. Relación de comparación que excita la necesidad de posesión de objetos que llevaban a recrear en el consumidor la ilusión de ser especiales, de no pasar desapercibidos. El producto de consumo, el objeto, se eleva a la consideración de valor social. En el Centro Comercial se venden valores. Marketing de valores. El deseo del individuo, no la necesidad, queda involucrado en el proceso. La oportunidad y el interés de este estudio surgen además para aclarar el significado de un espacio que sirve al consumidor y a su entorno. Un significado que alcanza sentido, entre otros, por la aparición de un nuevo contexto tras la Segunda Guerra Mundial. Suburbanización, automóvil, nivel de vida, un nuevo papel de la mujer. La Era del Consumo. Una era que genera la paradoja de un individuo con autodeterminación y autosuficiencia crecientes, en un mundo cada vez más condicionado y controlado por dinámicas de ofertas mediatizadas e ilimitadas. La arquitectura en este contexto ha de juzgarse por su relación con un hombre contemporáneo que camina hacia una progresiva excepcionalidad. Cerramos la presentación justificando el término ignorada que aparece en el Título de la Tesis. Subrayamos la escasa existencia de estudios estructurados que relacionen Centro Comercial y arquitectura. Realidad que se constata partiendo del libro de Pevsner, Historia de las Tipologías Arquitectónicas, de 1976. Analizamos también la aceptación que el Centro Comercial, valorado en algunos ámbitos como arquitectura populista. Primer Capítulo, los antecedentes. Se propone un recorrido histórico por la arquitectura comercial de todos los tiempos. El Documento busca concretar las características de la arquitectura comercial a lo largo de la historia para determinar relaciones entre ella y el Centro Comercial. Estas correspondencias van a permitir contestar la pregunta retórica que nos hacemos al inicio del Capítulo: ¿Es la arquitectura del Centro Comercial una arquitectura subsidiaria, o tiene personalidad propia independiente de la del mundo comercial? Con Zevi40, queremos dejar constancia que la relación arquitectura-historia es imprescindible en la tarea proyectual. Un análisis novedoso solo es posible desde la búsqueda de unas raíces auténticas. Así mismo, con Guy de Maupassant, estamos convencidos que “La arquitectura, a través de los siglos, ha tenido el privilegio de dar un símbolo a cada una de las épocas, de resumir con un pequeñísimo número de monumentos típicos, el modo de pensar, de soñar de una raza y de una civilización”. Este recorrido se inicia interpretando la arquitectura comercial minoica. Llegaremos, paso a paso, hasta el siglo XX, los grandes itinerarios comerciales y el Centro Comercial. Se descubren una serie de invariantes que permiten comparar y extraer conclusiones. Resulta novedoso constatar que el Centro Comercial nace para dar respuesta al hombre contemporáneo en su afán consumista. También lo es la rápida implantación y evolución del Centro Comercial en un corto periodo de sesenta años frente al ritmo sosegado de otras soluciones comerciales. Novedad es ver como el comercio y sus arquitecturas nacen abiertos, bajo tenderetes y el Centro Comercial se presenta cerrado. Así mismo, las referencias sacras constituyen un elemento de novedad para la reflexión, en un contexto materialista. Y tantas otras. En Minos, la óptica comercial ofrece otra visión de su legendaria cultura. ¿Palacio o plataforma logística?, gestión centralizada del intercambio, ¿vida pública y vida privada? Así, hasta llegar al siglo XIX. Sus las galerías y sus pasajes acristalados concebidos en primera instancia como medida de recomposición urbana. Espacio entendido desde lo público-privado, desde lo interior-exterior, desde el dentro-afuera, desde lo cerrado-abierto. Con los nuevos mercados de abastos, representan una revolución en el ámbito de la funcionalidad, de la máquina, de la gestión moderna y de las relaciones del ciudadano con la ciudad apoyado en base al intercambio de bienes de consumo. El Centro Comercial es heredero de esta transformación. El Gran Almacén, por otra parte, es el reflejo de otra gran revolución. La que va ligada a la producción y comercialización en masa, las comunicaciones, el precio fijo y el aumento del nivel de vida. El Centro Comercial reinterpreta estas situaciones insertándolas en un nuevo modelo de gestión. En el siglo XX, maestro en técnicas de venta, aparece el hipermercado. El Híper, con su carga de pedagogía, se incorpora al esquema orgánico del Centro Comercial. La tienda en si misma constituye la pieza base de dicho puzle orgánico. Es en esta época cuando la tienda empieza su despegue autónomo como arquitectura, aportando su experiencia. Tras ello, llegamos a las grandes rutas comerciales, que proponemos como metáfora del shopping. Cerramos el capítulo concluyendo con Eugenio Ferrer que “si establecemos una relación entre el espacio y el capitalismo, entonces podemos inferir que los espacios del consumo de masas (ECM) son configuraciones nuevas respecto al pasado (...), pero el sistema que lo introduce no lo es del todo”. Segundo Capítulo. Búsqueda de claves que permitan el reconocimiento del Centro Comercial. Llegados a este punto y con la perspectiva del tiempo cabe preguntarnos, ¿qué entendemos pues por Centro Comercial? ¿Cómo lo percibimos? Abordamos ahora el problema de la percepción del Centro Comercial y su significado. Además de constituirse en símbolo, referencia siempre presente, la eficacia del Shopping es una de las principales causas de su poder de atracción. El Centro Comercial resulta de la síntesis de la revolución del consumo y de la revolución de la gestión. Espacio eficaz del entretenimiento como destino. El usuario resuelve su vida cotidiana dentro de un hábitat que considera propio y que se entiende como el lugar hiperbólico de la transacción comercial. Espacio de la abundancia para el disfrute. Una arquitectura involucrada en esta eficacia. Su sentido del lugar no es otro que el Shopping, que se desenvuelve de forma análoga en todas partes. El hogar del consumidor. Las nuevas catedrales. Las catedrales del consumo. Destino místico. Lugar de peregrinación para el consumidor fervoroso. Espacio sagrado que integra al usuario en la cultura dominante. Cultura del consumo. Templos, donde el tiempo ha perdido su sentido. Paraíso. Un espacio donde la altura, la luz natural, la dimensión general refuerzan el carácter sacro de un espacio para una nueva religión laica. Un espacio seguro, protegido que nos acerca a ideas como la de útero materno, con su carga de calidez y de significación erótica aplicado al encuentro compra-comprador y, ligado a ello, la literatura especializada habla del Centro Comercial como nave espacial hiperesterilizada o de agujero negro que absorbe la energía cultural. Más allá, la simulación, donde se percibe un simulacro de ciudad. Simulacro coherente con todo lo que el Shopping desencadena a su alrededor. El lugar de los sueños, de la fantasía. Aquí los productos se han metamorfoseado en fetiches, en significados. Televisión tridimensional, donde el usuario actúa guiado por una pulsión similar al zapping. Espacio lúdico de la fascinación por comprar o de imaginar que se compra. Espacio de simulaciones que llevan a la ensoñación. Un nuevo lugar que sustituye al espacio cotidiano, con el señuelo de la protección, en un contexto imaginariamente público. Espacio de la hiperrealidad donde no se distingue la realidad de la fantasía, donde tras episodios de confusión y desconcierto, se borran las fronteras con lo imaginario. Espacio mágico, escenario del gran espectáculo del consumo, controlado milimétricamente, al modo de la visita a un gran monumento, que ha de sobrevivir a los tiempos para dar testimonio de nuestro momento. Un icono, un símbolo que transmite un mensaje, que solo el consumidor es capaz de interpretar. Una agitada mezcla, sin precedentes, de percepciones que hablan de perplejidad y asombro ante el fenómeno del Centro Comercial, su espacio y las reacciones del hombre contemporáneo. ¿Cuáles serían las claves que nos permitirían reconocer la calidad esencial de un Centro Comercial, en esta concurrencia de perplejidades? Primero, la función de servicio. Un espacio donde ocurren muchas más cosas que lo obvio, que la compra. Un edificio que se involucra con el entorno de la mano de lo inesperado, la sorpresa y las expectativas. Esta vocación de servicio conecta Centro Comercial y naturaleza arquitectónica. Función que sugiere percepciones ligadas a la experiencia de compra. Organismo que vive y late al unísono con su visitante, colocándose al servicio de sus necesidades, de su afán de consumo, del que vive. Segundo, la comunidad servida. El Centro comercial sirve a una sociedad concreta. La sociedad consumista. Una nueva sociedad que se identifica con el edificio desarrollando un sentido de comunidad al nivel de sus deseos. Esta comunidad que se configura a su alrededor, constituye el activo más poderoso para el éxito de su realidad cotidiana y de su futuro. Tercero, un compromiso de carácter holístico. La economía de la experiencia aplicada al afán consumista de una sociedad identificada con su Centro, da lugar a una experiencia holística planificada. Diseño emocional. Colaboración para el éxito de un conjunto de establecimientos comerciales que participan en la aventura espacio-comercial del Centro Comercial. Ellos son los inductores primarios del consumo. Pero esta colaboración tiene su culminación en la amplificación del mensaje, como un inmenso altavoz, que proviene de la unidad configurada por todos ellos. El reflejo de esta amplificación de mensajes, desde la poderosa unidad constituida, es el aumento de la rentabilidad, fin último de la operación. Cuarto, la forma a través de una identificación de carácter gestáltico. Desde la lectura gestáltica que hacemos de la unidad holística, se advierte una poderosa capacidad de comunicación del sistema con su contexto. Centro y entorno se tornan entonces cómplices que complementan sus realidades. El Centro Comercial, arquitectura estructurada como sistema se percibe –ha de percibirse- como forma unitaria que procede de una mirada de raíz gestáltica que continuamente la recompone desde una óptica espacial y física, ligada a la experiencia individual. Esta unidad formal, más allá de la forma real, se constituye en esencia de de su arquitectura. Quinto, el Centro Comercial como sistema. Un sistema soportado por la Teoría General de Sistemas. La consideración del Centro Comercial como sistema es consecuencia de su estructura holística. El todo no se comporta como la suma de las partes y estas no lo hacen como lo harían en solitario. De aquí surge la necesidad de diálogo permanente entre la comercialización –proceso de incorporación de partes- y su traducción al mundo del diseño –proceso de articular arquitectónicamente las partes. Como sistema así configurado, el Centro Comercial se inserta en el paradigma contemporáneo, lo que genera realidades duales que no son excluyentes y reacciones de perplejidad e incertidumbre que el sistema corrige con su capacidad de autorregulación. Aparece también el espectador cuántico, el visitante, el consumidor, que interactúa con el sistema. Desde las herramientas que nos aporta la idea de sistema complejo, afrontamos el Mix Comercial -en definitiva la eficaz localización de las piezas en orden a sus relaciones y al organismo resultante- y su incidencia en la arquitectura que estamos concibiendo. Una arquitectura impredecible por lo mutable, que se erige en reto de la operación y del diseñador. Diseño que, de la mano del concepto de sistema se convierte en herramienta a mayor gloria de la operación global. El debate del estilismo no será más que el resultado del análisis en busca del éxito de esta operación. Sexto, una arquitectura de la negociación. Negociación como mecanismo proyectual y como resultado. La solución de proyecto nunca resulta evidente en el Centro Comercial como consecuencia de lo imprevisible del propio proceso de configuración. Su concreción solo puede ser fruto del compromiso de todos los agentes por conseguir el objetivo de la operación. Esto se consigue desde el equilibrio de intereses. Comerciales y de diseño. Un compromiso con la negociación y una negociación íntimamente ligada a la coordinación. Séptimo, el espacio y el tiempo. El debate espacio-tiempo condiciona y estructura la percepción del Centro Comercial. Introducimos conceptos como cronotopo –el instante y el lugar donde ocurre algo- y paradoja –incoherencia de la relación causa efecto- que sitúan el vínculo entre el tiempo y el espacio del Centro Comercial en un contexto de Shopping. En el discurrir paralelo del tiempo histórico –el tiempo de fuera- y del tiempo interior, el de dentro del Centro Comercial –tiempo presente o intemporalidad-, se produce el triunfo social del Centro Comercial que se traduce en haber sabido resolver en el espacio y en el tiempo las paradojas postmodernas del hombre contemporáneo. Octavo, de lo global. Globalidad que no es ajena a lo local. Una arquitectura que insertada en la dinámica de una economía de ámbito mundial, refleja las contradicciones que ella impone, fundamentalmente en los procesos de inclusión y exclusión, afectando de manera decisiva al debate de lo local, que el Centro Comercial debe incorporar como herramienta ineludible de reconocimiento. Terminamos el capítulo segundo manifestando como estas ocho claves, asumidas en su conjunto, confirman que el Centro Comercial puede aparecer como un todo conceptual cohesionado, pasando a formar parte de una familia arquitectónica coherente, cuya estructura funcional somos capaces de establecer. El Capítulo Tercero presenta con detalle la figura del arquitecto Víctor Gruen, creador reconocido del moderno Centro Comercial. Presentamos su trayectoria profesional observando como las diferentes claves analizadas en capítulos anteriores van apareciendo de manera natural a lo largo de ella "Victor Gruen may well have been the most influential architect of the twentieth century." Malcolm Gladwell. The Terrazo Jungle. Fifty Years Ago, The Mall Was Born. America Never Would Be The Same. 2004. In The New Yorker. Hombre complejo, conflictivo. Las paradojas a lo largo de su carrera fueron notables. Sin embargo siempre apareció como un hombre recto. Garret Eckbo, reconocido paisajista y colaborador de Gruen en el Centro Comercial peatonal del Centro urbano de Fresno, California, se asombraba de que alguien como Gruen hubiese sido capaz de combinar cortesía y humanidad en la carrera de ratas (sic) en la que se convirtió el universo de la comercialización americana y mantener la integridad542. Philip Johnson, en 1962, ponderando las muchas habilidades de Gruen manifestó que no estaba seguro si alguno de ellos, arquitectos artistas, hubiera sido capaz de hacer lo que Gruen hizo. A más, sobre Gruen, manifestó lo siguiente: "... El va más allá de la creación de un bello edificio. En jugar con la gente y sugerir lo que tienen que hacer, es un maestro. Y obtiene buenos resultados como hace la escultura. El suyo es un arte cívico, un sentido cívico.... Él es capaz de sentarse y poner cosas juntas. No es pomposo ni vano. Yo no me reuniría con él para hablar del diseño (de edificios). Víctor siente que cuando se habla de diseño se está ignorando todo el contexto... Su arquitectura es poderosamente limpia, no vuela la fantasía. Pero cuando te haces con su complejidad, ves que has descubierto algo más allá del diseño.... No puedes decir que haya alguien como él. La arquitectura tiene la suerte de tenerle como arquitecto..." Philip Johnson. Article in Fortune Review. 1962. El Documento de tesis cierra la visión de Gruen realizando un recorrido por los diferentes capítulos de su libro esencial, Shopping Towns Usa: The Planning of Shopping Centers. Solo su índice resulta un monumento al proceso de gestación del Centro Comercial. El libro, aquí simplemente mostrado en su estructura básica como un silencioso testigo, es la referencia canónica los Centros Comerciales contemporáneos, desde su aparición. . El Cuarto Capítulo del Documento de tesis es una recapitulación del trabajo anterior, en el que se sintetizan los conceptos de función y estilo relacionados con el Centro Comercial, se define en qué consiste cada uno de ellos y como, a partir de ahí, podemos afirmar que nos encontramos ante un tipo arquitectónico nuevo en el panorama de la disciplina arquitectónica. Terminamos el Capítulo integrando el Centro Comercial con un cuerpo teórico de referencias que se remiten a un tipo arquitectónico concreto y particular, acogiendo su singularidad como fenómeno arquitectónico autónomo. Como Conclusión de la tesis, resultado de todo lo anterior es decir, como consecuencia de la integración de un torrente de percepciones e intuiciones en un cuerpo teórico de referencias, deducidas de la existencia de unas claves que estructuran y penetran la esencia del singular modelo estudiado, haciéndolo detectable y seductor, resultan las características de un tipo arquitectónico con entidad propia que ordena, orienta y supedita la realidad y la existencia de esta nueva arquitectura. Una arquitectura nunca antes definida como tal, en el panorama tipológico de la disciplina. Teoría tipológica para una nueva arquitectura, que hemos ido proponiendo a lo largo del trabajo y que es coherente con los diferentes parámetros que se han analizado. Un conjunto edificado que, desde el estudio de sus claves esenciales y de sus invariantes perceptibles, aparece ahora más cercano, más familiar. Tanto que es posible destilar desde este conocimiento cercano e íntimo, una síntesis útil como referencia proyectual y como referencia para las grandes cuestiones que preocupan al discurrir del debate arquitectónico y sus ideas. El debate de la disciplina. El objeto de esta tesis, que consistía en establecer que el conjunto edificado que conocemos como Centro Comercial se constituye en un nuevo tipo en el panorama de las tipologías arquitectónicas, entendido el Centro Comercial en sentido genérico como familia arquitectónica con características propias y específicas que la hacen autónoma y reconocible, queda a nuestro juicio argumentado y justificado. ABSTRACT Within the frame of the built heritage there is a construction that is recognized as Shopping Center. An ensemble understood as an architectural family with its own specific recognizable characteristics. This thesis aims to explain that this building complex constitutes a new type in the panorama of architectural typology. This typology, with its singular identity, is connected to a way of understanding the idea of the model beyond an orthodox conception of the term understood as virtual model. This typology comes from a theoretical structure that we called typological theory, and it serves as yet another tool to reference the study and development design of the architectural spaces. In this first section, the Method, we emotionally explore the opportunities of this thesis. Why this typology has been ignored and the interest this work has in the present moment. An opportunity and an interest explained from an experience of a life dedicated to the world of Shopping Centers. The text then introduces the need for a rigorous knowledge of the Shopping Center’s essence in order to understand its impact in the frame of a new society and a new physical environment. A frame time where the historical mechanisms of association of civic community have given way to other gathering spaces like the Shopping Center, which encourages individualism, but is demanded by a society that relates to them. Spaces that, according to Galbraith, are a result of the intrinsic perversity of the unstoppable movement of the wheel of consumption-production. A society that has turned to worship of material achievement. Worship that provokes the appearance of an increasing value of consumption, according to Koolhaas, the only goal of humanity. Worship that ends in the need to reach certain status levels in the plane of a permanent comparison where the need of possession excites the consumer and gives them the illusion of being special. The product of consumption rises up to consideration of social values, entering a dynamic of marketing values, not only objects, but the desire of the individual remains. The study appears also to clarify the meaning of a space that serves the consumer and its context. A meaning that makes sense with the appearance of the suburbanization, the massive utilization of the car, the increase of living standards and the new role of women in the society after the Second World War, giving rise to the Age of Consumption. A world now determined and controlled by media and unlimited offers, where it’s necessary to place them in the context of the ordinary. An architecture that has to be judged precisely for its relation with this specific contemporary man. This section ends justifying the term ignored that appears in the Title of the Thesis, considering it in relation with the lack of studies structured about the Shopping Center and its architecture, drawing from Pevsner's work, A history of building types, 1976. Finally, the Shopping Center is analyzed with the most critical of thoughts, which considers it as populist architecture. The First Chapter, Precedents, proposes an historical tour of the commercial architecture throughout history. The Document looks to place on record the characteristics of the commercial architecture to set the connection between them and the Mall itself. These correspondences are going to allow us to answer the rhetorical question: is it the architecture of the Shopping Center a subsidiary architecture, or does it have its own personality independent from that of the commercial world? The reason of this historical search, citing Bruno Zevi, is that it is indispensable to establish the relationship between architecture and history, understating that an analysis is only possible when researching for their roots. Moreover, according to Guy de Maupassant, we are sure that architecture has had the privilege, across the centuries, of symbolizing as it were each age(…), through the harmony of lines and the charm of ornamentation all the grace and grandeur of an epoch. This historical reading, inseparable from a consistent design action, begins interpreting the commercial architecture of the Minoan to the 20th Century. Though this analysis of the big commercial itineraries and the study of the Shopping Center itself. A reading where we have found a series of constants that make it possible to draw conclusions from this comparison. The Mall appears to give response to the needs of a consumerist society. Comparing to the calm pace of the evolution of other commercial solutions, it is relevant its fast implantation and evolution in a short period of sixty years. Though via different solutions, the commercial spaces are considered taking into account the public-private relation, the interior-exterior, the inside-out, the closed-opened. Through that, the 19th century galleries and the food markets represent a revolution in functionality, in the machine, the modern management and the relations of the citizen within the city. All of this, the Mall inheritor feels. Likewise, the Department Store is the reflection of another great revolution. Production and commercialization en-mass, communications, the fixed price and increase of the living standard. The Mall reinterprets these situations inserting them in a new model of management. Already in the 20th century Mall and mass technologies of sale, the hypermarket is enthusiastically incorporated into the configuration of this organic scheme, constituting the base of one of the models, the French, that will be highly developed in the European continent. The shop itself constitutes, on the other hand, the key piece that completes the puzzle of the Mall and is in this epoch when it starts taking off as architecture, has an autonomous character. After all this, finally, we come to the big commercial routes, which we propose as metaphor of the shopping. Citing Eugenio Ferrer we can conclude that “If we establish a relation between the space and the capitalism, then we can infer that the spaces of the consumption of masses (ECM) are new configurations with regard to the past (...), but the system that introduces it it is not completely” Now we arrive at this point and with the perspective of time it is necessary to ask us, what do we understand about the Shopping Center? How do we perceive it? The second Chapter approaches the problem of the perception of the Mall and from this it is possible to detect and to identify key drivers that orientate the architectural comprehension of the space. The efficiency of the Shopping Center is its main power of attraction. A world that has ensued from the synthesis of the revolution of consumption and management. An effective cavern-like place of entertainment where the user, the consumer, the postmodern man solves his daily life inside a considered habitat. The hyperbolic place of commercial transaction. An abundance of space, that makes us perceive it as destination of entertainment. An architecture has evolved this efficiency, where the sense of place is at one with the sense of the Shopping. The home of the consumer. The new cathedrals. The cathedral of consumption. The place of peregrination for the fervent consumer. A sacred space that integrates the user in the dominant culture. A temple, where time itself has stopped existing. In this paroxysm, an expression of the Garden of Eden or Paradise itself. A space where the height, the natural daylight and the spatial dimension reinforce the sacred character of a new lay religion. Another common perception is that of a protected area, which leads to metaphors and considerations that suggest the idea of maternal womb, with its weight of erotic meaning, referring to the encounter of the shopper making a purchase. The literature also tells us about its perception as a sterile space capsule, a black hole that absorbs all cultural energy. Likewise, a world simulation where a mock city is perceived at first instance. Consistent with all that shopping triggers inside. A city, a space conceived as a place of dreams, fantasy, where the products have been metamorphosed into fetishes. Entertaining a television, three-dimensional television, where the user acts guided by a drive similar to zapping. A play area where the latest fascination is in the act of buying. Space simulations that unite and transcend creating atmospheres that lead to reverie. A new space replacing the daily space with the lure of safe space in a public context. A hyper-reality space with reality and fantasy, where borders are erased with imaginary episodes of confusion and bewilderment, without distinction. The charm and fascination of a space that reads like magic. The magic of a space which is defined as stage extravaganza, the large theatre, the consumer surveys in the fine control mode in which you visit a national monument. The shopping center has to survive the times to be a testimony of our time. An icon, a symbol that conveys a message, the message reads ‘consumer’. In short, a Shopping Center is a mix of unprecedented insights that speak of a widespread phenomenon of bewilderment. Its space and the reactions of contemporary man unfold in it like a fish in water. What are the key aspects which allow us to recognize the essential quality of a shopping center in this concurrence of perplexities? First, we want to record a service function of space much deeper than the immediately obvious, i.e. a purchase occurs. A building that appears to be involved with the environment and its people from the hand of the unexpected circumstances; surprise and attention. And that, in turn, also involves the visitor beyond the purchase. This dedication to service closely links the mall with its architectural nature. It is not the function of a lifeless machine. It is a feature that suggests unsuspected perceptions linked to the purchase, which speaks of an organism that lives and breathes in unison with the visitor. Second, in addition to the vocation of service-oriented desire for consumption, the Mall environment serves a particular society - The consumer society. A new society which relates to building a sense of community developed to the level of their desires. This community also constitutes the most powerful asset to the success of the daily life of the Shopping Center. Third, we emphasize that the so called economy of the experience is combined with the consumer zeal of a company that is identified by the Shopping Center. It connects to form a holistic and planned experience. This experience takes shape in the entity that ensues from the premeditated association and synergy, in the sense of a collaboration for success. A set of concrete commercial and independent establishments, take part in the spatial and commercial adventure that is the Mall and they are the instigators of the consumption. This holistic behavior finds culmination in the amplification of a claim that becomes unitary, like an immense force that leads to an increased profitability to all the levels. Consummation is a reference of one human being overturned in an architecture assimilated into a legitimate, emotional design with stability. A holistic quality is born of the essence of the building - and by virtue of the Conditions of Alexander, Christopher Alexander, determines the system condition of the Shopping Center. Fourth, we propose to establish what character the Mall will form when joined with the concept of its typology. This is going to allow the architectural work to be formed. As a result of the holistic structure that we see, the Mall is perceived as a system whose parts have their own function, justifying their existence in the ecosystem. Across a gestalt there is a powerful capacity of communication between the system and its context. We visualize on the one that stands out our building, turning both, Center and environment, in accomplices of a few special relations who complement each other in his realities. This relationship within a complex and diverse environment gives the Mall a range of unique spatial perceptions, the result of disparate experiences, which because of its root origin of gestalt, are integrated into a unified and coordinated manner fully intelligible and organized. This is the final formal essence of the Shopping Center. We can conclude here that the Mall as architecture is a structured system and should be perceived as a unit both from a physical and spatial perspective as this is the essence of its architecture. Fifth, the Mall as a system. A system which is being supported by a broad theoretical corpus, the General Systems Theory, which offers sufficient methodology to descend into consideration and give an enlightened conclusion on the overall understanding of the Mall. Consideration of the Mall as a system is a result of its holistic structure. The whole does not behave like any of the parties and they do not behave the way they used to before belonging to the whole, because they inhibit many of their qualities to their advantage. It arises the need for an ongoing dialogue between marketing processes and its translation into the physical world, the design. The system generates multiple perceptions to be integrated into a body which is to be understood as unitary. As a system, the Mall is inserted into the contemporary paradigm, creating dual realities that are not exclusive and are reactions of uncertainty that the system be properly designed at all levels, faced with their ability to self-regulate. Likewise, considering the visitor, the customer, like the quantum spectator who interacts with the system permanently. Moreover, a complex system confronts us with the Commercial mix, the effective location of parts in order to relate to the body and its importance in the architecture we are conceiving. Unpredictable architecture, which stands as the challenge of the operation and the designer. Design that becomes the tool of the system to create success for the overall operation. The discussion of the styling is merely the result of analysis that also seeks the success of the system, i.e. the styling should send the right message for the environment to ensure its survival. Sixth, the idea of negotiation as an architecture project, a mechanism inherent to the status of the proposed system. The project solution is never evident at the Shopping Center because of the unpredictability of the process itself. It can only be the fruit of the commitment of all stakeholders to achieve the objective of the operation. This is achieved from the balance of interests, of commercial and design. A commitment to negotiation and a negotiation linked to coordination. The pursuit of stability is key, as instability is always present and constantly requires strategies to build the object you are configuring. Seventh, proposes space-time itself as a circumstance that determines and structures the perception of the Mall in a singular way. We introduce concepts as chronotope and paradox to help us place the relationship between time and space within the Mall in the context of shopping. A consequence of the parallel flow of historical time - the time outside - and the time inside the Mall, the big shopping center formula is precisely that of having the feeling of timelessness in the space. The social triumph of the mall is the ability to resolve in space and in time all postmodern paradoxes and, beyond that, of contemporary man, condensing into a small space and time an enormous amount of cultural symbols, often contradictory, but they attract the practice of consumerism. Eighth, global level. Globalization which doesn’t ignore the local level. Architecture that is inserted into the dynamics of a global economy, reflects the contradictions that it imposes, mainly in the processes of inclusion and exclusion. Inclusion and exclusion affect the debate of the local level, which the Mall must incorporate as an unavoidable tool of recognition. The eight fundamental principles, when applied as a whole, confirm that the built heritage, which corresponds to the general Mall idea, can be presented as a cohesive conceptual whole. This becomes part of a coherent architectural family, whose functional structures are able to be established. The Third chapter presents in a detailed way the figure of the architect Victor Gruen, recognized as the creator of the modern Mall. Studying his professional experience, it is shown how the different keys analyzed in previous chapters are appearing in a natural way. "Victor Gruen may well have been the most influential architect of the twentieth century." Malcolm Gladwell. The Terrazo Jungle. Fifty Years Ago, The Mall Was Born. America Never Would Be The Same. 2004. In The New Yorker. He was a complex, troubled man and the paradoxes along his career were notable. Nevertheless, always he appeared as a straight man. Garret Eckbo, the recognized landscape painter and collaborator of Gruen was astonished how Gruen had been capable of combining comity and humanity in this career of rates, into that the American commercialization turned, Johnson, in 1962, weighting many Gruen's skills demonstrated that he was not sure if anyone of them, architects artists, had been capable of doing what Gruen did. He goes beyond just the creation of a beautiful building. In playing on people and suggesting what they ought to do, he is a master. (…) his architecture is clean - hardly architecture, no flights of fancy. But when you get hold of its complexity, you've got something beyond the design... You can't say there's someone like him. Architecture is lucky to have him as an architect." Philip Johnson. Article in Fortune Review. 1962. The Document of the thesis closes with Gruen's vision of realizing a tour through the different chapters of his essential book, Shopping towns USA: The Planning of Shopping Centers. It’s mere index turns out to be a monument to the process of the gestation of the Mall. The book, simply acted in its basic structure as a silent witness, as the canonical reference for the contemporary Malls. The Fourth Chapter of the Document of the thesis is a recapitulation of the previous work, which synthesizes the concepts of function and style related to the Shopping Center, and clearly defines how they are defined so we can conclude that we have found an architectural new type in the panorama of the architectural discipline. Therefore, the Conclusion of the thesis integrates this development in a theoretical body of references that relate to an architectural specific and particular type, which receives the singularity of the Shopping Center as an architectural independent phenomenon as it has tried to demonstrate from the beginning of the work. To conclude, as a result of the integrative process and the development of the theoretical body of references, the essential characteristics of the order and concept of the architectural typology form the existence of a new architecture; architecture never before defined as such, in the theoretical typology of the discipline. A theoretical typology for a new architecture is proposed throughout the discussed research and forms a conclusion of the different parameters that have been analysed. As a building complex, from the study of the essential characteristics and of the perceptible constants, the typology is more clearly defined and thus, becomes a useful tool and precedent for the consideration of the discipline. The thesis then justifies how the building complex known as Shopping Center constitutes a new type of architectural typology.
Resumo:
El proyecto moderno constituye el punto de referencia más importante de la arquitectura de la primera mitad del siglo XX. Su contundente propuesta expresiva, afianzada conceptualmente en el fenómeno de la industrialización, se tradujo en un poderoso programa de trabajo, fuertemente ideologizado, que abarcaba todas las dimensiones del diseño. Si, desde el punto de vista expresivo, en las dos primeras décadas del siglo XX las vanguardias artísticas generaron un panorama estimulante, amplio y diverso, hacia 1920, la historiografía general identifica la confluencia de todas las vertientes hacia una de ellas, que es señalada como aquella que mejor resume y trasmite conceptual y expresivamente todo el proceso de cambios. La simplicidad y arbitrariedad del mensaje, el rechazo explícito de lo que había sucedido anteriormente y de cualquier opción alternativa hacen de este cuerpo de ideas y formas una suerte de dogma, que merece la denominación de modernidad “ortodoxa”. A partir de los acuerdos formulados en los primeros Congresos Internacionales de Arquitectura Moderna quedó prácticamente establecido que las actuaciones debían seguir las normas de ese dogma como si se trata de un ritual que pautaba el quehacer de los técnicos. La lógica restrictiva del discurso y el vocabulario acotado que lo representaba resultaron instrumentos muy convincentes y fáciles de asimilar por parte de profesionales e intelectuales, pero difíciles de trasmitir al público en general, de tal manera que no fue sencillo poner en práctica el credo moderno en su versión “pura”. Fue entonces inevitable que aparecieran versiones alternativas, en las cuales algunos aspectos de esa modernidad ascética conviven con otros que habían sido expresamente rechazados, conformando procesos de combinación e integración de recursos expresivos de diversas fuentes dando lugar a procesos de contaminación que dan lugar a esas modernidades “híbridas” que constituyen el fundamento del presente trabajo de tesis y que fueron expresamente ignoradas e incluso rechazadas por la historiografía de la primera mitad del siglo XX. Por un lado, se va a demostrar que las formas modernas en sus formalizaciones híbridas e impuras tuvieron una amplia penetración en los diferentes estratos sociales uruguayos. De la mano de una clientela, que se siente imbuida del espíritu moderno y que está integrada tanto por agentes privados como por instituciones públicas, las formas modernas híbridas se difunden masivamente de la mano de arquitectos, constructores e idóneos y esa difusión no se restringió al enclave montevideano como podría deducirse de la historiografía moderna uruguaya, sino que su penetración alcanza prácticamente por todo el país. El trabajo supone el desarrollo de una labor arqueológica, con la diferencia que el material está absolutamente a la vista, pero no se lo había querido ver. Se trata de una labor de reivindicación y de reafirmación de esas arquitecturas que, a pesar del desdén profesional, forman parte del paisaje cotidiano y definen el carácter de las ciudades. Una intensa labor fotográfica, así como de investigación de archivos ha permitido desentrañar la cantidad y el buen nivel de esas arquitecturas uruguayas, al tiempo que también se relevan las impurezas de algunos de los ejemplos más destacados de la historia oficial de la modernidad uruguaya. El análisis monográfico de un edificio montevideano como el Palacio Díaz, diseñado por un estudio de segunda categoría que ha ocupado un lugar lateral en las historias oficiales y de un edificio absolutamente desconocido como el Club Uruguay de Rivera no hacen más que reafirmar la puesta en valor de esas arquitecturas anónimas que, para la mayoría de los ciudadanos, conforman la verdadera modernidad.
Resumo:
Según Heidegger, la esencia de la arquitectura, de la construcción, descansa en un no espacio: en la materia con que se construyen las fronteras que otorgan espacios, irradiando sobre ellos aquello que los caracteriza. Si hay alguna materia, de las utilizadas por la arquitectura a lo largo de su historia para construir fronteras, que haya mantenido una especial relación con la luz y la visión, dando un carácter inconfundible a los espacios aviados por ellas, esta es el vidrio; algunas de las etimologías de su nombre: zakû (ser claro), hyalos (diáfano) o vitrum (ver), así lo evidencian. Posiblemente, sea la pregnancia de este modo fascinante de relacionarse con la luz, la que ha hecho del vidrio, a lo largo del tiempo que lleva siendo usado en arquitectura, y aún antes, el material que ha provocado en el imaginario humano la ilusión de ser aquel en que, en último término, podrían llegar a sublimarse todos los demás, dando lugar con ello a lo que en la tesis hemos denominado el sueño de la arquitectura de cristal. Siendo la luz, siempre, energía, consideraremos en la tesis luz-energía, a aquella que ilumina y calienta; es una luz científica y mesurable. Cuando la luz se “hace visible”, desvelando un mensaje “contenido” en el vidrio, hablaremos de luz-información. Esta luz, no puede medirse científicamente. La luz-energía y la luz-información, se manifiestan al conjuro de la arquitectura de vidrio. Es la segunda la que ha conformado las fronteras de vidrio enmascarado, y la que se estudia con más detenimiento en la tesis. Los distintos modos de usar en arquitectura la infinita combinatoria de las propiedades de absortancia, reflectancia, transmitancia y translucencia del vidrio, ha condicionado al hombre en su manera de “ver” el mundo. Unas veces, “inmerso” en él, puesto que solo lo separa del mismo, una frontera transparente, y “deseadamente” invisible: ese modo de usar el vidrio, ha sido el sueño imposible de una parte importante de la arquitectura del siglo XX. Otras veces, para “aislarse” de él, el hombre ha manipulado la luz y el vidrio para construir mundos diferentes. Las fronteras de vidrio enmascarado de color, mosaicos, vidrieras, pantallas y lo que hemos llamado vidrios complejos (con un cometido similar al que Schiller atribuía al coro en la tragedia griega, aislar a esta del “mundo real”, para mantener su libertad poética), son las fronteras que han construido el sueño posible de la arquitectura de cristal. Ambas actitudes, en distintos momentos de la historia de la arquitectura, han sido dos formas de querer materializar un mismo sueño. La capacidad del vidrio para adaptarse a tantos modos de presentarse ante nosotros, y a poder ser interpretado de tantas formas diferentes, es la que ha servido para dar título a la tesis, pues hasta en su faceta más transparente, el vidrio, de una forma o de otra, se ha mostrado siempre como un material enmascarado en el más amplio sentido de la palabra: se enmascara, incluso cuando apela a la transparencia o se convierte en espejo, para hacernos caer en la ilusión de que no está presente. Cuando el hombre construyó fronteras de vidrio e incluso antes, cuando soñó que con él podría llegar a construirlas, condensó en ellas toda la mítica, la mística y la epistemología en torno a la luz y la visión, dando lugar a una serie de arquetipos arquitectónicos. En la iglesia bizantina, la luz sobre, o la luz desde, los mosaicos, construyó una frontera titilante; y en la catedral gótica, la luz a través de las vidrieras construyó una frontera radiante; en ambos casos con el fin de alcanzar anagógicamente lo Inteligible. En el siglo XIX, con el descubrimiento de la electricidad y su incorporación a la arquitectura, las fronteras se vuelven fulgurantes, aviando, en este caso, el espacio urbano. Poco antes, en este mismo siglo, el espíritu del gótico tiene un efímero resurgir del que se nutrirá, a comienzos del siglo XX, el expresionismo cristalino, en el que la luz anagógica se hace laica. El espacio urbano fulgurante prefigurado por este movimiento y presente en las ciudades desde principios del siglo XX, fue potenciado a mediados de ese siglo con la aparición de las pantallas, extendiéndose desde entonces, imparable, por todo el planeta. La reciente emergencia de los vidrios complejos, ha abierto la posibilidad de construir fronteras a la carta (de vidrios de propiedades múltiples, seleccionadas de forma voluntaria y variable en cada momento). En principio, se pensó que, el uso de estos vidrios como cerramiento, podría llegar a constituirse como la panacea de los problemas del material relacionados con la luz-energía, sin necesidad de recurrir a “prótesis”, y manteniendo por tanto la seductora tersura de la fachada; aunque parece que, por ahora, esa posibilidad es, cuando menos, lejana. Sin embargo, en el campo de las megapantallas urbanas (y ,en general, en el de las pantallas de información), ubicuas actualmente en nuestras vidas, los vidrios complejos ayudan a construir los espesos velos de ilusión, que según Lefebvre sirven para mantener el capitalismo, siendo el último estadio de un desarrollo tecnológico, impuesto por el principio de economía del hombre, que como un metrónomo inexorable, y a modo de contrapunto, ha acompañado siempre (de nuevo en palabras de Lefebvre), a la necesidad del gasto, del juego, de la lucha, del arte, de la fiesta. La tecnología y el arte forman parte de la cultura producida por la sociedad y como señala Lévi-Strauss, esa cultura imprime orden; por el contrario, la sociedad, entendida como el conjunto de relaciones que los hombres mantienen entre sí, produce desorden. Del equilibrio entre esos extremos, surge el progreso, incluido el de la arquitectura. Las fronteras de vidrio que analizamos en la tesis –que avían espacios para la espiritualidad, el fasto y el espectáculo o, desde otro punto de vista, para las distintas manifestaciones del poder: la iglesia, la monarquía, el estado o el mercado– también han surgido de esa concomitancia entre el desorden y el orden; y forma parte de ese desorden, la aventura que ha impulsado al genio individual de místicos, alquimistas, geómetras, abades, reyes, inventores, poetas y arquitectos, a explorar, como escribe Apollinaire, vastos y extraños territorios donde el misterio en flor, se ofrece a quien quiera cogerlo, hogueras nuevas de colores nunca vistos, mil fantasmas imponderables a los que dar cuerpo. ABSTRACT According to Heidegger, the essence of architecture, building, lies in a non-space: the material that creates the boundaries from which something begins its presencing, radiating onto them that which characterizes them. If there is any single material amongst all those used throughout the history of architecture to build boundaries which has maintained a special relationship with light and vision, which has bestowed a distinctive character on spaces avid for them, it is glass. This is evidenced in some of its etymologies: zakû (to be clear), hyalos (transparent), vitrum (see). The rich potential of this fascinating way of relating to light in the history of the architectural use of glass, and even before, is possibly what has triggered the illusion in human imagination of being something that can ultimately sublimate all others, giving rise to what in this thesis we call The Dream of Crystal Architecture. Given that light is always energy, in this thesis we consider energy-light to be that which illuminates and warms. This is scientific, measurable light. When light "becomes visible" and reveals a message “contained” in glass, we speak of information-light. This light cannot be measured scientifically. Energy-light and information-light are manifested under the spell of glass architecture. The latter is what has shaped the boundaries of coloured glass, which is studied in this thesis. Architecture's different ways of using the infinite combinations of the absorptance, reflectance, transmittance and translucency of glass has affected the way we humans "see" the world. Sometimes we are "immersed" in it, since only an invisible, transparent boundary separates us from it: this use of glass has characterized a considerable part of 20th century architecture. In other cases, in order to "isolate" us from it, we have manipulated light and glass to build different worlds: the boundaries of glass "masked" by colour, mosaics, stained glass, screens and what we have called complex glazing, which plays a similar role to what Schiller attributed to the chorus in Greek tragedy, isolating it from the "real world" in order to maintain its poetic license. These are the boundaries that have built the viable dream of crystal architecture. These two approaches have been different ways of making same dream come true at different times in the history of architecture. The ability of glass to adapt to so many forms of manifestation, and interpretation, is what has given rise to the title of the thesis. Even in its most transparent facet, glass has one way or another always been a masking material in the broadest sense of the word: it is masked even when it invites transparency or becomes a mirror, triggering the illusion that it is not present. When man began to build glass boundaries, and even before, when he dreamed that he could build them, he condensed in them all the mythology, mysticism and epistemology concerning light and vision, which gave rise to a series of architectural archetypes. In the Byzantine church, light on or from mosaics created tenuous boundaries. In Gothic cathedrals, the light through the stained glass windows constructed radiant boundaries. In both cases the aim was to achieve, in an anagogical way, the Intelligible. In the 19th, the discovery of electricity and its use in architecture led to the production of dazzling boundaries, in this case employed in urban spaces. Earlier in the same century, the Gothic spirit had a short-lived revival, which in the early 20th century drew from crystalline expressionism in which anagogic light became secular. The dazzling urban space prefigured by this movement, present in cities since the early 20th century, was intensified in the mid-century with the emergence of screens, and since then it has spread unstoppably across the world. The recent emergence of complex glasses has made it possible to build boundaries on demand in glass with multiple properties, chosen at will and at whim at any time. Initially it was thought that the use of this glass as a wall could eventually become the panacea for the material problems related to energy-light, without needing to resort to "prosthesis" and thereby maintain the seductive smoothness of the facade. For now, that possibility seems remote, to say the least. In the realm of urban megascreens and information screens in general, now ubiquitous in our lives, complex glasses help to build the thick veils of illusion which, according to Lefebvre, serve to maintain capitalism. Like an inexorable metronome, in counterpoint, this ultimate state of technological development imposed by man's principle of economy has in fact always accompanied (again in the words of Lefebvre), the need to spend, play, fight, art, and party. Technology and art are part of the culture produced by society. As Levi-Strauss says, this culture imposes order. On the contrary, society, understood as a set of relationships amongst people, produces disorder. Progress, including that of architecture, arises from the balance between these two extremes. The glass boundaries analyzed in this thesis, which propitiate spaces for spirituality, pomp and spectacle or, from a different perspective, for the various manifestations of power: the church, the monarchy, the state and the market, have also emerged from the concomitance of order and disorder. One aspect of this disorder is the adventure that has inspired the individual genius of mystics, alchemists, surveyors, abbots, kings, inventors, poets and architects to explore, as Apollinaire says, vast, strange domains where flowering mystery offers itself to whoever wishes to pluck it, new fires, colours you have never seen before, a thousand intangible phantasms still awaiting reality.