29 resultados para Adaptabilidad

em Universidad Politécnica de Madrid


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Análisis del clima y el territorio, los factores oceánicos, los factores humanos, los tipos de inundaciones urbanas y sus daños, recuperación, adaptación y resiliencia

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El 10 de enero, cuando se cumplía justo un año del ensayo del John Deere 6190R, volvimos a Olías del Rey (Toledo), para trabajar en la misma comarca con su recién llegado hermano mayor, el John Deere 7290R, que también dispone de recirculación externa refrigerada de gases de escape, e incorpora la nueva transmisión e23 y un novedoso conjunto de iluminación led de 360 grados. En este ensayo se ha trabajado con un cultivador de 6mde anchura útil labrando a una profundidad media de 8 cm y se ha efectuado un transporte con remolque de 19.680 kg, comparando el modo de cambio manual y la gestión automática de la transmisión.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Las organizaciones en la actualidad están sometidas permanentemente a cambios acelerados, obligándolas a incrementar su flexibilidad y adaptabilidad para mantener su posición competitiva, sobrevivir a estas presiones lograr sus objetivos y ser más productivas. Por estas razones, la productividad del factor humano es fundamental, ya que son las personas las que realizan los procesos creativos que generan resultados en las organizaciones. Cuando las personas interactúan en la organización se generan unos procesos de carácter psicosocial que incide en el desempeño de individuos, grupos y organización y se denominan Factores grupales, porque son producto de la actuación de las personas en grupos de trabajo. Dichos factores tienen impacto en la productividad, por lo que resulta de interés el estudio de estas relaciones. Con el fin de analizar este impacto, se presenta relaciones Factores Grupales-Productividad, mediante un Modelo de Ecuaciones Estructurales (SEM), donde los Factores Grupales y la Productividad son constructos o variables latentes explicadas por variables observables o indicadores. El modelo planteado, es aceptado de acuerdo con los índices globales de ajuste y a las cargas factoriales de las variables del modelo resultante. Se corroboró que los factores grupales, tales como Cohesión, Conflicto, Consenso y Moral, inciden en la productividad.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El campo de las redes de sensores inalámbricas ha cobrado gran importancia en esta última década ya que se han abierto diversas líneas de investigación con el fin de poder llevar a la práctica los conceptos y definiciones que envuelven el potencial de esta tecnología, y que está llamada a ser el futuro en la adquisición de datos de cualquier entorno físico de aplicación, mediante una herramienta basada en la autogestión y desatención durante largos periodos de tiempo, capacidad de tomar muestras cuando sea necesario a través de nodos sensores que se caractericen por el ahorro de energía y que puedan ser capaces de trabajar de forma autónoma durante meses, y que el carácter inalámbrico de la red a desplegar facilite las tareas de instalación y mantenimiento. Ello requiere que las condiciones para que una red de sensores inalámbrica sea la forma más viable de monitorizar un determinado entorno se base en ciertos requisitos de diseño, como lo es la baja tasa de transferencia de datos por parte de los nodos (estos deben ser capaces de transmitir la información recolectada desde los sensores y luego permanecer dormidos hasta una nueva adquisición), hardware enfocado al bajo consumo de energía con el fin de evitar cambios en la fuente de energía (baterías) durante largos periodos de tiempo, adaptabilidad al entorno de aplicación, flexibilidad y escalabilidad de la red si la aplicación hace necesario la inclusión de nuevos nodos o la modificación de los ya existentes, sin que ello suponga mayores dificultades en su desarrollo e implementación. El Centro de Electrónica industrial de la Universidad Politécnica de Madrid se incluye dentro de este último grupo, donde se ha diseñado una completa plataforma hardware para redes de sensores inalámbricas, con el fin de investigar las potencialidades, dificultades y retos que supone el realizar un despliegue de nodos inalámbricos en cumplimiento de características primordiales como autonomía, flexibilidad y escalabilidad de la red, además de la autogestión de los dispositivos que forman parte de ella. El presente trabajo de investigación se centra en cubrir estas necesidades, por lo que su principal objetivo es la creación de una plataforma de integración hardware-software que permita explotar todas las potencialidades de la arquitectura Cookies a través de una herramienta que facilite el despliegue, control y mantenimiento de una red de sensores inalámbrica, con el fin último de contar con un sistema total para el prototipado rápido de aplicaciones, soporte de pruebas de nuevos desarrollos y la posibilidad de implementación de dicha plataforma en cualquier entorno real, siendo sólo necesario realizar pequeños ajustes desde el más alto nivel de abstracción para que el sistema sea capaz de adaptarse por sí solo. Para cumplir tales propósitos y lograr una completa integración del sistema conjunto, ha sido necesario fijar principalmente tres líneas de trabajo que se enmarcan dentro de los objetivos específicos del presente proyecto, las cuales se detallan a continuación: Bibliotecas Software modulares: Basada en la filosofía de modularidad y flexibilidad de la plataforma hardware, se hace imprescindible primeramente contar con una plataforma software para el control de todos y cada uno de los elementos que componen al nodo Cookie, a partir de bloques funcionales que permitan gestionar desde el núcleo de procesamiento principal todas las características de la plataforma. Esto permitirá asegurar el control de los recursos hardware y facilitar la utilización de la plataforma desde un nivel más alto de abstracción, sólo con la configuración de parámetros estandarizados para el funcionamiento de la misma. Perfil de aplicación Cookies: Después de contar con bloques software que permitan controlar las características de bajo nivel del nodo inalámbrico, es necesario crear una herramienta para la estandarización de la forma en la que se comunican los dispositivos a nivel de aplicación, con el fin de gestionar las características y atributos de los nodos sensores de forma remota y facilitar el entendimiento entre ellos. Para ello, es necesario fijar ciertas directivas y reglas que permitan homogeneizar la gestión de tareas asociadas a los nodos Cookies, a través del diseño de un perfil de aplicación. Testbed para redes de sensores: Como resultado de las dos líneas anteriores de trabajo, la idea es contar con un instrumento que permita realizar pruebas reales haciendo uso de la plataforma de integración HW-SW, a partir de la gestión de todas las características y potencialidades que ofrece el perfil de aplicación creado y así facilitar el desarrollo de prototipos para aplicaciones basadas en redes de sensores inalámbricas, de forma rápida y eficiente. En este sentido, la idea es contar con un banco de pruebas basado en un despliegue de nodos Cookies que pueda ser controlado desde un ordenador central a través de una interfaz de usuario, desde el cual se lleva a cabo la monitorización y actuación sobre la red inalámbrica. Con el fin de lograr todos los objetivos planteados, ha sido necesario realizar un exhaustivo estudio de la plataforma hardware descrita anteriormente con el fin de conocer la forma en la que interactúan cada uno de los elementos incluidos en los nodos, así como la arquitectura y filosofía de los mismos, para poder llevar a cabo la integración con el software y, como se verá más adelante, realizar ajustes en el hardware para poder implementar correctamente las funcionalidades diseñadas. Por otro lado, ha sido necesario analizar las características de la especificación ZigBee y, sobre todo, las propiedades que posee el módulo de comunicaciones que incluye la plataforma hardware, el ETRX2, con el fin de poder realizar una configuración y gestión adecuada de los nodos a través de la red inalámbrica, aprovechando las posibilidades y recursos que ofrece dicho módulo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La pérdida de diversidad genética, que conlleva descensos en eficacia biológica y pérdida de adaptabilidad, suele considerarse un fenómeno a evitar. Sin embargo determinadas poblaciones requieren la preservación del fondo genético diferenciado de otros grupos: han de ser mantenidas en pureza. El motivo puede ser económico: razas que proporcionan productos de interés (como los cerdos ibéricos o bovinos de raza Reggiana; Dalvit et al., 2007) razas, como en perros, que no se cruzan por motivos estéticos (Parker et al., 2004), etc. También en especies o razas salvajes amenazadas por su equivalente doméstico tiene interés el mantenimiento de su base genética diferenciada (Rhymer y Simberloff 1996; Allendorf et al., 2001). Si tenemos una población de interés que se ha cruzado (bien por error o por mala gestión) con otra y queremos recuperar su fondo genético original, tendremos que llevar a cabo un proceso de desintrogresión. Por ejemplo, poblaciones que quieren recuperarse a través de un banco de semen requieren la utilización de hembras de otra población cuyo fondo genético habría de ser eliminado (Hall y Bradley 1995

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Software Product Line Engineering (SPLE) has proved to have significant advantages in family-based software development, but also implies the up¬front design of a product-line architecture (PLA) from which individual product applications can be engineered. The big upfront design associated with PLAs is in conflict with the current need of "being open to change". However, the turbulence of the current business climate makes change inevitable in order to stay competitive, and requires PLAs to be open to change even late in the development. The trend of "being open to change" is manifested in the Agile Software Development (ASD) paradigm, but it is spreading to the domain of SPLE. To reduce the big upfront design of PLAs as currently practiced in SPLE, new paradigms are being created, one being Agile Product Line Engineering (APLE). APLE aims to make the development of product-lines more flexible and adaptable to changes as promoted in ASD. To put APLE into practice it is necessary to make mechanisms available to assist and guide the agile construction and evolution of PLAs while complying with the "be open to change" agile principle. This thesis defines a process for "the agile construction and evolution of product-line architectures", which we refer to as Agile Product-Line Archi-tecting (APLA). The APLA process provides agile architects with a set of models for describing, documenting and tracing PLAs, as well as an algorithm to analyze change impact. Both the models and the change impact analysis offer the following capabilities: Flexibility & adaptability at the time of defining software architectures, enabling change during the incremental and iterative design of PLAs (anticipated or planned changes) and their evolution (unanticipated or unforeseen changes). Assistance in checking architectural integrity through change impact analysis in terms of architectural concerns, such as dependencies on earlier design decisions, rationale, constraints, and risks, etc.Guidance in the change decision-making process through change im¬pact analysis in terms of architectural components and connections. Therefore, APLA provides the mechanisms required to construct and evolve PLAs that can easily be refined iteration after iteration during the APLE development process. These mechanisms are provided in a modeling frame¬work called FPLA. The contributions of this thesis have been validated through the conduction of a project regarding a metering management system in electrical power networks. This case study took place in an i-smart software factory and was in collaboration with the Technical University of Madrid and Indra Software Labs. La Ingeniería de Líneas de Producto Software (Software Product Line Engi¬neering, SPLE) ha demostrado tener ventajas significativas en el desarrollo de software basado en familias de productos. SPLE es un paradigma que se basa en la reutilización sistemática de un conjunto de características comunes que comparten los productos de un mismo dominio o familia, y la personalización masiva a través de una variabilidad bien definida que diferencia unos productos de otros. Este tipo de desarrollo requiere el diseño inicial de una arquitectura de línea de productos (Product-Line Architecture, PLA) a partir de la cual los productos individuales de la familia son diseñados e implementados. La inversión inicial que hay que realizar en el diseño de PLAs entra en conflicto con la necesidad actual de estar continuamente "abierto al cam¬bio", siendo este cambio cada vez más frecuente y radical en la industria software. Para ser competitivos es inevitable adaptarse al cambio, incluso en las últimas etapas del desarrollo de productos software. Esta tendencia se manifiesta de forma especial en el paradigma de Desarrollo Ágil de Software (Agile Software Development, ASD) y se está extendiendo también al ámbito de SPLE. Con el objetivo de reducir la inversión inicial en el diseño de PLAs en la manera en que se plantea en SPLE, en los último años han surgido nuevos enfoques como la Ingeniera de Líneas de Producto Software Ágiles (Agile Product Line Engineering, APLE). APLE propone el desarrollo de líneas de producto de forma más flexible y adaptable a los cambios, iterativa e incremental. Para ello, es necesario disponer de mecanismos que ayuden y guíen a los arquitectos de líneas de producto en el diseño y evolución ágil de PLAs, mientras se cumple con el principio ágil de estar abierto al cambio. Esta tesis define un proceso para la "construcción y evolución ágil de las arquitecturas de lineas de producto software". A este proceso se le ha denominado Agile Product-Line Architecting (APLA). El proceso APLA proporciona a los arquitectos software un conjunto de modelos para de¬scribir, documentar y trazar PLAs, así como un algoritmo para analizar vel impacto del cambio. Los modelos y el análisis del impacto del cambio ofrecen: Flexibilidad y adaptabilidad a la hora de definir las arquitecturas software, facilitando el cambio durante el diseño incremental e iterativo de PLAs (cambios esperados o previstos) y su evolución (cambios no previstos). Asistencia en la verificación de la integridad arquitectónica mediante el análisis de impacto de los cambios en términos de dependencias entre decisiones de diseño, justificación de las decisiones de diseño, limitaciones, riesgos, etc. Orientación en la toma de decisiones derivadas del cambio mediante el análisis de impacto de los cambios en términos de componentes y conexiones. De esta manera, APLA se presenta como una solución para la construcción y evolución de PLAs de forma que puedan ser fácilmente refinadas iteración tras iteración de un ciclo de vida de líneas de producto ágiles. Dicha solución se ha implementado en una herramienta llamada FPLA (Flexible Product-Line Architecture) y ha sido validada mediante su aplicación en un proyecto de desarrollo de un sistema de gestión de medición en redes de energía eléctrica. Dicho proyecto ha sido desarrollado en una fábrica de software global en colaboración con la Universidad Politécnica de Madrid e Indra Software Labs.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La presente tesis doctoral tiene por objeto el estudio y análisis de técnicas y modelos de obtención de parámetros biofísicos e indicadores ambientales, de manera automatizada a partir de imágenes procedentes de satélite de alta resolución temporal. En primer lugar se revisan los diferentes programas espaciales de observación del territorio, con especial atención a los que proporcionan dicha resolución. También se han revisado las metodologías y procesos que permiten la obtención de diferentes parámetros cuantitativos y documentos cualitativos, relacionados con diversos aspectos de las cubiertas terrestres, atendiendo a su adaptabilidad a las particularidades de los datos. En segundo lugar se propone un modelo de obtención de parámetros ambientales, que integra información proveniente de sensores espaciales y de otras fuentes auxiliares utilizando, en cierta medida, las metodologías presentadas en apartados anteriores y optimizando algunas de las referidas o proponiendo otras nuevas, de manera que se permita dicha obtención de manera eficiente, a partir de los datos disponibles y de forma sistemática. Tras esta revisión de metodologías y propuesta del modelo, se ha procedido a la realización de experimentos, con la finalidad de comprobar su comportamiento en diferentes casos prácticos, depurar los flujos de datos y procesos, así como establecer las situaciones que pueden afectar a los resultados. De todo ello se deducirá la evaluación del referido modelo. Los sensores considerados en este trabajo han sido MODIS, de alta resolución temporal y Thematic Mapper (TM), de media resolución espacial, por tratarse de instrumentos de referencia en la realización de estudios ambientales. También por la duración de sus correspondientes misiones de registro de datos, lo que permite realizar estudios de evolución temporal de ciertos parámetros biofísicos, durante amplios periodos de tiempo. Así mismo. es de destacar que la continuidad de los correspondientes programas parece estar asegurada. Entre los experimentos realizados, se ha ensayado una metodología para la integración de datos procedentes de ambos sensores. También se ha analizado un método de interpolación temporal que permite obtener imágenes sintéticas con la resolución espacial de TM (30 m) y la temporal de MODIS (1 día), ampliando el rango de aplicación de este último sensor. Asimismo, se han analizado algunos de los factores que afectan a los datos registrados, tal como la geometría de la toma de los mismos y los episodios de precipitación, los cuales alteran los resultados obtenidos. Por otro lado, se ha comprobado la validez del modelo propuesto en el estudio de fenómenos ambientales dinámicos, en concreto la contaminación orgánica de aguas embalsadas. Finalmente, se ha demostrado un buen comportamiento del modelo en todos los casos ensayados, así como su flexibilidad, lo que le permite adaptarse a nuevos orígenes de datos, o nuevas metodologías de cálculo. Abstract This thesis aims to the study and analysis of techniques and models, in order to obtain biophysical parameters and environmental indicators in an automated way, using high temporal resolution satellite data. Firstly we have reviewed the main Earth Observation Programs, paying attention to those that provide high temporal resolution. Also have reviewed the methodologies and process flow diagrams in order to obtain quantitative parameters and qualitative documents, relating to various aspects of land cover, according to their adaptability to the peculiarities of the data. In the next stage, a model which allows obtaining environmental parameters, has been proposed. This structure integrates information from space sensors and ancillary data sources, using the methodologies presented in previous sections that permits the parameters calculation in an efficient and automated way. After this review of methodologies and the proposal of the model, we proceeded to carry out experiments, in order to check the behavior of the structure in real situations. From this, we derive the accuracy of the model. The sensors used in this work have been MODIS, which is a high temporal resolution sensor, and Thematic Mapper (TM), which is a medium spatial resolution instrument. This choice was motivated because they are reference sensors in environmental studies, as well as for the duration of their corresponding missions of data logging, and whose continuity seems assured. Among the experiments, we tested a methodology that allows the integration of data from cited sensors, we discussed a proposal for a temporal interpolation method for obtaining synthetic images with spatial resolution of TM (30 m) and temporal of MODIS (1 day), extending the application range of this one. Furthermore, we have analyzed some of the factors that affect the recorded data, such as the relative position of the satellite with the ground point, and the rainfall events, which alter the obtained results. On the other hand, we have proven the validity of the proposed model in the study of the organic contamination in inland water bodies. Finally, we have demonstrated a good performance of the proposed model in all cases tested, as well as its flexibility and adaptability.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Objetivos. Análisis a través del prisma de la sostenibilidad, con un triple objetivo: consumo de energía, aspecto constructivo y recursos arquitectónicos, de algunos ejemplos destacados de vivienda aislada desde 1973, crisis del petróleo, hasta el cambio ideológico del 11 de septiembre de 2001. Emplazadas en microclimas semejantes en distintas latitudes, para extrapolar al clima mediterráneo. Ejemplos. Siete viviendas aisladas de distinto diseño conceptual, situadas en climas subtropicales, en ecosistemas variados pero de concepción medioambiental, constructiva y arquitectónica muy actual. Los ejemplos elegidos, por su intencionalidad, su diseño, y su sentido utilitario, constructivo y semiótico, se analizan desde el hecho acumulativo y el hecho reactivo, mediante el procedimiento de contrastar diversas fuentes de información. Objetivos. El análisis de cada una de las viviendas procedentes de diferentes arquitectos, se hace mediante la simulación de modelos que permitan describir la parte esencial del comportamiento de un sistema de interés, así como diseñar y realizar experimentos con el modelo para extraer conclusiones de sus resultados y apoyar la toma de decisiones proyectual. Procedimiento. En una primera fase, el medio natural queda definido por su localización, interpretación del lugar, el clima concreto (mediante climogramas generales y de isopletas), determinando un diagnóstico medioambiental para el establecimiento de estrategias a partir de los datos experimentales a contrastar con el resultado finalmente obtenido. En una segunda fase se eligen los casos más representativos de LowTech / LowEnergy y HighTech / HighEnergy. Se realiza un análisis del modelo, frente a uno de los elementos predominantes: sol, aire, agua, tierra, luna, vegetación y miscelánea. Resultados. De los casos estudiados se extraen principios aplicables en cada uno de los ámbitos: medioambiental, relacionados con la adaptabilidad energética; constructivo, en relación con la economía; y arquitectónico, vinculado con lo social, con una perspectiva diferente sobre los nuevos espacios vivibles. Conclusiones y relevancia. En los emplazamientos estudiados, los arquitectos herederos del movimiento moderno, han utilizado los recursos medioambientales pasivos y activos más actuales en cada uno de los elementos, así como la orientación, la ventilación, la radiación, la inercia térmica,…las actitudes más contemporáneas como expertos bioclimáticos. Los principios extraídos deben facilitar un proceso proyectual mediante pautas experimentales a desarrollar sin un uso desmesurado de la tecnología. Los principios y las conclusiones obtenidos servirán de aplicación a nuevos modelos conociendo los parámetros más relevantes. La modelización analógica - digital permitirá evaluar el comportamiento más aplicable según las necesidades a satisfacer. Objectives. Architectural analysis through the prism of sustainability with three aims: energy consumption, building technique and architectonical resources. The study is focused on some key examples of low density houses since 1973 (featured by the Oil crisis) until the 11th September 2001´s ideological change. These living spaces are settled in similar microclimates although in different latitudes with strong possibilities for applications in Mediterranean climates. Examples. Seven remote detached dwellings with different conceptual characters, located in subtropical climates, in different ecosystems, however with a sustainable basis and architectonical building concepts very updated. The cultural objects chosen, due to legitimate reasons such as: purpose, a plan, an utilitarian sense, constructive and semiotic, are analyzed under an accumulative perspective along with the reactive fact as the procedure to contrast and compare different sources of information. Goals. The analysis of the examples of different architects, will be done in order to simulate through models which describe and display the essential part of behaviour that corresponds to an interest system, along with the design and to try out or experiment with the model and to draw up results which support the projecting decision process. Procedure. On a first stage, the natural environment is shaped by its location, interpretation of the pace, a particular climate (through general climograms and isophlets), determining an environmental diagnosis which would be able to generate scientific conclusions in order to develop adequate strategies. Hence from experimental data we contrast with the results. On a second stage the more representative cases of LowTech / LowEnergy and HighTech / HighEnergy are choosen. We analyze the model taking into consideration and facing a key element: sun, air, water, soil, moon, vegetation and miscellany. Results. From the study cases we draw up applicable principles in each field: the ecological in relation with energetic adaptability, the constructive potential related with economy, and the social in relation with a different perspective about new architectural living spaces. Conclusions and Relevance. On those settlements studied, the heirs architects from Modern Movement, had used the passive and active, updated environmental resources in each element. For instance, aspects like orientation, ventilation, solar radiation, thermal inertia…, and the most contemporary attitude as bioclimatic expert that they are. These principles speed up through experimental guidelines, the technology is diminished and the design process be provided. The principles and conclusions generated will be useful in order to apply new models because we are able to know the most relevant key parameters. The analogical-digital modelizations allow us to revaluate the applicable behaviour according to the needs to satisfy.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The design and development of spoken interaction systems has been a thoroughly studied research scope for the last decades. The aim is to obtain systems with the ability to interact with human agents with a high degree of naturalness and efficiency, allowing them to carry out the actions they desire using speech, as it is the most natural means of communication between humans. To achieve that degree of naturalness, it is not enough to endow systems with the ability to accurately understand the user’s utterances and to properly react to them, even considering the information provided by the user in his or her previous interactions. The system has also to be aware of the evolution of the conditions under which the interaction takes place, in order to act the most coherent way as possible at each moment. Consequently, one of the most important features of the system is that it has to be context-aware. This context awareness of the system can be reflected in the modification of the behaviour of the system taking into account the current situation of the interaction. For instance, the system should decide which action it has to carry out, or the way to perform it, depending on the user that requests it, on the way that the user addresses the system, on the characteristics of the environment in which the interaction takes place, and so on. In other words, the system has to adapt its behaviour to these evolving elements of the interaction. Moreover that adaptation has to be carried out, if possible, in such a way that the user: i) does not perceive that the system has to make any additional effort, or to devote interaction time to perform tasks other than carrying out the requested actions, and ii) does not have to provide the system with any additional information to carry out the adaptation, which could imply a lesser efficiency of the interaction, since users should devote several interactions only to allow the system to become adapted. In the state-of-the-art spoken dialogue systems, researchers have proposed several disparate strategies to adapt the elements of the system to different conditions of the interaction (such as the acoustic characteristics of a specific user’s speech, the actions previously requested, and so on). Nevertheless, to our knowledge there is not any consensus on the procedures to carry out these adaptation. The approaches are to an extent unrelated from one another, in the sense that each one considers different pieces of information, and the treatment of that information is different taking into account the adaptation carried out. In this regard, the main contributions of this Thesis are the following ones: Definition of a contextualization framework. We propose a unified approach that can cover any strategy to adapt the behaviour of a dialogue system to the conditions of the interaction (i.e. the context). In our theoretical definition of the contextualization framework we consider the system’s context as all the sources of variability present at any time of the interaction, either those ones related to the environment in which the interaction takes place, or to the human agent that addresses the system at each moment. Our proposal relies on three aspects that any contextualization approach should fulfill: plasticity (i.e. the system has to be able to modify its behaviour in the most proactive way taking into account the conditions under which the interaction takes place), adaptivity (i.e. the system has also to be able to consider the most appropriate sources of information at each moment, both environmental and user- and dialogue-dependent, to effectively adapt to the conditions aforementioned), and transparency (i.e. the system has to carry out the contextualizaton-related tasks in such a way that the user neither perceives them nor has to do any effort in providing the system with any information that it needs to perform that contextualization). Additionally, we could include a generality aspect to our proposed framework: the main features of the framework should be easy to adopt in any dialogue system, regardless of the solution proposed to manage the dialogue. Once we define the theoretical basis of our contextualization framework, we propose two cases of study on its application in a spoken dialogue system. We focus on two aspects of the interaction: the contextualization of the speech recognition models, and the incorporation of user-specific information into the dialogue flow. One of the modules of a dialogue system that is more prone to be contextualized is the speech recognition system. This module makes use of several models to emit a recognition hypothesis from the user’s speech signal. Generally speaking, a recognition system considers two types of models: an acoustic one (that models each of the phonemes that the recognition system has to consider) and a linguistic one (that models the sequences of words that make sense for the system). In this work we contextualize the language model of the recognition system in such a way that it takes into account the information provided by the user in both his or her current utterance and in the previous ones. These utterances convey information useful to help the system in the recognition of the next utterance. The contextualization approach that we propose consists of a dynamic adaptation of the language model that is used by the recognition system. We carry out this adaptation by means of a linear interpolation between several models. Instead of training the best interpolation weights, we make them dependent on the conditions of the dialogue. In our approach, the system itself will obtain these weights as a function of the reliability of the different elements of information available, such as the semantic concepts extracted from the user’s utterance, the actions that he or she wants to carry out, the information provided in the previous interactions, and so on. One of the aspects more frequently addressed in Human-Computer Interaction research is the inclusion of user specific characteristics into the information structures managed by the system. The idea is to take into account the features that make each user different from the others in order to offer to each particular user different services (or the same service, but in a different way). We could consider this approach as a user-dependent contextualization of the system. In our work we propose the definition of a user model that contains all the information of each user that could be potentially useful to the system at a given moment of the interaction. In particular we will analyze the actions that each user carries out throughout his or her interaction. The objective is to determine which of these actions become the preferences of that user. We represent the specific information of each user as a feature vector. Each of the characteristics that the system will take into account has a confidence score associated. With these elements, we propose a probabilistic definition of a user preference, as the action whose likelihood of being addressed by the user is greater than the one for the rest of actions. To include the user dependent information into the dialogue flow, we modify the information structures on which the dialogue manager relies to retrieve information that could be needed to solve the actions addressed by the user. Usage preferences become another source of contextual information that will be considered by the system towards a more efficient interaction (since the new information source will help to decrease the need of the system to ask users for additional information, thus reducing the number of turns needed to carry out a specific action). To test the benefits of the contextualization framework that we propose, we carry out an evaluation of the two strategies aforementioned. We gather several performance metrics, both objective and subjective, that allow us to compare the improvements of a contextualized system against the baseline one. We will also gather the user’s opinions as regards their perceptions on the behaviour of the system, and its degree of adaptation to the specific features of each interaction. Resumen El diseño y el desarrollo de sistemas de interacción hablada ha sido objeto de profundo estudio durante las pasadas décadas. El propósito es la consecución de sistemas con la capacidad de interactuar con agentes humanos con un alto grado de eficiencia y naturalidad. De esta manera, los usuarios pueden desempeñar las tareas que deseen empleando la voz, que es el medio de comunicación más natural para los humanos. A fin de alcanzar el grado de naturalidad deseado, no basta con dotar a los sistemas de la abilidad de comprender las intervenciones de los usuarios y reaccionar a ellas de manera apropiada (teniendo en consideración, incluso, la información proporcionada en previas interacciones). Adicionalmente, el sistema ha de ser consciente de las condiciones bajo las cuales transcurre la interacción, así como de la evolución de las mismas, de tal manera que pueda actuar de la manera más coherente en cada instante de la interacción. En consecuencia, una de las características primordiales del sistema es que debe ser sensible al contexto. Esta capacidad del sistema de conocer y emplear el contexto de la interacción puede verse reflejada en la modificación de su comportamiento debida a las características actuales de la interacción. Por ejemplo, el sistema debería decidir cuál es la acción más apropiada, o la mejor manera de llevarla a término, dependiendo del usuario que la solicita, del modo en el que lo hace, etcétera. En otras palabras, el sistema ha de adaptar su comportamiento a tales elementos mutables (o dinámicos) de la interacción. Dos características adicionales son requeridas a dicha adaptación: i) el usuario no ha de percibir que el sistema dedica recursos (temporales o computacionales) a realizar tareas distintas a las que aquél le solicita, y ii) el usuario no ha de dedicar esfuerzo alguno a proporcionar al sistema información adicional para llevar a cabo la interacción. Esto último implicaría una menor eficiencia de la interacción, puesto que los usuarios deberían dedicar parte de la misma a proporcionar información al sistema para su adaptación, sin ningún beneficio inmediato. En los sistemas de diálogo hablado propuestos en la literatura, se han propuesto diferentes estrategias para llevar a cabo la adaptación de los elementos del sistema a las diferentes condiciones de la interacción (tales como las características acústicas del habla de un usuario particular, o a las acciones a las que se ha referido con anterioridad). Sin embargo, no existe una estrategia fija para proceder a dicha adaptación, sino que las mismas no suelen guardar una relación entre sí. En este sentido, cada una de ellas tiene en cuenta distintas fuentes de información, la cual es tratada de manera diferente en función de las características de la adaptación buscada. Teniendo en cuenta lo anterior, las contribuciones principales de esta Tesis son las siguientes: Definición de un marco de contextualización. Proponemos un criterio unificador que pueda cubrir cualquier estrategia de adaptación del comportamiento de un sistema de diálogo a las condiciones de la interacción (esto es, el contexto de la misma). En nuestra definición teórica del marco de contextualización consideramos el contexto del sistema como todas aquellas fuentes de variabilidad presentes en cualquier instante de la interacción, ya estén relacionadas con el entorno en el que tiene lugar la interacción, ya dependan del agente humano que se dirige al sistema en cada momento. Nuestra propuesta se basa en tres aspectos que cualquier estrategia de contextualización debería cumplir: plasticidad (es decir, el sistema ha de ser capaz de modificar su comportamiento de la manera más proactiva posible, teniendo en cuenta las condiciones en las que tiene lugar la interacción), adaptabilidad (esto es, el sistema ha de ser capaz de considerar la información oportuna en cada instante, ya dependa del entorno o del usuario, de tal manera que adecúe su comportamiento de manera eficaz a las condiciones mencionadas), y transparencia (que implica que el sistema ha de desarrollar las tareas relacionadas con la contextualización de tal manera que el usuario no perciba la manera en que dichas tareas se llevan a cabo, ni tampoco deba proporcionar al sistema con información adicional alguna). De manera adicional, incluiremos en el marco propuesto el aspecto de la generalidad: las características del marco de contextualización han de ser portables a cualquier sistema de diálogo, con independencia de la solución propuesta en los mismos para gestionar el diálogo. Una vez hemos definido las características de alto nivel de nuestro marco de contextualización, proponemos dos estrategias de aplicación del mismo a un sistema de diálogo hablado. Nos centraremos en dos aspectos de la interacción a adaptar: los modelos empleados en el reconocimiento de habla, y la incorporación de información específica de cada usuario en el flujo de diálogo. Uno de los módulos de un sistema de diálogo más susceptible de ser contextualizado es el sistema de reconocimiento de habla. Este módulo hace uso de varios modelos para generar una hipótesis de reconocimiento a partir de la señal de habla. En general, un sistema de reconocimiento emplea dos tipos de modelos: uno acústico (que modela cada uno de los fonemas considerados por el reconocedor) y uno lingüístico (que modela las secuencias de palabras que tienen sentido desde el punto de vista de la interacción). En este trabajo contextualizamos el modelo lingüístico del reconocedor de habla, de tal manera que tenga en cuenta la información proporcionada por el usuario, tanto en su intervención actual como en las previas. Estas intervenciones contienen información (semántica y/o discursiva) que puede contribuir a un mejor reconocimiento de las subsiguientes intervenciones del usuario. La estrategia de contextualización propuesta consiste en una adaptación dinámica del modelo de lenguaje empleado en el reconocedor de habla. Dicha adaptación se lleva a cabo mediante una interpolación lineal entre diferentes modelos. En lugar de entrenar los mejores pesos de interpolación, proponemos hacer los mismos dependientes de las condiciones actuales de cada diálogo. El propio sistema obtendrá estos pesos como función de la disponibilidad y relevancia de las diferentes fuentes de información disponibles, tales como los conceptos semánticos extraídos a partir de la intervención del usuario, o las acciones que el mismo desea ejecutar. Uno de los aspectos más comúnmente analizados en la investigación de la Interacción Persona-Máquina es la inclusión de las características específicas de cada usuario en las estructuras de información empleadas por el sistema. El objetivo es tener en cuenta los aspectos que diferencian a cada usuario, de tal manera que el sistema pueda ofrecer a cada uno de ellos el servicio más apropiado (o un mismo servicio, pero de la manera más adecuada a cada usuario). Podemos considerar esta estrategia como una contextualización dependiente del usuario. En este trabajo proponemos la definición de un modelo de usuario que contenga toda la información relativa a cada usuario, que pueda ser potencialmente utilizada por el sistema en un momento determinado de la interacción. En particular, analizaremos aquellas acciones que cada usuario decide ejecutar a lo largo de sus diálogos con el sistema. Nuestro objetivo es determinar cuáles de dichas acciones se convierten en las preferencias de cada usuario. La información de cada usuario quedará representada mediante un vector de características, cada una de las cuales tendrá asociado un valor de confianza. Con ambos elementos proponemos una definición probabilística de una preferencia de uso, como aquella acción cuya verosimilitud es mayor que la del resto de acciones solicitadas por el usuario. A fin de incluir la información dependiente de usuario en el flujo de diálogo, llevamos a cabo una modificación de las estructuras de información en las que se apoya el gestor de diálogo para recuperar información necesaria para resolver ciertos diálogos. En dicha modificación las preferencias de cada usuario pasarán a ser una fuente adicional de información contextual, que será tenida en cuenta por el sistema en aras de una interacción más eficiente (puesto que la nueva fuente de información contribuirá a reducir la necesidad del sistema de solicitar al usuario información adicional, dando lugar en consecuencia a una reducción del número de intervenciones necesarias para llevar a cabo una acción determinada). Para determinar los beneficios de las aplicaciones del marco de contextualización propuesto, llevamos a cabo una evaluación de un sistema de diálogo que incluye las estrategias mencionadas. Hemos recogido diversas métricas, tanto objetivas como subjetivas, que nos permiten determinar las mejoras aportadas por un sistema contextualizado en comparación con el sistema sin contextualizar. De igual manera, hemos recogido las opiniones de los participantes en la evaluación acerca de su percepción del comportamiento del sistema, y de su capacidad de adaptación a las condiciones concretas de cada interacción.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este informe trata el diseño, desarrollo y construcción de un aerodeslizador de pequeño tamaño, equipado con control remoto que permite al usuario actuar sobre la velocidad y dirección del mismo. Este proyecto podrá ser utilizado en un futuro como base para el desarrollo de aplicaciones más complejas. Un aerodeslizador es un medio de transporte cuyo chasis se eleva sobre el suelo por medio de un motor impulsor que hincha una falda colocada en la parte inferior del mismo. Además, uno o más motores se colocan en la parte trasera del vehículo para propulsarlo. El hecho de que el aerodeslizador no este en contacto directo con la tierra, hace que pueda moverse tanto por tierra como sobre el agua o hielo y que sea capaz de superar pequeños obstáculos. Por otra parte, este hecho se convierte a su vez en un problema debido a que su fuerza de rozamiento al desplazarse es muy pequeña, lo que provoca que sea muy difícil de frenar, y tienda a girar por sí mismo debido a la inercia del movimiento y a las fuerzas provocadas por las corrientes de aire debajo del chasis. Sin embargo, para este proyecto no se ha colocado una falda debajo del mismo, debido a que su diseño es bastante complicado, por lo tanto la fricción con el suelo es menor, aumentando los problemas detallados con anterioridad. El proyecto consta de dos partes, mando a distancia y aerodeslizador, que se conectan a través de antenas de radiofrecuencia (RF). El diseño y desarrollo de cada una ha sido realizado de manera separada exceptuando la parte de las comunicaciones entre ambas. El mando a distancia se divide en tres partes. La primera está compuesta por la interfaz de usuario y el circuito que genera las señales analógicas correspondientes a sus indicaciones. La interfaz de usuario la conforman tres potenciómetros: uno rotatorio y dos deslizantes. El rotatorio se utiliza para controlar la dirección de giro del aerodeslizador, mientras que cada uno de los deslizantes se emplea para controlar la fuerza del motor impulsor y del propulsor respectivamente. En los tres casos los potenciómetros se colocan en el circuito de manera que actúan como divisores de tensión controlables. La segunda parte se compone de un microcontrolador de la familia PSoC. Esta familia de microcontroladores se caracteriza por tener una gran adaptabilidad a la aplicación en la que se quieran utilizar debido a la posibilidad de elección de los periféricos, tanto analógicos como digitales, que forman parte del microcontrolador. Para el mando a distancia se configura con tres conversores A/D que se encargan de transformar las señales procedentes de los potenciómetros, tres amplificadores programables para trabajar con toda la escala de los conversores, un LCD que se utiliza para depurar el código en C con el que se programa y un módulo SPI que es la interfaz que conecta el microcontrolador con la antena. Además, se utilizan cuatro pines externos para elegir el canal de transmisión de la antena. La tercera parte es el módulo transceptor de radio frecuencia (RF) QFM-TRX1-24G, que en el mando a distancia funciona como transmisor. Éste utiliza codificación Manchester para asegurar bajas tasas de error. Como alimentación para los circuitos del mando a distancia se utilizan cuatro pilas AA de 1,5 voltios en serie. En el aerodeslizador se pueden distinguir cinco partes. La primera es el módulo de comunicaciones, que utiliza el mismo transceptor que en el mando a distancia, pero esta vez funciona como receptor y por lo tanto servirá como entrada de datos al sistema haciendo llegar las instrucciones del usuario. Este módulo se comunica con el siguiente, un microcontrolador de la familia PSoC, a través de una interfaz SPI. En este caso el microcontrolador se configura con: un modulo SPI, un LCD utilizado para depurar el código y tres módulos PWM (2 de 8 bits y uno de 16 bits) para controlar los motores y el servo del aerodeslizador. Además, se utilizan cuatro pines externos para seleccionar el canal de recepción de datos. La tercera y cuarta parte se pueden considerar conjuntamente. Ambas están compuestas por el mismo circuito electrónico basado en transistores MOSFET. A la puerta de cada uno de los transistores llega una señal PWM de 100 kilohercios que proviene del microcontrolador, que se encarga de controlar el modo de funcionamiento de los transistores, que llevan acoplado un disipador de calor para evitar que se quemen. A su vez, los transistores hacen funcionar al dos ventiladores, que actúan como motores, el impulsor y el propulsor del aerodeslizador. La quinta y última parte es un servo estándar para modelismo. El servo está controlado por una señal PWM, en la que la longitud del pulso positivo establece la posición de la cabeza del servo, girando en uno u otra dirección según las instrucciones enviadas desde el mando a distancia por el usuario. Para el aerodeslizador se han utilizado dos fuentes de alimentación diferentes: una compuesta por 4 pilas AA de 1,5 voltios en serie que alimentarán al microcontrolador y al servo, y 4 baterías de litio recargables de 3,2 voltios en serie que alimentan el circuito de los motores. La última parte del proyecto es el montaje y ensamblaje final de los dispositivos. Para el chasis del aerodeslizador se ha utilizado una cubierta rectangular de poli-estireno expandido, habitualmente encontrado en el embalaje de productos frágiles. Este material es bastante ligero y con una alta resistencia a los golpes, por lo que es ideal para el propósito del proyecto. En el chasis se han realizado dos agujeros: uno circular situado en el centro del mismo en el se introduce y se ajusta con pegamento el motor impulsor, y un agujero con la forma del servo, situado en uno del los laterales estrechos del rectángulo, en el que se acopla el mismo. El motor propulsor está adherido al cabezal giratorio del servo de manera que rota a la vez que él, haciendo girar al aerodeslizador. El resto de circuitos electrónicos y las baterías se fijan al chasis mediante cinta adhesiva y pegamento procurando en todo momento repartir el peso de manera homogénea por todo el chasis para aumentar la estabilidad del aerodeslizador. SUMMARY: In this final year project a remote controlled hovercraft was designed using mainly technology that is well known by students in the embedded systems programme. This platform could be used to develop further and more complex projects. The system was developed dividing the work into two parts: remote control and hovercraft. The hardware was of the hovercraft and the remote control was designed separately; however, the software was designed at the same time since it was needed to develop the communication system. The result of the project was a remote control hovercraft which has a user friendly interface. The system was designed based on microprocessor technologies and uses common remote control technologies. The system has been designed with technology commonly used by the students in Metropolia University so that it can be readily understood in order to develop other projects based on this platform.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El objetivo de este proyecto es el diseño y construcción de un polideportivo para personas con movilidad reducida en el barrio de Vallecas (Madrid). La opción de diseñar dicho polideportivo se encuentra recogida dentro de un intento de acercar el deporte a personas con problemas físicos de adaptabilidad a otros deportes y, aunque si podemos encontrar algunos parcialmente adaptados a requisitos de movilidad reducida, no podemos encontrar un polideportivo con todas sus dotaciones destinadas a personas con dicha discapacidad

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabajo aborda el problema de modelizar sistemas din´amicos reales a partir del estudio de sus series temporales, usando una formulaci´on est´andar que pretende ser una abstracci´on universal de los sistemas din´amicos, independientemente de su naturaleza determinista, estoc´astica o h´ıbrida. Se parte de modelizaciones separadas de sistemas deterministas por un lado y estoc´asticos por otro, para converger finalmente en un modelo h´ıbrido que permite estudiar sistemas gen´ericos mixtos, esto es, que presentan una combinaci´on de comportamiento determinista y aleatorio. Este modelo consta de dos componentes, uno determinista consistente en una ecuaci´on en diferencias, obtenida a partir de un estudio de autocorrelaci´on, y otro estoc´astico que modeliza el error cometido por el primero. El componente estoc´astico es un generador universal de distribuciones de probabilidad, basado en un proceso compuesto de variables aleatorias, uniformemente distribuidas en un intervalo variable en el tiempo. Este generador universal es deducido en la tesis a partir de una nueva teor´ıa sobre la oferta y la demanda de un recurso gen´erico. El modelo resultante puede formularse conceptualmente como una entidad con tres elementos fundamentales: un motor generador de din´amica determinista, una fuente interna de ruido generadora de incertidumbre y una exposici´on al entorno que representa las interacciones del sistema real con el mundo exterior. En las aplicaciones estos tres elementos se ajustan en base al hist´orico de las series temporales del sistema din´amico. Una vez ajustados sus componentes, el modelo se comporta de una forma adaptativa tomando como inputs los nuevos valores de las series temporales del sistema y calculando predicciones sobre su comportamiento futuro. Cada predicci´on se presenta como un intervalo dentro del cual cualquier valor es equipro- bable, teniendo probabilidad nula cualquier valor externo al intervalo. De esta forma el modelo computa el comportamiento futuro y su nivel de incertidumbre en base al estado actual del sistema. Se ha aplicado el modelo en esta tesis a sistemas muy diferentes mostrando ser muy flexible para afrontar el estudio de campos de naturaleza dispar. El intercambio de tr´afico telef´onico entre operadores de telefon´ıa, la evoluci´on de mercados financieros y el flujo de informaci´on entre servidores de Internet son estudiados en profundidad en la tesis. Todos estos sistemas son modelizados de forma exitosa con un mismo lenguaje, a pesar de tratarse de sistemas f´ısicos totalmente distintos. El estudio de las redes de telefon´ıa muestra que los patrones de tr´afico telef´onico presentan una fuerte pseudo-periodicidad semanal contaminada con una gran cantidad de ruido, sobre todo en el caso de llamadas internacionales. El estudio de los mercados financieros muestra por su parte que la naturaleza fundamental de ´estos es aleatoria con un rango de comportamiento relativamente acotado. Una parte de la tesis se dedica a explicar algunas de las manifestaciones emp´ıricas m´as importantes en los mercados financieros como son los “fat tails”, “power laws” y “volatility clustering”. Por ´ultimo se demuestra que la comunicaci´on entre servidores de Internet tiene, al igual que los mercados financieros, una componente subyacente totalmente estoc´astica pero de comportamiento bastante “d´ocil”, siendo esta docilidad m´as acusada a medida que aumenta la distancia entre servidores. Dos aspectos son destacables en el modelo, su adaptabilidad y su universalidad. El primero es debido a que, una vez ajustados los par´ametros generales, el modelo se “alimenta” de los valores observables del sistema y es capaz de calcular con ellos comportamientos futuros. A pesar de tener unos par´ametros fijos, la variabilidad en los observables que sirven de input al modelo llevan a una gran riqueza de ouputs posibles. El segundo aspecto se debe a la formulaci´on gen´erica del modelo h´ıbrido y a que sus par´ametros se ajustan en base a manifestaciones externas del sistema en estudio, y no en base a sus caracter´ısticas f´ısicas. Estos factores hacen que el modelo pueda utilizarse en gran variedad de campos. Por ´ultimo, la tesis propone en su parte final otros campos donde se han obtenido ´exitos preliminares muy prometedores como son la modelizaci´on del riesgo financiero, los algoritmos de routing en redes de telecomunicaci´on y el cambio clim´atico. Abstract This work faces the problem of modeling dynamical systems based on the study of its time series, by using a standard language that aims to be an universal abstraction of dynamical systems, irrespective of their deterministic, stochastic or hybrid nature. Deterministic and stochastic models are developed separately to be merged subsequently into a hybrid model, which allows the study of generic systems, that is to say, those having both deterministic and random behavior. This model is a combination of two different components. One of them is deterministic and consisting in an equation in differences derived from an auto-correlation study and the other is stochastic and models the errors made by the deterministic one. The stochastic component is an universal generator of probability distributions based on a process consisting in random variables distributed uniformly within an interval varying in time. This universal generator is derived in the thesis from a new theory of offer and demand for a generic resource. The resulting model can be visualized as an entity with three fundamental elements: an engine generating deterministic dynamics, an internal source of noise generating uncertainty and an exposure to the environment which depicts the interactions between the real system and the external world. In the applications these three elements are adjusted to the history of the time series from the dynamical system. Once its components have been adjusted, the model behaves in an adaptive way by using the new time series values from the system as inputs and calculating predictions about its future behavior. Every prediction is provided as an interval, where any inner value is equally probable while all outer ones have null probability. So, the model computes the future behavior and its level of uncertainty based on the current state of the system. The model is applied to quite different systems in this thesis, showing to be very flexible when facing the study of fields with diverse nature. The exchange of traffic between telephony operators, the evolution of financial markets and the flow of information between servers on the Internet are deeply studied in this thesis. All these systems are successfully modeled by using the same “language”, in spite the fact that they are systems physically radically different. The study of telephony networks shows that the traffic patterns are strongly weekly pseudo-periodic but mixed with a great amount of noise, specially in the case of international calls. It is proved that the underlying nature of financial markets is random with a moderate range of variability. A part of this thesis is devoted to explain some of the most important empirical observations in financial markets, such as “fat tails”, “power laws” and “volatility clustering”. Finally it is proved that the communication between two servers on the Internet has, as in the case of financial markets, an underlaying random dynamics but with a narrow range of variability, being this lack of variability more marked as the distance between servers is increased. Two aspects of the model stand out as being the most important: its adaptability and its universality. The first one is due to the fact that once the general parameters have been adjusted , the model is “fed” on the observable manifestations of the system in order to calculate its future behavior. Despite the fact that the model has fixed parameters the variability in the observable manifestations of the system, which are used as inputs of the model, lead to a great variability in the possible outputs. The second aspect is due to the general “language” used in the formulation of the hybrid model and to the fact that its parameters are adjusted based on external manifestations of the system under study instead of its physical characteristics. These factors made the model suitable to be used in great variety of fields. Lastly, this thesis proposes other fields in which preliminary and promising results have been obtained, such as the modeling of financial risk, the development of routing algorithms for telecommunication networks and the assessment of climate change.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este artículo estudia la evolución de un modelo de vivienda prefabricada en madera, ejemplificada en la casita de verano que construye Konrad Wachsmann para Albert Einstein en 1929 en Caputh, cerca de Potsdam. El físico deseaba construirse un "lugar de descanso", eligiendo la construcción en madera por su facilidad y rapidez de montaje, adaptabilidad, calidez y para que armonizara mejor con el medio ambiente en el paraje donde se insertaba. Konrad Wachsmann, que trabajaba para la firma de viviendas prefabricadas en madera "Christoph&Unmack A.G." le presentará un modelo prefabricado moderno. Esta tipología, que había evolucionado desde los diseños iniciales "nórdico escandinavos", pasando por el "jugendstil", hasta introducir un nuevo lenguaje de líneas puras, cubierta plana, y grandes ventanales iniciado por Poelzig, será ligeramente modificada por Einstein, que finalmente adjudica el encargo. Ayudado por Einstein a trasladarse a EEUU, Konrad Wachsmann continuará allí la labor de investigación sobre vivienda prefabricada junto con Walter Gropius, que dará como resultado el "General Panel System" y sus conocidas "Packaged Houses". A HOUSE FOR EINSTEIN: KONRAD WACHSMANN AND THE EVOLUTION OF A PREFABRICATED WOODEN HOUSING MODEL FROM " CHRISTOPH & UNMACK A.G." TO "GENERAL PANEL SYSTEM". This article studies the evolution of a prefabricated wooden housing model, exemplified in the summer house built by Konrad Wachsmann for Albert Einstein in 1929, in Caputh, near Potsdam. The Physician wanted to build a "resting house", choosing a wood construction because of its easy and fast assembly, adaptability, warmth and harmony with the environment where it would be inserted. Konrad Wachsmann, who worked for the wooden prefabricated houses firm "Christoph & Unmack AG", proposed Einstein a modern prefabricated wood model. This typology, which had evolved from the initial "Nordic Scandinavian" and "Jugendstil" designs to a new modern language initiated by Poelzig (with clean lines, flat roof, and large windows) will be slightly modified by Einstein, that finally hired the construction of the house. Aided by Einstein to move to USA, Konrad Wachsmann continued there his research work about prefabricated houses with Walter Gropius, giving as a results the "General Panel System" and the popular "Packaged Houses".

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A profunda crisis de la ‘nave espacial Tierra’ que cohabitamos, como llamaba Buckminster Fuller a nuestro planeta, y los imparables cambios en los modos de vida occidentales demandan un urgente cambio en el modelo de vivienda que las sociedades‘desarrolladas’ proporcionan a sus ciudadanos. Los nuevos modos de vida son variables e imprevisibles, incapaces de ser predeterminados en un proyecto arquitectónico ‘cerrado’. Los avances tecnológicos conducen a la movilidad, la desaparición del hogar tradicional, la interrelación de los espacios de vivienda y trabajo y anticipan la llegada de tipos de vida más dinámicos y menos ligados a un sitio específico. En cuanto a las formas de relación, disminuye la duración de los compromisos afectivos y crece el número de personas con una vida al margen de la familia tradicional o producto de la disgregación de proyectos familiares. Y, en el campo arquitectónico, no dejan de surgir nuevas herramientas mecánicas y tecnológicas capaces de transformar, de forma sencilla, una vivienda. Todas estas circunstancias no encuentran acomodo en las viviendas concebidas para los modos de vida de las pasadas generaciones. Desde hace décadas, al menos en nuestro país, los arquitectos han dejado de diseñar las viviendas de promoción privada que firman, ya que el propio ‘mercado’ se encarga de hacerlo. Las viviendas que el ‘mercado’ diseña no persiguen entregar a sus habitantes un lugar donde puedan desarrollar sus potencialidades. El único objetivo de estas promociones es el beneficio económico. Las casas que el ‘mercado’ promueve son indiferentes a las minorías y a los nuevos modos de vida. Son viviendas mínimas y uniformes para, de esta forma, maximizar el beneficio y simplificar el proceso económico. Estas viviendas promueven los mismos valores que guían nuestra ‘nave’: son individualistas, buscando minimizar el contacto vecinal, persiguen la uniformidad, en personas y pensamientos, y perpetúan valores, ya que insisten en repetir los mismos modelos habitacionales creados para los modos de vida de las generaciones anteriores. Son casas cerradas que tratan de imponer a sus habitantes el modo de habitarlas. Son casas estáticas que no están pensadas para facilitar su adaptación al particular modo de vida de sus ocupantes. Siguiendo en nuestro país, las viviendas de promoción pública obedecen, también desde hace décadas, a una normativa desfasada ajena a los nuevos modelos familiares, los nuevos modelos de convivencia al margen de la familia, el trabajo en casa, las nuevas tecnologías y los esquemas habitacionales con espacios compartidos. Las viviendas que esta normativa obliga a construir no solo obedecen al modo de vida de dos generaciones atrás, momento en que estas normas se redactaron; tampoco permiten la alteración de sus adjudicatarios para acomodar las viviendas a sus particulares circunstancias. La inflexibilidad de estas normativas obsoletas provoca que el Estado no esté en realidad subvencionando un espacio donde sus habitantes puedan desarrollar la vida que deseen. Lo que el Estado, por medio de estas viviendas, subvenciona es una determinada forma de vida. Esta tesis propone un modelo de vivienda que denomina ‘casa abierta’ porque está abierta a ser vivida tal y como sus ocupantes deseen y necesiten. La casa abierta es un espacio indeterminado que sus usuarios han de completar conceptualmente, y que pueden transformar con facilidad, cuantas veces deseen, según su propio criterio. Es un espacio lleno de potencialidades, un soporte definido solo a medias, a la espera que el usuario lo adapte a sus necesidades. El primer objetivo de la casa abierta es responder a los nuevos modos de vida. Es, pues, destino de algo que está pasando. Pero la casa abierta tiene también un segundo objetivo, tan importante como el primero: ayudar a desarrollar nuevos valores, ser origen de algo, desconocido aún, que ayude a enderezar el rumbo de nuestra ‘nave’. Esta tesis cree que cada nueva generación trae consigo nuevas capacidades que podrían ayudar a las anteriores a solventar sus problemas. Por ello defiende una educación que promueva la diversidad y la creatividad, evitando imponer valores caducos e incitando a los jóvenes a encontrar sus propias capacidades y desarrollarlas, no ya por su propio interés personal sino por la satisfacción de aportarlas al mundo. La casa abierta persigue objetivos similares. Su anhelo es proporcionar buenas herramientas y nuevos valores a sus ocupantes, y dejarles hacer. La casa abierta busca incitar a sus habitantes a desarrollar su creatividad sobre su propio hábitat, convirtiéndolos en co-creadores y, en consecuencia, responsables del mismo. La casa abierta es un espacio de libertad, donde sus ocupantes pueden desarrollar su diferencia, singularidad y diversidad, pudiendo crear un entorno que responda a sus criterios y su sensibilidad. La casa abierta es un lugar de experimentación donde replantear las convenciones sobre la casa, probando nuevas formas de convivencia y hábitat acordes con los nuevos modos de vida. La casa abierta busca también estimular el sentido comunitario de sus ocupantes, favoreciendo el contacto y la agrupación entre vecinos. Pero también desea contribuir a crear un modelo de desarrollo sostenible, respetuoso con el medio ambiente, los recursos del planeta y el futuro de las generaciones venideras. Para crear una casa abierta proponemos diez atributos: versatilidad, permeabilidad elasticidad, adaptabilidad, perfectibilidad, movilidad, sociabilidad, indeterminación, disgregación y sostenibilidad. Con ellos tratamos de establecer diversas cualidades a incorporar en los futuros proyectos de viviendas. A partir de estos diez atributos la tesis analiza cerca de 200 proyectos de vivienda de los últimos 90 años, donde el habitante es parte activa en su concepción o donde los ocupantes pueden transformar su vivienda, con facilidad, acomodándola a su modo de vida o a su estado de ánimo. Dentro de la historia de la arquitectura moderna existen grandes ejemplos de viviendas o proyectos que cumplen con algunos de los atributos propuestos. Muchos de los planteamientos de la ‘casa abierta’ tienen su origen en los años 20 del siglo pasado. Fueron desarrollados por los arquitectos de la primera generación del movimiento moderno, sobre todo Adolf Loos, Le Corbusier, Mies van der Rohe, Gerrit Rietveld, y Buckminster Fuller. El periodo más cercano a las ideas de la casa abierta es el comprendido entre 1955 y 1980, con el trabajo de la tercera generación de arquitectos del movimiento moderno. En estos años surgen grandes ejemplos de casas abiertas, se publican libros sobre la implicación de los habitantes en el diseño de sus casas y se convocan coloquios sobre la adaptabilidad de las viviendas. Entre los ejemplos construidos destacan las viviendas Il Rigo Quarter de Renzo Piano, el complejo residencial Genter Strasse en Munich de Otto Steidle, Doris y Ralph Thut, los apartamentos universitarios en Lovaina de Lucien Kroll y el inicio de las comunidades de cohousing en Dinamarca. La década de 1990 es también propensa a la casa abierta. Entre los ejemplos construidos podemos destacar las casas Latapie y Coutras de Lacaton y Vassal, la Residencia Yakult de Toshio Akimoto, las casas Naked y la Nine square grid de Shigeru Ban y los apartamentos Fukuoka de Steven Holl. En esta década, surgen las cooperativas de viviendas autopromocionadas en Centroeuropa, como la Sargfabrik de BKK-2 en Viena, y se produce el desembarco del cohousing danés en EEUU. Ya en el siglo XXI podemos destacar las viviendas sociales Quinta Monroy y la Colonia Lo Barnechea de Alejandro Aravena-Elemental, las 14 viviendas en Mulhouse de Lacaton y Vassal, las casas Glass Shutter y Metal Shutter de Shigeru Ban, la casa Moriyama de SANAA, el d21system de José Miguel Reyes González y la ETSAM, la propuesta Parasite para Amsterdam, de Maccreanor y Lavington, la Shinonome Canal Court de Tokio y muchos ejemplos de viviendas prefabricadas y móviles como la Micro Compact Home o la LoftCube.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En la actualidad los avances presentados por empresas como Google, con sus �últimas propuestas tales como Google Glass, las cuales hacen uso de la Realidad Aumentada Adaptativa, son consideradas como tecnologí��as emergentes. La existencia de dispositivos ubicuos y m�óviles y la gran cantidad de sensores disponibles dotan al software con capacidades para percibir su entorno y adaptarse a �el y al usuario de la aplicaci�ón en tiempo real. La Realidad Aumentada Adaptativa puede servirse de estos mecanismos, por lo que el presente trabajo muestra el estado de la cuesti�ón en el �área de los sistemas con adaptabilidad al usuario, prestando una especial atenci�ón a la Adaptabilidad Web. El problema central que se aborda es dar respuesta a las siguientes preguntas: ¿Qu�é es la Realidad Aumentada Adaptativa? ¿C�ómo y cu�áles son los sistemas adaptables al usuario? ¿Qu�é caracterí��sticas del usuario son relevantes para la adaptaci�ón? ¿Qu�é modelos requiere la adaptabilidad? ¿Qu�é requieren los sistemas adaptativos web actuales para ajustarse a las necesidades del usuario? ¿Qu�é m�as se requiere para una realidad con adaptaci�ón inteligente? ¿Qu�é proyectos de investigaci�ón existen, cu�áles son sus arquitecturas y modelos? A la vista de las respuestas obtenidas, se proponen al �final del trabajo una serie de posibles lí��neas de investigaci�ón.