10 resultados para removable appliance

em Universidad Politécnica de Madrid


Relevância:

10.00% 10.00%

Publicador:

Resumo:

In this paper, filter design methodology and application of GaN HEMTs for high efficiency Envelope Amplifier in RF transmitters are proposed. The main objectives of the filter design are generation of the envelope reference with the minimum possible distortion and high efficiency of the amplifier obtained by the optimum trade-off between conduction and switching losses. This optimum point was determined using power losses model for synchronous buck with sinusoidal output voltage and experimental results showed good correspondence with the model and verified the proposed methodology. On the other hand, comparing to Si MOSFETs, GaN HEMTs can provide higher efficiency of the envelope amplifier, due to superior conductivity and switching characteristics. Experimental results verified benefits of GaN devices comparing to the appliance of Si switching devices with very good Figure Of Merit, for this particular application

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El interés cada vez mayor por las redes de sensores inalámbricos pueden ser entendido simplemente pensando en lo que esencialmente son: un gran número de pequeños nodos sensores autoalimentados que recogen información o detectan eventos especiales y se comunican de manera inalámbrica, con el objetivo final de entregar sus datos procesados a una estación base. Los nodos sensores están densamente desplegados dentro del área de interés, se pueden desplegar al azar y tienen capacidad de cooperación. Por lo general, estos dispositivos son pequeños y de bajo costo, de modo que pueden ser producidos y desplegados en gran numero aunque sus recursos en términos de energía, memoria, velocidad de cálculo y ancho de banda están enormemente limitados. Detección, tratamiento y comunicación son tres elementos clave cuya combinación en un pequeño dispositivo permite lograr un gran número de aplicaciones. Las redes de sensores proporcionan oportunidades sin fin, pero al mismo tiempo plantean retos formidables, tales como lograr el máximo rendimiento de una energía que es escasa y por lo general un recurso no renovable. Sin embargo, los recientes avances en la integración a gran escala, integrado de hardware de computación, comunicaciones, y en general, la convergencia de la informática y las comunicaciones, están haciendo de esta tecnología emergente una realidad. Del mismo modo, los avances en la nanotecnología están empezando a hacer que todo gire entorno a las redes de pequeños sensores y actuadores distribuidos. Hay diferentes tipos de sensores tales como sensores de presión, acelerómetros, cámaras, sensores térmicos o un simple micrófono. Supervisan las condiciones presentes en diferentes lugares tales como la temperatura, humedad, el movimiento, la luminosidad, presión, composición del suelo, los niveles de ruido, la presencia o ausencia de ciertos tipos de objetos, los niveles de tensión mecánica sobre objetos adheridos y las características momentáneas tales como la velocidad , la dirección y el tamaño de un objeto, etc. Se comprobara el estado de las Redes Inalámbricas de Sensores y se revisaran los protocolos más famosos. Así mismo, se examinara la identificación por radiofrecuencia (RFID) ya que se está convirtiendo en algo actual y su presencia importante. La RFID tiene un papel crucial que desempeñar en el futuro en el mundo de los negocios y los individuos por igual. El impacto mundial que ha tenido la identificación sin cables está ejerciendo fuertes presiones en la tecnología RFID, los servicios de investigación y desarrollo, desarrollo de normas, el cumplimiento de la seguridad y la privacidad y muchos más. Su potencial económico se ha demostrado en algunos países mientras que otros están simplemente en etapas de planificación o en etapas piloto, pero aun tiene que afianzarse o desarrollarse a través de la modernización de los modelos de negocio y aplicaciones para poder tener un mayor impacto en la sociedad. Las posibles aplicaciones de redes de sensores son de interés para la mayoría de campos. La monitorización ambiental, la guerra, la educación infantil, la vigilancia, la micro-cirugía y la agricultura son solo unos pocos ejemplos de los muchísimos campos en los que tienen cabida las redes mencionadas anteriormente. Estados Unidos de América es probablemente el país que más ha investigado en esta área por lo que veremos muchas soluciones propuestas provenientes de ese país. Universidades como Berkeley, UCLA (Universidad de California, Los Ángeles) Harvard y empresas como Intel lideran dichas investigaciones. Pero no solo EE.UU. usa e investiga las redes de sensores inalámbricos. La Universidad de Southampton, por ejemplo, está desarrollando una tecnología para monitorear el comportamiento de los glaciares mediante redes de sensores que contribuyen a la investigación fundamental en glaciología y de las redes de sensores inalámbricos. Así mismo, Coalesenses GmbH (Alemania) y Zurich ETH están trabajando en diversas aplicaciones para redes de sensores inalámbricos en numerosas áreas. Una solución española será la elegida para ser examinada más a fondo por ser innovadora, adaptable y polivalente. Este estudio del sensor se ha centrado principalmente en aplicaciones de tráfico, pero no se puede olvidar la lista de más de 50 aplicaciones diferentes que ha sido publicada por la firma creadora de este sensor específico. En la actualidad hay muchas tecnologías de vigilancia de vehículos, incluidos los sensores de bucle, cámaras de video, sensores de imagen, sensores infrarrojos, radares de microondas, GPS, etc. El rendimiento es aceptable, pero no suficiente, debido a su limitada cobertura y caros costos de implementación y mantenimiento, especialmente este ultimo. Tienen defectos tales como: línea de visión, baja exactitud, dependen mucho del ambiente y del clima, no se puede realizar trabajos de mantenimiento sin interrumpir las mediciones, la noche puede condicionar muchos de ellos, tienen altos costos de instalación y mantenimiento, etc. Por consiguiente, en las aplicaciones reales de circulación, los datos recibidos son insuficientes o malos en términos de tiempo real debido al escaso número de detectores y su costo. Con el aumento de vehículos en las redes viales urbanas las tecnologías de detección de vehículos se enfrentan a nuevas exigencias. Las redes de sensores inalámbricos son actualmente una de las tecnologías más avanzadas y una revolución en la detección de información remota y en las aplicaciones de recogida. Las perspectivas de aplicación en el sistema inteligente de transporte son muy amplias. Con este fin se ha desarrollado un programa de localización de objetivos y recuento utilizando una red de sensores binarios. Esto permite que el sensor necesite mucha menos energía durante la transmisión de información y que los dispositivos sean más independientes con el fin de tener un mejor control de tráfico. La aplicación se centra en la eficacia de la colaboración de los sensores en el seguimiento más que en los protocolos de comunicación utilizados por los nodos sensores. Las operaciones de salida y retorno en las vacaciones son un buen ejemplo de por qué es necesario llevar la cuenta de los coches en las carreteras. Para ello se ha desarrollado una simulación en Matlab con el objetivo localizar objetivos y contarlos con una red de sensores binarios. Dicho programa se podría implementar en el sensor que Libelium, la empresa creadora del sensor que se examinara concienzudamente, ha desarrollado. Esto permitiría que el aparato necesitase mucha menos energía durante la transmisión de información y los dispositivos sean más independientes. Los prometedores resultados obtenidos indican que los sensores de proximidad binarios pueden formar la base de una arquitectura robusta para la vigilancia de áreas amplias y para el seguimiento de objetivos. Cuando el movimiento de dichos objetivos es suficientemente suave, no tiene cambios bruscos de trayectoria, el algoritmo ClusterTrack proporciona un rendimiento excelente en términos de identificación y seguimiento de trayectorias los objetos designados como blancos. Este algoritmo podría, por supuesto, ser utilizado para numerosas aplicaciones y se podría seguir esta línea de trabajo para futuras investigaciones. No es sorprendente que las redes de sensores de binarios de proximidad hayan atraído mucha atención últimamente ya que, a pesar de la información mínima de un sensor de proximidad binario proporciona, las redes de este tipo pueden realizar un seguimiento de todo tipo de objetivos con la precisión suficiente. Abstract The increasing interest in wireless sensor networks can be promptly understood simply by thinking about what they essentially are: a large number of small sensing self-powered nodes which gather information or detect special events and communicate in a wireless fashion, with the end goal of handing their processed data to a base station. The sensor nodes are densely deployed inside the phenomenon, they deploy random and have cooperative capabilities. Usually these devices are small and inexpensive, so that they can be produced and deployed in large numbers, and so their resources in terms of energy, memory, computational speed and bandwidth are severely constrained. Sensing, processing and communication are three key elements whose combination in one tiny device gives rise to a vast number of applications. Sensor networks provide endless opportunities, but at the same time pose formidable challenges, such as the fact that energy is a scarce and usually non-renewable resource. However, recent advances in low power Very Large Scale Integration, embedded computing, communication hardware, and in general, the convergence of computing and communications, are making this emerging technology a reality. Likewise, advances in nanotechnology and Micro Electro-Mechanical Systems are pushing toward networks of tiny distributed sensors and actuators. There are different sensors such as pressure, accelerometer, camera, thermal, and microphone. They monitor conditions at different locations, such as temperature, humidity, vehicular movement, lightning condition, pressure, soil makeup, noise levels, the presence or absence of certain kinds of objects, mechanical stress levels on attached objects, the current characteristics such as speed, direction and size of an object, etc. The state of Wireless Sensor Networks will be checked and the most famous protocols reviewed. As Radio Frequency Identification (RFID) is becoming extremely present and important nowadays, it will be examined as well. RFID has a crucial role to play in business and for individuals alike going forward. The impact of ‘wireless’ identification is exerting strong pressures in RFID technology and services research and development, standards development, security compliance and privacy, and many more. The economic value is proven in some countries while others are just on the verge of planning or in pilot stages, but the wider spread of usage has yet to take hold or unfold through the modernisation of business models and applications. Possible applications of sensor networks are of interest to the most diverse fields. Environmental monitoring, warfare, child education, surveillance, micro-surgery, and agriculture are only a few examples. Some real hardware applications in the United States of America will be checked as it is probably the country that has investigated most in this area. Universities like Berkeley, UCLA (University of California, Los Angeles) Harvard and enterprises such as Intel are leading those investigations. But not just USA has been using and investigating wireless sensor networks. University of Southampton e.g. is to develop technology to monitor glacier behaviour using sensor networks contributing to fundamental research in glaciology and wireless sensor networks. Coalesenses GmbH (Germany) and ETH Zurich are working in applying wireless sensor networks in many different areas too. A Spanish solution will be the one examined more thoroughly for being innovative, adaptable and multipurpose. This study of the sensor has been focused mainly to traffic applications but it cannot be forgotten the more than 50 different application compilation that has been published by this specific sensor’s firm. Currently there are many vehicle surveillance technologies including loop sensors, video cameras, image sensors, infrared sensors, microwave radar, GPS, etc. The performance is acceptable but not sufficient because of their limited coverage and expensive costs of implementation and maintenance, specially the last one. They have defects such as: line-ofsight, low exactness, depending on environment and weather, cannot perform no-stop work whether daytime or night, high costs for installation and maintenance, etc. Consequently, in actual traffic applications the received data is insufficient or bad in terms of real-time owed to detector quantity and cost. With the increase of vehicle in urban road networks, the vehicle detection technologies are confronted with new requirements. Wireless sensor network is the state of the art technology and a revolution in remote information sensing and collection applications. It has broad prospect of application in intelligent transportation system. An application for target tracking and counting using a network of binary sensors has been developed. This would allow the appliance to spend much less energy when transmitting information and to make more independent devices in order to have a better traffic control. The application is focused on the efficacy of collaborative tracking rather than on the communication protocols used by the sensor nodes. Holiday crowds are a good case in which it is necessary to keep count of the cars on the roads. To this end a Matlab simulation has been produced for target tracking and counting using a network of binary sensors that e.g. could be implemented in Libelium’s solution. Libelium is the enterprise that has developed the sensor that will be deeply examined. This would allow the appliance to spend much less energy when transmitting information and to make more independent devices. The promising results obtained indicate that binary proximity sensors can form the basis for a robust architecture for wide area surveillance and tracking. When the target paths are smooth enough ClusterTrack particle filter algorithm gives excellent performance in terms of identifying and tracking different target trajectories. This algorithm could, of course, be used for different applications and that could be done in future researches. It is not surprising that binary proximity sensor networks have attracted a lot of attention lately. Despite the minimal information a binary proximity sensor provides, networks of these sensing modalities can track all kinds of different targets classes accurate enough.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The traditional power grid is just a one-way supplier that gets no feedback data about the energy delivered, what tariffs could be the most suitable ones for customers, the shifting daily needs of electricity in a facility, etc. Therefore, it is only natural that efforts are being invested in improving power grid behavior and turning it into a Smart Grid. However, to this end, several components have to be either upgraded or created from scratch. Among the new components required, middleware appears as a critical one, for it will abstract all the diversity of the used devices for power transmission (smart meters, embedded systems, etc.) and will provide the application layer with a homogeneous interface involving power production and consumption management data that were not able to be provided before. Additionally, middleware is expected to guarantee that updates to the current metering infrastructure (changes in service or hardware availability) or any added legacy measuring appliance will get acknowledged for any future request. Finally, semantic features are of major importance to tackle scalability and interoperability issues. A survey on the most prominent middleware architectures for Smart Grids is presented in this paper, along with an evaluation of their features and their strong points and weaknesses.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Between 2003 and 2007 an urban network or road tunnels with a total constructed tubes length of 45 km was built in the city of Madrid. This amazing engineering work, known as "Calle 30 Project" counted with different kinds of tunnel typologies and ventilation systems. Due to the length of the tunnels and the impact of the work itself, the tunnels were endowed with a great variety of installations to provide the maximum levels of safety both for users and the infrastructure includieng, in some parts of the tunnel, fixed fire fighting system based on water mist. Whithin this framework a large-scale programme of fire tests was planned to study different aspects related to fire safety in the tunnels including the phenomena of the interaction between ventilation and extinguishing system. In addition, these large scale fire tests allowed fire brigades of the city of Madrid an opportunity to define operational procedures for specific fire fighting in tunnels and evaluate the possibilities of fixed fire fighting systems. The tests were carried out in the Center of Experimentation "San pedro of Anes" which includes a 600 m tunnel with a removable false ceiling for reproducing different ceiling heights and ventilation conditions (transverse and longitudinal ones). Interesting conclusions on the interaction of ventilation and water mist systems were obtained but also on other aspects including performance of water mist system in terms of reduction of gas temperatures or visibility conditions. This paper presents a description of the test's programme carried out and some previous results obtained.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Between 2003 and 2007 an urban network of road tunnels with a total constructed tubes length of 45 km was built in the city of Madrid. This amazing engineering work, known as “Calle30 Project” counted with different kinds of tunnel typologies and ventilation systems. Due to the length of the tunnels and the impact of the work itself, the tunnels were endowed with a great variety of installations to provide the maximum levels of safety both for users and the infrastructure including,in some parts of the tunnel, fixed fire fighting system based on water mist. Within this framework a large-scale campaign of fire tests were planned to study different aspects related to fire safety in the tunnels including the phenomena of the interaction between ventilation and extinction system. In addition, this large scale fire tests allowed fire brigades of the city of Madrid an opportunity to define operational procedures for specific fire fighting in tunnels and evaluate the possibilities of fixed fire fighting systems. The tests were carried out in the Center of Experimentation "San Pedro of Anes" which counts with a 600 m tunnel with a removable false ceiling for reproducing different ceiling heights and ventilation conditions (transverse and longitudinal ones). Interesting conclusions on the interaction of ventilation and water mist systems were obtained but also on other aspects including performance of water mist system in terms of reduction of gas temperatures or visibility conditions. This paper presents a description of the test’s campaign carried out and some previous results obtained.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This paper focuses on the problems associated with privacy protection in smart grid. We will give an overview of a possible realization of a privacy-preserving approach that encompasses privacy-utility tradeoff into a single model. This approach proposes suppression of low power frequency components as a solution to reduce the amount of information leakage from smart meter readings. We will consider the applicability of the procedure to hide the appliance usage with respect to the type of home devices.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En los últimos años, el Ge ha ganado de nuevo atención con la finalidad de ser integrado en el seno de las existentes tecnologías de microelectrónica. Aunque no se le considera como un canddato capaz de reemplazar completamente al Si en el futuro próximo, probalemente servirá como un excelente complemento para aumentar las propiedades eléctricas en dispositivos futuros, especialmente debido a su alta movilidad de portadores. Esta integración requiere de un avance significativo del estado del arte en los procesos de fabricado. Técnicas de simulación, como los algoritmos de Monte Carlo cinético (KMC), proporcionan un ambiente atractivo para llevar a cabo investigación y desarrollo en este campo, especialmente en términos de costes en tiempo y financiación. En este estudio se han usado, por primera vez, técnicas de KMC con el fin entender el procesado “front-end” de Ge en su fabricación, específicamente la acumulación de dañado y amorfización producidas por implantación iónica y el crecimiento epitaxial en fase sólida (SPER) de las capas amorfizadas. Primero, simulaciones de aproximación de clisiones binarias (BCA) son usadas para calcular el dañado causado por cada ión. La evolución de este dañado en el tiempo se simula usando KMC sin red, o de objetos (OKMC) en el que sólamente se consideran los defectos. El SPER se simula a través de una aproximación KMC de red (LKMC), siendo capaz de seguir la evolución de los átomos de la red que forman la intercara amorfo/cristalina. Con el modelo de amorfización desarrollado a lo largo de este trabajo, implementado en un simulador multi-material, se pueden simular todos estos procesos. Ha sido posible entender la acumulación de dañado, desde la generación de defectos puntuales hasta la formación completa de capas amorfas. Esta acumulación ocurre en tres regímenes bien diferenciados, empezando con un ritmo lento de formación de regiones de dañado, seguido por una rápida relajación local de ciertas áreas en la fase amorfa donde ambas fases, amorfa y cristalina, coexisten, para terminar en la amorfización completa de capas extensas, donde satura el ritmo de acumulación. Dicha transición ocurre cuando la concentración de dañado supera cierto valor límite, el cual es independiente de las condiciones de implantación. Cuando se implantan los iones a temperaturas relativamente altas, el recocido dinámico cura el dañado previamente introducido y se establece una competición entre la generación de dañado y su disolución. Estos efectos se vuelven especialmente importantes para iones ligeros, como el B, el cual crea dañado más diluido, pequeño y distribuido de manera diferente que el causado por la implantación de iones más pesados, como el Ge. Esta descripción reproduce satisfactoriamente la cantidad de dañado y la extensión de las capas amorfas causadas por implantación iónica reportadas en la bibliografía. La velocidad de recristalización de la muestra previamente amorfizada depende fuertemente de la orientación del sustrato. El modelo LKMC presentado ha sido capaz de explicar estas diferencias entre orientaciones a través de un simple modelo, dominado por una única energía de activación y diferentes prefactores en las frecuencias de SPER dependiendo de las configuraciones de vecinos de los átomos que recristalizan. La formación de maclas aparece como una consecuencia de esta descripción, y es predominante en sustratos crecidos en la orientación (111)Ge. Este modelo es capaz de reproducir resultados experimentales para diferentes orientaciones, temperaturas y tiempos de evolución de la intercara amorfo/cristalina reportados por diferentes autores. Las parametrizaciones preliminares realizadas de los tensores de activación de tensiones son también capaces de proveer una buena correlación entre las simulaciones y los resultados experimentales de velocidad de SPER a diferentes temperaturas bajo una presión hidrostática aplicada. Los estudios presentados en esta tesis han ayudado a alcanzar un mejor entendimiento de los mecanismos de producción de dañado, su evolución, amorfización y SPER para Ge, además de servir como una útil herramienta para continuar el trabajo en este campo. In the recent years, Ge has regained attention to be integrated into existing microelectronic technologies. Even though it is not thought to be a feasible full replacement to Si in the near future, it will likely serve as an excellent complement to enhance electrical properties in future devices, specially due to its high carrier mobilities. This integration requires a significant upgrade of the state-of-the-art of regular manufacturing processes. Simulation techniques, such as kinetic Monte Carlo (KMC) algorithms, provide an appealing environment to research and innovation in the field, specially in terms of time and funding costs. In the present study, KMC techniques are used, for the first time, to understand Ge front-end processing, specifically damage accumulation and amorphization produced by ion implantation and Solid Phase Epitaxial Regrowth (SPER) of the amorphized layers. First, Binary Collision Approximation (BCA) simulations are used to calculate the damage caused by every ion. The evolution of this damage over time is simulated using non-lattice, or Object, KMC (OKMC) in which only defects are considered. SPER is simulated through a Lattice KMC (LKMC) approach, being able to follow the evolution of the lattice atoms forming the amorphous/crystalline interface. With the amorphization model developed in this work, implemented into a multi-material process simulator, all these processes can be simulated. It has been possible to understand damage accumulation, from point defect generation up to full amorphous layers formation. This accumulation occurs in three differentiated regimes, starting at a slow formation rate of the damage regions, followed by a fast local relaxation of areas into the amorphous phase where both crystalline and amorphous phases coexist, ending in full amorphization of extended layers, where the accumulation rate saturates. This transition occurs when the damage concentration overcomes a certain threshold value, which is independent of the implantation conditions. When implanting ions at relatively high temperatures, dynamic annealing takes place, healing the previously induced damage and establishing a competition between damage generation and its dissolution. These effects become specially important for light ions, as B, for which the created damage is more diluted, smaller and differently distributed than that caused by implanting heavier ions, as Ge. This description successfully reproduces damage quantity and extension of amorphous layers caused by means of ion implantation reported in the literature. Recrystallization velocity of the previously amorphized sample strongly depends on the substrate orientation. The presented LKMC model has been able to explain these differences between orientations through a simple model, dominated by one only activation energy and different prefactors for the SPER rates depending on the neighboring configuration of the recrystallizing atoms. Twin defects formation appears as a consequence of this description, and are predominant for (111)Ge oriented grown substrates. This model is able to reproduce experimental results for different orientations, temperatures and times of evolution of the amorphous/crystalline interface reported by different authors. Preliminary parameterizations for the activation strain tensors are able to also provide a good match between simulations and reported experimental results for SPER velocities at different temperatures under the appliance of hydrostatic pressure. The studies presented in this thesis have helped to achieve a greater understanding of damage generation, evolution, amorphization and SPER mechanisms in Ge, and also provide a useful tool to continue research in this field.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Pocos mercados en la historia han evolucionado tanto en los últimos años como los relacionados con la movilidad. La necesidad en la sociedad actual de descontextualizar el lugar de trabajo y abrirse hacia un mercado más amplio, ha obligado a las empresas a replantearse cómo adaptar sus modelos de negocios a estas demandas. Algunas empresas aún no se muestran abiertas a estos cambios mientras que en otras se ha materializado, en muchos casos, en la integración de aplicaciones móviles como vía fácil, rápida y cómoda de conexión con el cliente y de interconexión y participación interna en la empresa. Se generan así aplicaciones móviles que permiten crear y mantener una relación utilizándolas como la mejor herramienta de fidelización, posicionando a la marca y ofreciendo una imagen de innovación. Las aplicaciones móviles requieren que el desarrollo de los sistemas sean rápidos, que puedan manejar una gran variedad de acciones sin un alto conocimiento a priori de ellas, que necesiten un número mínimo de parámetros, y que las actualizaciones se realicen de manera tan corta como fuera posible. Este nuevo modelo de negocio ofrece servicios especiales a los clientes, permite obtener sus opiniones, facilita la compra online, auto-gestiona los servicios ofrecidos, aumenta la agilidad en el negocio, motiva su recomendación a otros potenciales clientes y desde la libertad, permite elegir el mejor momento y lugar para llevar a cabo una actividad de manera rápida y efectiva. Se constata el incremento en los ingresos derivados de la incorporación de esta herramienta apostando así por este nuevo modelo de negocio. ABSTRACT. A few market forces have developed in history as much as the present ones regarding mobility. Nowadays the need to set the workplace out of a context and open a wider market in society has made the companies raise again how to adapt their business models to these demands. Some companies haven’t shown this need to change yet. On the contrary, in some others, the change is already a fact. In many cases, it has been materialized the integration of mobile applications not only as an easy, quick and comfortable way to be connected with the client, but also as the interconnection and inner participation in a company. Thus, it is generated a series of mobile applications which allow us to create and keep a relationship by using them as the best tool of fidelity, positioning the trademark and offering an innovation image. Mobile applications require a rapid development of the systems and the management of a great variety of actions without their previous knowledge. Moreover, a minimum range of parameters is needed and updating must be done as soon as possible. This new business role offers the clients some especial services. It permits us to obtain their opinions, expedite online shopping and the self- management of the offered services. It also improves business agility, motivates the reccomendation to other possible clients and it freely let us choose both the best moment and place to carry out an activity rapidly and precisely. It is proved the increasing income derived from the incorporation of this appliance relying on the new business model.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El cuerpo, como conjunto organizado de partes que configuran el organismo, es una entidad metamórfica. El ser humano procura dar continuidad a esta condición mutante que le caracteriza, mediante diversas acciones de carácter arquitectónico. A partir de la observación de los procesos naturales, el individuo se autodefine artificialmente, transformando su realidad innata en una versión distorsionada de sí misma. Por adición, sustracción o modificación, la piel como última capa natural, se convierte en lienzo de manipulación plástica primordial para asegurar la existencia y controlar la identidad, individual y colectiva. La evolución experimental de estas intervenciones primarias, permite suplantar la piel natural por una reinterpretación construida; una piel exenta y desmontable con la que proyectar un yo diferente provisionalmente. El uso constante de esta prótesis removible e intercambiable, provoca que el cuerpo desnudo se transforme en un cuerpo vestido, en un entorno social en el que la desnudez deja de ser el estado natural del ser humano. La piel artificial se construye mediante una gran diversidad de procesos proyectuales, siendo la transformación de la superficie bidimensional en envolvente tridimensional el más utilizado a lo largo de la existencia de la vestimenta. El plano, concebido como principal formato de revestimiento humano, se adapta a su irregularidad topográfica por modelado, perforación, fragmentación, trazado, parametrización e interacción, transformándose en una envolvente cada vez más compleja y perfecta. Su diseño implica la consideración de variables como la dimensión y la escala, la función y la forma, la estructura, el material y la construcción, la técnica y los instrumentos. La vestimenta es una arquitectura habitacional individual, un límite corporal que relaciona el espacio entre el exterior e el interior, lo ajeno y lo propio, el tú y el yo; un filtro concreto y abstracto simultáneamente; una interfaz en donde el vestido es el continente y el cuerpo su contenido. ABSTRACT The body as a whole, organized of parts that make up the organism, is a metamorphic entity. The human being seeks to give continuity to this mutant condition which characterizes him through various actions of architectural character. From the observation of the natural processes, the individual defines itself artificially, transforming its innate reality into a distorted version of itself. By addition, subtraction or modification, the skin, as the last natural layer, becomes canvas of primary plastic handling in order to ensure the existence and to control the identity, both individual and collective. The experimental evolution of these primary interventions allows to impersonate the natural skin by a constructed reinterpretation; a free and detachable skin together with which to be able to project, temporarily, a different “I”. The constant use of this removable and interchangeable prosthesis causes the naked body to be transformed into a dressed body, in a social setting in which the nudity is no longer the natural state of the human being. The artificial skin is constructed by a variety of projectual processes; the most used throughout the existence of the outfit is transforming the two-dimensional surface into a three-dimensional covering. The plan, conceived as the main human lining format, adapts to its topographic irregularity by modeling, drilling, fragmentation, outline, parameters and interaction, thus becoming a type of increasingly more complex and perfect covering. Its design implies the consideration of different variables such as the dimension and the scale, the function and the shape, the structure, the material and the construction, the technique and the instruments. The clothing is an individual residential architecture, a body boundary which relates the space between outside and inside, between the external and the self, between “you” and “I”; at the same time a specific and abstract filter; an interface where the dress is the container and the body its content.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La obra de Emilio Pérez Piñero que se desarrolla entre los años 1961 y 1972 año en el que muere en un accidente de tráfico volviendo de Figueras, se centra principalmente en artefactos desplegables y desmontables, ejecutando prototipos que en el presente trabajo se han dividido en dos grupos; la cúpula reticular y la infraestructura. No pudo por tanto acudir al Congreso de 1972 de la UIA a recoger el premio Auguste Perret a la innovación tecnológica, que en años anteriores habían recibido Félix Candela, Jean Prouvé, Hans Scharoun o Frei Otto, y que en aquella ocasión tuvo que recoger su viuda. Parámetros como el de la movilidad, indeterminación, intercambiabilidad, obsolescencia y otros que se analizan en el presente trabajo, aparecen a lo largo de toda su obra ya que muchos de sus artefactos están ubicados en no-lugares y tienen un carácter itinerante y por tanto se hace indispensable su rápido montaje y desmontaje, que unas veces se resuelve mediante la desmontabilidad y otras con la plegabilidad de éstos. Aunque pueda parecer Piñero una figura autárquica, lo cierto es que durante la década donde concentra su trabajo se produce una explosión en torno a al arquetipo que será denominado de forma genérica `artefacto´, ligado conceptualmente a los parámetros que aquí se definen. Entendemos artefacto como objeto material realizado por una o varias personas para cumplir una función, es sinónimo de máquina y aparato y deriva de las palabras latinas ars o artis (técnica) y facto (hecho), para designar a los objetos cuya fabricación requiere alguna destreza. El término latino `ars´ engloba a las técnicas y a las artes, lo que no ocurre con el término castellano arte que deriva de él. Los movimientos utópicos que comparte la década con Piñero, utilizan el arquetipo infraestructural, ligero y high tech, para a través de una arquitectura más ligada a la ciencia ficción, realizar una crítica al Movimiento Moderno institucionalizado, todos ellos comparten cierta obsesión por la movilidad, ligada ésta a la idea de espacio flexible, dinámico, nómada. Este concepto de neo-nomadismo, que representa un habitar dinámico, aglutina las nuevas formas de vivir donde la movilidad social y geográfica son habituales. El nomadismo, por otra parte se entiende como sinónimo de democracia y libertad. La arquitectura pasa de ser pesada, estática, permanente a ser un elemento dinámico en continuo movimiento. A veces con connotaciones biológicas se asimilan los artefactos a organismos vivos y les confieren dichas propiedades de crecimiento y autonomía energética, acumulándose en torno a megaestructuras, donde quedan `enchufados´. En este intento de dotar movilidad a lo inmueble, se buscan estructuras vivas y modificables que crecen en una asimilación de las leyes naturales utilizando los parámetros de metamorfosis, simbiosis y cambio. Estos movimientos de vanguardia tienen también ciertas connotaciones políticas y sociales basadas en la libertad y la movilidad y reniegan del consumismo institucionalizado, de la arquitectura como instrumento de consumo, como objeto de usar en la cultura de masas. El carácter político de la autogestión, de la customización como parámetro proyectual, de la autosuficiencia energética, que anticipa la llegada de la crisis energética del año 1973. Objeto de este trabajo será relacionar los conceptos que aparecen fuertemente en el entorno de la década de los años sesenta del siglo XX, en el trabajo de Emilio Pérez Piñero. Parámetros encontrados como conceptos en los grupos de vanguardia y utopía a su vez fuertemente influenciados por las figuras del ingeniero Richard Buckminster Fuller y del arquitecto Konrad Wachsmann. Se analizará que posible influencia tiene la obra de Fuller, principalmente el prototipo denominado cúpula reticular, en la obra de Pérez Piñero y sus coetáneos analizando sus pensamientos teóricos en torno a parámetros como la energía, principalmente en las teorías relativas a Synergetics. El término inventado por Richard B. Fuller es una contracción de otro más largo que en inglés agrupa tres palabras; synergetic-energetic geometry. La definición de sinergia es la cooperación, es decir es el resultado de la acción conjunta de dos o más causas, pero con un efecto superior a la suma de estas causas. El segundo término, energetics geometry, que traducido sería geometría energética hace referencia en primer lugar a la geometría; ya que desarrolla el sistema de referencia que utiliza la naturaleza para construir sus sistemas y en segundo lugar a la energía; ya que además debe ser el sistema que establezca las relaciones más económicas utilizando el mínimo de energía. Por otro lado se analiza la repercusión del prototipo denominado Infraestructura, término acuñado por Yona Friedman y basado estructuralmente y conceptualmente en los desarrollos sobre grandes estructuras de Konrad Wachsmann. El arquitecto alemán divulga su conocimiento en seminarios impartidos por todo el mundo como el que imparte en Tokio y se denomina Wachsmann´s Seminar donde participan algunos de los componentes del grupo Metabolista que sorprenderán al mundo con sus realizaciones en la exposición de Osaka de 1970. El intervalo temporal entre 1961 hasta 1972 hace referencia a la horquilla donde Pérez Piñero realiza su obra arquitectónica, que comienza en 1961 cuando gana el concurso convocado en Londres por la UIA (Unión Internacional de Arquitectos) con el proyecto conocido como Teatro Ambulante, hasta 1972 que es cuando fallece volviendo de Figueras donde está realizando dos encargos de Salvador Dalí; la cubrición del escenario del futuro Teatro-Museo Salvador Dalí y la Vidriera Hipercúbica que debía cerrar la boca de tal escenario. Bajo el título de `Artefactos energéticos. De Fuller a Piñero (1961-1972)´, se presenta esta Tesis doctoral, que tiene la intención de vincular la obra de Emilio Pérez Piñero con la de las neo vanguardias producidas por una serie de arquitectos que operan en el ámbito internacional. Estas vinculaciones se producen de una forma general, donde a través de una serie de estrategias según la metodología que posteriormente se describe se buscan relaciones de la obra del autor español con algunos de los movimientos más significativos que aparecen en dicha década y de manera específica estableciendo relaciones con las obras y pensamientos de los autores que pertenecen a estos movimientos y donde estas relaciones se hacen más evidentes. El objeto del presente trabajo es analizar y explicar la obra del arquitecto Emilio Pérez Piñero, que espacialmente se localiza en el territorio español, desde el punto de vista de estos movimientos para posteriormente poder determinar si existen puntos en común y si el arquitecto español no solo comparte la década temporalmente sino también conceptualmente y por tanto utiliza el ideario que utilizan sus coetáneos que forman parte de las neovanguardias de los años sesenta de siglo XX. ABSTRACT ABSTRACT The Work of Emilio Perez Piñero was developed between the years 1961 and 1972 when he died in a car accident coming back from Figueres, where he was building a geodesic dome to close the building that enclose the Dali’s museum. All his Work is mainly centered in artifact that could be collapsible and removable, taking the two prototypes that are described in this work as a recurrent element in all his creation. These are the reticular dome and the infrastructure that are very influenced by the work from Richard B. Fuller and Konrad Wachsmann. Emilio Pérez Piñero could not receive the Auguste Perret Prize in 1972 awarded by the UIA that years before have received architects as Felix Candela, Jean Prouvé, Hans Scharoun or Frei Otto, and this time Pérez Piñero´s wife will accept it because of his death. Parameters like mobility, changeability, expendability, indetermination and others appear currently in his Work. All the inventions that Piñero had been patented and all of the artifacts that he created are usually located in no-places, because they do have a shifting identity. This kind of building has to be quickly set on site, and this problem has to be solved in term of foldability or demounting. In the decade where his work focuses, an explosion has occurred around this archetype to be generally called artifact that is usually linked to mobility. We understand artifact as a material object made by one or more people to work in a particular way. It is sometimes equated with the terms machinery and apparatus and it is derived from the Latin word `ars´ or `artis´, what means techniques and `facto´ (fact). And we use this term to refer to objects whose manufacture requires the same skill, in fact the Latin word `ars´ covers the techniques and arts, which does not occur with the Castillan term `arte´ that derives from it and means only art. The term neo-nomadic is a relatively new name used for a dynamic life, commonly referred to new forms of life where social and geographical mobility are common. On the other hand nomadic could be understood as a synonymous for democracy and freedom. The architecture is not going to be hard and static anymore but a dynamic element in the move. The Neo-avant-garde movement that shares the decade with Piñero uses this infrastructural archetype, which is light and high-tech, to criticize the institutionalized Modern Movement through architecture linked to science fiction. They all share an obsession with mobility, a concept that is connected to the terms `dynamic´, `nomadic´, `flexibile´, etc. Sometimes, with biological connotations, the utopian assimilate the artifacts to living organisms and give them these properties of growth and energy autonomy, and they apparently grow around megastructures where they are plugged. In this attempt to provide mobility to the inertness, living structures and possibility of change are sought in order to make them grow like a living organism and to assimilate the natural laws of growth. According to a definition from architecture provided by Fernández- Galiano who calls it `exosomatic artifact´, he understand architecture as artifact of the human environment that regulates natural energy flows and channels the energy stored in fuels for the benefit of living beings that inhabit. It is also true that during the sixties a new environmental awareness in public opinion is formed and that is due to the exploitation and disproportionate use of energy resources, acceleration of technological processes and mass consumption. Consequently a new concept is born: energy autonomy, it is very close to rational use of natural energy. Such a concept will be culturally assimilated with the requirement of independence not only in the management but also in the building construction until we arrive at energy autonomy. The individuals become energy consumer, which in turn can enter the energy produced in the system to `life in an eco-mode way´. The objectives of this research are analyzing all of these parameters and concepts that are coming into view in the surrounding of the decade and relate them with the Work of Pérez Piñero. Terms strongly present in the avant-garde movements around the decade, a young architect’s generation strongly influenced by Richard B. Fuller and Konrad Wachsmann. However, it will be analyzed how important the influence of Buckminster Fuller's Work was and his theoretical text about energy on the Work of Pérez Piñero and his fellows of the decade. The term Synergetic was invented by Fuller and came from the words synergy and energetic geometry. Synergy is the cooperation or interaction of two or more agents to produce a greater effect than the sum of their separate effects. Energetic geometry is related to the geometries that the Nature is using to build their construction but always using low energy consumption. On the other hand, the influences from Wachsmann around the prototype called Infrastructure have been analyzed. The German architect has developed knowledge around huge structures that he has spread all around the world through seminars that he has been conducted. One of these was the Wachsmann´s seminar in Tokyo, where same of the members of the Metabolist group were taking part of. Later these young architects will surprise the world with his artifacts at the World Exposition in Osaka in 1970. Between 1961 and 1972 Pérez Piñero produced his architectural work. It began in 1961 when he received the first prize with his project Mobile Theatre in the competition organized by the UIA in London. In 1972 the Auguste Perret Prize was granted by the UIA too. He could not accept it because he died before in a car accident when he was coming from Figueres, when he was designing two projects for Dali. With the title `Energetic Artifacts. From Fuller to Piñero (1961- 1972)´, this thesis relates the Work of Emilio Pérez Piñero with the neo avant-garde made by a young architects’ generation who is sharing the time with him. Several strategies have been used to formed relationships between them. They are described in the present work to set up a method that allows us to relate the work and ideas of the architects of the neo avant-garde with the ones from Piñero. This work is intended to analyze and explained the work of Pérez Piñero from the point of view of the international architects’ generation who is operating at the same time and finally to determinate if Piñero is not sharing the time with them but the concepts, ideas and architectural parameters.