773 resultados para Manipulación


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Rafael Moneo se enfrenta a la arquitectura religiosa en la madurez de su carrera profesional. Toma como punto de partida el tipo, y confía en la manipulación del mismo como herramienta proyectual, y recurre a su memoria del espacio sagrado, sus recuerdos de la mejor arquitectura religiosa. Con el primer proceso dispone el edificio en el lugar y organiza su funcionamiento. En el segundo, trata de dotar de carácter al espacio, muy importante en estos casos para que los fieles se puedan identificar con el edificio. Las arquitecturas del pasado, Bizancio, las catedrales góticas, el Barroco, y referentes más recientes, como Bryggman, Scarpa, y principalmente la capilla de Ronchamp. En la arquitectura religiosa de Rafael Moneo están presentes los temas que han sido importantes a lo largo de su trayectoria. Así la atención a los condicionantes específicos del lugar en el que se asienta la obra, la integración de la historia de la arquitectura con las nuevas disciplinas y los modos de construcción, la reflexión sobre el tipo y la simbiosis que establece entre el tratamiento de la luz y la materialidad del edificio.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Estudios recientes promueven la integración de estímulos multisensoriales en activos multimedia con el fin de mejorar la experiencia de usuario mediante la estimulación de nuevos sentidos, más allá de la tradicional experiencia audiovisual. Del mismo modo, varios trabajos proponen la introducción de componentes de interacción capaces de complementar con nuevas características, funcionalidades y/o información la experiencia multimedia. Efectos sensoriales basados en el uso de nuevas técnicas de audio, olores, viento, vibraciones y control de la iluminación, han demostrado tener un impacto favorable en la sensación de Presencia, en el disfrute de la experiencia multimedia y en la calidad, relevancia y realismo de la misma percibidos por el usuario. Asimismo, los servicios basados en dos pantallas y la manipulación directa de (elementos en) la escena de video tienen el potencial de mejorar la comprensión, la concentración y la implicación proactiva del usuario en la experiencia multimedia. El deporte se encuentra entre los géneros con mayor potencial para integrar y explotar éstas soluciones tecnológicas. Trabajos previos han demostrado asimismo la viabilidad técnica de integrar éstas tecnologías con los estándares actualmente adoptados a lo largo de toda la cadena de transmisión de televisión. De este modo, los sistemas multimedia enriquecidos con efectos sensoriales, los servicios interactivos multiplataforma y un mayor control del usuario sobre la escena de vídeo emergen como nuevas formas de llevar la multimedia immersiva e interactiva al mercado de consumo de forma no disruptiva. Sin embargo, existen numerosas interrogantes relativas a los efectos sensoriales y/o soluciones interactivas más adecuadas para complementar un contenido audiovisual determinado o a la mejor manera de de integrar y combinar dichos componentes para mejorar la experiencia de usuario de un segmento de audiencia objetivo. Además, la evidencia científica sobre el impacto de factores humanos en la experiencia de usuario con estas nuevas formas de immersión e interacción en el contexto multimedia es aún insuficiente y en ocasiones, contradictoria. Así, el papel de éstos factores en el potencial de adopción de éstas tecnologías ha sido amplia-mente ignorado. La presente tesis analiza el impacto del audio binaural, efectos sensoriales (de iluminación y olfativos), interacción con objetos 3D integrados en la escena de vídeo e interacción con contenido adicional utilizando una segunda pantalla en la experiencia de usuario con contenidos de deporte. La posible influencia de dichos componentes en las variables dependientes se explora tanto a nivel global (efecto promedio) como en función de las características de los usuarios (efectos heterogéneos). Para ello, se ha llevado a cabo un experimento con usuarios orientado a explorar la influencia de éstos componentes immersivos e interactivos en dos grandes dimensiones de la experiencia multimedia: calidad y Presencia. La calidad de la experiencia multimedia se analiza en términos de las posibles variaciones asociadas a la calidad global y a la calidad del contenido, la imagen, el audio, los efectos sensoriales, la interacción con objetos 3D y la interacción con la segunda pantalla. El posible impacto en la Presencia considera dos de las dimensiones definidas por el cuestionario ITC-SOPI: Presencia Espacial (Spatial Presence) e Implicación (Engagement). Por último, los individuos son caracterizados teniendo en cuenta los siguientes atributos afectivos, cognitivos y conductuales: preferencias y hábitos en relación con el contenido, grado de conocimiento de las tecnologías integradas en el sistema, tendencia a involucrarse emocionalmente, tendencia a concentrarse en una actividad bloqueando estímulos externos y los cinco grandes rasgos de la personalidad: extroversión, amabilidad, responsabilidad, inestabilidad emocional y apertura a nuevas experiencias. A nivel global, nuestro estudio revela que los participantes prefieren el audio binaural frente al sistema estéreo y que los efectos sensoriales generan un aumento significativo del nivel de Presencia Espacial percibido por los usuarios. Además, las manipulaciones experimentales realizadas permitieron identificar una gran variedad de efectos heterogéneos. Un resultado interesante es que dichos efectos no se encuentran distribuidos de forma equitativa entre las medidas de calidad y Presencia. Nuestros datos revelan un impacto generalizado del audio binaural en la mayoría de las medidas de calidad y Presencia analizadas. En cambio, la influencia de los efectos sensoriales y de la interacción con la segunda pantalla se concentran en las medidas de Presencia y calidad, respectivamente. La magnitud de los efectos heterogéneos identificados está modulada por las siguientes características personales: preferencias en relación con el contenido, frecuencia con la que el usuario suele ver contenido similar, conocimiento de las tecnologías integradas en el demostrador, sexo, tendencia a involucrarse emocionalmente, tendencia a a concentrarse en una actividad bloqueando estímulos externos y niveles de amabilidad, responsabilidad y apertura a nuevas experiencias. Las características personales consideradas en nuestro experimento explicaron la mayor parte de la variación en las variables dependientes, confirmando así el importante (y frecuentemente ignorado) papel de las diferencias individuales en la experiencia multimedia. Entre las características de los usuarios con un impacto más generalizado se encuentran las preferencias en relación con el contenido, el grado de conocimiento de las tecnologías integradas en el sistema y la tendencia a involucrarse emocionalmente. En particular, los primeros dos factores parecen generar un conflicto de atención hacia el contenido versus las características/elementos técnicos del sistema, respectivamente. Asimismo, la experiencia multimedia de los fans del fútbol parece estar modulada por procesos emociona-les, mientras que para los no-fans predominan los procesos cognitivos, en particular aquellos directamente relacionados con la percepción de calidad. Abstract Recent studies encourage the integration of multi-sensorial stimuli into multimedia assets to enhance the user experience by stimulating other senses beyond sight and hearing. Similarly, the introduction of multi-modal interaction components complementing with new features, functionalities and/or information the multimedia experience is promoted. Sensory effects as odor, wind, vibration and light effects, as well as an enhanced audio quality, have been found to favour media enjoyment and to have a positive influence on the sense of Presence and on the perceived quality, relevance and reality of a multimedia experience. Two-screen services and a direct manipulation of (elements in) the video scene have the potential to enhance user comprehension, engagement and proactive involvement of/in the media experience. Sports is among the genres that could benefit the most from these solutions. Previous works have demonstrated the technical feasibility of implementing and deploying end-to-end solutions integrating these technologies into legacy systems. Thus, sensorially-enhanced media, two-screen services and an increased user control over the displayed scene emerge as means to deliver a new form of immersive and interactive media experiences to the mass market in a non-disruptive manner. However, many questions remain concerning issues as the specific interactive solutions or sensory effects that can better complement a given audiovisual content or the best way in which to integrate and combine them to enhance the user experience of a target audience segment. Furthermore, scientific evidence on the impact of human factors on the user experience with these new forms of immersive and interactive media is still insufficient and sometimes, contradictory. Thus, the role of these factors on the potential adoption of these technologies has been widely ignored. This thesis analyzes the impact of binaural audio, sensory (light and olfactory) effects, interaction with 3D objects integrated into the video scene and interaction with additional content using a second screen on the sports media experience. The potential influence of these components on the dependent variables is explored both at the overall level (average effect) and as a function of users’ characteristics (heterogeneous effects). To these aims, we conducted an experimental study exploring the influence of these immersive and interactive elements on the quality and Presence dimensions of the media experience. Along the quality dimension, we look for possible variations on the quality scores as-signed to the overall media experience and to the media components content, image, audio, sensory effects, interaction with 3D objects and interaction using the tablet device. The potential impact on Presence is analyzed by looking at two of the four dimensions defined by the ITC-SOPI questionnaire, namely Spatial Presence and Engagement. The users’ characteristics considered encompass the following personal affective, cognitive and behavioral attributes: preferences and habits in relation to the content, knowledge of the involved technologies, tendency to get emotionally involved and tendency to get absorbed in an activity and block out external distractors and the big five personality traits extraversion, agreeableness, conscientiousness, neuroticism and openness to experience. At the overall level, we found that participants preferred binaural audio than standard stereo audio and that sensory effects increase significantly the level of Spatial Presence. Several heterogeneous effects were also revealed as a result of our experimental manipulations. Interestingly, these effects were not equally distributed across the quality and Presence measures analyzed. Whereas binaural audio was foud to have an influence on the majority of the quality and Presence measures considered, the effects of sensory effects and of interaction with additional content through the tablet device concentrate mainly on the dimensions of Presence and on quality measures, respectively. The magnitude of these effects was modulated by individual’s characteristics, such as: preferences in relation to the content, frequency of viewing similar content, knowledge of involved technologies, gender, tendency to get emotionally involved, tendency to absorption and levels of agreeableness, conscientiousness and openness to experience. The personal characteristics collected in our experiment explained most of the variation in the dependent variables, confirming the frequently neglected role of individual differences on the media experience. Preferences in relation to the content, knowledge of involved technologies and tendency to get emotionally involved were among the user variables with the most generalized influence. In particular, the former two features seem to present a conflict in the allocation of attentional resources towards the media content versus the technical features of the system, respectively. Additionally, football fans’ experience seems to be modulated by emotional processes whereas for not fans, cognitive processes (and in particular those related to quality judgment) prevail.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El presente trabajo de Tesis se ha centrado en el diseño, fabricación y caracterización de dispositivos basados en fibras de cristal fotónico infiltrado selectivamente con cristales líquidos, polímeros y una mezcla de ambos. Todos los dispositivos son sintonizables, y su área de aplicación se centra en comunicaciones ópticas y sensores. La manipulación y fusionado de fibras fotónicas, el llenado selectivo de determinadas cavidades y la alineación recíproca de fibras mantenedoras de polarización son tareas muy específicas y delicadas para las que se requieren protocolos muy estrictos. Previo a la fabricación de dispositivos ha sido necesaria por tanto una tarea de sistematización y creación de protocolos de fabricación. Una vez establecidos se ha procedido a la fabricación y caracterización de dispositivos. Los dispositivos fabricados se enumeran a continuación para posteriormente detallar una a una las singularidades de cada uno. • Interferómetros intermodales hechos a partir de una porción de fibra fotónica soldada entre dos fibras estándar, bien monomodo o PANDA (mantenedora de polarización). Estos interferómetros han sido sumergidos o bien llenados selectivamente con cristales líquidos para así sintonizar la señal interferométrica guiada a través de la fibra. • Infiltración de fibras fotónicas con cristales líquidos colestéricos con especial énfasis en la fase azul (blue phase) de estos materiales. Las moléculas de cristal líquido se autoalinean en volumen por lo que la infiltración de fibras fotónicas con estos cristales líquidos es muy interesante, pues es conocida la dificultad de alinear apropiadamente cristales líquidos dentro de cavidades micrométricas de las fibras fotónicas. • Grabación de redes holográficas de forma selectiva en las cavidades de una fibra fotónica. Estas redes holográficas, llamadas POLICRYPS (POlymer-LIquid CRYstal-Polymer Slices), son redes fabricadas a base de franjas de polímero y cristal líquido alineado perpendicularmente a dichas franjas. Las franjas son a su vez perpendiculares al eje de la fibra como lo puede ser una red de Bragg convencional. El cristal líquido, al estar alineado perpendicularmente a dichos franjas y paralelo al eje de la fibra, se puede conmutar aplicando un campo eléctrico externo, modificando así el índice efectivo de la red. Se puede fabricar por lo tanto una red de Bragg sintonizable en fibra, muy útil en comunicaciones ópticas. • Llenado selectivo de fibras fotónicas con polidimetilsiloxano (PDMS), un polímero de tipo silicona. Si se realiza un llenado selectivo asimétrico se puede inducir birrefringencia en la fibra. El índice de refracción del PDMS tiene una fuerte dependencia térmica, por lo que se puede sintonizar la birrefringencia de la fibra. • Estudio teórico de llenado selectivo de fibras fotónicas con PDMS dopado con nanopartículas de plata de 5, 40 y 80 nm. Estas nanopartículas poseen un pico de absorción en torno a los 450 nm debido a resonancias superficiales localizadas de plasmones (LSPR). La resonancia del plasmon tiene una fuerte dependencia con el índice de refracción del material colindante, y al ser éste PDMS, la variación de índice de refracción se ve amplificada, obteniendo una absorción sintonizable. Se ha propuesto la fabricación de polarizadores sintonizables usando esta técnica. Como ya se ha dicho, previamente a la fabricación ha sido necesaria la protocolización de diversos procedimientos de fabricación de alta complejidad, así como protocolizar el proceso de toma de medidas para optimizar los resultados. Los procedimientos que han requerido la formulación de protocolos específicos han sido los siguientes: • Llenado selectivo de cavidades en una fibra fotónica. Dichas fibras tienen generalmente un diámetro externo de 125 μm, y sus cavidades son de entre 5 y 10 μm de diámetro. Se han desarrollado tres técnicas diferentes para el llenado/bloqueado selectivo, pudiéndose combinar varios protocolos para la optimización del proceso. Las técnicas son las siguientes: o Llenado y bloqueado con un prepolímero. Dicho prepolímero, también llamado adhesivo óptico, está inicialmente en estado líquido y posee una cierta viscosidad. Las cavidades de la fibra fotónica que se desea llenar o bloquear poseen un diámetro diferente al resto, por lo que en el proceso de llenado aparecen dos frentes de llenado dependientes de su diámetro. A mayor diámetro, mayor velocidad de llenado. Polimerizando cuando existe dicha diferencia en los frentes se puede cortar por medio, obteniendo así una fibra parcialmente bloqueada. o Colapsamiento de las cavidades de menor diámetro mediante aplicación de calor. El calor producido por un arco voltaico de una soldadora de fibra estándar fusiona el material exterior de la fibra produciendo el colapsamiento de las cavidades de menor diámetro. En esta técnica también es necesaria una diferencia de diámetros en las cavidades de la fibra. o Bloqueo una a una de las cavidades de la fibra fotónica con adhesivo óptico. Este procedimiento es muy laborioso y requiere mucha precisión. Con este sistema se pueden bloquear las cavidades deseadas de una fibra sin importar su diámetro. • Alineación de una fuente de luz linealmente polarizada con una fibra mantenedora de polarización ya sea PANDA o fotónica. Así mismo también se han alineado entre sí fibras mantenedoras de polarización, para que sus ejes rápidos se fusionen paralelos y así el estado de polarización de la luz guiada se mantenga. • Sistematización de toma de medidas para caracterizar los interferómetros modales. Éstos son altamente sensibles a diversas variables por lo que el proceso de medida es complejo. Se deben aislar variables de forma estrictamente controlada. Aunque todos los dispositivos tienen en común el llenado selectivo de cavidades en una fibra fotónica cada dispositivo tiene sus peculiaridades, que van a ser explicadas a continuación. ABSTRACT The present Thesis has been centered in the design, fabrication and characterization of devices based on photonic crystal fibers selectively filled with liquid crystals, polymers and a mixture of both. All devices are tunable and their work field is optical communications and sensing The handling and splicing of photonic crystal fibers, the selective filling of their holes and the aligning of polarization maintaining fibers are very specific and delicate tasks for which very strict protocols are required. Before the fabrication of devices has therefore been necessary task systematization and creation of manufacturing protocols. Once established we have proceeded to the fabrication and characterization of devices. The fabricated devices are listed below and their peculiarities are detailed one by one: • Intermodal interferometers made with a portion of photonic crystal fiber spliced between two optical communication fiber pigtails, either single mode or PANDA (polarization-maintaining) fiber. These interferometers have been submerged or selectively filled with liquid crystals to tune the interferometric guided signal. • Infiltration of photonic fibers with cholesteric liquid crystals with special emphasis on their blue phase (blue phase). The liquid crystal molecules are self-aligning in volume so the infiltration of photonic fibers with these liquid crystals is very interesting. It is notoriously difficult to properly align liquid crystals within micron cavities such as photonic fibers. • Selectively recording of holographic gratings in the holes of photonic crystal fibers. These holographic gratings, called POLICRYPS (POlymer-LIquid CRYstal-Polymes Slices), are based on walls made of polymer and liquid crystal aligned perpendicular to them. These walls are perpendicular to the axis of the fiber as it can be a conventional Bragg grating. The liquid crystal is aligned perpendicular to the walls and parallel to the fiber axis, and can be switched by applying an external electric field and thus change the effective index of the grating. It is thus possible to manufacture a tunable Bragg grating fiber, useful in optical communications. •Asymmetrically selective filling of photonic crystal fibers with a silicone polymer like called polydimethylsiloxane (PDMS) to induce birefringence in the fiber. The refractive index of PDMS has temperature dependence, so that the birefringence of the fiber can be tuned. • Theoretical study of photonic crystal fibers selectively filled with PDMS doped with silver nanoparticles of 5, 40 and 80 nm. These nanoparticles have an absorption peak around 450 nm due to localized surface plasmon resonances (LSPR). Plasmon resonance has a strong dependence on the refractive index of the adjacent material, and as this is PDMS, the refractive index variation is amplified, obtaining a tunable absorption. Fabrication of tunable polarizers using this technique has been proposed. Before starting the fabrication, it has been necessary to optimize several very delicate procedures and different protocols have been designed. The most delicate procedures are as follows: • Selective filling of holes in a photonic crystal fiber. These fibers generally have an outer diameter of 125 μm, and their holes have a diameter around between 5 and 10 μm. It has been developed three different techniques for filling / selective blocking, and they can be combined for process optimization. The techniques are: o Filling and blocked with a prepolymer. This prepolymer also called optical adhesive is initially in liquid state and has a certain viscosity. The holes of the photonic crystal fiber that are desired to be filled or blocked should have a different diameter, so that in the filling process appear two different fronts depending on the hole diameter. The holes with larger diameter are filled faster. Then the adhesive is polymerized when there is such a difference on the front. A partially blocked fiber is obtained cutting between fronts. o Collapsing of holes of smaller diameter by application of heat. The heat produced by an arc of a standard fusion splicer fuses the outer fiber material producing the collapsing of the cavities of smaller diameter. In this technique also you need a difference of diameters in the fiber holes. o Blocking one by one the holes of photonic crystal fiber with optical adhesive. This procedure is very laborious and requires great precision. This system can block unwanted cavities regardless fiber diameter. • Aligning a linearly polarized light source with a polarization-maintaining fiber (either a PANDA fiber as a photonic crystal fiber). It is needed also an aligning between polarization-maintaining fibers, so that their fast axes parallel merge and that is state of polarization of light guided is maintained. • Systematization of taking measurements to characterize the modal interferometers. These are highly sensitive to several variables so the measurement process is very complicated. Variables must be fixed in a very controlled manner. Although all devices have the common characteristic of being selectively filled PCFs with some kind of material, each one has his own peculiarities, which are explained below.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Los adhesivos se conocen y han sido utilizados en multitud de aplicaciones a lo lago de la historia. En la actualidad, la tecnología de la adhesión como método de unión de materiales estructurales está en pleno crecimiento. Los avances científicos han permitido comprender mejor los fenómenos de adhesión, así como, mejorar y desarrollar nuevas formulaciones poliméricas que incrementan el rango de aplicaciones de los adhesivos. Por otro lado, el desarrollo de nuevos materiales y la necesidad de aligerar peso, especialmente en el sector transporte, hace que las uniones adhesivas se introduzcan en aplicaciones hasta ahora reservadas a otros sistemas de unión como la soldadura o las uniones mecánicas, ofreciendo rendimientos similares y, en ocasiones, superiores a los aportados por estas. Las uniones adhesivas ofrecen numerosas ventajas frente a otros sistemas de unión. En la industria aeronáutica y en automoción, las uniones adhesivas logran una reducción en el número de componentes (tales como los tornillos, remaches, abrazaderas) consiguiendo como consecuencia diseños más ligeros y una disminución de los costes de manipulación y almacenamiento, así como una aceleración de los procesos de ensamblaje, y como consecuencia, un aumento de los procesos de producción. En el sector de la construcción y en la fabricación de equipos industriales, se busca la capacidad para soportar la expansión y contracción térmica. Por lo tanto, se usan las uniones adhesivas para evitar producir la distorsión del sustrato al no ser necesario el calentamiento ni la deformación de las piezas cuando se someten a un calentamiento elevado y muy localizado, como en el caso de la soldadura, o cuando se someten a esfuerzos mecánicos localizados, en el caso de montajes remachados. En la industria naval, se están desarrollando técnicas de reparación basadas en la unión adhesiva para distribuir de forma más uniforme y homogénea las tensiones con el objetivo de mejorar el comportamiento frente a fatiga y evitar los problemas asociados a las técnicas de reparación habituales de corte y soldadura. Las uniones adhesivas al no requerir importantes aportes de calor como la soldadura, no producen modificaciones microestructurales indeseables como sucede en la zona fundida o en la zona afectada térmicamente de las uniones soldadas, ni deteriora los recubrimientos protectores de metales de bajo punto de fusión o de naturaleza orgánica. Sin embargo, las uniones adhesivas presentan una desventaja que dificulta su aplicación, se trata de su durabilidad a largo plazo. La primera causa de rotura de los materiales es la rotura por fatiga. Este proceso de fallo es la causa del 85% de las roturas de los materiales estructurales en servicio. La rotura por fatiga se produce cuando se somete al material a la acción de cargas que varían cíclicamente o a vibraciones durante un tiempo prolongado. Las uniones y estructuras sometidas a fatiga pueden fallar a niveles de carga por debajo del límite de resistencia estática del material. La rotura por fatiga en las uniones adhesivas no se produce por un proceso de iniciación y propagación de grieta de forma estable, el proceso de fatiga va debilitando poco a poco la unión hasta que llega un momento que provoca una rotura de forma rápida. Underhill explica este mecanismo como un proceso de daño irreversible de los enlaces más débiles en determinados puntos de la unión. Cuando se ha producido el deterioro de estas zonas más débiles, su área se va incrementando hasta que llega un momento en que la zona dañada es tan amplia que se produce el fallo completo de la unión. En ensayos de crecimiento de grieta realizados sobre probetas preagrietadas en viga con doble voladizo (DCB), Dessureault identifica los procesos de iniciación y crecimiento de grietas en muestras unidas con adhesivo epoxi como una acumulación de microfisuras en la zona próxima al fondo de grieta que, luego, van coalesciendo para configurar la grieta principal. Lo que supone, igualmente, un proceso de daño del adhesivo en la zona de mayor concentración de tensiones que, posteriormente, conduce al fallo de la unión. La presente tesis surge con el propósito de aumentar los conocimientos existentes sobre el comportamiento a fatiga de las uniones adhesivas y especialmente las realizadas con dos tipos de adhesivos estructurales aplicados en aceros con diferentes acabados superficiales. El estudio incluye la obtención de las curvas de tensión frente al número de ciclos hasta el fallo del componente, curvas SN o curvas de Wöhler, que permitirán realizar una estimación de la resistencia a la fatiga de un determinado material o estructura. Los ensayos de fatiga realizados mediante ciclos predeterminados de carga sinusoidales, de amplitud y frecuencia constantes, han permitido caracterizar el comportamiento a la fatiga por el número de ciclos hasta la rotura, siendo el límite de fatiga el valor al que tiende la tensión cuando el número de ciclos es muy grande. En algunos materiales, la fatiga no tiende a un valor límite sino que decrece de forma constante a medida que aumenta el número de ciclos. Para estas situaciones, se ha definido la resistencia a la fatiga (o límite de resistencia) por la tensión en que se produce la rotura para un número de ciclos predeterminado. Todos estos aspectos permitirán un mejor diseño de las uniones y las condiciones de trabajo de los adhesivos con el fin de lograr que la resistencia a fatiga de la unión sea mucho más duradera y el comportamiento total de la unión sea mucho mejor, contribuyendo al crecimiento de la utilización de las uniones adhesivas respecto a otras técnicas. ABSTRACT Adhesives are well-known and have been used in many applications throughout history. At present, adhesion bonding technology of structural materials is experiencing an important growth. Scientific advances have enabled a better understanding of the phenomena of adhesion, as well as to improve and develop new polymeric formulations that increase the range of applications. On the other hand, the development of new materials and the need to save weight, especially in the transport sector, have promote the use of adhesive bonding in many applications previously reserved for other joining technologies such as welded or mechanical joints, presenting similar or even higher performances. Adhesive bonding offers many advantages over other joining methods. For example, in the aeronautic industry and in the automation sector, adhesive bonding allows a reduction in the number of components (such as bolts, rivets, clamps) and as consequence, resulting in lighter designs and a decrease in handling and storage costs, as well as faster assembly processes and an improvement in the production processes. In the construction sector and in the industrial equipment manufacturing, the ability to withstand thermal expansion and contraction is required. Therefore, adhesion bonding technology is used to avoid any distortion of the substrate since this technology does not require heating nor the deformation of the pieces when these are exposed to very high and localized heating, as in welding, or when are subjected to localized mechanical stresses in the case of riveted joints. In the naval industry, repair techniques based in the adhesive bonding are being developed in order to distribute stresses more uniform and homogeneously in order to improve the performance against fatigue and to avoid the problems associated with standard repair techniques as cutting and welding. Adhesive bonding does not require the use of high temperatures and as consequence they do not produce undesirable microstructural changes, as it can be observed in molten zones or in heat-affected zones in the case of welding, neither is there damage of the protective coating of metals with low melting points or polymeric films. However, adhesive bonding presents a disadvantage that limits its application, the low longterm durability. The most common cause of fractures of materials is fatigue fracture. This failure process is the cause of 85% of the fracture of structural materials in service. Fatigue failure occurs when the materials are subjected to the action of cyclic loads or vibrations for a long period of time. The joints and structures subjected to fatigue can fail at stress values below the static strength of the material. Fatigue failure do not occurs by a static and homogeneous process of initiation and propagation of crack. The fatigue process gradually weakens the bond until the moment in which the fracture occurs very rapidly. Underhill explains this mechanism as a process of irreversible damage of the weakest links at certain points of the bonding. When the deterioration in these weaker zones occurs, their area increase until the damage zone is so extensive that the full failure of the joint occurs. During the crack growth tests performed on precracked double-cantilever beam specimen, (DCB), Dessureault identified the processes of crack initiation and growth in samples bonded with epoxy adhesive as a process of accumulation of microcracks on the zone near the crack bottom, then, they coalesced to configure the main crack. This is a damage process of the adhesive in the zone of high stress concentration that leads to failure of the bond. This thesis aims to further the understanding of the fatigue behavior of the adhesive bonding, primarily those based on two different types of structural adhesives used on carbon-steel with different surface treatments. This memory includes the analysis of the SN or Wöhler curves (stress vs. number of cycles curves up to the failure), allowing to carry out an estimation of the fatigue strength of a specific material or structure. The fatigue tests carried out by means of predetermined cycles of sinusoidal loads, with a constant amplitude and frequency, allow the characterisation of the fatigue behaviour. For some materials, there is a maximum stress amplitude below which the material never fails for any number of cycles, known as fatigue limit. In the other hand, for other materials, the fatigue does not tend toward a limit value but decreases constantly as the number of cycles increases. For these situations, the fatigue strength is defined by the stress at which the fracture occurs for a predetermined number of cycles. All these aspects will enable a better joint design and service conditions of adhesives in order to get more durable joints from the fatigue failure point of view and in this way contribute to increase the use of adhesive bonding over other joint techniques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La crioconservación se ha descrito como una técnica de conservación ex situ a largo plazo que ha sido aplicada con éxito a numerosas especies, y resulta especialmente importante en aquellas con propagación vegetativa, infértiles o amenazadas, en las que sistemas de conservación ex situ más sencillos, como los bancos de semillas, no son posibles. También presenta ventajas frente a la conservación in vitro, ya que logra disminuir o eliminar problemas como la excesiva manipulación del material, evitando los subcultivos periódicos y disminuyendo así el riesgo de contaminaciones y de aparición de variación somaclonal. Sin embargo, someter al material vegetal a los procedimientos que implica la crioconservación provoca distintos estreses. Entre ellos, el estrés oxidativo puede potencialmente producir daños en membranas, proteínas, carbohidratos y en el ADN. En este trabajo se han evaluado diversos sistemas de crioconservación en ápices de Mentha × piperita L., híbrido estéril entre Mentha aquatica L. y Mentha spicata L. Se han utilizado ápices de dos genotipos (‘MEN 186’y ‘MEN 198’) en los cuales se compararon dos técnicas de crioconservación, encapsulación-deshidratación y vitrificación-droplet. El análisis de la supervivencia y capacidad de regeneración del material sometido a los tratamientos de crioconservación, junto con el análisis de la estabilidad genética de dicho material mediante marcadores moleculares (RAPD y AFLP) han permitido comparar los distintos protocolos y tratamientos establecidos. El estudio sobre el tipo de protocolo empleado reveló una mayor variabilidad genética en la técnica de encapsulación-deshidratación, especialmente en el genotipo ‘MEN 186’, ya que ‘MEN 198’ resultó ser más estable en todos los análisis. La inestabilidad encontrada en esta técnica no fue exclusiva de aquellos explantos crioconservados, sino que los pasos previos a la inmersión en nitrógeno líquido (NL) también provocaron variaciones en el ADN. Según el tipo de muestra analizada se encontraron diferencias en la estabilidad: muestras provenientes de callos presentaron una mayor inestabilidad que aquellas de hojas (brotes). Se utilizaron tres medios para la recuperación de los ápices tras la crioconservación con el uso de diferentes combinaciones de reguladores de crecimiento: “Reed” (0,5 mgL-1 6-bencilaminopurina, BAP), “Senula” (0,5 mgL-1 6-dimetilalilamino-purina, 2-iP + 0,1 mgL-1 ácido α-naftalen-acético, ANA) y “Nudos” (0,5 mgL-1 BAP + 0,1 mgL-1ANA). El medio “Reed” produjo un aumento en la supervivencia y recuperación de los ápices en ambos genotipos y técnicas, y disminuyó la formación de callo. Sin embargo, no tuvo un efecto significativo en la estabilidad genética. El medio “Senula” provocó una mayor estabilidad genética en el genotipo más inestable, ‘MEN 186’. Para reducir el daño oxidativo producido durante la encapsulación-deshidratación, e incrementar la recuperación de los ápices manteniendo su estabilidad genética, se comparó el efecto de añadir sustancias antioxidantes en el precultivo de los ápices (ácido ascórbico, vitamina E y glutatión). No se obtuvo la respuesta esperada y estos tratamientos no presentaron efectos significativos tanto en la estabilidad como en la recuperación. Para entender mejor qué sucede durante todo el proceso de encapsulación-deshidratación, se evaluó cada paso del protocolo por separado y su efecto en la estabilidad y la recuperación. Además, se determinó el estado de oxidación en cada etapa mediante la cuantificación de malondialdehído y la detección de la formación de radicales libres (mediante el ensayo del ácido tiobarbitúrico, y sondas fluorescentes específicas, respectivamente). Se determinó que a partir de los primeros pasos se genera estrés oxidativo, el cual aumenta a medida que se avanza por el protocolo hasta la inmersión en nitrógeno líquido. Esto se ve reflejado en la disminución progresiva tanto de la recuperación como de la estabilidad genética. Con el uso de antioxidantes en el precultivo (ácido ascórbico y vitamina E) no se obtuvo un efecto positivo en el mantenimiento de la estabilidad genética, y tan sólo con el uso de vitamina E se observó una recuperación mayor en uno de los pasos estudiados (después de la desecación). Sin embargo, cuando se utilizó ácido ascórbico durante el precultivo o la deshidratación osmótica se consiguió disminuir de forma significativa la formación de MDA y la acumulación del radical superóxido (O2•-) en la mayoría los pasos analizados, aunque esta reducción no parece tener un efecto directo en la estabilidad genética del material recuperado. ABSTRACT Cryopreservation has been described as an effective technique for the long term of ex situ conservation that has been successfully applied to numerous species, and is of especial relevance for those with vegetative propagation, infertile or endangered, in which simpler systems of ex situ conservation, such as seed banking, are not feasible. It also has advantages over in vitro conservation, as it reduces or eliminates excessive material handling, avoids periodic subcultures and thus limits the risk of contamination and the appearance of somaclonal variation. However, plant material is subjected to different treatments involved in the cryopreservation procedures, which impose several stresses. Among them, oxidative stress can potentially cause damage to membranes, proteins, carbohydrates and DNA. In this work, two cryopreservation techniques have been evaluated in Mentha × piperita L. shoot tips, sterile hybrid between Mentha aquatica L. and Mentha spicata L. Two genotypes ('MEN 186' and 'MEN 198') were used to compare two techniques: encapsulation-dehydration and droplet-vitrification. The analysis of survival and recovery capacity of the material after the cryopreservation treatments, and the analysis of the genetic stability by molecular markers (RAPD and AFLP) have enabled the comparison between protocols and treatments. The study of the two cryopreservation procedures revealed a higher genetic variability in the encapsulation-dehydration technique, especially in genotype 'MEN 186', as 'MEN 198' was more stable in all analyses. The instability generated in this technique was not exclusive of cryopreserved explants, pretreatments prior to immersion in NL also caused DNA variations. The type of sampled plant material revealed also differences in the stability: callus samples showed greater instability than shoots. Three different culture media were used for the recovery of shoot tips after cryopreservation, using different combinations of growth regulators: "Reed" (0.5 mgL-1 6-benzylaminopurine, BAP), "Senula" (0.5 mgL-1 6-dimetilalilamino-purine, 2-iP + 0.1 mgL-1 α-naphthalene acetic acid, ANA) and "Nodes" (0.5 mgL-1 BAP + 0.1 mgL-1 ANA). "Reed" medium increased survival and recovery of shoot tips in both genotypes and techniques and decreased callus formation. However, it didn`t have a significant effect on genetic stability. "Senula" medium caused a higher genetic stability in the most unstable genotype, 'MEN 186'. To reduce oxidative damage during encapsulation-dehydration, and increase shoot tip recovery and maintain genetic stability, the effect of added antioxidants (ascorbic acid, vitamin E and glutathione) in the shoot tip preculture medium was studied. These treatments had no significant effect on both stability and recovery. To better understand the events during the encapsulation-dehydration process, the effect of each step of the protocol on stability and recovery was evaluated separately. Moreover, the oxidation level was determined by quantifying malondialdehyde (MDA) formation and detecting free radical accumulation (using the thiobarbituric acid assay, and specific fluorescent probes, respectively). The oxidative stress was detected from the first steps and increased throughout the protocol until the immersion in liquid nitrogen. This was also reflected in the gradual decline of recovery and genetic stability. The use of antioxidants (ascorbic acid and vitamin E) in the shoot tip preculture medium had no effect in maintaining genetic stability; only vitamin E increased recovery in one of the steps studied (after desiccation). However, when ascorbic acid was used during the preculture or during the osmotic dehydration, a significantly decrease was observed in MDA formation and superoxide radical accumulation in most of the steps analyzed, although this reduction did not seem to have a direct effect on the genetic stability of recovered material.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tesis se centra en desarrollo de tecnologías para la interacción hombre-robot en entornos nucleares de fusión. La problemática principal del sector de fusión nuclear radica en las condiciones ambientales tan extremas que hay en el interior del reactor, y la necesidad de que los equipos cumplan requisitos muy restrictivos para poder aguantar esos niveles de radiación, magnetismo, ultravacío, temperatura... Como no es viable la ejecución de tareas directamente por parte de humanos, habrá que utilizar dispositivos de manipulación remota para llevar a cabo los procesos de operación y mantenimiento. En las instalaciones de ITER es obligatorio tener un entorno controlado de extrema seguridad, que necesita de estándares validados. La definición y uso de protocolos es indispensable para regir su buen funcionamiento. Si nos centramos en la telemanipulación con algo grado de escalado, surge la necesidad de definir protocolos para sistemas abiertos que permitan la interacción entre equipos y dispositivos de diversa índole. En este contexto se plantea la definición del Protocolo de Teleoperación que permita la interconexión entre dispositivos maestros y esclavos de distinta tipología, pudiéndose comunicar bilateralmente entre sí y utilizar distintos algoritmos de control según la tarea a desempeñar. Este protocolo y su interconectividad se han puesto a prueba en la Plataforma Abierta de Teleoperación (P.A.T.) que se ha desarrollado e integrado en la ETSII UPM como una herramienta que permita probar, validar y realizar experimentos de telerrobótica. Actualmente, este Protocolo de Teleoperación se ha propuesto a través de AENOR al grupo ISO de Telerobotics como una solución válida al problema existente y se encuentra bajo revisión. Con el diseño de dicho protocolo se ha conseguido enlazar maestro y esclavo, sin embargo con los niveles de radiación tan altos que hay en ITER la electrónica del controlador no puede entrar dentro del tokamak. Por ello se propone que a través de una mínima electrónica convenientemente protegida se puedan multiplexar las señales de control que van a través del cableado umbilical desde el controlador hasta la base del robot. En este ejercicio teórico se demuestra la utilidad y viabilidad de utilizar este tipo de solución para reducir el volumen y peso del cableado umbilical en cifras aproximadas de un 90%, para ello hay que desarrollar una electrónica específica y con certificación RadHard para soportar los enormes niveles de radiación de ITER. Para este manipulador de tipo genérico y con ayuda de la Plataforma Abierta de Teleoperación, se ha desarrollado un algoritmo que mediante un sensor de fuerza/par y una IMU colocados en la muñeca del robot, y convenientemente protegidos ante la radiación, permiten calcular las fuerzas e inercias que produce la carga, esto es necesario para poder transmitirle al operador unas fuerzas escaladas, y que pueda sentir la carga que manipula, y no otras fuerzas que puedan influir en el esclavo remoto, como ocurre con otras técnicas de estimación de fuerzas. Como el blindaje de los sensores no debe ser grande ni pesado, habrá que destinar este tipo de tecnología a las tareas de mantenimiento de las paradas programadas de ITER, que es cuando los niveles de radiación están en sus valores mínimos. Por otro lado para que el operador sienta lo más fielmente posible la fuerza de carga se ha desarrollado una electrónica que mediante el control en corriente de los motores permita realizar un control en fuerza a partir de la caracterización de los motores del maestro. Además para aumentar la percepción del operador se han realizado unos experimentos que demuestran que al aplicar estímulos multimodales (visuales, auditivos y hápticos) aumenta su inmersión y el rendimiento en la consecución de la tarea puesto que influyen directamente en su capacidad de respuesta. Finalmente, y en referencia a la realimentación visual del operador, en ITER se trabaja con cámaras situadas en localizaciones estratégicas, si bien el humano cuando manipula objetos hace uso de su visión binocular cambiando constantemente el punto de vista adecuándose a las necesidades visuales de cada momento durante el desarrollo de la tarea. Por ello, se ha realizado una reconstrucción tridimensional del espacio de la tarea a partir de una cámara-sensor RGB-D, lo cual nos permite obtener un punto de vista binocular virtual móvil a partir de una cámara situada en un punto fijo que se puede proyectar en un dispositivo de visualización 3D para que el operador pueda variar el punto de vista estereoscópico según sus preferencias. La correcta integración de estas tecnologías para la interacción hombre-robot en la P.A.T. ha permitido validar mediante pruebas y experimentos para verificar su utilidad en la aplicación práctica de la telemanipulación con alto grado de escalado en entornos nucleares de fusión. Abstract This thesis focuses on developing technologies for human-robot interaction in nuclear fusion environments. The main problem of nuclear fusion sector resides in such extreme environmental conditions existing in the hot-cell, leading to very restrictive requirements for equipment in order to deal with these high levels of radiation, magnetism, ultravacuum, temperature... Since it is not feasible to carry out tasks directly by humans, we must use remote handling devices for accomplishing operation and maintenance processes. In ITER facilities it is mandatory to have a controlled environment of extreme safety and security with validated standards. The definition and use of protocols is essential to govern its operation. Focusing on Remote Handling with some degree of escalation, protocols must be defined for open systems to allow interaction among different kind of equipment and several multifunctional devices. In this context, a Teleoperation Protocol definition enables interconnection between master and slave devices from different typologies, being able to communicate bilaterally one each other and using different control algorithms depending on the task to perform. This protocol and its interconnectivity have been tested in the Teleoperation Open Platform (T.O.P.) that has been developed and integrated in the ETSII UPM as a tool to test, validate and conduct experiments in Telerobotics. Currently, this protocol has been proposed for Teleoperation through AENOR to the ISO Telerobotics group as a valid solution to the existing problem, and it is under review. Master and slave connection has been achieved with this protocol design, however with such high radiation levels in ITER, the controller electronics cannot enter inside the tokamak. Therefore it is proposed a multiplexed electronic board, that through suitable and RadHard protection processes, to transmit control signals through an umbilical cable from the controller to the robot base. In this theoretical exercise the utility and feasibility of using this type of solution reduce the volume and weight of the umbilical wiring approximate 90% less, although it is necessary to develop specific electronic hardware and validate in RadHard qualifications in order to handle huge levels of ITER radiation. Using generic manipulators does not allow to implement regular sensors for force feedback in ITER conditions. In this line of research, an algorithm to calculate the forces and inertia produced by the load has been developed using a force/torque sensor and IMU, both conveniently protected against radiation and placed on the robot wrist. Scaled forces should be transmitted to the operator, feeling load forces but not other undesirable forces in slave system as those resulting from other force estimation techniques. Since shielding of the sensors should not be large and heavy, it will be necessary to allocate this type of technology for programmed maintenance periods of ITER, when radiation levels are at their lowest levels. Moreover, the operator perception needs to feel load forces as accurate as possible, so some current control electronics were developed to perform a force control of master joint motors going through a correct motor characterization. In addition to increase the perception of the operator, some experiments were conducted to demonstrate applying multimodal stimuli (visual, auditory and haptic) increases immersion and performance in achieving the task since it is directly correlated with response time. Finally, referring to the visual feedback to the operator in ITER, it is usual to work with 2D cameras in strategic locations, while humans use binocular vision in direct object manipulation, constantly changing the point of view adapting it to the visual needs for performing manipulation during task procedures. In this line a three-dimensional reconstruction of non-structured scenarios has been developed using RGB-D sensor instead of cameras in the remote environment. Thus a mobile virtual binocular point of view could be generated from a camera at a fixed point, projecting stereoscopic images in 3D display device according to operator preferences. The successful integration of these technologies for human-robot interaction in the T.O.P., and validating them through tests and experiments, verify its usefulness in practical application of high scaling remote handling at nuclear fusion environments.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La fusión nuclear es, hoy en día, una alternativa energética a la que la comunidad internacional dedica mucho esfuerzo. El objetivo es el de generar entre diez y cincuenta veces más energía que la que consume mediante reacciones de fusión que se producirán en una mezcla de deuterio (D) y tritio (T) en forma de plasma a doscientos millones de grados centígrados. En los futuros reactores nucleares de fusión será necesario producir el tritio utilizado como combustible en el propio reactor termonuclear. Este hecho supone dar un paso más que las actuales máquinas experimentales dedicadas fundamentalmente al estudio de la física del plasma. Así pues, el tritio, en un reactor de fusión, se produce en sus envolturas regeneradoras cuya misión fundamental es la de blindaje neutrónico, producir y recuperar tritio (fuel para la reacción DT del plasma) y por último convertir la energía de los neutrones en calor. Existen diferentes conceptos de envolturas que pueden ser sólidas o líquidas. Las primeras se basan en cerámicas de litio (Li2O, Li4SiO4, Li2TiO3, Li2ZrO3) y multiplicadores neutrónicos de Be, necesarios para conseguir la cantidad adecuada de tritio. Los segundos se basan en el uso de metales líquidos o sales fundidas (Li, LiPb, FLIBE, FLINABE) con multiplicadores neutrónicos de Be o el propio Pb en el caso de LiPb. Los materiales estructurales pasan por aceros ferrítico-martensíticos de baja activación, aleaciones de vanadio o incluso SiCf/SiC. Cada uno de los diferentes conceptos de envoltura tendrá una problemática asociada que se estudiará en el reactor experimental ITER (del inglés, “International Thermonuclear Experimental Reactor”). Sin embargo, ITER no puede responder las cuestiones asociadas al daño de materiales y el efecto de la radiación neutrónica en las diferentes funciones de las envolturas regeneradoras. Como referencia, la primera pared de un reactor de fusión de 4000MW recibiría 30 dpa/año (valores para Fe-56) mientras que en ITER se conseguirían <10 dpa en toda su vida útil. Esta tesis se encuadra en el acuerdo bilateral entre Europa y Japón denominado “Broader Approach Agreement “(BA) (2007-2017) en el cual España juega un papel destacable. Estos proyectos, complementarios con ITER, son el acelerador para pruebas de materiales IFMIF (del inglés, “International Fusion Materials Irradiation Facility”) y el dispositivo de fusión JT-60SA. Así, los efectos de la irradiación de materiales en materiales candidatos para reactores de fusión se estudiarán en IFMIF. El objetivo de esta tesis es el diseño de un módulo de IFMIF para irradiación de envolturas regeneradoras basadas en metales líquidos para reactores de fusión. El módulo se llamará LBVM (del inglés, “Liquid Breeder Validation Module”). La propuesta surge de la necesidad de irradiar materiales funcionales para envolturas regeneradoras líquidas para reactores de fusión debido a que el diseño conceptual de IFMIF no contaba con esta utilidad. Con objeto de analizar la viabilidad de la presente propuesta, se han realizado cálculos neutrónicos para evaluar la idoneidad de llevar a cabo experimentos relacionados con envolturas líquidas en IFMIF. Así, se han considerado diferentes candidatos a materiales funcionales de envolturas regeneradoras: Fe (base de los materiales estructurales), SiC (material candidato para los FCI´s (del inglés, “Flow Channel Inserts”) en una envoltura regeneradora líquida, SiO2 (candidato para recubrimientos antipermeación), CaO (candidato para recubrimientos aislantes), Al2O3 (candidato para recubrimientos antipermeación y aislantes) y AlN (material candidato para recubrimientos aislantes). En cada uno de estos materiales se han calculado los parámetros de irradiación más significativos (dpa, H/dpa y He/dpa) en diferentes posiciones de IFMIF. Estos valores se han comparado con los esperados en la primera pared y en la zona regeneradora de tritio de un reactor de fusión. Para ello se ha elegido un reactor tipo HCLL (del inglés, “Helium Cooled Lithium Lead”) por tratarse de uno de los más prometedores. Además, los valores también se han comparado con los que se obtendrían en un reactor rápido de fisión puesto que la mayoría de las irradiaciones actuales se hacen en reactores de este tipo. Como conclusión al análisis de viabilidad, se puede decir que los materiales funcionales para mantos regeneradores líquidos podrían probarse en la zona de medio flujo de IFMIF donde se obtendrían ratios de H/dpa y He/dpa muy parecidos a los esperados en las zonas más irradiadas de un reactor de fusión. Además, con el objetivo de ajustar todavía más los valores, se propone el uso de un moderador de W (a considerar en algunas campañas de irradiación solamente debido a que su uso hace que los valores de dpa totales disminuyan). Los valores obtenidos para un reactor de fisión refuerzan la idea de la necesidad del LBVM, ya que los valores obtenidos de H/dpa y He/dpa son muy inferiores a los esperados en fusión y, por lo tanto, no representativos. Una vez demostrada la idoneidad de IFMIF para irradiar envolturas regeneradoras líquidas, y del estudio de la problemática asociada a las envolturas líquidas, también incluida en esta tesis, se proponen tres tipos de experimentos diferentes como base de diseño del LBVM. Éstos se orientan en las necesidades de un reactor tipo HCLL aunque a lo largo de la tesis se discute la aplicabilidad para otros reactores e incluso se proponen experimentos adicionales. Así, la capacidad experimental del módulo estaría centrada en el estudio del comportamiento de litio plomo, permeación de tritio, corrosión y compatibilidad de materiales. Para cada uno de los experimentos se propone un esquema experimental, se definen las condiciones necesarias en el módulo y la instrumentación requerida para controlar y diagnosticar las cápsulas experimentales. Para llevar a cabo los experimentos propuestos se propone el LBVM, ubicado en la zona de medio flujo de IFMIF, en su celda caliente, y con capacidad para 16 cápsulas experimentales. Cada cápsula (24-22 mm de diámetro y 80 mm de altura) contendrá la aleación eutéctica LiPb (hasta 50 mm de la altura de la cápsula) en contacto con diferentes muestras de materiales. Ésta irá soportada en el interior de tubos de acero por los que circulará un gas de purga (He), necesario para arrastrar el tritio generado en el eutéctico y permeado a través de las paredes de las cápsulas (continuamente, durante irradiación). Estos tubos, a su vez, se instalarán en una carcasa también de acero que proporcionará soporte y refrigeración tanto a los tubos como a sus cápsulas experimentales interiores. El módulo, en su conjunto, permitirá la extracción de las señales experimentales y el gas de purga. Así, a través de la estación de medida de tritio y el sistema de control, se obtendrán los datos experimentales para su análisis y extracción de conclusiones experimentales. Además del análisis de datos experimentales, algunas de estas señales tendrán una función de seguridad y por tanto jugarán un papel primordial en la operación del módulo. Para el correcto funcionamiento de las cápsulas y poder controlar su temperatura, cada cápsula se equipará con un calentador eléctrico y por tanto el módulo requerirá también ser conectado a la alimentación eléctrica. El diseño del módulo y su lógica de operación se describe en detalle en esta tesis. La justificación técnica de cada una de las partes que componen el módulo se ha realizado con soporte de cálculos de transporte de tritio, termohidráulicos y mecánicos. Una de las principales conclusiones de los cálculos de transporte de tritio es que es perfectamente viable medir el tritio permeado en las cápsulas mediante cámaras de ionización y contadores proporcionales comerciales, con sensibilidades en el orden de 10-9 Bq/m3. Los resultados son aplicables a todos los experimentos, incluso si son cápsulas a bajas temperaturas o si llevan recubrimientos antipermeación. Desde un punto de vista de seguridad, el conocimiento de la cantidad de tritio que está siendo transportada con el gas de purga puede ser usado para detectar de ciertos problemas que puedan estar sucediendo en el módulo como por ejemplo, la rotura de una cápsula. Además, es necesario conocer el balance de tritio de la instalación. Las pérdidas esperadas el refrigerante y la celda caliente de IFMIF se pueden considerar despreciables para condiciones normales de funcionamiento. Los cálculos termohidráulicos se han realizado con el objetivo de optimizar el diseño de las cápsulas experimentales y el LBVM de manera que se pueda cumplir el principal requisito del módulo que es llevar a cabo los experimentos a temperaturas comprendidas entre 300-550ºC. Para ello, se ha dimensionado la refrigeración necesaria del módulo y evaluado la geometría de las cápsulas, tubos experimentales y la zona experimental del contenedor. Como consecuencia de los análisis realizados, se han elegido cápsulas y tubos cilíndricos instalados en compartimentos cilíndricos debido a su buen comportamiento mecánico (las tensiones debidas a la presión de los fluidos se ven reducidas significativamente con una geometría cilíndrica en lugar de prismática) y térmico (uniformidad de temperatura en las paredes de los tubos y cápsulas). Se han obtenido campos de presión, temperatura y velocidad en diferentes zonas críticas del módulo concluyendo que la presente propuesta es factible. Cabe destacar que el uso de códigos fluidodinámicos (e.g. ANSYS-CFX, utilizado en esta tesis) para el diseño de cápsulas experimentales de IFMIF no es directo. La razón de ello es que los modelos de turbulencia tienden a subestimar la temperatura de pared en mini canales de helio sometidos a altos flujos de calor debido al cambio de las propiedades del fluido cerca de la pared. Los diferentes modelos de turbulencia presentes en dicho código han tenido que ser estudiados con detalle y validados con resultados experimentales. El modelo SST (del inglés, “Shear Stress Transport Model”) para turbulencia en transición ha sido identificado como adecuado para simular el comportamiento del helio de refrigeración y la temperatura en las paredes de las cápsulas experimentales. Con la geometría propuesta y los valores principales de refrigeración y purga definidos, se ha analizado el comportamiento mecánico de cada uno de los tubos experimentales que contendrá el módulo. Los resultados de tensiones obtenidos, han sido comparados con los valores máximos recomendados en códigos de diseño estructural como el SDC-IC (del inglés, “Structural Design Criteria for ITER Components”) para así evaluar el grado de protección contra el colapso plástico. La conclusión del estudio muestra que la propuesta es mecánicamente robusta. El LBVM implica el uso de metales líquidos y la generación de tritio además del riesgo asociado a la activación neutrónica. Por ello, se han estudiado los riesgos asociados al uso de metales líquidos y el tritio. Además, se ha incluido una evaluación preliminar de los riesgos radiológicos asociados a la activación de materiales y el calor residual en el módulo después de la irradiación así como un escenario de pérdida de refrigerante. Los riesgos asociados al módulo de naturaleza convencional están asociados al manejo de metales líquidos cuyas reacciones con aire o agua se asocian con emisión de aerosoles y probabilidad de fuego. De entre los riesgos nucleares destacan la generación de gases radiactivos como el tritio u otros radioisótopos volátiles como el Po-210. No se espera que el módulo suponga un impacto medioambiental asociado a posibles escapes. Sin embargo, es necesario un manejo adecuado tanto de las cápsulas experimentales como del módulo contenedor así como de las líneas de purga durante operación. Después de un día de después de la parada, tras un año de irradiación, tendremos una dosis de contacto de 7000 Sv/h en la zona experimental del contenedor, 2300 Sv/h en la cápsula y 25 Sv/h en el LiPb. El uso por lo tanto de manipulación remota está previsto para el manejo del módulo irradiado. Por último, en esta tesis se ha estudiado también las posibilidades existentes para la fabricación del módulo. De entre las técnicas propuestas, destacan la electroerosión, soldaduras por haz de electrones o por soldadura láser. Las bases para el diseño final del LBVM han sido pues establecidas en el marco de este trabajo y han sido incluidas en el diseño intermedio de IFMIF, que será desarrollado en el futuro, como parte del diseño final de la instalación IFMIF. ABSTRACT Nuclear fusion is, today, an alternative energy source to which the international community devotes a great effort. The goal is to generate 10 to 50 times more energy than the input power by means of fusion reactions that occur in deuterium (D) and tritium (T) plasma at two hundred million degrees Celsius. In the future commercial reactors it will be necessary to breed the tritium used as fuel in situ, by the reactor itself. This constitutes a step further from current experimental machines dedicated mainly to the study of the plasma physics. Therefore, tritium, in fusion reactors, will be produced in the so-called breeder blankets whose primary mission is to provide neutron shielding, produce and recover tritium and convert the neutron energy into heat. There are different concepts of breeding blankets that can be separated into two main categories: solids or liquids. The former are based on ceramics containing lithium as Li2O , Li4SiO4 , Li2TiO3 , Li2ZrO3 and Be, used as a neutron multiplier, required to achieve the required amount of tritium. The liquid concepts are based on molten salts or liquid metals as pure Li, LiPb, FLIBE or FLINABE. These blankets use, as neutron multipliers, Be or Pb (in the case of the concepts based on LiPb). Proposed structural materials comprise various options, always with low activation characteristics, as low activation ferritic-martensitic steels, vanadium alloys or even SiCf/SiC. Each concept of breeding blanket has specific challenges that will be studied in the experimental reactor ITER (International Thermonuclear Experimental Reactor). However, ITER cannot answer questions associated to material damage and the effect of neutron radiation in the different breeding blankets functions and performance. As a reference, the first wall of a fusion reactor of 4000 MW will receive about 30 dpa / year (values for Fe-56) , while values expected in ITER would be <10 dpa in its entire lifetime. Consequently, the irradiation effects on candidate materials for fusion reactors will be studied in IFMIF (International Fusion Material Irradiation Facility). This thesis fits in the framework of the bilateral agreement among Europe and Japan which is called “Broader Approach Agreement “(BA) (2007-2017) where Spain plays a key role. These projects, complementary to ITER, are mainly IFMIF and the fusion facility JT-60SA. The purpose of this thesis is the design of an irradiation module to test candidate materials for breeding blankets in IFMIF, the so-called Liquid Breeder Validation Module (LBVM). This proposal is born from the fact that this option was not considered in the conceptual design of the facility. As a first step, in order to study the feasibility of this proposal, neutronic calculations have been performed to estimate irradiation parameters in different materials foreseen for liquid breeding blankets. Various functional materials were considered: Fe (base of structural materials), SiC (candidate material for flow channel inserts, SiO2 (candidate for antipermeation coatings), CaO (candidate for insulating coatings), Al2O3 (candidate for antipermeation and insulating coatings) and AlN (candidate for insulation coating material). For each material, the most significant irradiation parameters have been calculated (dpa, H/dpa and He/dpa) in different positions of IFMIF. These values were compared to those expected in the first wall and breeding zone of a fusion reactor. For this exercise, a HCLL (Helium Cooled Lithium Lead) type was selected as it is one of the most promising options. In addition, estimated values were also compared with those obtained in a fast fission reactor since most of existing irradiations have been made in these installations. The main conclusion of this study is that the medium flux area of IFMIF offers a good irradiation environment to irradiate functional materials for liquid breeding blankets. The obtained ratios of H/dpa and He/dpa are very similar to those expected in the most irradiated areas of a fusion reactor. Moreover, with the aim of bringing the values further close, the use of a W moderator is proposed to be used only in some experimental campaigns (as obviously, the total amount of dpa decreases). The values of ratios obtained for a fission reactor, much lower than in a fusion reactor, reinforce the need of LBVM for IFMIF. Having demonstrated the suitability of IFMIF to irradiate functional materials for liquid breeding blankets, and an analysis of the main problems associated to each type of liquid breeding blanket, also presented in this thesis, three different experiments are proposed as basis for the design of the LBVM. These experiments are dedicated to the needs of a blanket HCLL type although the applicability of the module for other blankets is also discussed. Therefore, the experimental capability of the module is focused on the study of the behavior of the eutectic alloy LiPb, tritium permeation, corrosion and material compatibility. For each of the experiments proposed an experimental scheme is given explaining the different module conditions and defining the required instrumentation to control and monitor the experimental capsules. In order to carry out the proposed experiments, the LBVM is proposed, located in the medium flux area of the IFMIF hot cell, with capability of up to 16 experimental capsules. Each capsule (24-22 mm of diameter, 80 mm high) will contain the eutectic allow LiPb (up to 50 mm of capsule high) in contact with different material specimens. They will be supported inside rigs or steel pipes. Helium will be used as purge gas, to sweep the tritium generated in the eutectic and permeated through the capsule walls (continuously, during irradiation). These tubes, will be installed in a steel container providing support and cooling for the tubes and hence the inner experimental capsules. The experimental data will consist of on line monitoring signals and the analysis of purge gas by the tritium measurement station. In addition to the experimental signals, the module will produce signals having a safety function and therefore playing a major role in the operation of the module. For an adequate operation of the capsules and to control its temperature, each capsule will be equipped with an electrical heater so the module will to be connected to an electrical power supply. The technical justification behind the dimensioning of each of these parts forming the module is presented supported by tritium transport calculations, thermalhydraulic and structural analysis. One of the main conclusions of the tritium transport calculations is that the measure of the permeated tritium is perfectly achievable by commercial ionization chambers and proportional counters with sensitivity of 10-9 Bq/m3. The results are applicable to all experiments, even to low temperature capsules or to the ones using antipermeation coatings. From a safety point of view, the knowledge of the amount of tritium being swept by the purge gas is a clear indicator of certain problems that may be occurring in the module such a capsule rupture. In addition, the tritium balance in the installation should be known. Losses of purge gas permeated into the refrigerant and the hot cell itself through the container have been assessed concluding that they are negligible for normal operation. Thermal hydraulic calculations were performed in order to optimize the design of experimental capsules and LBVM to fulfill one of the main requirements of the module: to perform experiments at uniform temperatures between 300-550ºC. The necessary cooling of the module and the geometry of the capsules, rigs and testing area of the container were dimensioned. As a result of the analyses, cylindrical capsules and rigs in cylindrical compartments were selected because of their good mechanical behavior (stresses due to fluid pressure are reduced significantly with a cylindrical shape rather than prismatic) and thermal (temperature uniformity in the walls of the tubes and capsules). Fields of pressure, temperature and velocity in different critical areas of the module were obtained concluding that the proposal is feasible. It is important to mention that the use of fluid dynamic codes as ANSYS-CFX (used in this thesis) for designing experimental capsules for IFMIF is not direct. The reason for this is that, under strongly heated helium mini channels, turbulence models tend to underestimate the wall temperature because of the change of helium properties near the wall. Therefore, the different code turbulence models had to be studied in detail and validated against experimental results. ANSYS-CFX SST (Shear Stress Transport Model) for transitional turbulence model has been identified among many others as the suitable one for modeling the cooling helium and the temperature on the walls of experimental capsules. Once the geometry and the main purge and cooling parameters have been defined, the mechanical behavior of each experimental tube or rig including capsules is analyzed. Resulting stresses are compared with the maximum values recommended by applicable structural design codes such as the SDC- IC (Structural Design Criteria for ITER Components) in order to assess the degree of protection against plastic collapse. The conclusion shows that the proposal is mechanically robust. The LBVM involves the use of liquid metals, tritium and the risk associated with neutron activation. The risks related with the handling of liquid metals and tritium are studied in this thesis. In addition, the radiological risks associated with the activation of materials in the module and the residual heat after irradiation are evaluated, including a scenario of loss of coolant. Among the identified conventional risks associated with the module highlights the handling of liquid metals which reactions with water or air are accompanied by the emission of aerosols and fire probability. Regarding the nuclear risks, the generation of radioactive gases such as tritium or volatile radioisotopes such as Po-210 is the main hazard to be considered. An environmental impact associated to possible releases is not expected. Nevertheless, an appropriate handling of capsules, experimental tubes, and container including purge lines is required. After one day after shutdown and one year of irradiation, the experimental area of the module will present a contact dose rate of about 7000 Sv/h, 2300 Sv/h in the experimental capsules and 25 Sv/h in the LiPb. Therefore, the use of remote handling is envisaged for the irradiated module. Finally, the different possibilities for the module manufacturing have been studied. Among the proposed techniques highlights the electro discharge machining, brazing, electron beam welding or laser welding. The bases for the final design of the LBVM have been included in the framework of the this work and included in the intermediate design report of IFMIF which will be developed in future, as part of the IFMIF facility final design.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En la actualidad, el crecimiento de la población urbana, el incremento de la demanda energética junto al desarrollo tecnológico impulsado en los últimos veinte años han originado un estudio y replanteamiento de los sistemas constructivos empleados. Como consecuencia se han establecido nuevos marcos normativos, marcando nuevos objetivos de confort y de demanda energética. En España, el Código Técnico de la Edificación (aprobado en el Real Decreto 314/2006 de 17 de Marzo) es el marco normativo que establece las exigencias que se deben cumplir al proyectar construir, usar, mantener y conservar los edificios, incluidas sus instalaciones, con el fin de asegurar la calidad, seguridad y salud del usuario, respetando en todo momento su entorno. Para asegurar el cumplimiento de las exigencias del Código Técnico de la Edificación (CTE), se han elaborado diferentes Documentos Básicos (DB). Entre ellos están los documentos básicos DB HR-Protección frente al ruido y el DB HS-Salubridad. En el DB HS 3 Calidad del aire interior, se establecen las condiciones que deben de adoptarse para que los recintos de los edificios se puedan ventilar adecuadamente, eliminando los contaminantes que se produzcan de forma habitual durante un uso normal de los edificios, de forma que se aporte un caudal suficiente de aire exterior y se garantice la extracción y expulsión del aire viciado por los contaminantes. En el apartado 3.1, Condiciones generales de los sistemas de ventilación, se indica que las viviendas deben disponer de un sistema general de ventilación donde el aire debe circular desde los locales secos a los húmedos. Para ello los comedores, los dormitorios y las salas de estar deben de disponer de aberturas de admisión, pudiéndose resolver esta cuestión técnica con diversas soluciones. El DB HR Protección frente al ruido del CTE, establece unos valores del aislamiento acústico a ruido aéreo, entre un recinto protegido y el exterior, en función del uso del edificio y del nivel sonoro continuo equivalente día, Ld de la zona donde se ubique el edificio. El hacer compatibles el cumplimiento de las exigencias de los dos Documentos Básicos anteriormente citados, origina algunas dificultades en los proyectos de edificación actuales. Los proyectistas tienen que recurrir en la mayoría de los casos a nuevos sistemas constructivos o duplicaciones de soluciones existentes, evitando la manipulación de los elementos de regulación de entrada de aire en las viviendas. El objetivo fundamental de la Tesis presentada es el estudio de los efectos que producen la colocación de sistemas de aireación permanente en el aislamiento acústico a ruido aéreo de las ventanas compactas. Se comprueba la influencia de cada uno de los componentes de la ventana compacta: perfiles, unidades de vidrio, sistema de apertura, cajón de persiana, persiana, aireadores, etc. en el aislamiento a ruido aéreo del sistema completo. Los ensayos acústicos se han realizado mediante dos métodos: conforme a la norma UNE-EN ISO 10140-2:2011 Medición en laboratorio del aislamiento acústico al ruido aéreo de los elementos de construcción y mediante intensimetría acústica acorde a la norma UNE-EN ISO 15186-1:2004 Medición del aislamiento acústico en los edificios y de los elementos de construcción utilizando intensidad sonora. Los resultados obtenidos podrán ser de gran utilidad para todos los profesionales que intervienen en el proceso edificatorio: arquitectos, ingenieros, instaladores, promotores, fabricantes de productos, etc., tanto en la obra nueva como en la rehabilitación. En un futuro, podrían incorporarse a los Catálogos y Documentos de Aplicación del CTE, así como a los nuevos programas informáticos de diseño y aislamiento acústico. Con el conocimiento adquirido y su aplicación, se contribuirá a la mejora de la calidad de una edificación más sostenible y eficiente. Se incrementará la productividad y la competitividad de los fabricantes de materiales y sistemas constructivos, aumentando el grado de satisfacción del usuario final con el consiguiente aumento de la calidad de vida de los ciudadanos. También se ampliará el conocimiento técnico de este tipo de sistemas y la compatibilidad entre las distintas exigencias marcadas por la normativa. ABSTRACT At present, the urban population growth, the increase of energy demand and the technological development in the last twenty years have led to a rethinking of the used building systems. As a result, new regulatory frameworks have been established, setting new goals of comfort and energy demand. In Spain, the Building Code, Código Técnico de la Edificación (CTE) (RD 314/2006 of March 17th) is the regulatory framework that establishes the requirements to be met by projecting, building, using, maintaining and preserving buildings, including its facilities in order to ensure the quality, safety and health of the user, always respecting the environment. To ensure compliance with the requirements of the CTE, different technical requirements Documentos básicos (DB) have been developed. Among them, are the DB-HR-Protection against noise and DB-HS-Health. In the DB-HS- part3, Indoor Air Quality, are set the conditions needed to be taken into consideration so that the building enclosures can be adequately ventilated, eliminating pollutants that occur regularly during normal use of the buildings, so that a sufficient airflow of outdoor is supplied and a removal and extraction of stale air pollutants is guaranteed. In section 3.1, General Terms of ventilation systems, is indicated that dwellings must have a general ventilation system where air can circulate from dry to wet enclosures. For this, dining rooms, bedrooms and living rooms should have air intake, being able to resolve this technical issue with various solutions. The DB-HR Protection against noise, provides sound insulation values of airborne sound transmission between a protected room and the outside, depending on the use of the building and the equivalent continuous sound level day, Ld, in the area where the building is located. Satisfying the requirements of the two requirements mentioned above causes some difficulties in current building project. Designers have to rely in most cases, to new construction elements or duplicate existing solutions, avoiding the manipulation of the air intakes elements. The main objective of this Thesis is the study of the effects of permanent intakes systems in the acoustic insulation against airborne noise transmission in compact windows. The influence of each of the components of the compact window is determined: frames, glass units, opening systems, shutter box, trickle vents, etc. in the airborne sound insulation of the entire system. The acoustic survey were performed using two methods: UNE-EN ISO 10140-2: 2011 Laboratory measurements of sound insulation of building elements and UNE-EN ISO 15186-1:2004 Measurement of sound insulation in buildings and of building elements using sound intensity. The obtained results may be useful for all professionals involved in the building process: architects, engineers, installers, developers, manufacturers, etc. in the new construction developments and in rehabilitation. In the future, it could be added to building catalogues and applications of the Spanish Building Code, as well as to the new design and sound insulation software. With the acquired knowledge and its application, there will be a contribution to improve the quality of a more sustainable and efficient construction. Productivity and competitiveness of manufacturers of building materials and components will improve, increasing the degree of satisfaction of the final user with a consequent increase in the quality of life of citizens. Technical knowledge of such systems and compatibility between the various requirements set by the legislation will also expand.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Es, en el encuentro de los edificios con el terreno, donde el suelo como realidad se transforma en cualidad arquitectónica. La presente tesis aborda el estudio del plano del suelo, haciendo una revisión crítica de la arquitectura como mecanismo de pensamiento proyectual. Este análisis se enmarca a partir de los años sesenta, por considerar que es cuando comienza a evidenciarse la ruptura respecto a la herencia del Movimiento Moderno. Es entonces cuando la arquitectura marca un punto de inflexión, y empiezan a surgir diferentes actitudes metodológicas respecto al suelo, totalmente nuevas. Las clásicas acciones de encuentro como posar, elevar o enterrar fueron poco a poco sustituidas por otras más complejas como plegar, inclinar o esponjar. Utilizando como marco de restricción los encuentros o desencuentros del objeto arquitectónico con el terreno, se analiza el suelo como estrategia arquitectónica tratando de demostrar como su manipulación puede ser una eficaz herramienta con la que establecer relaciones específicas con el lugar. La capacidad que presenta el suelo, como elemento arquitectónico, de explorar y modificar las características de cada entorno, hacen de esta superficie una eficiente forma de contextualización. Por tanto, la manipulación del suelo que aquí se plantea, opera transcodificando los elementos específicos de cada lugar y actúa como estrategia arquitectónica que pone en relación al edificio con el contexto, modificando las particularidades formales de dicho plano. Frente a la tendencia que reduce la expresión arquitectónica a una simple apariencia formal autónoma, se plantea la manipulación del plano del suelo como mecanismo de enraizamiento con el lugar, enfatizando para ello la condición terrestre de la arquitectura. El plano del suelo es el que ata al edificio mediante la gravedad a la corteza terrestre. En realidad se trata de realzar el carácter mediador del suelo en la arquitectura, definiendo para ello el establecimiento de elementos comunes entre realidades distintas, potenciando el valor del suelo como herramienta que puede transcodificar el entorno, trasformando su datos en elementos arquitectónicos concretos. En este proceso de traducción de información, el suelo pasa de ser un objeto pasivo a ser uno operativo, convirtiéndose en parte activa de las acciones que sobre él se ejercen. La tesis tiene también como propósito demostrar cómo, la clave de la rápida evolución que el suelo como estrategia arquitectónica ha sufrido en los últimos años, mucho debe a la expansión del suelo en otras artes como en la escultura, y mas concretamente en el landart. Surgen entonces nuevas disciplinas, en las que se propone la comprensión del lugar en los proyectos desarrollando una visión integral del mundo natural, convirtiéndolo en un tejido viviente y conector que pone en relación las actividades que sustenta. También encontramos en Utzon, y sus plataformas geológicas, al precursor de la importancia que más tarde se le daría al plano del suelo en la arquitectura, ya que inicia cierta actitud crítica, que hizo avanzar hacia una arquitectura más expresiva que requería nuevos mecanismos que la relacionasen con el suelo que los soportaba, proponiendo con sus plataformas una transformación infraestructural del suelo. Con su interpretación transcultural de las estructuras espaciales arquetípicas mayas, chinas y japonesas, irá enriqueciendo el panorama arquitectónico, adquiriendo de este modo más valor el contexto que acabará por ser entendido de forma más compleja. Los proyectos de arquitectura en muchas ocasiones se han convertido en territorios propicios de especulación donde construir teoría arquitectónica. Desde este contexto se analizan cuatro estrategias de suelo a través del estudio de cuatro posiciones arquitectónicas muy significativas desde el punto de vista de la manipulación del plano del suelo, que construyen una interesante metodología proyectual con la que operar. Los casos de estudio, propuestos son; la Terminal Pasajeros (1996-2002) en Yokohama del estudio FOA, la Casa de la Música (1999-2005) de OMA en Oporto, el Memorial Judío (1998-2005) de Berlín de Peter Eisenman, y por último el Museo MAXXI (1998-2009) de Zaha Hadid en Roma. Descubrir las reglas, referencias y metodologías que cada uno nos propone, nos permite descubrir cuáles son los principales posicionamientos en relación al proyecto y su relación con el lugar. Las propuestas aquí expuestas abordan una nueva forma de entender el suelo, que hizo avanzar a la arquitectura hacia nuevos modos de encuentro con el terreno. Nos permite también establecer cuáles son las principales aportaciones arquitectónicas del suelo, como estrategia arquitectónica, que han derivado en su reformulación. Dichas contribuciones abren nuevas formas de abordar la arquitectura basadas en el movimiento y en la flexibilidad funcional, o en la superposición de flujos de información y circulación. También plantean nuevas vías desdibujando la figura contra el fondo, y refuerzan la idea del suelo como plataforma infraestructural que ya había sido enunciada por Utzon. Se trata en definitiva de proponer la exploración de la superficie del suelo como el elemento más revelador de las formas emergentes del espacio. ABSTRACT Where the building hits the ground, it is where the latter as reality becomes architectural quality. This thesis presents the study of the ground plane, making a critical review of architecture as a mechanism of projectual thought. This analysis starts from the sixties, because it is when the break begins to be demonstrated with regard to the inheritance of the Modern Movement. It is then when architecture marks a point of inflexion, and different, completely new methodological attitudes to the ground start to emerge. The classic meeting action like place, raise or bury are gradually replaced by more complex operations such as fold, bend or fluff up. Framing it within the meetings or disagreements between architectural object and ground, we analyzed it as architectural strategy trying to show how handling can be an effective tool to establish a specific relationship with the place. The capacity ground has, as an architectural element, to explore and modify the characteristics of each environment, makes this area an efficient tool for contextualization. Therefore, the manipulation of ground that is analyzed here, operates transcoding the specifics of each place and acts as architectural strategy that relates to the building with the context, modifying the structural peculiarities of such plane. Opposite to the reductive tendency of the architectural expression to a simple formal autonomous appearance, the manipulation of the ground plane is considered as a rooting mechanism place that emphasises the earthly condition of architecture. The ground plane is the one that binds the building by gravity to the earth’s crust. In fact, it tries to study the mediating character of the ground in architecture, defining for it to establish commonalities among different realities, enhancing the value of the ground as a tool that can transcode the environment, transforming its data into specific architectural elements. In this process of translating information, the ground goes from being a liability, to become active part of the actions exerted on the object. The thesis also tries to demonstrate how the key of the rapid evolution that the ground likes architectural strategy has gone through recently, much due to its use expansion in other arts such as sculpture. New disciplines arise then, in which one proposes the local understanding in the projects, developing an integral vision of the natural world and turning it into an element linking the activities it supports. We also find in Utzon, and his geological platforms, the precursor of the importance that later would be given to the ground plane in architecture, since it initiates a certain critical attitude, which advances towards a more expressive architecture, with new mechanisms that relate to the ground that it sits in, proposing with its platforms an infrastructural transformation of the ground. With his transcultural interpretation of the spatial archetypal structures, he will enrich the architectural discourse, making the context become understood in more complex ways. Architectural projects in many cases have become territories prone to architectural theory speculation. Within this context, four strategies are analyzed through the study of four very significant architectural positions, from the point of view of handling the ground plane, and the project methodology within which to operate. The case studies analyzed are; Passenger Terminal (1996-2002) in Yokohama from FOA, The House of the music (1999-2005) the OMA in Oporto, The Jew monument (1998-2005) in Berlin the Peter Eisenman, and finally the MAXXI Museum (1998-2009) the Zaha Hadid in Rome. Discovering the rules, references and methodologies that each of those offer, it allows to discover what the main positions are regarding the building and its relationship with the place where it is located. The proposals exposed here try to shed a different light on the ground, which architecture advancing in new ways on how meet it. The crossing of the different studied positions, allows us to establish what the main contributions of ground as architectural strategy are. Such contributions open up new approaches to architecture based on movement and functional flexibility, overlapping information flow and circulation, consider new ways that blur the figure against the background, and reinforce the idea of ground as infrastructural platform, already raised by Utzon. Summarizing, it tries to propose the exploration of the ground plane as the most revealing form of spatial exploration.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En este proyecto se propone un entorno de producción para televisión en alta definición donde las cintas magnéticas para la captura, modificación, gestión y transferencia de los contenidos audiovisuales, quedan sustituidas por servidores informáticos y sistemas de almacenamiento basados en las tecnologías de la información. Dicho entorno sin cintas tiene como misión la realización de la fase de la producción de los contenidos televisivos. Se trata de un centra independiente, en una ubicación remota respecto a las instalaciones centrales de la empresa emisora de televisión. La conexión del entorno sin cinta con los servicios centrales de la cadena se realiza por medio de redes de datos de alta velocidad y por enlace de radiofrecuencia. Por estos medios los sistemas de redacción comunican datos y escaletas, se reciben las señales de contribución que intervienen en los programas, se envía la serial realizada para emisión y se transfieren los materiales grabados al área de Postproducción para su elaboración final. Se plantean dos estudios de televisión dotados de servidores de video y de un almacenamiento compartido para una gestión ágil, unificada y flexible de las demandas de los programas. Además de la eliminación del lento y pesado trabajo de manipulación de las cintas, la producción resulta mucho mas ágil porque se eliminan tiempos de espera por la posibilidad de acceso simultaneo de varios usuarios a un mismo contenido. También se suprimen los tiempos de digitalización y descarga del material grabado, porque los sistemas implementados permiten la ingesta directa de las señales recibidas. Los contenidos de varias jornadas de grabación, en calidad HD, se conservan en el sistema de almacenamiento para la elaboración de materiales en el propio centra y para su transferencia al departamento central correspondiente. Mediante aplicaciones software se busca la integración del trabajo de la redacción de los programas con los procesos de producción de los estudios. El diseño que se propone para los diferentes subsistemas técnicos de los estudios esta orientado a lograr una alta fiabilidad, operatividad y adaptabilidad a las demandas técnicas de la producción audiovisual de los diferentes tipos de programas. Al tratarse de una propuesta conceptual, de manera general no se basa en equipos de marcas o fabricantes concretos sino mas bien en las metodologías concretas de trabajo. Cuando se ejemplifica algún dispositivo en particular es debido a que el concepto tecnológico del mismo es novedoso destaca de manera especial sobre la generalidad de los equipos existentes para esa funcionalidad. ABSTRACT. This project hopes to propose a television production platform that uses computers, servers and storage systems based on information technologies, rather than video tape recorders for ingesting, editing and making TV programs. This tapeless system has as its mission the production of all kind of television contents, employing IT systems, without the use of magnetic tapes. We envision an independent TV production center located in a remote location, in relation to the main broadcaster facilities, where all communications between this broadcasting center and the remote independent tapeless center would occur via high speed internet and a radiofrequency link as a back up. In this way, the Newsroom systems communicate data and rundowns; contribution feeds are received; PGM signal are codified and transmitted; and stored media are transferred to the post production area for final editing, playout and archive. Two TV studios are proposed, equipped with video servers and sharing media storage for agile, unified and flexible management of the production requirements. Apart from completely eliminating the slow and hard work resulting from handling a lot of traditional magnetic tapes, the production ends up being much quicker due to the fact that there is no waiting time between recording and viewing. This also enables several users to access and view the same material at the same time. The digitalization and downloading time is also greatly reduced due to the direct ingestion of contribution feeds to the system. The HD content of various days of recording, are stored for future use for whichever department needs the footage in the future. Through software applications, there will be complete integration between the Newsroom work and the production process of the studios. The proposed design for the various technical subsystems in the recording studio is directed towards achieving optimum reliability and operational capability: they are easily adaptable to the technical demands of the audiovisual production of the different programs. Because we are dealing with a conceptual proposal, in general terms, we are not defining the brands or manufacturers of the technical equipment, but rather we are specifying the methods which we plan to implement. When some equipment is highlighted, it's only because that specific brand exemplifies a higher performance than any other equipment in the range.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Aplicar la perspectiva del sistema-mundo a los fenómenos de transformación de la ciudad es un enfoque frecuente para aquellos estudios que pretenden indagar en la lógica interna y las contradicciones propias del capitalismo contemporáneo. El capital financiero en su búsqueda permanente de espacios de acumulación recupera los centros urbanos metropolitanos como objetivo de sus estrategias. Los cascos históricos tradicionales otrora devaluados, se convierten ahora en la última oportunidad de negocio precisamente por la posibilidad de explotar la brecha de renta sucesivamente presente en el juego de asimetrías centro-periferia. El desalojo de la población residente más vulnerable y su sustitución por nuevos vecinos/inversores atraídos por las redescubiertas ventajas de la centralidad se apoya en un sofisticado artificio publicitario de trascendencia planetaria. Una operación que se basa en la renovación de los marcos de representación de los valores ciudadanos y la manipulación de las aspiraciones, sentimientos y deseos colectivos según estilos de vida cosmopolitas procedentes de la ficción televisiva. Estos procesos gentrificadores se presentan como modelos de renovación o “regeneración” urbana. Están dirigidos por las grandes corporaciones financieras, las inmobiliarias, los poderes públicos y otros poderes económicos. Dichos agentes expresan claramente sus intenciones de implantar en la ciudad central nuevas y prestigiosas áreas de exclusividad de fuerte carácter urbano y garantizado éxito de público. No obstante los patrones usados para esta supuesta regeneración en lo que a oferta comercial se refiere, y esto es lo que resulta significativo, son idénticos a los aplicados en los centros comerciales propios del suburbio. El uso y los modos de apropiación del espacio que proponen suponen una banalización de la ciudad tradicional y la negación de su diversidad, vitalidad y pluri-funcionalidad características. Es precisamente de estos patrones de los que trata este estudio y sus modos de infiltración en el imaginario social, tratando de desvelar el sentido y los elementos tanto ideológicos como materiales que intervienen en su desarrollo. Se ha elegido como laboratorio vivo para el análisis, el entorno de la calle de Fuencarral donde este fenómeno se ha venido consolidando en los últimos años.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En esta investigación se han analizado morteros de cal de cronología romana en el interior de la Península Ibérica. Para ello, se seleccionó una serie de muestras procedentes de diversos yacimientos, y de estructuras de carácter industrial. Estas muestras presentan aditivos cerámicos y conglomerantes de cal, como característica principal. Desde un principio el esfuerzo debía de centrarse en los fragmentos cerámicos presentes en los morteros. Para ello se documentaron varios morteros con aditivos cerámicos, a fin de conocer sus características básicas (componentes, distribución, micro-estratigrafía, granulometría, etc.). Por ello, y una vez tomadas las muestras, ésta fueron tratadas y procesadas para desarrollar una primera fase de estudio por medio de macroscopía. Se obtuvieron buenos resultados en cuanto a la caracterización visual de los morteros, localizando y documentando los fragmentos cerámicos. Durante la observación de dichos aditivos se observó que los fragmentos cerámicos tenían unas coronas o anillos de coloración que recorrían el borde, justo al contacto con la matriz de cal. Fueron seleccionados algunos fragmentos en los que eran más visibles dichos anillos. A fin de conocer la posible relación entre algunos yacimientos cercanos y la presencia de dicho anillo cromáticos se desarrolló una microscopía óptica polarizada, realizando láminas delgadas de las muestras y sobre los fragmentos cerámicos más determinantes, en concreto de una serie de enclaves del valle del Henares. Además de caracterizar microscópicamente los morteros, se observó que los anillos no eran un defecto visual ni una alteración física, producida tal vez por la extracción, la fase del corte o por la cocción de la cerámica. Tras analizar varios ejemplares se pudo apreciar que esos anillos eran habituales en todas las muestras y que se presentaban de diferente manera, es decir, que se observaban en granos cerámicos de diferentes características físicas (cochura, tamaño, situación con respecto del conglomerante, etc.). A fin de conocer los aspectos químicos de dicha alteración se seleccionó un grupo de muestras en las que los resultados macroscópicos habían sido muy claros, y en las que la microscopía óptica polarizada había determinado en los bordes, áreas adecuadas para otros análisis. Se realizó un mapeado o mapping de elementos químicos, a fin de saber qué podía estar sucediendo en esa interfaz entre el fragmento cerámico y la matriz de cal. Gracias a los resultados obtenidos se comprobó que existía una acumulación potencial de calcio tanto en el interior de los granos cerámicos como en el exterior, justo en la zona de contacto con el conglomerante, formando manchas que recorrían longitudinalmente el borde. Estos datos fueron muy útiles para llevar a cabo la siguiente fase de estudio, que permitiría conocer puntualmente qué estaba sucediendo químicamente en esa zona de contacto. Finalmente y con el objetivo de describir química y puntualmente este efecto en las adiciones cerámicas, se volvió a seleccionar una serie de muestras, escogidas esta vez en función de los granos cerámicos que cumpliesen unas variables estadísticas. Se eligieron granos con distintos tipos de cocciones, así como granos con tamaños diversos y granos con aditivo ceniciento en la matriz de cal, pensando que podrían ser las variables más útiles de interpretar de existir algún tipo de cambio químico entre la arcilla cocida y la matriz de cal. Tales variables se adaptaron a un sistema estadístico multi-varial y geométrico, con el objetivo de sintetizar los resultados y visualizar de forma óptima los datos en conjunto, como se ha comentado en varias ocasiones en este trabajo. Una vez seleccionados los granos por variables se procedió a realizar un análisis lineal y espectral semi-cuantitativo de SEM-EDX, con el que se caracterizaba químicamente una sección lineal del grano, desde la matriz de arcilla cocida de la cerámica hasta la matriz de cal –del interior al exterior del grano- pasando por el centro de la banda de reacción. Este análisis permitió determinar que se había producido una serie de cambios químicos porcentuales en los granos de cerámica. Dichos cambios se resumen en un incremento global de los porcentajes de calcio en el interior de las bandas de reacción de la cerámica, desde el borde mismo del anillo hasta el exterior. Así también se observaron picos porcentuales en el interfaz del fragmento cerámico con la matriz de cal, lo que confirmaba los resultados obtenidos por medio del mapping. Globalmente en todas las muestras se apreció un hombro en las gráficas de calcio a su paso por la zona de afección del anillo de reacción. Los restantes porcentajes de magnesio, silicio y aluminio se mantienen normales. En esta tesis se ha confirmado que dicho incremento global de calcio se acentúa en las muestras en donde no hay cenizas en la matriz de cal. Los casos correspondientes a estos granos sufren un incremento mayor que en el resto. La segunda variable que sufre un mayor incremento de calcio es la que corresponde a granos con buena cocción de la arcilla. Por lo tanto, parece que la tercera variable, la que corresponde con el tamaño del fragmento cerámico, no es decisiva. Por lo tanto, teniendo en cuenta la prueba visual de los anillos de reacción, y atendiendo a los resultados químicos, podríamos pensar que ese incremento de calcio en la banda de reacción de los fragmentos cerámicos se debió a una absorción de calcio en el interior de la arcilla cocida en la fase inmediatamente previa al fraguado, incluso durante el apagado de la cal. Es en este punto donde estaría la clave del cambio químico que se produce en esta interfaz, el calcio sílice-aluminato del que algunos autores ya han investigado. Esta absorción de calcio en el interior del grano no vendría sola, sino que generaría una costra de cal en el interfaz exterior de la cerámica, la cual ha sido observada químicamente por mapping y mineralógicamente por medio de microscopía óptica de polarización. La consecuencia de estos resultados es, primero, la mejora de nuestro conocimiento general acerca del factor hidráulico en los morteros. Asimismo se aprecia que la incorporación de materiales orgánicos como cenizas, puede alterar los porcentajes de calcio en el interior de los aditivos cerámicos, por lo que habría que sopesar, en trabajos futuros, si este tipo de material es adecuado o no en las mezclas destinadas a la restauración, así como seguir indagando en las propiedades de los morteros con la incorporación de aditivos orgánicos. Desde el punto de vista de la catalogación de los suelos industriales hidráulicos de época romana, además de mejorar la documentación incorporando micro-estratigrafías y granulometrías, la investigación de este material histórico constructivo mejora en cuanto a que se incorporan ensayos sencillos, que facilitan incluso la peritación de un estado de conservación por medio de una lupa binocular. Arqueológicamente hablando, es muy interesante correlacionar fábricas diferentes de estructuras situadas o bien en un mismo yacimiento, o bien en una misma área regional. Los estudios de caracterización y micro-estratigrafía no sólo aportan datos nuevos de cara a la restauración de morteros, sino que crean la posibilidad de generar patrones constructivos que sirvan de fósiles-guía para datar relativamente a unas estructuras o a otras. En lo referido a los resultados obtenidos en los diferentes complejos arqueológicos se ha observado una diferencia entre los morteros destinados a piletas y cubetas con respecto a los suelos industriales de uso indeterminado. La muestra correspondiente al yacimiento de Las Arenas no dispone de ninguna micro-estratigrafía, como sí por el contrario en las muestras obtenidas en Rotonda de Mejorada, Val de la Viña y La Magdalena. En estos enclaves las estructuras presentan grandes similitudes, con diferentes niveles constructivos empleando morteros de cal con áridos y gravas en las capas interiores, y áridos con adiciones cerámicas en las exteriores. En lo relativo a la granulometría las adiciones cerámicas de las muestras de Val de la Viña y La Magdalena presentan varias coincidencias en cuanto al tamaño de los granos y la distribución. Asimismo, de las muestras tomadas en La Magdalena, existe una gran diferencia entre las muestras MG1, MG2, MG3 y MG4 con respecto a las muestras MG5 y MG6, correspondientes éstas últimas a un mortero con fragmentos cerámicos de gran tamaño. Las estructuras EMG1 y EMG2, correspondientes a una cubeta y una pileta de La Magdalena, guardan similitud en lo referido a la micro-estratigrafía y a la granulometría. Se ha determinado que su función, así como su fabricación, debieron estar vinculadas a un mismo contexto cronocultural. Química y mineralógicamente, las muestras presentan características iguales, con presencia de un conglomerante de cal con áridos y aditivos cerámicos de diferentes cochuras. Destaca la muestra de Las Arenas, con un tamaño de los fragmentos cerámicos muy superior al resto, seguido de la estructura EMG3 de La Magdalena. Las muestras restantes de éste enclave, junto con las muestras recogidas en Val de la Viña y Rotonda de Mejorada presentan condiciones similares. En conclusión, los datos revelan que existían diferentes fábricas destinadas a distintas finalidades, y que las estructuras industriales empleaban aditivos cerámicos para la manipulación de productos con líquidos, de distintas densidades pero que requerían de cierto grado de hidraulicidad. ABSTRACT Lime Roman mortars from the Iberian Peninsula has been analyzed in this reesearch. A group of samples were selected from some sites and all the samples come from industrial structures. All this samples show ceramic additives. From the start, the effort was centered in the pieces of pottery that were found in the mortars. The samples were treated and processed to develop a first phase of the research using macroscopy. With this technique, great results were achieved in the characterization of mortars, the microstratigraphy and the location of the ceramic pieces. While observing these pieces, it was seen that the fragments of pottery had a ring bordering the piece. The pieces with the bigger and more vivid rings were chosen and they were analyzed by a polarized light microscope. The mortars were characterized microscopically and it also showed that the rings were not a physical alteration or a visual defect. After some more tests, the rings were a chemical change associated with the hydraulicity of the mortar. The best samples were selected and mappings of their chemical elements were performed in order to know what could be happening in the interface between the ceramic matrix fragment and lime. With the results obtained it was found that there was a potential; both calcium accumulation within the ceramic grains and outside, just in the area of contact with the binder, forming spots longitudinally along the edge. These data were very useful for carrying out the next phase of study, which would meet promptly what was happening chemically in the area of contact. Another group of samples were taken, and this time focused on ceramic grains that met a statistical variables. Grains were chosen with two types of cooking as well as grains with different sizes and grains with ash additive in the matrix of lime, thinking that might be the most logical to be some sort of chemical change between the baked clay and lime array variables . Such variables were adapted to a multi-varial and geometric statistical system in order to synthesize the results and optimally display the data together, as mentioned several times in this work. After selecting the variables grains proceeded to perform a linear and spectral analysis SEM-EDX. This analysis led to determine that the chemical changes were graduals. These changes are summarized in an increase in the percentages of calcium inside the reaction rim of ceramics, from the edge to the outer ring. So percentage increasing is also observed at the interface of the ceramic matrix fragment with lime, confirming the results obtained by the mapping. Overall in all samples can be seen a shoulder in graphic calcium through the area of the ring reaction condition. The remaining percentages of magnesium, silicon and aluminum are usual. We have promptly confirmed that the increase of calcium is accentuated in samples where there is no ash and lime matrix. Cases for these grains suffer a greater increase than the rest. The second variable suffering more calcium is increased corresponding to good cooking grains with clay. Therefore, it appears that the variable size of the fragment is not critical. Therefore, considering the visual tests to the rings and their response to chemical results, we might think that increasing calcium inside the ceramic fragments was due to an injection of calcium inside clay in the run-up to the setting phase. It is at this point that would be the key to the chemical change that occurs at this interface, silica-calcium aluminate some authors have already investigated. This injection of calcium into the grain does not come alone, but generate a lime crust on the outside interface of ceramics, which we tested for mapping is real in our samples. The consequence of these results is the improvement of our understanding of historical hydraulic factor in building materials, such as mortar. For example, knowing that the incorporation of organic materials such as ash powder, may be detrimental to the injection of calcium inside the ceramic additives. Archaeologically speaking, it's very interesting to correlate different factories or structures located on a single site, or in the same regional area. Characterization studies and microstratigraphy not only provide new information to help restore mortars, but create the possibility of generating constructive patterns that serve as guide fossils to determinate the age of the structures. With regard to the results obtained in different archaeological sites it has seen a difference between mortars of pools or sinks with respect to industrial floors of undetermined use. The sample of the site of Las Arenas does not have any micro-stratigraphy, as if instead in the samples obtained in Rotonda de Mejorada, Val de la Viña and La Magdalena sites. In these settlements the structures are really similar, with different construction levels using lime mortars with aggregates and gravel in the inner layers, and ceramic aggregates as external additions. With regard to the grain size of the ceramic additions Val de la Viña and La Magdalena samples has several coincidences about the size of grains and distribution. Also, samples taken at La Magdalena, there is a difference between the MG1, MG2, MG3 and MG4 samples and the MG5 and MG6 samples, so the last corresponding to a mortar samples with larger ceramic fragments. The EMG1 and EMG2 structures, corresponding to a bucket and a pool of La Magdalena settlement, have similarities with regard to micro-stratigraphy and grain size. It has been determined that the function and manufacturing must be linked with a same chronocultural context.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En este trabajo se estudian y detallan , bajo el punto de vista de los riesgos laborales, los riesgos que suponen para los trabajadores los principales procesos , equipos y máquinas que se emplean en el Laboratorio Oficial de Investigaciones Metalográficas de la ETSI Minas y Energía- UPM (LIMM) ya sean mecánicos, químicos, físicos o eléctricos. Además de los riesgos específicos citados debemos tener en cuenta que el personal del laboratorio también se ve sometido a riesgos por manipulación de cargas de forma repetitiva y continuada. El estudio y las propuestas en materia de prevención de riesgos laborales de este proyecto han sido elaboradas para cumplir con las medidas de protección necesarias como queda establecido en el artículo 14 de la Ley de Prevención de Riesgos Laborales - Ley 31/1995 sobre el derecho a la protección frente a los riesgos laborales para garantizar la seguridad y salud de las personas que realizan las actividades del laboratorio. El objetivo es presentar propuestas correctoras frente a los riesgos encontrados para erradicar el número de accidentes laborales que se han materializado o que pueden llegar a producirse a causa de unas deficientes condiciones de trabajo, estas propuestas ofrecen las medidas correctoras de tipo colectivo, prioritarias en cualquier plan de prevención de riesgos laborales, como medidas de tipo individual o particular, los llamados EPIs (equipos de protección individual). En primer lugar se actúa sobre el foco de origen del riesgo, si no fuera posible sobre el medio de propagación y si ninguna de las anteriores medidas se pudiera llevar a cabo sobre las personas que se encuentran en contacto.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El cuerpo, como conjunto organizado de partes que configuran el organismo, es una entidad metamórfica. El ser humano procura dar continuidad a esta condición mutante que le caracteriza, mediante diversas acciones de carácter arquitectónico. A partir de la observación de los procesos naturales, el individuo se autodefine artificialmente, transformando su realidad innata en una versión distorsionada de sí misma. Por adición, sustracción o modificación, la piel como última capa natural, se convierte en lienzo de manipulación plástica primordial para asegurar la existencia y controlar la identidad, individual y colectiva. La evolución experimental de estas intervenciones primarias, permite suplantar la piel natural por una reinterpretación construida; una piel exenta y desmontable con la que proyectar un yo diferente provisionalmente. El uso constante de esta prótesis removible e intercambiable, provoca que el cuerpo desnudo se transforme en un cuerpo vestido, en un entorno social en el que la desnudez deja de ser el estado natural del ser humano. La piel artificial se construye mediante una gran diversidad de procesos proyectuales, siendo la transformación de la superficie bidimensional en envolvente tridimensional el más utilizado a lo largo de la existencia de la vestimenta. El plano, concebido como principal formato de revestimiento humano, se adapta a su irregularidad topográfica por modelado, perforación, fragmentación, trazado, parametrización e interacción, transformándose en una envolvente cada vez más compleja y perfecta. Su diseño implica la consideración de variables como la dimensión y la escala, la función y la forma, la estructura, el material y la construcción, la técnica y los instrumentos. La vestimenta es una arquitectura habitacional individual, un límite corporal que relaciona el espacio entre el exterior e el interior, lo ajeno y lo propio, el tú y el yo; un filtro concreto y abstracto simultáneamente; una interfaz en donde el vestido es el continente y el cuerpo su contenido. ABSTRACT The body as a whole, organized of parts that make up the organism, is a metamorphic entity. The human being seeks to give continuity to this mutant condition which characterizes him through various actions of architectural character. From the observation of the natural processes, the individual defines itself artificially, transforming its innate reality into a distorted version of itself. By addition, subtraction or modification, the skin, as the last natural layer, becomes canvas of primary plastic handling in order to ensure the existence and to control the identity, both individual and collective. The experimental evolution of these primary interventions allows to impersonate the natural skin by a constructed reinterpretation; a free and detachable skin together with which to be able to project, temporarily, a different “I”. The constant use of this removable and interchangeable prosthesis causes the naked body to be transformed into a dressed body, in a social setting in which the nudity is no longer the natural state of the human being. The artificial skin is constructed by a variety of projectual processes; the most used throughout the existence of the outfit is transforming the two-dimensional surface into a three-dimensional covering. The plan, conceived as the main human lining format, adapts to its topographic irregularity by modeling, drilling, fragmentation, outline, parameters and interaction, thus becoming a type of increasingly more complex and perfect covering. Its design implies the consideration of different variables such as the dimension and the scale, the function and the shape, the structure, the material and the construction, the technique and the instruments. The clothing is an individual residential architecture, a body boundary which relates the space between outside and inside, between the external and the self, between “you” and “I”; at the same time a specific and abstract filter; an interface where the dress is the container and the body its content.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

1. Nuestra investigación se centra en el estudio de los “ámbitos o espacios intermedios” en momentos de la arquitectura contemporánea, en un período de transición entre finales de los años 80 y nuestros días. Pretendemos analizar cómo se presenta el ámbito intermedio en el objeto o lugar arquitectónico y su función o relación con el entorno cercano, desde el proyecto hasta su repercusión en la experiencia vivida. 2. El concepto de intermedio entendido como ámbito o espacio intersticial, fronterizo y ambivalente (o multivalente), atraviesa en la presente investigación el campo de la etimología, de la ciencia, del pensamiento y del arte, para detenerse en la arquitectura actual, llevándose a cabo una indagación concreta en el proceso de concepción, en la propuesta formal, espacial y funcional, así como en la percepción y demás experiencias o vivencias en el lugar arquitectónico. 3. En primer lugar nos proponemos estudiar y explorar el concepto de “intermedio” en sus características, funciones y ubicaciones dentro de la cultura contemporánea, detectando sus antecedentes culturales más importantes, para a continuación aplicarlo reflexivamente a obras significativas de arquitectura. La investigación se enfoca en la modalidad figural (imprecisa) de lo intermedio (en alusión al “figural” deleuziano), cuyas metáforas base son lo translúcido, la penumbra y la espuma, vinculadas al actual paradigma cultural de la complejidad (C. Jencks). A continuación se analizan las relaciones o implicaciones de dicha modalidad figural en obras de arquitectos como Eisenman, Holl, Tschumi, Ito, Fujimoto, Van Berkel y Bos, y Siza, comprobando su valor operativo y poniendo de manifiesto su sentido e importancia en la actualidad y en la disciplina. El estudio tiene como trasfondo el concepto de in-between de la obra de Eisenman, y utiliza conceptos de la filosofía del límite de Trías como algunos de sus principales fundamentos. 4. En cada una de las obras de arquitectura presentadas esta modalidad imprecisa se traduce en un ámbito o espacio intermedio figural específico. Son obras en las que real y virtual, matricial y objetual, arquitectura y territorio, existente y nuevo, colectivo e individual, social e íntimo, interior y exterior, y demás usos y funciones se entrelazan o funden. Son arquitecturas cuya geometría ya no se encuentra tan determinada por aspectos bi o tridimensionales del dibujo o de la construcción. A través de la manipulación de estas geometrías más o menos complejas, dinámicas e intersticiales, estas obras reflejan (o intuyen) las premisas del actual Zeitgeist: un cambio de esquemas de objetos a relaciones basado en un pensamiento más holístico, transdisciplinar, sistémico o complejo (E. Morin), y una nueva conciencia colectiva sobre la realidad que anuncia la crisis de la percepción, el cambio de paradigma y nuevos valores (F. Capra). Emerge otra forma de sentir y percibir el mundo, los lugares y los espacios, que poco a poco está cambiando el modo de pensar y dibujar la arquitectura, y consecuentemente de interaccionar con ella. 5. El sentido del espacio intermedio figural, emerge en las cada vez más complejas cualidades morfológico-espaciales y funcionales de una parte importante de la arquitectura actual. Arquitectura, geometría y tecnología informática están más entrelazadas que nunca, y de un modo más libre, para así poder indagar en nuevas formas de pensar y crear lugares en que los “espacios intermedios” que investigamos son un testimonio. El espacio arquitectónico se vuelve afectivo e interactivo, un lugar intermedio figural, formalizado por espacialidades intersticiales que parecen aludir a lo líquido, donde la forma es más matriz que configuración, el espacio más espacialidad que compartimiento, la función más versátil y multivalente que específica o autónoma, y la perplejidad, la imaginación y la evocación se entrecruzan y vuelven patentes. 6. La arquitectura de los lugares intermedios valora no solamente el “plano”, la “configuración” y la “transparencia”, sino sobre todo el “espacio” y la “relación” en sus interrelaciones con los usuarios y demás contextos. De la identidad a la relacionalidad, de la representación a la presentación, es una arquitectura que propone “otros espacios” que más que espacios son topografías y espacialidades intersticiales, de tensión, transición, transformación, relación, intercambio e interacción. Son lugares intermedios reales y virtuales, que se sirven tanto de la morfología como de la topología para conquistar nuevas espacialidades, pretendiendo salir de la estricta operación de “forming”/”morphing”/formación/”conformación” para explorar la de “spacing”/espaciamiento. Son lugares que se basan en conceptos como la zona de indiscernibilidad de Deleuze, la imagen- flujo de Buci-Glucksmann, la suspensión-entre de Sloterdijk, o el espacio no-objetivo al que se refiere José Gil, plasmándose en la arquitectura contemporánea como tropos de lo intersticial. 7. Son los lugares intermedios de la arquitectura actual, de espacialidad háptica, más “afectiva”, generativa e interactiva, donde ese ámbito intermedio transforma y es transformado, “afecta”, “con-mueve” (nos hace mover/accionar) y evoca otros lugares, otras posibilidades de espacio habitable u ocupable. Emerge lo intermedio como lugar, algo que anuncia y exhibe, de manera paradigmática y manifiesta, el monumento de Eisenman en Berlín. ABSTRACT 1. Our research focuses on the study of “in-between spaces or environments” at particular times in contemporary architecture, in a transition period from the end of the 1980’s through to today. We aim to analyse how in-between environments are presented in the architectural object or place and their function or their relationship with the nearby surroundings, from the project through to the experience had. 2. In this research, the in-between concept, understood as an interstitial, border and ambivalent (or multi-purpose) environment or space, is assessed from the viewpoint of etymology, science, thought and art, to conclude in current architecture, with specific exploration of the conception process, of the formal, spatial and functional proposal, together with the perception and other experiences in the architectural place. 3. Firstly, we aim to study and explore the “in-between” concept as regards its features, functions and locations within contemporary culture, revealing its most important cultural background, to then apply it reflexively to important works of architecture. The research focuses on the figural (imprecise) mode of in-between (in allusion to Deleuze’s “figural” approach) whose base metaphors are the translucent, semi-darkness and foam, linked to the current cultural paradigm of complexity (C. Jenks). We then go on to assess the relationships or implications of said figural mode in architectural works by Eisenman, Holl, Tschumi, Ito, Fujimoto, Van Berkel and Bos, and Siza, verifying their operational worth and revealing their meaning and importance today and in this discipline. The backdrop of the study is the in-between concept of Eisenman’s work and it also uses concepts from the philosophy of the limit of Trías as its main underpinnings. 4. In each of the architectural works presented, this imprecise mode is translated into a specific in-between environment or space. They are works in which real and virtual, matricial and objectual, architecture and territory, existing and new, collective and individual, social and intimate, interior and exterior and other uses and functions all intertwine or blend together. They are architectures the geometry of which is not so much determined by bi- or tri-dimensional aspects of the drawing or construction. Through the manipulation of these more or less complex, dynamic and interstitial geometries, these works reflect (or insinuate) the premises of the current Zeitgeist: A change in the scheme of objects to relationships towards a more holistic, transdisciplinary, systemic or complex thought (E. Morin), and a new collective conscience about the reality which announces the crisis of perception, the change in paradigm and new values (F. Capra). Another way of feeling and perceiving the world, places and spaces, which little by little is changing the way of thinking and drawing architecture and hence of interacting with it. 5. The meaning of figural in-between space emerges in the increasingly complex, morphological-spatial and functional qualities of a large part of architecture today. Architecture, geometry and computer technology are more than ever intertwined in a freer way to inquire into other ways of thinking and making places, where the “in-between” spaces we research are a testimony. Architectural space becomes affective and interactive, a figural in-between place, formed by interstitial spatiality which seems to allude to something liquid, where shape is more matrix than configuration, space more spatiality than compartment, its function more versatile and multi-purpose than specific or autonomous, and perplexity, imagination and evocation criss-cross each other, becoming obvious. 6. The architecture of in-between places values not only “flat”, “configuration” and “transparency”, but above all “space” and the “relationship” in its interrelations with users and other contexts. From identity to relationality, from representation to presentation, it is an architecture that proposes “other spaces”, which more than spaces are topographies and interstitial spatialities, of tension, transition, transformation, relation, exchange and interaction. They are real and virtual in-between places, that take in both morphology and topology to conquer new spatialities, aiming to depart from the strict “forming”/”morphing” operation in order to explore “spacing”. They are places that derive both from Deleuze’s indiscernibility zone concept, from Buci-Glucksmann´s image-flow concept, from Sloterdijk’s suspension-between, and from the non-objective space referred to by José Gil, and they are embodied in contemporary architecture as tropes of the interstitial. 7. They are the in-between places in architecture today, of haptic spatiality, more “affective”, generative and interactive, where that in-between environment transforms and is transformed, “affects”, “moves” (it makes us move/act) and evokes other places, other possibilities of habitable or occupiable space. The in-between emerges as a place, which paradigmatically and declaredly, Eisenman´s monument in Berlin announces and exhibits. RESUMO 1. A investigação centra-se no estudo dos “âmbitos ou espaços intermédios” em momentos da arquitectura contemporânea, no período de transição entre os finais dos anos 80 e os nossos dias. Pretende-se analisar como se apresenta o âmbito intermédio no objecto ou lugar arquitectónico e sua função ou relação com o meio envolvente, desde o projecto até à sua repercussão na experiencia vivenciada. 2. O conceito de intermédio entendido como âmbito ou espaço intersticial, fronteiriço e ambivalente (ou multivalente), atravessa na presente investigação o campo da etimologia, da ciência, do pensamento e da arte, para deter-se na arquitectura actual, realizando-se uma indagação concreta no processo de concepção, na proposta formal, espacial e funcional, assim como na percepção e demais experiencias ou vivencias no lugar arquitectónico. 3. Em primeiro lugar, explora-se o conceito de “intermédio” nas suas características, funções e concretizações na cultura contemporânea, detectando os seus antecedentes culturais mais importantes, para em seguida aplicá-lo reflexivamente a obras significativas de arquitectura. A investigação centra-se na modalidade figural (imprecisa) do intermédio (alusão ao figural deleuziano) cujas metáforas base são o translúcido, a penumbra e a espuma, relacionadas com o actual paradigma da complexidade (C. Jencks). Em seguida analisam-se as relações ou implicações da referida modalidade figural em obras de arquitectos como Eisenman, Holl, Tschumi, Ito, Fujimoto, Van Berkel e Bos, e Siza, como modo de comprovar o seu valor operativo e revelar o seu sentido e importância na actualidade e na disciplina. O estudo tem como referencia o conceito de in-between da obra de Eisenman, e utiliza conceitos da filosofia do limite de Trias como alguns dos seus principais fundamentos. 4. Em cada uma das obras de arquitectura apresentadas esta modalidade imprecisa traduz-se num âmbito ou espaço intermédia figural especifico. São obras nas quais real e virtual, matricial e objectual, arquitectura e território, existente e novo, colectivo e individual, social e intimo, interior e exterior, e outros usos e funções se entrelaçam ou fundem. São arquitecturas cuja geometria já não está tão determinada por aspectos bi ou tridimensionais do desenho ou da construção. Através do uso destas geometrias mais ou menos complexas, dinâmicas e intersticiais, estas obras reflectem (ou intuem) as premissas do actual zeitgeist: uma mudança de esquemas de objectos a relações para um pensamento mais holístico, transdisciplinar, sistémico ou complexo (E. Morin) e uma nova consciência colectiva sobre a realidade, que anuncia a crise da percepção, a mudança de paradigma e novos valores (F. Capra). Emerge uma outra forma de sentir e perceber o mundo, os lugares e os espaços, que gradualmente vai alterando o modo de pensar e desenhar a arquitectura, e consequentemente de interagir com ela. 5. O sentido do espaço intermédio figural, emerge nas cada vez mais complexas qualidades morfológico-espaciais e funcionais de uma parte importante da arquitectura actual. Cada vez mais, arquitectura, geometria e tecnologia informática, relacionam-se de um modo mais livre para indagar outras formas de pensar e fazer lugares, onde os espaços intermédios que investigamos são um testemunho. O espaço arquitectónico torna-se afectivo e interactivo, um lugar intermédio figural, formalizado por espacialidades intersticiais que parecem aludir ao estado liquido, onde a forma é mais matriz que configuração, o espaço mais espacialidade que compartimento, a função mais versátil e multivalente que especifica ou autónoma, e a perplexidade, a imaginação e a evocação entrecruzam-se e tornam-se patentes. 6. A arquitectura dos lugares intermédios valoriza não só o “plano”, a “configuração” e a “transparência”, mas sobretudo o” espaço” e a ”relação” nas suas inter-relações com os utentes e restante contextos. Da identidade à relacionalidade, da representação à apresentação, é uma arquitectura que propõe “outros espaços”, que além de espaços são topografias e espacialidades intersticiais, de tensão, transição, transformação, relação, intercambio e interacção. São lugares intermédios reais e virtuais que utilizam tanto a morfologia como a topologia para conquistar novas espacialidades, pretendendo ultrapassar a estrita operação de “forming”/“morphing”/formação para explorar a de “spacing”/espaçamento. São lugares que se apoiam tanto no conceito de zona de indescernibilidade de Deleuze, como na de imagem-fluxo de Buci-Glucksmann como no de suspensão–entre de Sloterdijk ou de espaço-não objectivo que refere José Gil, e se plasmam na arquitectura contemporânea como tropos do intersticial. 7. São os lugares intermédios da arquitectura actual, de espacialidade háptica, mais “afectiva”, generativa e interactiva, onde esse âmbito intermédio transforma e é transformado, “afecta”, ”co-move “(nos faz mover/agir) e evoca outros lugares, outras possibilidades de espaço habitável ou ocupável. Emerge o intermédio como lugar que, paradigmática e manifestamente, o monumento de Eisenmann em Berlim, anuncia e exibe.