30 resultados para Empty
Resumo:
La astronomía de rayos γ estudia las partículas más energéticas que llegan a la Tierra desde el espacio. Estos rayos γ no se generan mediante procesos térmicos en simples estrellas, sino mediante mecanismos de aceleración de partículas en objetos celestes como núcleos de galaxias activos, púlsares, supernovas, o posibles procesos de aniquilación de materia oscura. Los rayos γ procedentes de estos objetos y sus características proporcionan una valiosa información con la que los científicos tratan de comprender los procesos físicos que ocurren en ellos y desarrollar modelos teóricos que describan su funcionamiento con fidelidad. El problema de observar rayos γ es que son absorbidos por las capas altas de la atmósfera y no llegan a la superficie (de lo contrario, la Tierra será inhabitable). De este modo, sólo hay dos formas de observar rayos γ embarcar detectores en satélites, u observar los efectos secundarios que los rayos γ producen en la atmósfera. Cuando un rayo γ llega a la atmósfera, interacciona con las partículas del aire y genera un par electrón - positrón, con mucha energía. Estas partículas secundarias generan a su vez más partículas secundarias cada vez menos energéticas. Estas partículas, mientras aún tienen energía suficiente para viajar más rápido que la velocidad de la luz en el aire, producen una radiación luminosa azulada conocida como radiación Cherenkov durante unos pocos nanosegundos. Desde la superficie de la Tierra, algunos telescopios especiales, conocidos como telescopios Cherenkov o IACTs (Imaging Atmospheric Cherenkov Telescopes), son capaces de detectar la radiación Cherenkov e incluso de tomar imágenes de la forma de la cascada Cherenkov. A partir de estas imágenes es posible conocer las principales características del rayo γ original, y con suficientes rayos se pueden deducir características importantes del objeto que los emitió, a cientos de años luz de distancia. Sin embargo, detectar cascadas Cherenkov procedentes de rayos γ no es nada fácil. Las cascadas generadas por fotones γ de bajas energías emiten pocos fotones, y durante pocos nanosegundos, y las correspondientes a rayos γ de alta energía, si bien producen más electrones y duran más, son más improbables conforme mayor es su energía. Esto produce dos líneas de desarrollo de telescopios Cherenkov: Para observar cascadas de bajas energías son necesarios grandes reflectores que recuperen muchos fotones de los pocos que tienen estas cascadas. Por el contrario, las cascadas de altas energías se pueden detectar con telescopios pequeños, pero conviene cubrir con ellos una superficie grande en el suelo para aumentar el número de eventos detectados. Con el objetivo de mejorar la sensibilidad de los telescopios Cherenkov actuales, en el rango de energía alto (> 10 TeV), medio (100 GeV - 10 TeV) y bajo (10 GeV - 100 GeV), nació el proyecto CTA (Cherenkov Telescope Array). Este proyecto en el que participan más de 27 países, pretende construir un observatorio en cada hemisferio, cada uno de los cuales contará con 4 telescopios grandes (LSTs), unos 30 medianos (MSTs) y hasta 70 pequeños (SSTs). Con un array así, se conseguirán dos objetivos. En primer lugar, al aumentar drásticamente el área de colección respecto a los IACTs actuales, se detectarán más rayos γ en todos los rangos de energía. En segundo lugar, cuando una misma cascada Cherenkov es observada por varios telescopios a la vez, es posible analizarla con mucha más precisión gracias a las técnicas estereoscópicas. La presente tesis recoge varios desarrollos técnicos realizados como aportación a los telescopios medianos y grandes de CTA, concretamente al sistema de trigger. Al ser las cascadas Cherenkov tan breves, los sistemas que digitalizan y leen los datos de cada píxel tienen que funcionar a frecuencias muy altas (≈1 GHz), lo que hace inviable que funcionen de forma continua, ya que la cantidad de datos guardada será inmanejable. En su lugar, las señales analógicas se muestrean, guardando las muestras analógicas en un buffer circular de unos pocos µs. Mientras las señales se mantienen en el buffer, el sistema de trigger hace un análisis rápido de las señales recibidas, y decide si la imagen que hay en el buér corresponde a una cascada Cherenkov y merece ser guardada, o por el contrario puede ignorarse permitiendo que el buffer se sobreescriba. La decisión de si la imagen merece ser guardada o no, se basa en que las cascadas Cherenkov producen detecciones de fotones en píxeles cercanos y en tiempos muy próximos, a diferencia de los fotones de NSB (night sky background), que llegan aleatoriamente. Para detectar cascadas grandes es suficiente con comprobar que más de un cierto número de píxeles en una región hayan detectado más de un cierto número de fotones en una ventana de tiempo de algunos nanosegundos. Sin embargo, para detectar cascadas pequeñas es más conveniente tener en cuenta cuántos fotones han sido detectados en cada píxel (técnica conocida como sumtrigger). El sistema de trigger desarrollado en esta tesis pretende optimizar la sensibilidad a bajas energías, por lo que suma analógicamente las señales recibidas en cada píxel en una región de trigger y compara el resultado con un umbral directamente expresable en fotones detectados (fotoelectrones). El sistema diseñado permite utilizar regiones de trigger de tamaño seleccionable entre 14, 21 o 28 píxeles (2, 3, o 4 clusters de 7 píxeles cada uno), y con un alto grado de solapamiento entre ellas. De este modo, cualquier exceso de luz en una región compacta de 14, 21 o 28 píxeles es detectado y genera un pulso de trigger. En la versión más básica del sistema de trigger, este pulso se distribuye por toda la cámara de forma que todos los clusters sean leídos al mismo tiempo, independientemente de su posición en la cámara, a través de un delicado sistema de distribución. De este modo, el sistema de trigger guarda una imagen completa de la cámara cada vez que se supera el número de fotones establecido como umbral en una región de trigger. Sin embargo, esta forma de operar tiene dos inconvenientes principales. En primer lugar, la cascada casi siempre ocupa sólo una pequeña zona de la cámara, por lo que se guardan muchos píxeles sin información alguna. Cuando se tienen muchos telescopios como será el caso de CTA, la cantidad de información inútil almacenada por este motivo puede ser muy considerable. Por otro lado, cada trigger supone guardar unos pocos nanosegundos alrededor del instante de disparo. Sin embargo, en el caso de cascadas grandes la duración de las mismas puede ser bastante mayor, perdiéndose parte de la información debido al truncamiento temporal. Para resolver ambos problemas se ha propuesto un esquema de trigger y lectura basado en dos umbrales. El umbral alto decide si hay un evento en la cámara y, en caso positivo, sólo las regiones de trigger que superan el nivel bajo son leídas, durante un tiempo más largo. De este modo se evita guardar información de píxeles vacíos y las imágenes fijas de las cascadas se pueden convertir en pequeños \vídeos" que representen el desarrollo temporal de la cascada. Este nuevo esquema recibe el nombre de COLIBRI (Concept for an Optimized Local Image Building and Readout Infrastructure), y se ha descrito detalladamente en el capítulo 5. Un problema importante que afecta a los esquemas de sumtrigger como el que se presenta en esta tesis es que para sumar adecuadamente las señales provenientes de cada píxel, estas deben tardar lo mismo en llegar al sumador. Los fotomultiplicadores utilizados en cada píxel introducen diferentes retardos que deben compensarse para realizar las sumas adecuadamente. El efecto de estos retardos ha sido estudiado, y se ha desarrollado un sistema para compensarlos. Por último, el siguiente nivel de los sistemas de trigger para distinguir efectivamente las cascadas Cherenkov del NSB consiste en buscar triggers simultáneos (o en tiempos muy próximos) en telescopios vecinos. Con esta función, junto con otras de interfaz entre sistemas, se ha desarrollado un sistema denominado Trigger Interface Board (TIB). Este sistema consta de un módulo que irá montado en la cámara de cada LST o MST, y que estará conectado mediante fibras ópticas a los telescopios vecinos. Cuando un telescopio tiene un trigger local, este se envía a todos los vecinos conectados y viceversa, de modo que cada telescopio sabe si sus vecinos han dado trigger. Una vez compensadas las diferencias de retardo debidas a la propagación en las fibras ópticas y de los propios fotones Cherenkov en el aire dependiendo de la dirección de apuntamiento, se buscan coincidencias, y en el caso de que la condición de trigger se cumpla, se lee la cámara en cuestión, de forma sincronizada con el trigger local. Aunque todo el sistema de trigger es fruto de la colaboración entre varios grupos, fundamentalmente IFAE, CIEMAT, ICC-UB y UCM en España, con la ayuda de grupos franceses y japoneses, el núcleo de esta tesis son el Level 1 y la Trigger Interface Board, que son los dos sistemas en los que que el autor ha sido el ingeniero principal. Por este motivo, en la presente tesis se ha incluido abundante información técnica relativa a estos sistemas. Existen actualmente importantes líneas de desarrollo futuras relativas tanto al trigger de la cámara (implementación en ASICs), como al trigger entre telescopios (trigger topológico), que darán lugar a interesantes mejoras sobre los diseños actuales durante los próximos años, y que con suerte serán de provecho para toda la comunidad científica participante en CTA. ABSTRACT -ray astronomy studies the most energetic particles arriving to the Earth from outer space. This -rays are not generated by thermal processes in mere stars, but by means of particle acceleration mechanisms in astronomical objects such as active galactic nuclei, pulsars, supernovas or as a result of dark matter annihilation processes. The γ rays coming from these objects and their characteristics provide with valuable information to the scientist which try to understand the underlying physical fundamentals of these objects, as well as to develop theoretical models able to describe them accurately. The problem when observing rays is that they are absorbed in the highest layers of the atmosphere, so they don't reach the Earth surface (otherwise the planet would be uninhabitable). Therefore, there are only two possible ways to observe γ rays: by using detectors on-board of satellites, or by observing their secondary effects in the atmosphere. When a γ ray reaches the atmosphere, it interacts with the particles in the air generating a highly energetic electron-positron pair. These secondary particles generate in turn more particles, with less energy each time. While these particles are still energetic enough to travel faster than the speed of light in the air, they produce a bluish radiation known as Cherenkov light during a few nanoseconds. From the Earth surface, some special telescopes known as Cherenkov telescopes or IACTs (Imaging Atmospheric Cherenkov Telescopes), are able to detect the Cherenkov light and even to take images of the Cherenkov showers. From these images it is possible to know the main parameters of the original -ray, and with some -rays it is possible to deduce important characteristics of the emitting object, hundreds of light-years away. However, detecting Cherenkov showers generated by γ rays is not a simple task. The showers generated by low energy -rays contain few photons and last few nanoseconds, while the ones corresponding to high energy -rays, having more photons and lasting more time, are much more unlikely. This results in two clearly differentiated development lines for IACTs: In order to detect low energy showers, big reflectors are required to collect as much photons as possible from the few ones that these showers have. On the contrary, small telescopes are able to detect high energy showers, but a large area in the ground should be covered to increase the number of detected events. With the aim to improve the sensitivity of current Cherenkov showers in the high (> 10 TeV), medium (100 GeV - 10 TeV) and low (10 GeV - 100 GeV) energy ranges, the CTA (Cherenkov Telescope Array) project was created. This project, with more than 27 participating countries, intends to build an observatory in each hemisphere, each one equipped with 4 large size telescopes (LSTs), around 30 middle size telescopes (MSTs) and up to 70 small size telescopes (SSTs). With such an array, two targets would be achieved. First, the drastic increment in the collection area with respect to current IACTs will lead to detect more -rays in all the energy ranges. Secondly, when a Cherenkov shower is observed by several telescopes at the same time, it is possible to analyze it much more accurately thanks to the stereoscopic techniques. The present thesis gathers several technical developments for the trigger system of the medium and large size telescopes of CTA. As the Cherenkov showers are so short, the digitization and readout systems corresponding to each pixel must work at very high frequencies (_ 1 GHz). This makes unfeasible to read data continuously, because the amount of data would be unmanageable. Instead, the analog signals are sampled, storing the analog samples in a temporal ring buffer able to store up to a few _s. While the signals remain in the buffer, the trigger system performs a fast analysis of the signals and decides if the image in the buffer corresponds to a Cherenkov shower and deserves to be stored, or on the contrary it can be ignored allowing the buffer to be overwritten. The decision of saving the image or not, is based on the fact that Cherenkov showers produce photon detections in close pixels during near times, in contrast to the random arrival of the NSB phtotons. Checking if more than a certain number of pixels in a trigger region have detected more than a certain number of photons during a certain time window is enough to detect large showers. However, taking also into account how many photons have been detected in each pixel (sumtrigger technique) is more convenient to optimize the sensitivity to low energy showers. The developed trigger system presented in this thesis intends to optimize the sensitivity to low energy showers, so it performs the analog addition of the signals received in each pixel in the trigger region and compares the sum with a threshold which can be directly expressed as a number of detected photons (photoelectrons). The trigger system allows to select trigger regions of 14, 21, or 28 pixels (2, 3 or 4 clusters with 7 pixels each), and with extensive overlapping. In this way, every light increment inside a compact region of 14, 21 or 28 pixels is detected, and a trigger pulse is generated. In the most basic version of the trigger system, this pulse is just distributed throughout the camera in such a way that all the clusters are read at the same time, independently from their position in the camera, by means of a complex distribution system. Thus, the readout saves a complete camera image whenever the number of photoelectrons set as threshold is exceeded in a trigger region. However, this way of operating has two important drawbacks. First, the shower usually covers only a little part of the camera, so many pixels without relevant information are stored. When there are many telescopes as will be the case of CTA, the amount of useless stored information can be very high. On the other hand, with every trigger only some nanoseconds of information around the trigger time are stored. In the case of large showers, the duration of the shower can be quite larger, loosing information due to the temporal cut. With the aim to solve both limitations, a trigger and readout scheme based on two thresholds has been proposed. The high threshold decides if there is a relevant event in the camera, and in the positive case, only the trigger regions exceeding the low threshold are read, during a longer time. In this way, the information from empty pixels is not stored and the fixed images of the showers become to little \`videos" containing the temporal development of the shower. This new scheme is named COLIBRI (Concept for an Optimized Local Image Building and Readout Infrastructure), and it has been described in depth in chapter 5. An important problem affecting sumtrigger schemes like the one presented in this thesis is that in order to add the signals from each pixel properly, they must arrive at the same time. The photomultipliers used in each pixel introduce different delays which must be compensated to perform the additions properly. The effect of these delays has been analyzed, and a delay compensation system has been developed. The next trigger level consists of looking for simultaneous (or very near in time) triggers in neighbour telescopes. These function, together with others relating to interfacing different systems, have been developed in a system named Trigger Interface Board (TIB). This system is comprised of one module which will be placed inside the LSTs and MSTs cameras, and which will be connected to the neighbour telescopes through optical fibers. When a telescope receives a local trigger, it is resent to all the connected neighbours and vice-versa, so every telescope knows if its neighbours have been triggered. Once compensated the delay differences due to propagation in the optical fibers and in the air depending on the pointing direction, the TIB looks for coincidences, and in the case that the trigger condition is accomplished, the camera is read a fixed time after the local trigger arrived. Despite all the trigger system is the result of the cooperation of several groups, specially IFAE, Ciemat, ICC-UB and UCM in Spain, with some help from french and japanese groups, the Level 1 and the Trigger Interface Board constitute the core of this thesis, as they have been the two systems designed by the author of the thesis. For this reason, a large amount of technical information about these systems has been included. There are important future development lines regarding both the camera trigger (implementation in ASICS) and the stereo trigger (topological trigger), which will produce interesting improvements for the current designs during the following years, being useful for all the scientific community participating in CTA.
Resumo:
The project “Between Cathedrals” seeks to create an intervention worthy of the most significant location in the history of Cadiz, the oldest city of the West: the empty space facing the sea located between the Old and New Cathedrals = El proyecto "Entre Catedrales" trata de crear una pieza capaz de poner en valor el lugar más significativo de la historia de Cádiz, la ciudad más antigua de occidente: el espacio vacío entre la Catedral Nueva y la Catedral Vieja, frente al mar.
Resumo:
La materia se presenta ante nosotros en multiplicidad de formas o “apariencias”. A lo largo de la historia se ha reflexionado sobre la relación entre la materia y la forma en distintos campos desde la filosofía hasta la ciencia, pasando por el arte y la arquitectura, moviéndose entre disciplinas desde las más prácticas a las más artísticas, generando posicionamientos opuestos, como el materialismo-idealismo. El concepto de materia a su vez ha ido cambiando a medida que la conciencia humana y la ciencia han ido evolucionando, pasando de considerarse materia como un ente con “masa” a la materia vacía, donde la “masa” es una ilusión que se nos “aparece” dependiendo de la frecuencia con la que vibra su sistema energético. A partir del concepto de “matière” , Josef Albers desarrolla su metodología docente. La matière es más que el aspecto, la “apariencia” que va más allá de la forma cristalizada. Es la forma cambiante que puede adoptar la materia cuando es transformada por el ser humano, dejando su huella sobre ella. Las tres cualidades de la “matière” que el profesor Albers propone en sus ejercicios del Curso Preliminar para desarrollar la “visión” con la “matière” desde la Bauhaus hasta la Universidad de Yale son: Estructural, Factural y Textural. Al desarrollar la observación, teniendo en cuenta estas tres referencias, se descubriá la desvinculación entre lo material y su apariencia desde la honradez. “La discrepancia entre los hechos físicos y el efecto psíquico”. En un proceso constante de ensayo y error se desarrollará la sensibilización individual hacia el material y la evaluación y critica gracias a la dinámica del taller que permite por comparación, aprender y evolucionar como individuo dentro de una sociedad. Esa metodología inductiva regulada por la economía de recursos, promueve el pensamiento creativo, fundamental para producir a través de la articulación un nuevo lenguaje que por medio de la formulación visual exprese nuestra relación con el mundo, con la vida. La vida que constantemente fluye y oscila entre dos polos opuestos, generando interrelaciones que tejen el mundo. Esas interacciones son las que dan vida a la obra artísitica de Albers. PALABRAS CLAVE: materia y matière, estructural factural y textural, vision, hecho físico y efectos psiquico, pensamiento creativo, vida. The matter stands before us in multiple ways or "appearances". Throughout history the relationship between matter and form has been thought out from different fields, from philosophy to science, including art and architecture, moving between disciplines from the most practical to the most artistic generating positions opposites, as materialism-idealism . The concept of matter in turn has changed as the humna consciousness and science have evolved, from being considered as a matter of "mass" to the empty field where the "mass" is an illusion that we "appears" depending on the frequency with which vibrates its energy system. Using the concept of "matière", Josef Albers develops its teaching methodology. The matière is more than the look, the "appearance" that goes beyond the crystallized form. It is the changing form that may take the matter when it is transformed by humans, leaving their mark on it. The three qualities of "matière" that Professor Albers exercises proposed in the Preliminary Course to develop a "vision" with the "matière" from the Bauhaus to Yale are: Structural, Factural and Textural. To develop observation, taking into account these three references, the separation between the material and its appearance was discovered from honesty. "The discrepancy between physical fact and psychic effect." In an ongoing process by trial and error to develop individual sensitzing towards material and critical evaluation through dynamic workshop. The workshop allows for comparison, learn and evolve as an individual within a society. That inductive methodology regulated by the economy of resources, promotes creative thinking, essential to produce through articulation a new language through visual formulation expresses our relationship with the world, with life. Life constantly flowing, oscillates between two opposite poles, creating relationships that weave the world. These interactions are what give life to the artistic work of Albers. KEYWORDS:
Resumo:
European white elm (Ulmus laevis Pallas) populations are scarce, small and fragmented in the Iberian Peninsula. Due to these characteristics the indigenous status of the species in the region has been questioned, whilst the species? role in Iberian riparian forest ecology has been neglected. Herein we review past studies regarding this species? distribution and ecology in the Iberian Peninsula, with special emphasis on the establishment of conservation priorities. We first present a collection of palaeogeographic, historic and genetic data suggesting that the Iberian Peninsula was a glacial refuge for U. laevis. Secondly, we analyse U. laevis distribution in relation to soil physico- chemical properties and water availability in Spain. Following this, we focus on the reproductive biology of the species, and investigate the effect of masting and empty seed production on predation and regeneration establishment. Finally, based on this knowledge, we propose conservation policies for U. laevis in the Iberian Peninsula.
Resumo:
ZnTe doped with high concentrations of oxygen has been proposed in previous works as an intermediate band (IB) material for photovoltaic applications. The existence of extra optical transitions related to the presence of an IB has already been demonstrated in this material and it has been possible to measure the absorption coefficient of the transitions from the valence band (VB) to the IB. In this study, we present the first measurement of the absorption coefficient associated with transitions from the IB to the conduction band (CB) in ZnTeO. The samples used are 4-mum-thick ZnTe layers with or without O in a concentration ~10 19 cm -3, which have been grown on semiinsulating GaAs substrates by molecular beam epitaxy (MBE). The IB-CB absorption coefficient peaks for photon energies ~0.4 eV. It is extracted from reflectance and transmittance spectra measured using Fourier transform infrared (FTIR) spectroscopy. Under typical FTIR measurement conditions (low light intensity, broadband spectrum), the absorption coefficient in IB-to-CB transitions reaches 700 cm -1. This is much weaker than the one observed for VB-IB absorption. This result is consistent with the fact that the IB is expected to be nearly empty of electrons under equilibrium conditions in ZnTe(O).
Resumo:
Crossed-arch vaults are a particular type of ribbed vaults. Their main feature is that the ribs that form the vault are intertwined, forming polygons or stars and leaving an empty space in the middle. The firsts appear in Córdoba in the second half of the 10th Century. Afterwards, the type diffused through Spain and North Africa, 11th_13th Centuries. These vaults reappear in Armenia in the 13th Century. In the 14th and 15th Century a few examples are found both in England (Durham, Raby) and Central Europe (Prague, Landshut, Vienna). At about the same time, Leonardo da Vinci produced designs for the Tiburio (Ciborium) of Milan cathedral with a cross-arched structure and proposed tests to assess the strength; he also, made use of the same pattern of vault for Renaissance centralized churches. Eventually, the type can be tracked through the 17th (Guarini) and 18th (Vittone) Centuries, until Spanish post war architecture in the 1940-60s (Moya). Some questions arose, which so far, have not been answered. How was it possible that a particular type of vault had such enormous geographical spread? How was it transmitted from Córdoba to the Caucasus? The matter is one of transfer of knowledge, ideas, and technology; it relates both aesthetics and construction.
Resumo:
The CdIn2S4 spinel semiconductor is a potential photovoltaic material due to its energy band gap and absorption properties. These optoelectronic properties can be potentiality improved by the insertion of intermediate states into the energy bandgap. We explore this possibility using M = Cr, V and Mn as an impurity. We analyze with first-principles almost all substitutions of the host atoms by M at the octahedral and tetrahedral sites in the normal and inverse spinel structures. In almost all cases, the impurities introduce deeper bands into the host energy bandgap. Depending on the site substitution, these bands are full, empty or partially-full. It increases the number of possible inter-band transitions and the possible applications in optoelectronic devices. The contribution of the impurity states to these bands and the substitutional energies indicate that these impurities are energetically favorable for some sites in the host spinel. The absorption coefficients in the independent-particle approximation show that these deeper bands open additional photon absorption channels. It could therefore increase the solar-light absorption with respect to the host.
Resumo:
“Quien contamina, paga“, con esta premisa surgió la idea de este Trabajo Fin de Máster, en adelante TFM, cuyo objetivo era identificar medidas alternativas reales para una optimización del proceso actual de gestión de residuos sólidos urbanos ante una sociedad cada vez más superpoblada y con mayores ratios de consumo. Cada español genera anualmente un volumen de 485 Kg de residuos, de los cuales únicamente el 33 % son reciclados y pueden volver a un flujo normal de uso, especialmente preocupante durante los últimos años es el auge de los productos envasados, tanto de bebidas como de alimentos , cuya utilización se ha duplicado en la última década. La motivación de este trabajo Fin de Máster ha sido la de poner de manifiesto que la sostenibilidad con el medioambiente puede ir de la mano de la rentabilidad y del progreso. Durante este TFM se ha estudiado y analizado la viabilidad económica de implantación de un nuevo modelo de depósito, devolución y retorno en el mercado retail español y como con la adopción de este nuevo sistema se pueden lograr beneficios tanto para el propio minorista, como para el medio ambiente con ratios de reciclado superiores al 98%. La preocupación por el medio ambiente empieza a ser una constante entre los consumidores españoles y dicha preocupación comienza a ser influenciadora en las decisiones de compra (productos eco, sostenibilidad…). Nuestra propuesta consiste en dotar a los principales distribuidores del sector retail español de un sistema de depósito, devolución y retorno para envases de bebidas capaz de generar diferenciación, innovación y rentabilidad frente a la competencia. Dicho sistema consiste en pagar un depósito por cada envase de bebida que se adquiera y su correspondiente devolución en la siguiente compra, una vez que se devuelva vacío al establecimiento. Para ello se ha analizado el sector de la distribución en España, especialmente la distribución de bebidas. Se trata de un sector muy competitivo, que presenta varios formatos en función del tamaño del establecimiento (Hipermercados, Supermercados, tiendas tradicionales). Las principales empresas distribuidoras (Carrefour, Mercadona, Alcampo, Eroski, DIA) se encuentran en procesos de cambios estratégicos para lograr atraer a más consumidores hacia sus tiendas, por lo que nuestra propuesta podrá añadir valor a la hora de influenciar en la decisión del lugar de compra. En nuestro caso, nos dirigiremos principalmente a las grandes empresas distribuidoras, Hipermercados de más de 2.500 m2 ,que cuentan con más de 500 puntos de venta y distribución donde existe la posibilidad real de implantar un SDDR. Además se ha realizado un estudio de mercado sobre la influencia de dicho sistema en el consumidor final, donde se ha detectado dos segmentos principales cuya decisión de compra se vería muy influenciada por la implantación de un SDDR, un segmento Sénior, entre 45-54 años, preocupados por el medio ambiente y con poder adquisitivo suficiente como para que el pago del depósito no sea bloqueante, y un segmento Junior, entre 18-24 años, también muy concienciado el medio ambiente, de capacidad económica menor pero qué influye en la decisión de compra de sus progenitores. Para llevar a cabo este plan de negocio será necesario una inversión inicial de 57.000 €, con unas expectativas de recuperación de dicha inversión en el primer año y una TIR del 56%, presentando un VAN de 127.961 € para los 7 años de vida del proyecto. Para dar a conocer a los clientes del Hipermercado los beneficios de utilizar un sistema SDDR, se realizarán campañas de marketing a través de diferentes canales, promociones de apertura, acciones de marketing exteriores y planes de fidelización. La organización e implantación en el Hipermercado será muy sencilla con roles claramente diferenciados, únicamente involucraría a unos 9 recursos definidos y en aproximadamente 3 meses desde el inicio del proyecto ya se podría ofertar dicho servicio a los clientes del Hipermercado. Además se han analizado los principales riesgos a los que se enfrentaría el negocio, ponderándose en una matriz impacto-probabilidad. Se han establecido medidas correctoras en el caso que dicho riesgo aflore. Habrá que tener especialmente precaución con la pérdida de ventas durante el arranque del negocio en el caso que esto ocurra, por lo que se deberá controlar el gasto, fomentar la captación de clientes y mantener un fondo de maniobra lo suficientemente elevado como para absorber dicho riesgo.---ABSTRACT---“Polluters pay”, with this premise this TFM aimed at identifying real alternative measures for optimization of the current process of solid waste management in a crowded society and with greater consumption ratios. Spaniards generates an annual volume of 485 kg of waste; only 33 % are recycled and can return to a normal flow. Specially concern is the increased of packaged product in recent years, mainly drink and food, their use has been duplicated in the last decade. The motivation for this Thesis was to highlight that sustainability, profitability and progress can go together. During this TFM has been studied and analyzed the economic feasibility of implementing a new model of deposit , refund and return in the Spanish retail market and as with the adoption of this new system can achieve benefits for the retailer itself therefore to the environment with ratios above 98% recycled. Concern for the environment is becoming a constant among Spanish consumers , and this concern is becoming influencer in purchasing decisions ( eco, sustainability ... ) . Our proposal is to provide the main distributors of the Spanish retail sector a system of deposit, refund and return for beverage containers capable of generating differentiation, innovation and profitability over the competition. This system is to pay a deposit for each beverage container they purchase and their corresponding return in the next purchase, once they return empty to the establishment. For this we have analyzed the distribution sector in Spain, especially the distribution of beverages. This is a highly competitive industry, which features various formats depending on the size of establishments (hypermarkets, supermarkets, traditional shops). The main distribution companies (Carrefour, Mercadona, Alcampo, Eroski, DIA) are in the process of strategic changes in order to attract more consumers to their stores, so that our approach can add value in influencing the decision of place shopping. In our case, we will go mainly to large distributors, Hypermarkets of over 2,500 m2, which have more than 500 outlets and distribution where there is a real possibility of implementing a SDDR. It has also conducted a market study on the influence of that system on the final consumer, which has detected two main segments whose purchasing decisions would be greatly influenced by the introduction of a SDDR, a Senior segment, 45-54 years concerned about the environment and purchasing power enough that the deposit is not blocking, and a Junior Segment, aged 18-24, also concern with environment, lower economic capacity but what influences the decision purchase of their parents). To carry out this business plan will require an initial investment of 57,000 €, with expectations of recovery of such investment in the first year and an IRR of 56%, with an NPV of € 127,961 for the 7 years of the project . To publicize hypermarket customers the benefits of using a SDDR system, marketing campaigns conducted through different channels, opening promotions, marketing activities and external loyalty schemes. The organization and implementation in the Hypermarket is easy with distinct roles, involve only about 9 resourced and in about 3 months from the start of the project and could offer this service to customers in the hypermarket. We have also analyzed the main risks and established corrective measures to surface that risk . We should take caution with lost sales during startup of the business, such as control spending, customer retention and maintaining enough working capital.
Resumo:
La computación ubicua está extendiendo su aplicación desde entornos específicos hacia el uso cotidiano; el Internet de las cosas (IoT, en inglés) es el ejemplo más brillante de su aplicación y de la complejidad intrínseca que tiene, en comparación con el clásico desarrollo de aplicaciones. La principal característica que diferencia la computación ubicua de los otros tipos está en como se emplea la información de contexto. Las aplicaciones clásicas no usan en absoluto la información de contexto o usan sólo una pequeña parte de ella, integrándola de una forma ad hoc con una implementación específica para la aplicación. La motivación de este tratamiento particular se tiene que buscar en la dificultad de compartir el contexto con otras aplicaciones. En realidad lo que es información de contexto depende del tipo de aplicación: por poner un ejemplo, para un editor de imágenes, la imagen es la información y sus metadatos, tales como la hora de grabación o los ajustes de la cámara, son el contexto, mientras que para el sistema de ficheros la imagen junto con los ajustes de cámara son la información, y el contexto es representado por los metadatos externos al fichero como la fecha de modificación o la de último acceso. Esto significa que es difícil compartir la información de contexto, y la presencia de un middleware de comunicación que soporte el contexto de forma explícita simplifica el desarrollo de aplicaciones para computación ubicua. Al mismo tiempo el uso del contexto no tiene que ser obligatorio, porque si no se perdería la compatibilidad con las aplicaciones que no lo usan, convirtiendo así dicho middleware en un middleware de contexto. SilboPS, que es nuestra implementación de un sistema publicador/subscriptor basado en contenido e inspirado en SIENA [11, 9], resuelve dicho problema extendiendo el paradigma con dos elementos: el Contexto y la Función de Contexto. El contexto representa la información contextual propiamente dicha del mensaje por enviar o aquella requerida por el subscriptor para recibir notificaciones, mientras la función de contexto se evalúa usando el contexto del publicador y del subscriptor. Esto permite desacoplar la lógica de gestión del contexto de aquella de la función de contexto, incrementando de esta forma la flexibilidad de la comunicación entre varias aplicaciones. De hecho, al utilizar por defecto un contexto vacío, las aplicaciones clásicas y las que manejan el contexto pueden usar el mismo SilboPS, resolviendo de esta forma la incompatibilidad entre las dos categorías. En cualquier caso la posible incompatibilidad semántica sigue existiendo ya que depende de la interpretación que cada aplicación hace de los datos y no puede ser solucionada por una tercera parte agnóstica. El entorno IoT conlleva retos no sólo de contexto, sino también de escalabilidad. La cantidad de sensores, el volumen de datos que producen y la cantidad de aplicaciones que podrían estar interesadas en manipular esos datos está en continuo aumento. Hoy en día la respuesta a esa necesidad es la computación en la nube, pero requiere que las aplicaciones sean no sólo capaces de escalar, sino de hacerlo de forma elástica [22]. Desgraciadamente no hay ninguna primitiva de sistema distribuido de slicing que soporte un particionamiento del estado interno [33] junto con un cambio en caliente, además de que los sistemas cloud actuales como OpenStack u OpenNebula no ofrecen directamente una monitorización elástica. Esto implica que hay un problema bilateral: cómo puede una aplicación escalar de forma elástica y cómo monitorizar esa aplicación para saber cuándo escalarla horizontalmente. E-SilboPS es la versión elástica de SilboPS y se adapta perfectamente como solución para el problema de monitorización, gracias al paradigma publicador/subscriptor basado en contenido y, a diferencia de otras soluciones [5], permite escalar eficientemente, para cumplir con la carga de trabajo sin sobre-provisionar o sub-provisionar recursos. Además está basado en un algoritmo recientemente diseñado que muestra como añadir elasticidad a una aplicación con distintas restricciones sobre el estado: sin estado, estado aislado con coordinación externa y estado compartido con coordinación general. Su evaluación enseña como se pueden conseguir notables speedups, siendo el nivel de red el principal factor limitante: de hecho la eficiencia calculada (ver Figura 5.8) demuestra cómo se comporta cada configuración en comparación con las adyacentes. Esto permite conocer la tendencia actual de todo el sistema, para saber si la siguiente configuración compensará el coste que tiene con la ganancia que lleva en el throughput de notificaciones. Se tiene que prestar especial atención en la evaluación de los despliegues con igual coste, para ver cuál es la mejor solución en relación a una carga de trabajo dada. Como último análisis se ha estimado el overhead introducido por las distintas configuraciones a fin de identificar el principal factor limitante del throughput. Esto ayuda a determinar la parte secuencial y el overhead de base [26] en un despliegue óptimo en comparación con uno subóptimo. Efectivamente, según el tipo de carga de trabajo, la estimación puede ser tan baja como el 10 % para un óptimo local o tan alta como el 60 %: esto ocurre cuando se despliega una configuración sobredimensionada para la carga de trabajo. Esta estimación de la métrica de Karp-Flatt es importante para el sistema de gestión porque le permite conocer en que dirección (ampliar o reducir) es necesario cambiar el despliegue para mejorar sus prestaciones, en lugar que usar simplemente una política de ampliación. ABSTRACT The application of pervasive computing is extending from field-specific to everyday use. The Internet of Things (IoT) is the shiniest example of its application and of its intrinsic complexity compared with classical application development. The main characteristic that differentiates pervasive from other forms of computing lies in the use of contextual information. Some classical applications do not use any contextual information whatsoever. Others, on the other hand, use only part of the contextual information, which is integrated in an ad hoc fashion using an application-specific implementation. This information is handled in a one-off manner because of the difficulty of sharing context across applications. As a matter of fact, the application type determines what the contextual information is. For instance, for an imaging editor, the image is the information and its meta-data, like the time of the shot or camera settings, are the context, whereas, for a file-system application, the image, including its camera settings, is the information and the meta-data external to the file, like the modification date or the last accessed timestamps, constitute the context. This means that contextual information is hard to share. A communication middleware that supports context decidedly eases application development in pervasive computing. However, the use of context should not be mandatory; otherwise, the communication middleware would be reduced to a context middleware and no longer be compatible with non-context-aware applications. SilboPS, our implementation of content-based publish/subscribe inspired by SIENA [11, 9], solves this problem by adding two new elements to the paradigm: the context and the context function. Context represents the actual contextual information specific to the message to be sent or that needs to be notified to the subscriber, whereas the context function is evaluated using the publisher’s context and the subscriber’s context to decide whether the current message and context are useful for the subscriber. In this manner, context logic management is decoupled from context management, increasing the flexibility of communication and usage across different applications. Since the default context is empty, context-aware and classical applications can use the same SilboPS, resolving the syntactic mismatch that there is between the two categories. In any case, the possible semantic mismatch is still present because it depends on how each application interprets the data, and it cannot be resolved by an agnostic third party. The IoT environment introduces not only context but scaling challenges too. The number of sensors, the volume of the data that they produce and the number of applications that could be interested in harvesting such data are growing all the time. Today’s response to the above need is cloud computing. However, cloud computing applications need to be able to scale elastically [22]. Unfortunately there is no slicing, as distributed system primitives that support internal state partitioning [33] and hot swapping and current cloud systems like OpenStack or OpenNebula do not provide elastic monitoring out of the box. This means there is a two-sided problem: 1) how to scale an application elastically and 2) how to monitor the application and know when it should scale in or out. E-SilboPS is the elastic version of SilboPS. I t is the solution for the monitoring problem thanks to its content-based publish/subscribe nature and, unlike other solutions [5], it scales efficiently so as to meet workload demand without overprovisioning or underprovisioning. Additionally, it is based on a newly designed algorithm that shows how to add elasticity in an application with different state constraints: stateless, isolated stateful with external coordination and shared stateful with general coordination. Its evaluation shows that it is able to achieve remarkable speedups where the network layer is the main limiting factor: the calculated efficiency (see Figure 5.8) shows how each configuration performs with respect to adjacent configurations. This provides insight into the actual trending of the whole system in order to predict if the next configuration would offset its cost against the resulting gain in notification throughput. Particular attention has been paid to the evaluation of same-cost deployments in order to find out which one is the best for the given workload demand. Finally, the overhead introduced by the different configurations has been estimated to identify the primary limiting factor for throughput. This helps to determine the intrinsic sequential part and base overhead [26] of an optimal versus a suboptimal deployment. Depending on the type of workload, this can be as low as 10% in a local optimum or as high as 60% when an overprovisioned configuration is deployed for a given workload demand. This Karp-Flatt metric estimation is important for system management because it indicates the direction (scale in or out) in which the deployment has to be changed in order to improve its performance instead of simply using a scale-out policy.
Resumo:
Esta investigación analiza la capacidad del urbanismo de albergar sistemas emergentes de gestión urbana. El objetivo de esta tesis es describir estos procedimientos informales, realizando un exhaustivo recorrido a través de diversas experiencias de alteración del modo de gestión urbana al uso, para dar lugar a una sistematización de estos procesos que siente las bases para plantear nuevas formas de gestión urbana. Es decir, el fin no es tanto hacer una clasificación de las intervenciones más relevantes en materia urbana, sino descubrir su estructura, un orden para el desorden, una taxonomía en esas actuaciones que permita reformular las formas actuales de gestión de lo público. Se ha tratado de dibujar un mapa de oportunidades posibles en torno a la gestión del espacio urbano. A través de los procesos estudiados, esta investigación analiza los éxitos y fracasos obtenidos en los últimos cinco años de gestión alternativa de espacios vacantes, buscando extraer formulas susceptibles de incorporarse al modo actual de hacer ciudad. Este estudio pretende abordar un aspecto parcial, aunque fundamental del urbanismo, dando prioridad a lo público, sin la intención de negar el resto de formas del espacio urbano. Se concentra en los parámetros relativos a la interpretación de lo público: desatiende al conjunto urbano para descifrar ese fragmento. Así, el interés principal de esta tesis se concentra en la producción del espacio público. Al entender este ámbito como no exclusivo del urbanismo, otras actividades como el arte, la filosofía, la antropología o la sociología han aportado aspectos fundamentales dentro de esta investigación. De esta forma se ofrece un acercamiento poliédrico desde puntos de vista interdisciplinares, tratando de descubrir con rigor las posibilidades contrastadas de mejora del espacio urbano producido por los procesos emergentes de gestión informal de lo público. Mediante un metodología creada ex profeso (una estructura definida por tres líneas estratégicas: Gobernanza, Complejidad y Cohesión Social, que se desglosan en seis conceptos clave cada una) esta investigación analiza los aspectos relativos a la producción informal del espacio público de los sistemas emergentes. En relación con la Gobernanza, una parte de esta tesis se dedica al estudio de la informalidad, la transversalidad, la apropiación, la participación, la transparencia y las redes. La Complejidad se ha estudiado en su relación con la diversidad urbana, el uso sostenible del espacio público, la reactivación, la producción de espacio público, la ecología urbana y los procesos creativos. Para Cohesión Social se ha investigado la innovación en equipamientos, los procesos bottom-up, el rizoma, la identidad, los sistemas líquidos y el empoderamiento. Esta máquina para analizar se prueba en tres soportes urbanos: la escena urbana, los edificios-contenedores y los vacíos urbanos. Se han estudiado cinco situaciones urbanas en la ciudad de Madrid, seleccionados por ser las prácticas urbanas más relevantes de los últimos cinco años. Si bien este análisis nace de estos cincos casos, el modelo podría ser útil para otras investigaciones interesadas en los aspectos informales de la gestión urbana. Esta investigación se propone reclamar otras dimensiones más innovadoras que, si bien se escapan a los modos habituales de trabajar del urbanista, se revelan intensamente en los modos actuales de reclamar y producir espacio urbano. Se ha pretendido descubrir el espacio urbano como contenedor situacional del sentido público, potencial multiplicador de efectos funcionales como la gestión, la temporalidad, la participación, la rehabilitación, la multiplicidad de usos, la corrección del compacidad; efectos perceptuales y estéticos en la escena urbana; efectos políticos, de formación, de adquisición de poder; efectos sociales como la generación de nuevas redes, la creación de identidades. Se pretende que esta investigación arroje conclusiones que puedan tener aplicabilidad en la gestión y planificación del espacio público de ciudades y entornos urbanos inmersos a procesos semejantes. ABSTRACT This research examines the ability of urban planning to accommodate emerging urban management systems. The purpose of this thesis is to describe such informal procedures, by carrying out an exhaustive review across the different approaches to urban management, in order to systematize them as the basis for new ways of urban management. The aim is not, that is, to classify relevant urban interventions, but to recognize the intrinsic structure, an order for disorder, a taxonomy in those proceedings that could help reformulating existing forms of public management. The attempt has been to draw a map of possible opportunities around the management of urban space. Through the processes that have been the object of study, this research analyzes the successes and failures over the last five years of alternative management of vacant spaces, seeking to extract formulas that are likely to join the current way of making city. The focus of this urban study is the interpretation of public concepts, considered as key dimensions, not obliterating the other forms of urban space, but trying to make an in-depth analysis of this fragment within the global urban concept. Other activities intrinsically associated to public space generation, such as art, philosophy, anthropology or even sociology, are also contributing to this research. This interdisciplinary approach tries to enrich the research by recognizing the informal elements participating in emergent public management processes. The ex profeso devised methodology is structured by three main strategies: governance, complexity and Social Cohesiveness. Governance considers elements associated to informality, transversal dynamics, appropriation, participation, transparency and networking. Complexity encompasses elements of urban diversity, sustainable usage of public space, reactivation, urban space production, urban ecology and creative processes. Social Cohesiveness includes elements for equipment innovation, bottom-up processes, rhizome, identity, liquid systems and empowerment. This analyzing machine is tested on three urban scenarios: the urban scene, container buildings and empty spaces. Five relevant urban situations in Madrid have been selected, all of them developed in last five years, thus establishing the basis for other experiences of informal urban management. The result of the research, confirms the relevance of additional dimensions to traditional approaches for urban development. The urban space is recognized as a situational container of public sense and a potential multiplier of functional effects such as public management, temporality, participation, rehabilitation, multiplicity of uses, correction of compactness; perceptual and esthetic effects on the urban scene; politic effects, training, empowerment; social effects as generating new networks and identity creation. To sum up, the purpose of this thesis is to share the conclusions obtained by evaluating reference scenarios that could be applied in similar processes for cities and urban environment management and planning.
Resumo:
Los nuevos comportamientos urbanos nos permiten observar cada vez con más frecuencia en nuestras calles y plazas realidades que siempre habíamos considerado domésticas. Al contrario también pasa, todos los días vivimos en nuestras casas situaciones que implican relacionarnos con personas que no son de nuestro núcleo familiar. El diseño doméstico de nuestras ciudades y el urbanismo del diseño de interiores parecen herramientas oportunas en el mundo que nos ha tocado vivir. Esto nos lleva a pensar que los espacios públicos y privados son términos simplificados, definidos en base a conceptos de propiedad para organizar la ciudad. En cambio, sus usos y vivencias, su gestión y sus comportamientos se han complejizado, distorsionando la terminología convencional hasta hacerla obsoleta. En este contexto, considerado también el marco socioeconómico actual, surgen las “acciones de abajo a arriba” como nuevo paradigma o modelo de renovación urbana, que entienden la involucración del ciudadano como parte activa en el proceso de construcción de la urbe desde la misma gestación del proyecto, frente a las acciones habituales que consideran al usuario como mero receptor de las propuestas. Un ciudadano que parece estar cada vez más radicalizado y una administración que parece asustarse ante el desconcierto que el acercamiento al ciudadano puede acarrear, han ocasionado por un lado, espacios “gueto” de carácter casi anárquico y, por el otro lado, lugares tan institucionalizados que derivan en espacios asociados a la administración y ajenos al ciudadano. Por ello, se considera imprescindible la colaboración entre ambos poderes. De acuerdo con el discurso que precede, dentro de un marco comparativo, se estudian 5 supuestos seleccionados de las ciudades Madrid y Zaragoza. Madrid porque es referencia nacional e internacional en el desarrollo urbano a través de procesos ‘abajo arriba’. Zaragoza porque es una ciudad ‘media’ que históricamente no se ha definido por estrategias urbanas claras, ya sean de carácter social o institucional. Sin embargo, en el momento actual se pueden identificar planteamientos relacionados con la recuperación de construcciones y espacios vacantes que pueden ser determinantes a la hora de alcanzar equilibrios con los intensos procesos institucionales acaecidos en las dos últimas décadas. De los procesos urbanos registrados en cada lugar, desarrollados en construcciones y espacios vacantes, he seleccionado: Construcciones Vacantes Madrid |Tabacalera de Lavapiés Zaragoza | Antiguo I.E.S. Luis Buñuel y antiguo Convento de Mínimos Espacios Vacantes Madrid | Campo de Cebada [solar] Zaragoza | Patio ‘antiguo I.E.S. Luis Buñuel [espacio libre] y plaza Eduardo Ibarra [espacio libre] El proyecto de investigación ha partido de las hipótesis de partida que siguen: UNA… Las ‘acciones de abajo arriba’ o renovación desde abajo no tienen cabida como elementos urbanos aislados sino conectados entre sí, posibilitando la producción de sinergias y la construcción de la ciudad; pudiendo ser consideradas acciones de desarrollo y enlace urbano, pues su objetivo es convertirse en motores del espacio público. Cuestión que es aplicable al resto de los procesos o acciones urbanas [‘horizontales’ o ‘institucionales’] DOS… La capacidad de adaptación manifestada por las ‘acciones de abajo arriba’ implica un marco ideológico de referencia asociado a la importancia de la construcción con mínimos recursos [Re-ocupación y/o Re- Construcción de estructuras urbanas en desuso] en los procesos urbanos descritos, como vía para comprender los concepto sostenibilidad y calidad figurativa de lo construido. Cuestión que es aplicable a la recuperación de aquellos aspectos de la arquitectura que la convierten en necesaria para la sociedad. Y tiene como objetivo: Identificar modelos de sostenibilidad urbana como una estrategia que va de lo individual a lo colectivo y que se transmite fundamentalmente con la acción, mezclando la innovación y la tecnología en múltiples ámbitos, utilizando los recursos naturales e intelectuales de una manera eficiente y entendiendo la inteligencia humana y sobre todo la inteligencia colectiva, como principio y justificación. Se han analizado los siguientes aspectos: sociales [participación ciudadana e implicación de la administración pública], urbanos [conexiones con otros colectivos o espacios urbanos / transformaciones urbanas a través de los procesos de gestión utilizados], constructivos [materiales utilizados en la re-construcción de construcciones y espacios vacantes / sistemas constructivos utilizados] y los relacionados con la sostenibilidad [sostenibilidad económica / sostenibilidad de mantenimiento / sostenibilidad funcional / inteligencia colectiva] El estudio de los aspectos considerados se ha desarrollado con las herramientas metodológicas siguientes: Entrevistas abiertas a expertos: se han obtenido respuestas de 25 personas expertas [5 por cada espacio o construcción vacante] relacionadas con las acciones urbanas sostenibles, la cultura y las relaciones sociales, y que también conocen los lugares y su entorno desde los puntos de vista urbano y construido. Son ‘tipos ideales’ asociados a uno de los cinco poderes que se manifiestan en la ciudad: el poder educativo [la universidad], el poder creativo [la cultura], el poder administrativo [la política], el poder empresarial [la empresa privada] y los usuarios [un usuario activo y representativo de cada lugar elegido que haya intervenido en la gestación del proceso]. Han sido personas que conocían el tejido social y urbano de la ciudad de Zaragoza y Madrid, ya que la herramienta ‘entrevista abierta a expertos’, recoge datos y opiniones planteadas en las construcciones y espacios vacantes ubicados en Zaragoza y Madrid. Entrevistas cerradas a usuarios: como la población de usuarios que se somete a la investigación es infinita o muy grande, resulta imposible o inconveniente realizar la obtención de los datos sobre todos aquellos elementos que la forman. Por lo tanto, he decidido estudiar sólo una parte de la población que denomino ‘tipos ideales’, obteniendo respuestas de 150 usuarios [30 personas por cada espacio o construcción vacante]. La selección de grupos de personas entrevistadas, debe permitir que los resultados sean representativos de la población total de usuarios. Además, la elección de ‘tipos ideales’ se ha identificado con los vecinos de los núcleos urbanos [o barrios] en los que se ubican las construcciones o espacios vacantes analizados. Observación estructurada: recoger información a través de la observación me ha permitido conocer las actuaciones y comportamientos de los ciudadanos en el medio urbano. Esto ha facilitado el estudio del medio a nivel práctico, valorando el uso que la sociedad da a las construcciones y a los espacios vacantes analizados. Es importante posicionar la estrategia en relación con el tema de investigación propuesto. Una estrategia que dibuje un panorama plural, desarrollado a través de herramientas sociales y constructivas que permitan que la arquitectura hable de cosas parecidas a lo que interesa a la ciudadanía. Para ello, propuse un catálogo de herramientas arquitectónicas que han permitido evaluar todas las propuestas. Un contexto de estrategias comunes que han descrito con los mismos códigos las distintas actuaciones analizadas. Estas herramientas tocan diferentes campos de interés. Desde las partes más tectónicas y constructivas, hasta las más ligadas con el desarrollo urbanístico y social. Acciones de participación colectiva: Experiencias o laboratorios urbanos participados por los alumnos del grado de arquitectura de la UNIZAR y los agentes sociales. Las acciones son una herramienta propositiva. Investigar y analizar proponiendo ha permitido que el análisis del contexto pueda llegar a capas de mucha más profundidad. No se ha trabajado estableciendo jerarquías de profesores y alumnos, sino que se ha intentado posibilitar la conexión de distintos agentes que trabajan coordinadamente durante el tiempo que han durado las acciones. Por un lado esto ha permite que cada integrante haya aportado al grupo lo que mejor sabe hacer y de la misma manera, que cada uno pueda aprender aquello de lo que tenga más ganas… y reflexionar sobre determinados aspectos objeto del análisis. Una vez interpretados los resultados, obtenidos a través de las herramientas metodológicas referenciadas, se ha concluido lo que sigue: Respecto de la Hipótesis de partida UNO LAS ACCIONES ‘ABAJO ARRIBA’ han revelado que no se puede entender ningún proceso de gestión urbana fuera de la participación ciudadana. El ‘ESPACIO LIBRE’ de una ciudad necesita lugares de autogestión, espacios de cogestión, movimientos de ‘arriba abajo’ y también modelos que todavía no sabemos ni que existen. LAS ACCIONES INSTITUCIONALES ‘ARRIBA ABAJO’ han demostrado que no han presentado permeabilidad ni relación con las circulaciones de entorno. Tampoco han tenido en cuenta a otras muchas personas, ‘usuarios productores’, a las que les interesan los procesos de búsqueda y las fórmulas de conexión más interactivas. Respecto de la hipótesis de partida DOS LAS ACCIONES ‘ABAJO ARRIBA’ han revelado que el ‘derecho a la ciudad’, paradigma defendido por Lefebvre desde el cual se piensa el urbanismo ciudadano, en estos supuestos podría entenderse como el ‘derecho a la infraestructura’. El ESPACIO LIBRE es infraestructura y se quiere para infraestructurar los derechos de cada uno. Y aunque también es verdad que estas acciones son simples destellos, han hecho visible otro paradigma de gestión y propuesta urbana que puede ser predominante en un futuro próximo. LAS ACCIONES INSTITUCIONALES ‘ARRIBA ABAJO’ han revelado que las intervenciones estuvieron enfocadas únicamente a la resolución de los procesos constructivos y a la incorporación del programa como un dato ‘problema’ que era necesario resolver para evitar la afección al diseño. ABSTRACT The new urban ways of behaviour let us watch more and more frequently in our streets and squares, realities that we had always considered as domestic. This also happens the other way round. Every day we have to go through situations at home which imply relationships with people who don’t belong to our family circle. The domestic design of our cities and the urban planning of indoor design seem to be adequate tools in the world we have to live in. This leads us to think that public and private spaces are simplified terms, defined according to concepts of property in order to organise the city. On the other hand, its uses and the experiences of people, its management and ways of behaviour is now more complex, changing the conventional terminology that has become outdated. In this context, ‘bottom-up’ actions arise as a new paradigm or model of urban renewal. These actions consider the active role of social participation in the process of building up the city from the very beginning, in comparison with the former way of acting that considered the user as mere receptor of the proposals. A citizen who seems to become more and more radical, and an administration that seems to be afraid of the unknown, have created both almost anarchic ghetto spaces and, on the other hand, spaces which have been so institutionalised that derive into areas associated to the administration but alienated from the citizen. For this reason, cowork of both forces is considered as crucial. In accordance with the above mentioned ideas and within a comparative framework, five situations chosen from the cities of Madrid and Zaragoza are studied. Madrid because is a national and international reference in urban development that uses “bottom-up” processes. Zaragoza because is a “medium-size” city that, historically, has not been defined by clear social or institutional urban strategies. Nevertheless, at the present time we can identify approaches on the recovery of constructions and empty areas that may be determining for reaching a balance with the intense institutional processes that have taken place in the two last decades. From the urban processes registered in every place and developed in vacant areas and constructions, I have chosen: Vacant constructions Madrid | Lavapiés Tobacco Factory Zaragoza | Old Secondary School Luis Buñuel and old Convent of the Minimos Vacant areas Madrid | Campo de Cebada [non-built site]. Zaragoza | Old courtyard of the secondary school and Eduardo Ibarra square [free space] The research project has been issued from the following starting hypotheses: ONE… “Bottom-up actions” or renewal from below have no place as isolated urban elements but as connected parts that can produce synergies and the construction of the city, and that can also be considered as actions producing urban development and links. This can also be applied to the rest of urban processes or actions [‘horizontal’ or ‘institutional’]. TWO… The capacity of adaptation shown by “bottom-up actions” implies an ideological framework of reference which is related to the importance of construction with minimal resources (re-occupation and/or reconstruction of urban structures in disuse) in the above mentioned urban processes, as a way for understanding the concepts of sustainability and the representational quality of what has been constructed. This can also be applied to the recovery of those architectural aspects that make architecture necessary for society. And its objective is: Identify models of urban sustainability as a strategy going from the individual to the collective, which are mainly transferred by action and that mix innovation and technology in many fields. Models that use natural and intellectual resources in an efficient way, and understand human intelligence and, above all, collective intelligence, as principle and justification. The following aspects have been analysed: social [civic participation and involvement of the public Administration], urban [connections with other collectives or urban spaces / urban transformation by the processes of administration used], constructive [materials used for the re-construction of empty spaces / construction systems used] and those focusing on sustainability [economic sustainability /maintenance sustainability /functional sustainability / collective intelligence]. For researching into the above mentioned aspects, the following methodological tools have been developed: Open interviews with experts: answers from 25 experts have been obtained [five for every vacant space or empty construction] on sustainable urban actions, culture and social relations, who also know the places and their environment from an urban and constructive point of view. These are “ideal types” linked to one of the five powers acting in the city: the educational power [University], the creative power [culture], the administration power [politics], the corporate power [private companies] and the users [an active and representative user for every place selected during the establishment of the process]. They were people who knew the social and urban fabric of Zaragoza and Madrid, since the “open interview for experts” tool collects data and points of view set out in vacant constructions and spaces of Zaragoza and Madrid. Close interviews with users: as the number of users targeted for the research is very big or infinite, it is impossible or inconvenient to get data from all its constituent parts. Therefore, I have decided to research into the part of the population that I call “ideal types”, obtaining answers from 150 users [30 people for every empty space or construction]. The selection of the groups of people interviewed must produce results which are representative of the total population of users. Furthermore, the election of “ideal types” has been identified with the inhabitants of urban areas [or city districts] in which the vacant spaces or constructions analysed are located. A structured observation: I have known the actions and ways of behaving of the citizens in the urban environment by means of collecting information after observation. Therefore, the practical research into the target environment has been easier by valuing the use that society gives to the empty constructions and spaces analysed. It is important to position the strategy with respect to the research subject proposed. It involves a strategy able to get an overview of a plural landscape, developed by social and constructive tools, allowing architecture to talk about topics which are interesting for city dwellers. Therefore, I proposed a set of architectural tools to evaluate all the proposals. A context of common strategies describing the different actions analysed by using the same codes. These tools focus on different fields of interests, from the most tectonic and constructive parts, to the most related to urban and social development. Actions on collective participation: experiences or urban laboratories shared by the students of architecture of the University of Zaragoza and social agents. The actions are a proactive tool. Researching and analysing by means of proposing, has allowed me to analyse the context and much deeper layers. This work has not been done by establishing ranks of professors and student, but trying to get an interaction between the different agents who work in close coordination during the implementation of the actions. This has allowed every agent to contribute the group what they do the best, and also every individual has had the possibility to learn what s/he prefers…, thinking about the different aspects targeted by the analysis. Once the different methodological tools have been interpreted, this is the conclusion: With regard to the initial hypothesis ONE “BOTTOM-UP” ACTIONS have proven that no process of urban management can be understood outside civic participation. The “FREE SPACE” of a city needs self-managed places, co-managed spaces, “up-bottom” movements, and also models whose existence is still ignored. “UP-BOTTOM” INSTITUTIONAL ACTIONS have proven that they have not presented neither permeability nor relation with local ideas. They have also disregarded many other people, the “usersproducers”, who are interested in the most interactive means of searching and connecting processes. With regard to the initial hypothesis TWO Under these premises, “BOTTOM-UP” ACTIONS have shown that the “right to the city”, a paradigm defended by Lefebvre and from which citizen-focused urbanism is conceived, could be considered as a “right to the infrastructures”. A FREE SPACE is an infrastructure and must be used to “infrastructure” the rights of every citizen. And, even though it is true that these actions are mere flashes, they have made visible another paradigm of management and urban proposal that can be prevailing in a near future. “UP-BOTTOM” INSTITUTIONAL ACTIONS have revealed that the interventions have only focused on resolving construction processes and the incorporation of the program as a “problem” data that was necessary to resolve in order to avoid its influence on the design.
Resumo:
El vínculo de Mies van der Rohe con la simetría es un invariante que se intuye en toda su obra más allá de su pretendida invisibilidad. Partiendo del proyecto moderno como proceso paradójico, que Mies lo expresa en sus conocidos aforismos, como el célebre “menos es más”, la tesis pretende ser una aproximación a este concepto clave de la arquitectura a través de una de sus obras más importantes: el Pabellón Alemán para la Exposición Universal de 1.929 en Barcelona. Ejemplo de planta asimétrica según Bruno Zevi y un “auténtico caballo de Troya cargado de simetrías” como lo definió Robin Evans. El Pabellón representó para la modernidad, la culminación de una década que cambió radicalmente la visión de la arquitectura hasta ese momento, gracias al carácter inclusivo de lo paradójico y las innumerables conexiones que hubo entre distintas disciplinas, tan antagónicas, como el arte y la ciencia. De esta última, se propone una definición ampliada de la simetría como principio de equivalencia entre elementos desde la invariancia. En esta definición se incorpora el sentido recogido por Lederman como “expresión de igualdad”, así como el planteado por Hermann Weyl en su libro Simetría como “invariancia de una configuración bajo un grupo de automorfismos” (libro que Mies tenía en su biblioteca privada). Precisamente para Weyl, el espacio vacío tiene un alto grado de simetría. “Cada punto es igual que los otros, y en ninguno hay diferencias intrínsecas entre las diversas direcciones." A partir de este nuevo significado, la obra de Mies adquiere otro sentido encaminado a la materialización de ese espacio, que él pretendía que “reflejase” el espíritu de la época y cuya génesis se postula en el Teorema de Noether que establece que “por cada simetría continua de las leyes físicas ha de existir una ley de conservación”. Estas simetrías continúas son las simetrías invisibles del espacio vacío que se desvelan “aparentemente” como oposición a las estructuras de orden de las simetrías de la materia, de lo lleno, pero que participan de la misma lógica aporética miesiana, de considerarlo otro material, y que se definen como: (i)limitado, (in)grávido, (in)acabado e (in)material. Finalmente, una paradoja más: El “espacio universal” que buscó Mies, no lo encontró en América sino en este pabellón. Como bien lo han intuido arquitectos contemporáneos como Kazuyo Sejima + Ryue Nishizawa (SANAA) legítimos herederos del maestro alemán. ABSTRACT The relationship between Mies van der Rohe with the symmetry is an invariant which is intuited in his entire work beyond his intentional invisibility. Based on the modern project as a paradoxical process, which Mies expresses in his aphorisms know as the famous “less is more”, the thesis is intended to approach this key concept in architecture through one of his most important works: The German Pavilion for the World Expo in 1929 in Barcelona, an example of asymmetric floor according to Bruno Zevi and a “real Trojan horse loaded with symmetries”. As defined by Robin Evans. For modernity, this Pavilion represented the culmination of a decade which radically changed the vision of architecture so far, thanks to the inclusive character of the paradoxical and the innumerable connections that there were amongst the different disciplines, as antagonistic as Art and Science. Of the latter, an expanded definition of symmetry is proposed as the principle of equivalence between elements from the invariance. Incorporated into this definition is the sense defined by Leterman as “expression of equality,” like the one proposed by Hermann Weyl in his book Symmetry as “configuration invariance under a group of automorphisms” (a book which Mies had in his private library). Precisely for Weyl, the empty space has a high degree of symmetry. “Each point is equal to the other, and in none are there intrinsic differences among the diverse directions.” Based on this new meaning, Mies’ work acquires another meaning approaching the materialization of that space, which he intended to “reflect” the spirit of the time and whose genesis is postulated in the Noether’s theorem which establishes that “for every continuous symmetry of physical laws, there must be a law of conservation.” These continuous symmetries are the invisible empty space symmetries which reveal themselves “apparently” as opposition to the structures of matter symmetries, of those which are full, but which participate in the same Mies aporetic logic, if deemed other material, and which is defined as (un)limited, weight(less), (un)finished and (im)material. Finally, one more paradox: the “universal space” which Mies search for, he did not find it in America, but at this pavilion, just as the contemporary architects like Kazuyo Sejima + Ryue Nishizawa (SANAA) rightfully intuited, as legitimate heirs of the German master.
Resumo:
Este trabajo se centra en el estudio de las investigaciones de Jorge Oteiza en torno a la funcionalidad estética del espacio, en especial, en la actividad artística que desarrolló en el año 1958, un año decisivo en la vida del escultor en el que dio por finalizado su proceso de experimentación sobre la naturaleza espacial de la estatua. En este desenlace tuvo un papel fundamental la relación funcional que planteó, a la hora de retomar su trabajo después de su triunfo en la IV Bienal de São Paulo de 1957, entre la escultura y la arquitectura. La primera, entendida como organismo puramente espacial, debía de responder a las condiciones de su mundo circundante, el espacio arquitectónico. Su función: acondicionarlo estéticamente para satisfacer las necesidades espirituales del habitante. Siguiendo el canon estético que para la escultura acababa de anunciar en Brasil, la desocupación espacial (la liberación de la energía espacial de la estatua, el rompimiento de la neutralidad del espacio libre) no se trataba de embellecer superficialmente la arquitectura sino de activar su vacío interior. Oteiza, que siempre estuvo muy interesado por la arquitectura y que había colaborado con anterioridad en numerosas ocasiones con los mejores arquitectos del país, fue durante este año cuando profundizó de manera más sistemática (teórica y prácticamente) sobre la relación arte-arquitectura. De hecho, él mismo nombraba como el último trabajo de su línea de experimentación en escultura a su propuesta para el concurso del Monumento a José Batlle en Montevideo, que junto al arquitecto Roberto Puig acabaron a finales de año. En el proyecto se planteaba a escala urbana, y como ejemplo concreto, el modelo teórico de integración arquitectura + (arte=0) que había elaborado los meses anteriores, la integración vacía. En el texto explicativo que acompañaba al proyecto (un texto que desbordaba los límites de una memoria al uso) demandaba la necesidad de la toma de conciencia estética del espacio, como acto de libertad individual, y declaraba el fin del rol de espectador del hombre frente a la obra de arte, reclamando su participación activa en la misma. Para él, la noción del espacio estético no era una condición innata en el hombre, se descubría, se aprendía, evolucionaba y se olvidaba (una vez convertido en hábito). Frente a la ceguera de la sensibilidad espacial del hombre, proponía la educación de la percepción espacial, condicionar emocionalmente la reflexión espontánea ante el juego espacial de las formas en la naturaleza y el espectáculo natural de la ciudad. Aprender a leer el lenguaje emocional del espacio, a pensar visualmente. La obra de arte era así un catalizador espiritual del contorno del mundo, modificador de la vida espacial circundante que corregía hábitos visuales y condicionaba estímulos y reflejos. Desde una resonancia afectiva con la definición psicológica del término (como energía psíquica profunda que invita o incita a pasar a la acción), a diferencia del instinto, la pulsión (siendo la fuente de toda conducta espontánea) es susceptible de ser modificada por la experiencia, por la educación, por la cultura, por el deseo. Es desde esta aproximación en términos de energía desde la que se propone la noción pulsiones del espacio como fórmula (reversible) entre la energía espacial liberada en el proceso de desocupación definido por Oteiza y caracterizadora de la obra como vacío activo (en escultura, en arquitectura), y la energía psíquica profunda que invita o incita a la toma de posesión del espacio (la voluntad espacial absoluta con la que Oteiza definía su modelo de arte=0, cero como expresión formal). Si el hombre modifica su entorno al mismo tiempo que es condicionado por él, es indispensable una conciencia estética del espacio que le enseñe, de entre todas las posibilidades que este le ofrece, qué es lo que necesita (qué es lo que le falta), para tomar posesión de él, para un efectivo ser o existir en el espacio. Es desde esta caracterización como energía por lo que las pulsiones del espacio se sitúan entre el hombre y su entorno (construido) y permiten la transformación entre energía espacial y energía psíquica; entre su hábitat y sus hábitos. Por estas mismas fechas, Oteiza definía una casa como un conjunto articulado de vacíos activos, como una obra de plástica pura que no es arte sino en función del habitante. Es este habitante, educado en la toma de conciencia estética del espacio, el que participando activamente en la interpretación de los espacios previstos por el arquitecto, sintiendo y movido por las pulsiones del espacio, hará uso adecuado de la arquitectura; pasando de un arte como objeto a un arte como comportamiento, transformará su habitar en un arte, el arte de habitar. ABSTRACT This work focuses on the study of Jorge Oteiza’s investigations on the aesthetic functionality of space, especially on his artistic activity developed in 1958, a decisive year in the life of the sculptor, in which he gave end to his process of experimentation on the spatial nature of the statue. In this outcome it was fundamental the functional relationship that he propounded, at the time of returning to work after his triumph in the IV Bienal de São Paulo in 1957, between sculpture and architecture. The first, understood as a purely spatial organism, should respond to the conditions of its environment (umwelt), the architectonic space. Its function: set it up aesthetically to meet the spiritual needs of the inhabitant. Following the aesthetic canon that he had just announced in Brazil for sculpture, the spatial disoccupation (the liberation of the spatial energy of the statue, the breaking of the neutrality of the free space) the aim was not to superficially beautify architecture but to activate its inner void. Oteiza, who had always been very interested in architecture and who had previously collaborated on numerous occasions with the best architects in the country, was in this year when he deepened in a more systematic way (theoretically and practically) about the art-architecture relationship. In fact, he named as the last work of his line of experimentation in sculpture to his proposal for the competition of the Monument to José Batlle in Montevideo, which, developed together with the architect Roberto Puig, was ended at the end of the year. The project proposed on an urban scale, and as a concrete example, the theoretical model of integration architecture + (art = 0) which he had elaborated the previous months, the empty integration. In the explanatory text accompanying the project (a text that exceeded the normal extents of a competition statement) he demanded the need of the aesthetic awareness of space, as an act of individual freedom, and it declared the end of the role of man as passive spectator in front of the work of art, claiming his actively participation in it. For him, the notion of the aesthetic space was not an inborn condition in man; first it was discovered, then learned, evolved and finally forgotten (once converted into a habit). To counteract blindness of the spatial sensitivity of man, he proposed the education of spatial perception, to emotionally influence the spontaneous reflection in front of the spatial game of forms in nature and the natural spectacle of the city. Learn to read the emotional language of space, to think visually. The work of art was thus a spiritual catalyst of the world’s contour, a modifier of the surrounding spatial life that corrected visual habits and conditioned stimuli and reflexes. From an emotional resonance with the psychological definition of the term (such as deep psychic power that invites or urges action), as opposed to instinct, drive (being the source of all spontaneous behavior) is likely to be modified by experience, by education, by culture, by desire. It is from this approach in terms of energy from which the notion drives of space is proposed, as a (reversible) formula between the spatial energy released in the process of disoccupation defined by Oteiza and characterizing of the work as a charged void (in sculpture, in architecture), and the deep psychic energy that invites or encourages the taking possession of the space (the absolute spatial will with which Oteiza defined its model of Art = 0, zero as a formal expression). If man changes his environment at the same time that is conditioned by it, it is essential an aesthetic awareness of space that shows him, among all the possibilities that it offers, what he needs (what is what he lacks), in order to take possession of it, for an effective being or existing in space. It is this characterization as energy by what drives of space lie between man and his (built) environment and allow the transformation between spatial and psychological energy; between his habitat and his habits. Around this same time, Oteiza defined a House as an articulated set of charged voids, as a work of pure plastic that is not art but according to the inhabitant. It is this inhabitant, educated in aesthetic awareness of space, who actively participating in the interpretation of the spaces provided by the architect, feeling and moved by the drives of the space, will make proper use of the architecture; from an art as object to an art as behavior, he will transform his inhabitation into an art, the art of inhabitation.
Resumo:
El legado de una época, una situación social y unos criterios arquitectónicos, aparecen recogidos en el conjunto de edificios y en la trama urbana, de los pueblos de colonización de La Bazana y Valuengo (Jerez de los Caballeros, Badajoz, 1954), proyectados por Alejandro de la Sota durante la etapa en la que trabajó de forma externa para el Instituto Nacional de Colonización (INC). Al inicio de esta investigación no se habían realizado análisis en profundidad ni valoraciones críticas de su arquitectura, ni eran objeto de estudio en los ambientes universitarios, siendo prácticamente desconocidos para el conjunto de la profesión, que solía tomar como referencia de esta etapa de la arquitectura de Alejandro de la Sota para el INC, el poblado de Esquivel, en Sevilla, profusamente publicitado. Aunque en los últimos tiempos se han elaborado tesis en las Escuelas de Arquitectura abordando el tema de la colonización agraria en España en la década de los 50, los poblados de colonización en Extremadura o la arquitectura de Alejandro de la Sota para el INC, la presente tesis se aleja de la visión global unificadora o biográfica, para centrarse en el estudio monográfico de un objeto arquitectónico singular. El trabajo pretende documentar, estudiar, analizar y poner en valor, estas obras enclavadas en la arquitectura española de la década de los 50, denominados por su propio autor como “pueblos todo de plazas”, donde la arquitectura surge como respuesta a una realidad territorial, social y cultural, y a unas estrictas imposiciones prefijadas, que se resuelven teniendo como punto de partida las condiciones materiales y culturales del lugar en el que se ubican, para concluir planteando interpretaciones y lecturas que incorporan la tradición, pero que trascienden a ella. La metodología empleada consiste en un trabajo de documentación y análisis del objeto arquitectónico en tres fases: proyecto, obra construida y estado actual. En cada una de las fases se realiza un trabajo de campo consistente en la recopilación de la documentación original y en la elaboración de una nueva documentación gráfica, en base a los estudios y análisis realizados. El cotejo entre los datos obtenidos de los proyectos, las obras inicialmente construidas y el estado actual, darán como resultado un material de análisis inédito, que junto con la bibliografía incluida en el trabajo y los anexos que contienen la documentación original recabada sobre las obras en los organismos e instituciones que la custodian, ofrecen una interpretación más precisa de la realidad arquitectónica de estos pueblos, dejando el estudio abierto a nuevas vías de investigación que profundicen en la hipótesis del espacio vacío como organizador y colonizador del paisaje. ABSTRACT The legacy of an age, a social situation and a group of architectural criteria, appears reflected in the group of buildings and the urban design of colonization villages La Bazana and Valuengo (Jerez de los Caballeros, Badajoz, 1954), designed by Alejandro de la Sota during the time that he was working externally to the National Institute of Colonization(INC). At the beginning of this investigation they had not been analyzed or critically evaluated in depth and not even were being studied in university circles and for this reason were practically unknown to the profession, who used as a reference of this architecture period of Alejandro de la Sota for the INC, the colonization village of Esquivel in Seville, widely publicized. Although recently some doctoral thesis have been elaborated in the Architecture Schools about the topic of rural colonization in Spain in the 50s, the colonization villages in Extremadura or the architecture by Alejandro de la Sota for the INC, this thesis wants to get away from unifying or biographical overview, in order to centre the study about a singular architectural object. The work expects to document, study, analyze and push the value of this architectural pieces nestled in the Spanish architecture of 50s,and that were named by their author as “squares-villages”, where the architecture appears like answer to a territorial, social and culture reality, and a strict program impositions by the INC, which are solved by the architect taking as a starting point the material and cultural conditions from the place where are situated, to conclude with a interpretations and readings which incorporate the tradition and transcend it. The methodology used consists in documenting and analyzing work about the architectonic object in three stages: project, building and present state. In every stage, we make a field work in order to compile the original documents and at the same time a new graphical documentation is developed with the studies and analysis that were made before. The information about the projects, the architecture built at the beginning of the process, and the current state were compared and achieved an unpublished material which together with the bibliography and original documents, collected in the organizations and institutions that guard them, offer a more accurate interpretation about the architectural reality of these villages, leaving the study open for a new research which could go into detail about the hypothesis of urban empty space as element for colonize and organize the landscape.
Resumo:
The presence of an ovulation-inducing factor (OIF) in the seminal plasma (SP) of several species with spontaneous and induced ovulation, including the rabbit, has been documented. Recent studies have demonstrated that the OIF in the SP of camels (SPCAM) is a nerve growth factor (β-NGF). The aim of this study was to determine if purified β-NGF from mouse submandibular glands or SPCAM could provoke ovulation induction in the rabbit doe. A total of 35 females were synchronized with 25 IU of equine chorionic gonadotropin (Serigan, Laboratorios Ovejero, Spain) and allocated into 4 groups. Forty-eight hours later (Day 0), does were given a single dose (IM) of 1 mL of saline solution (SS; n = 8); 1 mL of gonadorelin (GnRH; Inducel, Laboratorios Ovejero, Spain; n = 9); 24 µg of β-NGF (2.5S-NGF; Promega, USA; n = 10); or 1 mL of centrifuged raw camel SP (SPCAM; 127 pg mL–1 NGF; n = 8). After treatment, an empty catheter was introduced through the vagina to simulate the nervous/mechanical stimulus of coitus (4 animals per group). Plasma LH concentrations were determined in blood samples taken 30 min before treatment and at 0, 30, 60, 90, and 120 min after injection. Progesterone concentrations were assessed at 0 and 120 min and every 2 days until Day 6 after treatment. Concentrations of β-NGF in camel SP and hormone determinations were made by enzyme immunoassay. Ovulation rate (OR) was determined after euthanasia on Day 7.