29 resultados para Naci?n
em Universidad Politécnica de Madrid
Resumo:
La experiencia de la ciudad de Friburgo destaca, además de porque lleva décadas gobernada por Los Verdes, y por una gran socialización de las energías renovables, por acoger una experiencia muy innovadora de regeneración urbana: el proceso del ecobarrio Vauban. En 1993 un grupo de jóvenes okupó unos antiguos cuarteles de la OTAN. Tras un proceso de negociación con el Ayuntamiento, obtuvieron permiso para permanecer en algunas de las naves. De esa iniciativa nació SUSI, una cooperativa autogestionada de vivienda para jóvenes y personas con bajos ingresos, así como espacios para iniciativas sociales. El proyecto de la Administración local era demoler el resto para reedificar un nuevo barrio. Distintos activistas del ecologismo y del movimiento antinuclear plantearon y lograron poner en marcha una alternativa al proyecto oficial a través de una asociación ciudadana, Forum Vauban, que ha logrado participar en el proceso de renovación del resto del barrio y dinamizar un intenso proceso de participación ciudadana orientado a convertir el futuro barrio en un asentamiento lo más ecológico posible.
Resumo:
La presente tesis doctoral trata sobre el contenido de dos antiguas valijas de viaje. En su interior se encontró una serie de documentos originales, pertenecientes al arquitecto Julio Agustín Vilamajó Echaniz, quien nació en Montevideo en 1894 y murió con apenas 53 años, luego de una reconocida y rica trayectoria profesional y docente. Destacado y admirado en su país, Vilamajó alcanzó prestigio internacional luego de haber sido designado para integrar el equipo consultor proyectista de la Sede de las Naciones Unidas en Nueva York. El contenido de sus valijas -legado entregado a la Facultad de Arquitectura 63 años después de su muerte- se constituye en la fuente primaria de esta investigación y en el motivo principal de la misma: la tesis intentará comprender su valor instrumental como representación de la práctica proyectual de Vilamajó, y del hombre-arquitecto mismo. Los registros encontrados en las Valijas son íntimos, y a la vez constituyen en su conjunto un patrimonio que se transmite a nuestras generaciones: ellos dan cuenta de una práctica proyectual prolífica y compleja, que nos permitirá percibir procedimientos intrínsecos a la disciplina. Indagar, buscar con ansiedad y curiosidad al interior de este ámbito cerrado y disperso de información, nos pone en condiciones inmejorables de realizar hallazgos: dibujos, cartas, fotografías o anotaciones que se destacan del resto, asoman del conjunto y reclaman ser puestos en un lugar de privilegio para la investigación. Estos hallazgos son considerados como detonantes en el sentido de su calidad de suceso sorpresivo; como tal, cada uno se convierte en desencadenante de una línea de investigación parcial dentro del marco de la tesis. La sorpresa es generada por anomalía o por novedad, y determina la duda sobre un evento conocido o sobre una creencia colectiva relativa a Vilamajó. Esa duda deberá apaciguarse a través de la observación y la indagación de elementos asociados -internos o externos a las Valijas-, buscando encontrar una posible explicación que responda a la incertidumbre generada. Las líneas de investigación desencadenadas por los detonantes refieren a proyectos, obras o eventos en la vida de Vilamajó, y su desenlace nos permitirá alcanzar nuevos conocimientos sobre el pensamiento y la práctica proyectual del arquitecto: el Almacén Anexo a la Confitería La Americana; su anteproyecto para el concurso del Palacio Legislativo de Quito; la beca de estudio a Europa por la obtención del Gran Premio y la influencia de España; las obras en Villa Serrana; su participación en el grupo consultor para el proyecto de la Sede de las Naciones Unidas en Nueva York; las influencias de Le Corbusier; la obra conjunta con el escultor Antonio Pena; su incursión en la tecnología de la prefabricación; el proyecto para su propia vivienda; los estudios urbanos para Punta del Este; las reproducciones de sus espacios imaginarios; y su afición a los dibujos animados. Luego de realizar un proceso de agrupamiento de la información en capítulos vinculados a los detonantes, y de incorporar los hallazgos al conocimiento existente de las prácticas proyectuales y la obra de Vilamajó, estaremos construyendo un nuevo contexto sintético, y procediendo a componer, desde los caminos proyectuales desarrollados, un nuevo todo: la figura renovada de Vilamajó. Este proceso permitirá comprender con mayor exactitud cuáles fueron los procedimientos que guiaron a Vilamajó en su práctica proyectual, en qué soporte ideológico y teórico se basó al momento de hacer arquitectura, y finalmente, a modo de síntesis, profundizar en la forma de operar de un arquitecto de principios del siglo XX. De cada una de las indagaciones detonadas por los documentos sorpresivos podemos alcanzar algunas explicaciones que incorporan nuevos conocimientos o nuevas lecturas a lo ya conocido, a manera de caminos que nos llevan -en primer lugar- a reconocer y resaltar aspectos parciales de la producción proyectual de Vilamajó, y -al mismo tiempo- a percibir entramados de una actividad de condición compleja. Vilamajó actuó en un momento histórico que transcurrió entre la práctica de la composición como forma de acceder a un producto unitario y el proyecto moderno como una vía hacia una realidad mucho mejor para el ser humano. El arquitecto Vilamajó nos deja su visión del proceder en la disciplina, constituyéndose en un verdadero relato de la práctica arquitectónica, donde la prefiguración de los espacios y las formas es a la vez específica y universal. Las Valijas se constituyen así en su legado, recibido en un momento de la disciplina donde todo se expande, se extiende, se hace más complejo y a la vez más atractivo e incierto, y donde las certezas parecen haberse desvanecido.
Resumo:
Classical imaging optics has been developed over centuries in many areas, such as its paraxial imaging theory and practical design methods like multi-parametric optimization techniques. Although these imaging optical design methods can provide elegant solutions to many traditional optical problems, there are more and more new design problems, like solar concentrator, illumination system, ultra-compact camera, etc., that require maximum energy transfer efficiency, or ultra-compact optical structure. These problems do not have simple solutions from classical imaging design methods, because not only paraxial rays, but also non-paraxial rays should be well considered in the design process. Non-imaging optics is a newly developed optical discipline, which does not aim to form images, but to maximize energy transfer efficiency. One important concept developed from non-imaging optics is the “edge-ray principle”, which states that the energy flow contained in a bundle of rays will be transferred to the target, if all its edge rays are transferred to the target. Based on that concept, many CPC solar concentrators have been developed with efficiency close to the thermodynamic limit. When more than one bundle of edge-rays needs to be considered in the design, one way to obtain solutions is to use SMS method. SMS stands for Simultaneous Multiple Surface, which means several optical surfaces are constructed simultaneously. The SMS method was developed as a design method in Non-imaging optics during the 90s. The method can be considered as an extension to the Cartesian Oval calculation. In the traditional Cartesian Oval calculation, one optical surface is built to transform an input wave-front to an out-put wave-front. The SMS method however, is dedicated to solve more than 1 wave-fronts transformation problem. In the beginning, only 2 input wave-fronts and 2 output wave-fronts transformation problem was considered in the SMS design process for rotational optical systems or free-form optical systems. Usually “SMS 2D” method stands for the SMS procedure developed for rotational optical system, and “SMS 3D” method for the procedure for free-form optical system. Although the SMS method was originally employed in non-imaging optical system designs, it has been found during this thesis that with the improved capability to design more surfaces and control more input and output wave-fronts, the SMS method can also be applied to imaging system designs and possesses great advantage over traditional design methods. In this thesis, one of the main goals to achieve is to further develop the existing SMS-2D method to design with more surfaces and improve the stability of the SMS-2D and SMS-3D algorithms, so that further optimization process can be combined with SMS algorithms. The benefits of SMS plus optimization strategy over traditional optimization strategy will be explained in details for both rotational and free-form imaging optical system designs. Another main goal is to develop novel design concepts and methods suitable for challenging non-imaging applications, e.g. solar concentrator and solar tracker. This thesis comprises 9 chapters and can be grouped into two parts: the first part (chapter 2-5) contains research works in the imaging field, and the second part (chapter 6-8) contains works in the non-imaging field. In the first chapter, an introduction to basic imaging and non-imaging design concepts and theories is given. Chapter 2 presents a basic SMS-2D imaging design procedure using meridian rays. In this chapter, we will set the imaging design problem from the SMS point of view, and try to solve the problem numerically. The stability of this SMS-2D design procedure will also be discussed. The design concepts and procedures developed in this chapter lay the path for further improvement. Chapter 3 presents two improved SMS 3 surfaces’ design procedures using meridian rays (SMS-3M) and skew rays (SMS-1M2S) respectively. The major improvement has been made to the central segments selections, so that the whole SMS procedures become more stable compared to procedures described in Chapter 2. Since these two algorithms represent two types of phase space sampling, their image forming capabilities are compared in a simple objective design. Chapter 4 deals with an ultra-compact SWIR camera design with the SMS-3M method. The difficulties in this wide band camera design is how to maintain high image quality meanwhile reduce the overall system length. This interesting camera design provides a playground for the classical design method and SMS design methods. We will show designs and optical performance from both classical design method and the SMS design method. Tolerance study is also given as the end of the chapter. Chapter 5 develops a two-stage SMS-3D based optimization strategy for a 2 freeform mirrors imaging system. In the first optimization phase, the SMS-3D method is integrated into the optimization process to construct the two mirrors in an accurate way, drastically reducing the unknown parameters to only few system configuration parameters. In the second optimization phase, previous optimized mirrors are parameterized into Qbfs type polynomials and set up in code V. Code V optimization results demonstrates the effectiveness of this design strategy in this 2-mirror system design. Chapter 6 shows an etendue-squeezing condenser optics, which were prepared for the 2010 IODC illumination contest. This interesting design employs many non-imaging techniques such as the SMS method, etendue-squeezing tessellation, and groove surface design. This device has theoretical efficiency limit as high as 91.9%. Chapter 7 presents a freeform mirror-type solar concentrator with uniform irradiance on the solar cell. Traditional parabolic mirror concentrator has many drawbacks like hot-pot irradiance on the center of the cell, insufficient use of active cell area due to its rotational irradiance pattern and small acceptance angle. In order to conquer these limitations, a novel irradiance homogenization concept is developed, which lead to a free-form mirror design. Simulation results show that the free-form mirror reflector has rectangular irradiance pattern, uniform irradiance distribution and large acceptance angle, which confirm the viability of the design concept. Chapter 8 presents a novel beam-steering array optics design strategy. The goal of the design is to track large angle parallel rays by only moving optical arrays laterally, and convert it to small angle parallel output rays. The design concept is developed as an extended SMS method. Potential applications of this beam-steering device are: skylights to provide steerable natural illumination, building integrated CPV systems, and steerable LED illumination. Conclusion and future lines of work are given in Chapter 9. Resumen La óptica de formación de imagen clásica se ha ido desarrollando durante siglos, dando lugar tanto a la teoría de óptica paraxial y los métodos de diseño prácticos como a técnicas de optimización multiparamétricas. Aunque estos métodos de diseño óptico para formación de imagen puede aportar soluciones elegantes a muchos problemas convencionales, siguen apareciendo nuevos problemas de diseño óptico, concentradores solares, sistemas de iluminación, cámaras ultracompactas, etc. que requieren máxima transferencia de energía o dimensiones ultracompactas. Este tipo de problemas no se pueden resolver fácilmente con métodos clásicos de diseño porque durante el proceso de diseño no solamente se deben considerar los rayos paraxiales sino también los rayos no paraxiales. La óptica anidólica o no formadora de imagen es una disciplina que ha evolucionado en gran medida recientemente. Su objetivo no es formar imagen, es maximazar la eficiencia de transferencia de energía. Un concepto importante de la óptica anidólica son los “rayos marginales”, que se pueden utilizar para el diseño de sistemas ya que si todos los rayos marginales llegan a nuestra área del receptor, todos los rayos interiores también llegarán al receptor. Haciendo uso de este principio, se han diseñado muchos concentradores solares que funcionan cerca del límite teórico que marca la termodinámica. Cuando consideramos más de un haz de rayos marginales en nuestro diseño, una posible solución es usar el método SMS (Simultaneous Multiple Surface), el cuál diseña simultáneamente varias superficies ópticas. El SMS nació como un método de diseño para óptica anidólica durante los años 90. El método puede ser considerado como una extensión del cálculo del óvalo cartesiano. En el método del óvalo cartesiano convencional, se calcula una superficie para transformar un frente de onda entrante a otro frente de onda saliente. El método SMS permite transformar varios frentes de onda de entrada en frentes de onda de salida. Inicialmente, sólo era posible transformar dos frentes de onda con dos superficies con simetría de rotación y sin simetría de rotación, pero esta limitación ha sido superada recientemente. Nos referimos a “SMS 2D” como el método orientado a construir superficies con simetría de rotación y llamamos “SMS 3D” al método para construir superficies sin simetría de rotación o free-form. Aunque el método originalmente fue aplicado en el diseño de sistemas anidólicos, se ha observado que gracias a su capacidad para diseñar más superficies y controlar más frentes de onda de entrada y de salida, el SMS también es posible aplicarlo a sistemas de formación de imagen proporcionando una gran ventaja sobre los métodos de diseño tradicionales. Uno de los principales objetivos de la presente tesis es extender el método SMS-2D para permitir el diseño de sistemas con mayor número de superficies y mejorar la estabilidad de los algoritmos del SMS-2D y SMS-3D, haciendo posible combinar la optimización con los algoritmos. Los beneficios de combinar SMS y optimización comparado con el proceso de optimización tradicional se explican en detalle para sistemas con simetría de rotación y sin simetría de rotación. Otro objetivo importante de la tesis es el desarrollo de nuevos conceptos de diseño y nuevos métodos en el área de la concentración solar fotovoltaica. La tesis está estructurada en 9 capítulos que están agrupados en dos partes: la primera de ellas (capítulos 2-5) se centra en la óptica formadora de imagen mientras que en la segunda parte (capítulos 6-8) se presenta el trabajo del área de la óptica anidólica. El primer capítulo consta de una breve introducción de los conceptos básicos de la óptica anidólica y la óptica en formación de imagen. El capítulo 2 describe un proceso de diseño SMS-2D sencillo basado en los rayos meridianos. En este capítulo se presenta el problema de diseñar un sistema formador de imagen desde el punto de vista del SMS y se intenta obtener una solución de manera numérica. La estabilidad de este proceso se analiza con detalle. Los conceptos de diseño y los algoritmos desarrollados en este capítulo sientan la base sobre la cual se realizarán mejoras. El capítulo 3 presenta dos procedimientos para el diseño de un sistema con 3 superficies SMS, el primero basado en rayos meridianos (SMS-3M) y el segundo basado en rayos oblicuos (SMS-1M2S). La mejora más destacable recae en la selección de los segmentos centrales, que hacen más estable todo el proceso de diseño comparado con el presentado en el capítulo 2. Estos dos algoritmos representan dos tipos de muestreo del espacio de fases, su capacidad para formar imagen se compara diseñando un objetivo simple con cada uno de ellos. En el capítulo 4 se presenta un diseño ultra-compacto de una cámara SWIR diseñada usando el método SMS-3M. La dificultad del diseño de esta cámara de espectro ancho radica en mantener una alta calidad de imagen y al mismo tiempo reducir drásticamente sus dimensiones. Esta cámara es muy interesante para comparar el método de diseño clásico y el método de SMS. En este capítulo se presentan ambos diseños y se analizan sus características ópticas. En el capítulo 5 se describe la estrategia de optimización basada en el método SMS-3D. El método SMS-3D calcula las superficies ópticas de manera precisa, dejando sólo unos pocos parámetros libres para decidir la configuración del sistema. Modificando el valor de estos parámetros se genera cada vez mediante SMS-3D un sistema completo diferente. La optimización se lleva a cabo variando los mencionados parámetros y analizando el sistema generado. Los resultados muestran que esta estrategia de diseño es muy eficaz y eficiente para un sistema formado por dos espejos. En el capítulo 6 se describe un sistema de compresión de la Etendue, que fue presentado en el concurso de iluminación del IODC en 2010. Este interesante diseño hace uso de técnicas propias de la óptica anidólica, como el método SMS, el teselado de las lentes y el diseño mediante grooves. Este dispositivo tiene un límite teórica en la eficiencia del 91.9%. El capítulo 7 presenta un concentrador solar basado en un espejo free-form con irradiancia uniforme sobre la célula. Los concentradores parabólicos tienen numerosas desventajas como los puntos calientes en la zona central de la célula, uso no eficiente del área de la célula al ser ésta cuadrada y además tienen ángulos de aceptancia de reducido. Para poder superar estas limitaciones se propone un novedoso concepto de homogeneización de la irrandancia que se materializa en un diseño con espejo free-form. El análisis mediante simulación demuestra que la irradiancia es homogénea en una región rectangular y con mayor ángulo de aceptancia, lo que confirma la viabilidad del concepto de diseño. En el capítulo 8 se presenta un novedoso concepto para el diseño de sistemas afocales dinámicos. El objetivo del diseño es realizar un sistema cuyo haz de rayos de entrada pueda llegar con ángulos entre ±45º mientras que el haz de rayos a la salida sea siempre perpendicular al sistema, variando únicamente la posición de los elementos ópticos lateralmente. Las aplicaciones potenciales de este dispositivo son varias: tragaluces que proporcionan iluminación natural, sistemas de concentración fotovoltaica integrados en los edificios o iluminación direccionable con LEDs. Finalmente, el último capítulo contiene las conclusiones y las líneas de investigación futura.
Resumo:
Germination of macroconidia and/or microconidia of 24 strains of Fusarium solani, F. chlamydosporum, F. culmorum, F. equiseti, F. verticillioides, F. sambucinum, F. oxysporum and F. proliferatum isolated from fluvial channels and sea beds of the south-eastern coast of Spain, and three control strains (F. oxysporum isolated from affected cultures) was studied in distilled water in response to a range of water potentials adjusted with NaCI. (0, -13.79, -41.79, -70.37, -99.56 and -144.54 bars). The vialibility (UFC/ml) of suspension was also tested in three time periods (0,24 and 48h). Conidia always germinated in distilled water. The pattern of conidial germination obseved of F. verticillioides, F. oxysporum, F. proliferatum, F. chlamydosporum and F. culmorum was similar. A great diminution of spore germination was found in -13.79 bars solutions. Spore germination percentage for F. solani isolates was maximal at 48 h. and -13.79 bars with 21.33% spore germination, 16% higher than germination in distilled water. F. equiseti shows the maximum germination percentage in -144.54 bars solution in 24 h time with 12.36% germination. These results did not agree with those obtained in the viability test where maximum germination was found in distilled water. The viability analysis showed the great capacity of F. verticilloides strains to form viable colonies, even in such extreme conditions as -144,54 bars after 24 h F. proliferatum colony formation was prevented in the range of -70.37 bars. These results show the clear affectation of water potential to conidia germination of Fusaria. The ability of certain species of Fusarium to develop a saprophytic life in the salt water of the Mediterraneam Sea could be certain. Successful germination, even under high salty media conditions, suggests taht Fusarium spp. could have a competitive advantage over other soil fungi in crops irrigated with saline water. In the specific case of F. solani, water potential of -13.79 bars affected germination positively. It could indicate that F. solani has an special physiological mechanism of survival in low water potential environments.
Resumo:
La evolución de la maquinaria agrícola en el siglo XX ha sido tan espectacular que, de los tres grandes avances habidos a lo largo de la historia de la maquinaria agrícola, dos de ellos podemos considerar que marcan el comienzo y el fin del siglo XX. El primer avance fundamental se dio el día en que el hombre que removía la tierra golpeándola con una herramienta tipo azada decidió avanzar con ella introducida en el suelo venciendo la fuerza de tiro. Nació así el arado en un tiempo indeterminado de la prehistoria. Esa primera máquina y las pocas que en muchos siglos después se diseñaron para trabajar la tierra estaban accionadas por esfuerzo muscular, ya fuera el del hombre o de los animales de tiro. El siguiente paso decisivo, que libra al hombre de la necesidad de contar con fuerza muscular para trabajar el campo, se dio al aplicar a la agricultura la energía generada por motores que consumen combustibles. Aunque a lo largo del siglo XIX se construyeron máquinas de vapor estacionarias denominadas locomóviles que, mediante un juego de cables y poleas, conseguían tirar de los arados, su uso fue escaso y los agricultores no se libraron de seguir con su collera de muías o yunta de bueyes. Sin embargo, la construcción del primer tractor con motor de combustión interna, debida a Froelich en 1892, marca el inicio de la actual tractorización. A partir de ese momento, tanto el tamaño de las máquinas como el de la superficie trabajada por un agricultor pueden crecer, porque es la energía desarrollada por un motor la que realiza los esfuerzos necesarios. Esta fecha de 1892 podemos considerarla el inicio del siglo XX en maquinaria agrícola. Por último, en época reciente estamos asistiendo al empleo de dispositivos electrónicos e informáticos en las máquinas, los cuales miden diversas variables relativas al trabajo que desarrolla, guardan la información en registros e, incluso, deciden cómo debe comandarse la máquina. No sólo estamos liberados de realizar esfuerzos, sino también de mantener toda nuestra atención en el trabajo y tomar decisiones en función de las características del terreno, cultivo, etc. Estas técnicas, que a nivel de investigación y prototipo existen desde los años 90, marcan el inicio del siglo XXI en el que es de esperar que se difundan. Por tanto, ya tenemos encuadrado el siglo XX como el periodo comprendido desde que el esfuerzo para trabajar la tierra deja de ser muscular hasta que el cerebro que toma las decisiones podrá dejar de ser humano.
Resumo:
The Top-Hat hot electron light emission and lasing in semiconductor heterostructure (HELLISH)-vertical cavity semiconductor optical amplifier (VCSOA) is a modified version of a HELLISH-VCSOA device. It has a shorter p-channel and longer n-channel. The device studied in this work consists of a simple GaAs p-i-n junction, containing 11 Ga0.35In0.65 N0.02As0.08/GaAs multiple quantum wells in its intrinsic region; the active region is enclosed between six pairs of GaAs/AlAs top distributed Bragg reflector (DBR) mirrors and 20.5 pairs of AlAs/GaAs bottom DBR mirrors. The operation of the device is based on longitudinal current transport parallel to the layers of the GaAs p-n junction. The device is characterised through I-V-L and by spectral photoluminescence, electroluminescence and electro-photoluminescence measurements. An amplification of about 25 dB is observed at applied voltages of around V = 88 V.
Resumo:
El consumo mundial ha crecido y sigue creciendo, pese a la crisis actual, convirtiéndose en un impulsor del desarrollo de los pueblos. Este crecimiento, basado más en un consumismo sin sentido, que en un consumo responsable, no es igual para todos, ya que los efectos del consumo están siendo perniciosos en los países más pobres (Sur) y están ocasionando mayores diferencias con los países ricos (Norte). Ante esta situación, la sociedad en su conjunto debe tomar medidas, y estas medidas, siempre impulsadas por la Administración y por las instituciones públicas y privadas, solo surtirán efecto, si los consumidores, quienes deciden qué y dónde comprar, se responsabilizan y, en base a un mayor conocimiento de las relaciones comerciales, optan por consumir y usar productos elaborados bajo unos criterios de justicia, solidaridad y equidad en países del sur. Para lograr estas metas nació en los años cuarenta el movimiento de Comercio Justo en Estados Unidos y en los sesenta en Europa (UK-Holanda) definido en la Resolución del Parlamento Europeo sobre Comercio Justo y Desarrollo (2005/2245 (INI) como ?una asociación comercial que se basa en el diálogo, la transparencia y el respeto; que busca incrementar la equidad en el comercio internacional. Contribuye al desarrollo sostenible ofreciendo mejores condiciones comerciales y garantizando el cumplimiento de los derechos de productores y trabajadores marginados, especialmente en el Sur?. Con el objetivo de analizar esta situación, y para en función de los resultados obtenidos, establecer una serie de criterios que permitan, por una parte, un mayor conocimiento y afianzamiento de este movimiento como alternativa socioeconómica en los países más desfavorecidos y, por otra, una mayor promoción y consumo de los productos del comercio justo, hemos realizado durante los meses de Febrero-Marzo-Abril de 2011 un trabajo de campo sobre una población de 5.456 individuos, a través de una encuesta online. De los 5.456 cuestionarios enviados se han recibido 731 (13,4 % de respuesta), lo que supondría un error teórico muestral del 3,6 % (para p = q = 50 % y un nivel de confianza del 95 %). De los resultados obtenidos destacar que el 95,6 % de los encuestados coinciden en que para ellos el Comercio Justo es un movimiento social que tiene como uno de sus principales objetivos ?ayudar? a los países del Sur, y que el objetivo del Comercio Justo es, que les permita vivir de una forma digna a través de la comercialización de sus productos. Por otra parte, el 93,7 % de los encuestados consideran que no se comunican bien los objetivos del Comercio Justo entre los potenciales consumidores de estos productos, que no se promocionan y que son poco accesibles al consumidor.
Resumo:
Es conocido el papel que desempeñó la revista Arquitectura en la difusión en España de las diferentes manifestaciones de la arquitectura moderna. Sus páginas recogen obras de los más conocidos arquitectos: Breuer, Brinkman, Van der Vlugt, De Klerk, Dudok, Gropius, Le Corbusier, Mendelsohn, Meyer, Mies van der Rohe, Oud, Poelzig, Rietveld, Scharoun, Stam, Taut, Tessenow, Van Doesburg, Van Eesteren? Algunas de estas obras hoy son cánones reconocidos por la historiografía, pero casi desconocidas para la mayoría de los arquitectos españoles hasta que Arquitectura no las publicara. En esa labor informativa es justo reconocer la figura de Mercadal, totalmente imbuido por la novedosa plasticidad de las imágenes de Le Corbusier, Gropius, Mies, De Stijl..., que difundía en Arquitectura. La búsqueda de una imagen de múltiples rostros: Art Déco, Mendelsohn, Wright, Cubismo, Le Corbusier, De Stijl, Bauhaus..., fue una constante para él y para muchos arquitectos españoles de los años veinte y treinta, que acabó en moda lo mismo que para sus mayores los estilos precedentes. Del historicismo barroco, plateresco o mudéjar, se pasó al sincretismo moderno con esos idiomas a su disposición. El racionalismo, sinónimo de la vanguardia, que nació con vocación antiestilística, terminó por ser un estilo internacional. De esta forma, los arquetipos de la arquitectura moderna en muchos casos se trivializaron, convirtiéndose en meras recetas. Hacer un elenco de esos arquetipos y analizar como los aplicaron los arquitectos españoles ?casi siempre superficialmente y sin el menor análisis conceptual? es el objetivo que pretendemos. Las imágenes más impactantes desde el punto de vista plástico, formaron como un catálogo para los arquitectos que querían estar a la moda y hacer lo que se estilaba: terrazas planas, pilotes, ventanas corridas, imágenes de arquitectura naval, etc.; pero también para los estudiantes de arquitectura siempre ávidos de novedades y prestos al consumo de nuevas imágenes. Fueron pocas las excepciones entre los arquitectos con oficio que supieron adaptar esas influencias a una arquitectura de calidad. En este escenario Mercadal representa la búsqueda incansable de una imagen moderna; Gutiérrez Soto, la práctica permeable a todas las influencias; el Capitol de Feduchi y Eced, la mejor interpretación del expresionismo mendelsohniano; Fernández-Shaw, la vanguardista vital; Aizpurúa, la esperanza trágicamente frustrada; y el GATEPAC, lo más ?corbusierano?.
Resumo:
Resumen El diseño de sistemas ópticos, entendido como un arte por algunos, como una ciencia por otros, se ha realizado durante siglos. Desde los egipcios hasta nuestros días los sistemas de formación de imagen han ido evolucionando así como las técnicas de diseño asociadas. Sin embargo ha sido en los últimos 50 años cuando las técnicas de diseño han experimentado su mayor desarrollo y evolución, debido, en parte, a la aparición de nuevas técnicas de fabricación y al desarrollo de ordenadores cada vez más potentes que han permitido el cálculo y análisis del trazado de rayos a través de los sistemas ópticos de forma rápida y eficiente. Esto ha propiciado que el diseño de sistemas ópticos evolucione desde los diseños desarrollados únicamente a partir de la óptica paraxial hasta lo modernos diseños realizados mediante la utilización de diferentes técnicas de optimización multiparamétrica. El principal problema con el que se encuentra el diseñador es que las diferentes técnicas de optimización necesitan partir de un diseño inicial el cual puede fijar las posibles soluciones. Dicho de otra forma, si el punto de inicio está lejos del mínimo global, o diseño óptimo para las condiciones establecidas, el diseño final puede ser un mínimo local cerca del punto de inicio y lejos del mínimo global. Este tipo de problemática ha llevado al desarrollo de sistemas globales de optimización que cada vez sean menos sensibles al punto de inicio de la optimización. Aunque si bien es cierto que es posible obtener buenos diseños a partir de este tipo de técnicas, se requiere de muchos intentos hasta llegar a la solución deseada, habiendo un entorno de incertidumbre durante todo el proceso, puesto que no está asegurado el que se llegue a la solución óptima. El método de las Superficies Múltiples Simultaneas (SMS), que nació como una herramienta de cálculo de concentradores anidólicos, se ha demostrado como una herramienta también capaz utilizarse para el diseño de sistemas ópticos formadores de imagen, aunque hasta la fecha se ha utilizado para el diseño puntual de sistemas de formación de imagen. Esta tesis tiene por objeto presentar el SMS como un método que puede ser utilizado de forma general para el diseño de cualquier sistema óptico de focal fija o v afocal con un aumento definido así como una herramienta que puede industrializarse para ayudar al diseñador a afrontar de forma sencilla el diseño de sistemas ópticos complejos. Esta tesis está estructurada en cinco capítulos: El capítulo 1, es un capítulo de fundamentos donde se presentan los conceptos fundamentales necesarios para que el lector, aunque no posea una gran base en óptica formadora de imagen, pueda entender los planteamientos y resultados que se presentan en el resto de capítulos El capitulo 2 aborda el problema de la optimización de sistemas ópticos, donde se presenta el método SMS como una herramienta idónea para obtener un punto de partida para el proceso de optimización. Mediante un ejemplo aplicado se demuestra la importancia del punto de partida utilizado en la solución final encontrada. Además en este capítulo se presentan diferentes técnicas que permiten la interpolación y optimización de las superficies obtenidas a partir de la aplicación del SMS. Aunque en esta tesis se trabajará únicamente utilizando el SMS2D, se presenta además un método para la interpolación y optimización de las nubes de puntos obtenidas a partir del SMS3D basado en funciones de base radial (RBF). En el capítulo 3 se presenta el diseño, fabricación y medidas de un objetivo catadióptrico panorámico diseñado para trabajar en la banda del infrarrojo lejano (8-12 μm) para aplicaciones de vigilancia perimetral. El objetivo presentado se diseña utilizando el método SMS para tres frentes de onda de entrada utilizando cuatro superficies. La potencia del método de diseño utilizado se hace evidente en la sencillez con la que este complejo sistema se diseña. Las imágenes presentadas demuestran cómo el prototipo desarrollado cumple a la perfección su propósito. El capítulo 4 aborda el problema del diseño de sistemas ópticos ultra compactos, se introduce el concepto de sistemas multicanal, como aquellos sistemas ópticos compuestos por una serie de canales que trabajan en paralelo. Este tipo de sistemas resultan particularmente idóneos para él diseño de sistemas afocales. Se presentan estrategias de diseño para sistemas multicanal tanto monocromáticos como policromáticos. Utilizando la novedosa técnica de diseño que en este capítulo se presenta el diseño de un telescopio de seis aumentos y medio. En el capítulo 5 se presenta una generalización del método SMS para rayos meridianos. En este capítulo se presenta el algoritmo que debe utilizarse para el diseño de cualquier sistema óptico de focal fija. La denominada optimización fase 1 se vi introduce en el algoritmo presentado de forma que mediante el cambio de las condiciones iníciales del diseño SMS que, aunque el diseño se realice para rayos meridianos, los rayos skew tengan un comportamiento similar. Para probar la potencia del algoritmo desarrollado se presenta un conjunto de diseños con diferente número de superficies. La estabilidad y potencia del algoritmo se hace evidente al conseguirse por primera vez el diseño de un sistema de seis superficies diseñado por SMS. vii Abstract The design of optical systems, considered an art by some and a science by others, has been developed for centuries. Imaging optical systems have been evolving since Ancient Egyptian times, as have design techniques. Nevertheless, the most important developments in design techniques have taken place over the past 50 years, in part due to the advances in manufacturing techniques and the development of increasingly powerful computers, which have enabled the fast and efficient calculation and analysis of ray tracing through optical systems. This has led to the design of optical systems evolving from designs developed solely from paraxial optics to modern designs created by using different multiparametric optimization techniques. The main problem the designer faces is that the different optimization techniques require an initial design which can set possible solutions as a starting point. In other words, if the starting point is far from the global minimum or optimal design for the set conditions, the final design may be a local minimum close to the starting point and far from the global minimum. This type of problem has led to the development of global optimization systems which are increasingly less sensitive to the starting point of the optimization process. Even though it is possible to obtain good designs from these types of techniques, many attempts are necessary to reach the desired solution. This is because of the uncertain environment due to the fact that there is no guarantee that the optimal solution will be obtained. The Simultaneous Multiple Surfaces (SMS) method, designed as a tool to calculate anidolic concentrators, has also proved useful for the design of image-forming optical systems, although until now it has occasionally been used for the design of imaging systems. This thesis aims to present the SMS method as a technique that can be used in general for the design of any optical system, whether with a fixed focal or an afocal with a defined magnification, and also as a tool that can be commercialized to help designers in the design of complex optical systems. The thesis is divided into five chapters. Chapter 1 establishes the basics by presenting the fundamental concepts which the reader needs to acquire, even if he/she doesn‟t have extensive knowledge in the field viii of image-forming optics, in order to understand the steps taken and the results obtained in the following chapters. Chapter 2 addresses the problem of optimizing optical systems. Here the SMS method is presented as an ideal tool to obtain a starting point for the optimization process. The importance of the starting point for the final solution is demonstrated through an example. Additionally, this chapter introduces various techniques for the interpolation and optimization of the surfaces obtained through the application of the SMS method. Even though in this thesis only the SMS2D method is used, we present a method for the interpolation and optimization of clouds of points obtained though the SMS3D method, based on radial basis functions (RBF). Chapter 3 presents the design, manufacturing and measurement processes of a catadioptric panoramic lens designed to work in the Long Wavelength Infrared (LWIR) (8-12 microns) for perimeter surveillance applications. The lens presented is designed by using the SMS method for three input wavefronts using four surfaces. The powerfulness of the design method used is revealed through the ease with which this complex system is designed. The images presented show how the prototype perfectly fulfills its purpose. Chapter 4 addresses the problem of designing ultra-compact optical systems. The concept of multi-channel systems, such as optical systems composed of a series of channels that work in parallel, is introduced. Such systems are especially suitable for the design of afocal systems. We present design strategies for multichannel systems, both monochromatic and polychromatic. A telescope designed with a magnification of six-and-a-half through the innovative technique exposed in this chapter is presented. Chapter 5 presents a generalization of the SMS method for meridian rays. The algorithm to be used for the design of any fixed focal optics is revealed. The optimization known as phase 1 optimization is inserted into the algorithm so that, by changing the initial conditions of the SMS design, the skew rays have a similar behavior, despite the design being carried out for meridian rays. To test the power of the developed algorithm, a set of designs with a different number of surfaces is presented. The stability and strength of the algorithm become apparent when the first design of a system with six surfaces if obtained through the SMS method.
Resumo:
“Por lo tanto, la cristalización de polímeros se supone, y en las teorías se describe a menudo, como un proceso de múltiples pasos con muchos aspectos físico-químicos y estructurales influyendo en él. Debido a la propia estructura de la cadena, es fácil entender que un proceso que es termodinámicamente forzado a aumentar su ordenamiento local, se vea obstaculizado geométricamente y, por tanto, no puede conducirse a un estado de equilibrio final. Como resultado, se forman habitualmente estructuras de no equilibrio con diferentes características dependiendo de la temperatura, presión, cizallamiento y otros parámetros físico-químicos del sistema”. Estas palabras, pronunciadas recientemente por el profesor Bernhard Wunderlich, uno de los mas relevantes fisico-quimicos que han abordado en las ultimas décadas el estudio del estado físico de las macromoléculas, adelantan lo que de alguna manera se explicita en esta memoria y constituyen el “leitmotiv” de este trabajo de tesis. El mecanismo de la cristalización de polímeros esta aun bajo debate en la comunidad de la física de polímeros y la mayoría de los abordajes experimentales se explican a través de la teoría LH. Esta teoría clásica debida a Lauritzen y Hoffman (LH), y que es una generalización de la teoría de cristalización de una molécula pequeña desde la fase de vapor, describe satisfactoriamente muchas observaciones experimentales aunque esta lejos de explicar el complejo fenómeno de la cristalización de polímeros. De hecho, la formulación original de esta teoría en el National Bureau of Standards, a comienzos de la década de los 70, sufrió varias reformulaciones importantes a lo largo de la década de los 80, buscando su adaptación a los hallazgos experimentales. Así nació el régimen III de cristalización que posibilita la creacion de nichos moleculares en la superficie y que dio pie al paradigma ofrecido por Sadler y col., para justificar los experimentos que se obtenian por “scattering” de neutrones y otras técnicas como la técnica de “droplets” o enfriamiento rapido. Por encima de todo, el gran éxito de la teoría radica en que explica la dependencia inversa entre el tamaño del plegado molecular y el subenfriamiento, definido este ultimo como el intervalo de temperatura que media entre la temperatura de equilibrio y la temperatura de cristalización. El problema concreto que aborda esta tesis es el estudio de los procesos de ordenamiento de poliolefinas con distinto grado de ramificacion mediante simulaciones numéricas. Los copolimeros estudiados en esta tesis se consideran materiales modelo de gran homogeneidad molecular desde el punto de vista de la distribución de tamaños y de ramificaciones en la cadena polimérica. Se eligieron estas poliolefinas debido al gran interes experimental en conocer el cambio en las propiedades fisicas de los materiales dependiendo del tipo y cantidad de comonomero utilizado. Además, son modelos sobre los que existen una ingente cantidad de información experimental, que es algo que preocupa siempre al crear una realidad virtual como es la simulación. La experiencia en el grupo Biophym es que los resultados de simulación deben de tener siempre un correlato mas o menos próximo experimental y ese argumento se maneja a lo largo de esta memoria. Empíricamente, se conoce muy bien que las propiedades físicas de las poliolefinas, en suma dependen del tipo y de la cantidad de ramificaciones que presenta el material polimérico. Sin embargo, tal como se ha explicado no existen modelos teóricos adecuados que expliquen los mecanismos subyacentes de los efectos de las ramas. La memoria de este trabajo es amplia por la complejidad del tema. Se inicia con una extensa introducción sobre los conceptos básicos de una macromolecula que son relevantes para entender el contenido del resto de la memoria. Se definen los conceptos de macromolecula flexible, distribuciones y momentos, y su comportamiento en disolución y fundido con los correspondientes parametros caracteristicos. Se pone especial énfasis en el concepto de “entanglement” o enmaranamiento por considerarse clave a la hora de tratar macromoléculas con una longitud superior a la longitud critica de enmaranamiento. Finaliza esta introducción con una reseña sobre el estado del arte en la simulación de los procesos de cristalización. En un segundo capitulo del trabajo se expone detalladamente la metodología usada en cada grupo de casos. En el primer capitulo de resultados, se discuten los estudios de simulación en disolución diluida para sistemas lineales y ramificados de cadena única. Este caso mas simple depende claramente del potencial de torsión elegido tal como se discute a lo largo del texto. La formación de los núcleos “babys” propuestos por Muthukumar parece que son consecuencia del potencial de torsión, ya que este facilita los estados de torsión mas estables. Así que se propone el análisis de otros potenciales que son igualmente utilizados y los resultados obtenidos sobre la cristalización, discutidos en consecuencia. Seguidamente, en un segundo capitulo de resultados se estudian moleculas de alcanos de cadena larga lineales y ramificados en un fundido por simulaciones atomisticas como un modelo de polietileno. Los resultados atomisticos pese a ser de gran detalle no logran captar en su totalidad los efectos experimentales que se observan en los fundidos subenfriados en su etapa previa al estado ordenado. Por esta razon se discuten en los capítulos 3 y 4 de resultados sistemas de cadenas cortas y largas utilizando dos modelos de grano grueso (CG-PVA y CG-PE). El modelo CG-PE se desarrollo durante la tesis. El uso de modelos de grano grueso garantiza una mayor eficiencia computacional con respecto a los modelos atomísticos y son suficientes para mostrar los fenómenos a la escala relevante para la cristalización. En todos estos estudios mencionados se sigue la evolución de los procesos de ordenamiento y de fusión en simulaciones de relajación isoterma y no isoterma. Como resultado de los modelos de simulación, se han evaluado distintas propiedades fisicas como la longitud de segmento ordenado, la cristalinidad, temperaturas de fusion/cristalizacion, etc., lo que permite una comparación con los resultados experimentales. Se demuestra claramente que los sistemas ramificados retrasan y dificultan el orden de la cadena polimérica y por tanto, las regiones cristalinas ordenadas decrecen al crecer las ramas. Como una conclusión general parece mostrarse una tendencia a la formación de estructuras localmente ordenadas que crecen como bloques para completar el espacio de cristalización que puede alcanzarse a una temperatura y a una escala de tiempo determinada. Finalmente hay que señalar que los efectos observados, estan en concordancia con otros resultados tanto teoricos/simulacion como experimentales discutidos a lo largo de esta memoria. Su resumen se muestra en un capitulo de conclusiones y líneas futuras de investigación que se abren como consecuencia de esta memoria. Hay que mencionar que el ritmo de investigación se ha acentuado notablemente en el ultimo ano de trabajo, en parte debido a las ventajas notables obtenidas por el uso de la metodología de grano grueso que pese a ser muy importante para esta memoria no repercute fácilmente en trabajos publicables. Todo ello justifica que gran parte de los resultados esten en fase de publicación. Abstract “Polymer crystallization is therefore assumed, and in theories often described, to be a multi step process with many influencing aspects. Because of the chain structure, it is easy to understand that a process which is thermodynamically forced to increase local ordering but is geometrically hindered cannot proceed into a final equilibrium state. As a result, nonequilibrium structures with different characteristics are usually formed, which depend on temperature, pressure, shearing and other parameters”. These words, recently written by Professor Bernhard Wunderlich, one of the most prominent researchers in polymer physics, put somehow in value the "leitmotiv "of this thesis. The crystallization mechanism of polymers is still under debate in the physics community and most of the experimental findings are still explained by invoking the LH theory. This classical theory, which was initially formulated by Lauritzen and Hoffman (LH), is indeed a generalization of the crystallization theory for small molecules from the vapor phase. Even though it describes satisfactorily many experimental observations, it is far from explaining the complex phenomenon of polymer crystallization. This theory was firstly devised in the early 70s at the National Bureau of Standards. It was successively reformulated along the 80s to fit the experimental findings. Thus, the crystallization regime III was introduced into the theory in order to explain the results found in neutron scattering, droplet or quenching experiments. This concept defines the roughness of the crystallization surface leading to the paradigm proposed by Sadler et al. The great success of this theory is the ability to explain the inverse dependence of the molecular folding size on the supercooling, the latter defined as the temperature interval between the equilibrium temperature and the crystallization temperature. The main scope of this thesis is the study of ordering processes in polyolefins with different degree of branching by using computer simulations. The copolymers studied along this work are considered materials of high molecular homogeneity, from the point of view of both size and branching distributions of the polymer chain. These polyolefins were selected due to the great interest to understand their structure– property relationships. It is important to note that there is a vast amount of experimental data concerning these materials, which is essential to create a virtual reality as is the simulation. The Biophym research group has a wide experience in the correlation between simulation data and experimental results, being this idea highly alive along this work. Empirically, it is well-known that the physical properties of the polyolefins depend on the type and amount of branches presented in the polymeric material. However, there are not suitable models to explain the underlying mechanisms associated to branching. This report is extensive due to the complexity of the topic under study. It begins with a general introduction to the basics concepts of macromolecular physics. This chapter is relevant to understand the content of the present document. Some concepts are defined along this section, among others the flexibility of macromolecules, size distributions and moments, and the behavior in solution and melt along with their corresponding characteristic parameters. Special emphasis is placed on the concept of "entanglement" which is a key item when dealing with macromolecules having a molecular size greater than the critical entanglement length. The introduction finishes with a review of the state of art on the simulation of crystallization processes. The second chapter of the thesis describes, in detail, the computational methodology used in each study. In the first results section, we discuss the simulation studies in dilute solution for linear and short chain branched single chain models. The simplest case is clearly dependent on the selected torsion potential as it is discussed throughout the text. For example, the formation of baby nuclei proposed by Mutukhumar seems to result from the effects of the torsion potential. Thus, we propose the analysis of other torsion potentials that are also used by other research groups. The results obtained on crystallization processes are accordingly discussed. Then, in a second results section, we study linear and branched long-chain alkane molecules in a melt by atomistic simulations as a polyethylene-like model. In spite of the great detail given by atomistic simulations, they are not able to fully capture the experimental facts observed in supercooled melts, in particular the pre-ordered states. For this reason, we discuss short and long chains systems using two coarse-grained models (CG-PVA and CG-PE) in section 3 and 4 of chapter 2. The CG-PE model was developed during the thesis. The use of coarse-grained models ensures greater computational efficiency with respect to atomistic models and is enough to show the relevant scale phenomena for crystallization. In all the analysis we follow the evolution of the ordering and melting processes by both isothermal and non isothermal simulations. During this thesis we have obtained different physical properties such as stem length, crystallinity, melting/crystallization temperatures, and so on. We show that branches in the chains cause a delay in the crystallization and hinder the ordering of the polymer chain. Therefore, crystalline regions decrease in size as branching increases. As a general conclusion, it seems that there is a tendency in the macromolecular systems to form ordered structures, which can grown locally as blocks, occupying the crystallization space at a given temperature and time scale. Finally it should be noted that the observed effects are consistent with both, other theoretical/simulation and experimental results. The summary is provided in the conclusions chapter along with future research lines that open as result of this report. It should be mentioned that the research work has speeded up markedly in the last year, in part because of the remarkable benefits obtained by the use of coarse-grained methodology that despite being very important for this thesis work, is not easily publishable by itself. All this justify that most of the results are still in the publication phase.
Resumo:
El premio Nobel Herbert Simon en un ensayo de 1969, definía la ingeniería como la ciencia de lo artificial, cosa que treinta años antes ya estaba contenida an la "Meditación de la Técnica" de Ortega. Simon explica también que la tarea de la ingeniería es cómo diseñar y fabricar artefactos que tengan ciertas propiedades. Al establecer la relación entre el carácter del artefacto y su objetivo surge la necesidad de considerar la influencia del medio ambiente en el que aquél va a funcionar y por eso se puede ver el artefacto como una interfase entre el ambiente exterior y su estructura interior. Las ciencias naturales influyen directamente en estos dos términos y por ello la ingeniería moderna surge cuando se aplican de forma sistemática los conocimientos generados por la ciencia positiva que permiten analizar éxitos y fracasos desde un punto de vista nacional y predecir los efectos de las alteraciones que se introduzcan sobre los diseños iniciales. En España el patriarca de la ingeniería moderna es Agustín de Betancourt, personaje extraordinario al que recientemente la Real Academia de Ingeniería acaba de declarar Summa Auctoritates Academiae y en cuyo honor le ha dedicado un altorrelieve en el Puerto de la Cruz, lugar donde nació en 1758. Pero la ingeniería sólo es grande cuando coincide la calidad de cada uno de los tres factores que intervienen en la misma: proyectistas con imaginación y conocimientos, industria capaz de ofrecer los materiales más adecuados y llevar adelante los procesos de construcción o montaje que áquel imagine y promotores con la solvencia económica capaces de calibrar las ventajas de las soluciones que se ofrecen y apreciar factores imponderables como la innovación, la estética o la sostenibilidad que tanto añaden al cumplimiento de los fines utilitarios que se encuentran en el origen de las intervenciones. El capítulo está organizado en tres bloques: en el primero se muestran brevísimamente algunos arquetipos históricos de la ingeniería más antigua, así como la progresiva influencia de los conocimientos científicos hasta llegar a Betancourt. A continuación se marca la evolución de éste desde su etapa de formación a su transformación en un influyente inventor, pero también en un reformador de los cuerpos de la Administración y de la enseñanza. Finalmente dedicaré un tiempo a hablar del mantenimiento de su espíritu, a pesar de guerras y revoluciones, a lo largo del siglo XX, para concluir con una breve reflexión sobre las enseñanzas a extraer de su ejemplo.
Resumo:
A través de variaciones de enfoques de planificación, se ha implementado un proyecto de desarrollo clásico (Enfoque de reforma social) que luego evoluciona en participativo (Aprendizaje social); en la sierra sur del Perú. El RED Rural Pampas (Racimo estratégico de desarrollo), fue un proyecto que nació de una entidad gubernamental FONCODES Apurimac. El proyecto brindaba capacitación en temas agropecuarios, asistencia técnica y soporte financiero a comuneros de extrema pobreza de la región Apurimac. Dicho proyecto difería de muchos en que los beneficiarios podían participar de las decisiones del mismo a través de Núcleos Ejecutores (representantes de las comunidades beneficiarias). El caso analiza el proceso de conversión de un proyecto de desarrollo en una entidad empresarial , la Microfinanciera rural Cuenca Pampas y el proceso de participación de los beneficiarios en las decisiones, hasta su conversión en propietarios de la organización. Cambiando la orientación de la organización en función de la autosostenibilidad y de la participación directa de los beneficiarios en algunas de las etapas del ciclo del proyecto.
Resumo:
Estudio de caso correspondiente a la rehabilitación de la vivienda en donde nació la reconocida cantante ecuatoriana Carlota Jaramillo, que inmortalizó entre otros la música nacional, ubicada en la población de Calacalí. Construida con técnicas vernáculas de la serrania ecuatoriana, se rehabilitó para convertirla en casa-museo, volviendo a poner en práctica dichas técnicas de construcción, debido al estado ruinoso en que se hallaba, rescatando así un testigo patrimonial de arquitectura popular de inicios del siglo XX.
Resumo:
Este trabajo trata sobre el desarrollo de una “Start Up” de base tecnológica desde la universidad. La empresa creada comercializará un servicio software para comedores y restaurantes. La actualidad está marcada por la economía, y en estos momentos nos encontramos con una tasa de paro general del 26,7%, en ingenierías (la UPM) es del 31,2%. El sector de las TIC se salva por el momento (en informática la tasa de paro es del 4,8%), aunque el trabajo en muchos casos es precario y las oportunidades para desarrollar una carrera plena pasan por ir a trabajar a otros países que tienen una situación laboral más favorable. También tenemos la alternativa de trabajar como autónomos, creando empresas y, con suerte, generando un nuevo empleo. En España existen iniciativas de ayuda pública y privada que ayudan a convertir ideas en empresas, incubadoras, aceleradoras, ayudas públicas, ferias tecnológicas, concursos que ayudan a ganar visibilidad, etc. Este proyecto nació gracias a una de estas iniciativas, más en concreto a ACTUA UPM, iniciativa de la propia UPM a través de la unidad Creación de Empresas. Para crear una empresa no basta un buen servicio o un buen producto, es necesario poder venderlo. Por lo que el primer esfuerzo debe realizarse en comprobar que nuestro producto tiene características que pueden cubrir una necesidad que ya existe y que las condiciones indican que puede ser rentable. Esta es la primera fase, la creación de un plan de negocio y de marketing. A continuación basándonos en la manera en la que decidimos que venderemos nuestro producto, orientaremos el desarrollo para hacer hincapié en los puntos fuertes que pueden hacer nuestro producto diferente y deseado. La fase de desarrollo es mi caso es sobre todo una fase de aprendizaje, en la que aprenderé a fondo tecnologías web y móvil, y aplicaré los conocimientos adquiridos en mis estudios. A continuación, se ofrece mi experiencia desarrollando la empresa desde la idea hasta conseguir un producto preparado para ponerlo a prueba. ---ABSTRACT---This paper is about the development of a technological based “Start Up” from the college. The company will market a software service oriented to canteens and restaurants. Economy is what rules the world, and today we are facing a very strong crisis with a 26.7% of unemployment rate in Spain. However, the IT sector is less affected than others by this crisis (Informatics Engineers has a 4.8% unemployment rate). But in many cases jobs are precarious and young people have to leave our country for pursuing a decent career. Also we have the option of self-employment, launching a company, and with some luck, creating a new job. We have some tools for launching new technological base business. Many people hopes to create the new Facebook, and many investors are interested in being on the boat if that happens. Also at UPM we have ACTUA UPM, which promotes ideas into companies. My idea was born in it and managed to the final round. For launching a new company you need to do a business plan that studies the possible pitfalls of your idea and directs your development efforts to the way your product is going to be sold. So the first phase of this paper will talk about the development of the business plan. After it, the development phase is in essence a phase of learning in which I faced most problems in my own, giving the best solutions I could from my own experience and intuition. Then, we present the experience of developing a Start Up from the idea to the market testing.
Resumo:
La astronomía de rayos γ estudia las partículas más energéticas que llegan a la Tierra desde el espacio. Estos rayos γ no se generan mediante procesos térmicos en simples estrellas, sino mediante mecanismos de aceleración de partículas en objetos celestes como núcleos de galaxias activos, púlsares, supernovas, o posibles procesos de aniquilación de materia oscura. Los rayos γ procedentes de estos objetos y sus características proporcionan una valiosa información con la que los científicos tratan de comprender los procesos físicos que ocurren en ellos y desarrollar modelos teóricos que describan su funcionamiento con fidelidad. El problema de observar rayos γ es que son absorbidos por las capas altas de la atmósfera y no llegan a la superficie (de lo contrario, la Tierra será inhabitable). De este modo, sólo hay dos formas de observar rayos γ embarcar detectores en satélites, u observar los efectos secundarios que los rayos γ producen en la atmósfera. Cuando un rayo γ llega a la atmósfera, interacciona con las partículas del aire y genera un par electrón - positrón, con mucha energía. Estas partículas secundarias generan a su vez más partículas secundarias cada vez menos energéticas. Estas partículas, mientras aún tienen energía suficiente para viajar más rápido que la velocidad de la luz en el aire, producen una radiación luminosa azulada conocida como radiación Cherenkov durante unos pocos nanosegundos. Desde la superficie de la Tierra, algunos telescopios especiales, conocidos como telescopios Cherenkov o IACTs (Imaging Atmospheric Cherenkov Telescopes), son capaces de detectar la radiación Cherenkov e incluso de tomar imágenes de la forma de la cascada Cherenkov. A partir de estas imágenes es posible conocer las principales características del rayo γ original, y con suficientes rayos se pueden deducir características importantes del objeto que los emitió, a cientos de años luz de distancia. Sin embargo, detectar cascadas Cherenkov procedentes de rayos γ no es nada fácil. Las cascadas generadas por fotones γ de bajas energías emiten pocos fotones, y durante pocos nanosegundos, y las correspondientes a rayos γ de alta energía, si bien producen más electrones y duran más, son más improbables conforme mayor es su energía. Esto produce dos líneas de desarrollo de telescopios Cherenkov: Para observar cascadas de bajas energías son necesarios grandes reflectores que recuperen muchos fotones de los pocos que tienen estas cascadas. Por el contrario, las cascadas de altas energías se pueden detectar con telescopios pequeños, pero conviene cubrir con ellos una superficie grande en el suelo para aumentar el número de eventos detectados. Con el objetivo de mejorar la sensibilidad de los telescopios Cherenkov actuales, en el rango de energía alto (> 10 TeV), medio (100 GeV - 10 TeV) y bajo (10 GeV - 100 GeV), nació el proyecto CTA (Cherenkov Telescope Array). Este proyecto en el que participan más de 27 países, pretende construir un observatorio en cada hemisferio, cada uno de los cuales contará con 4 telescopios grandes (LSTs), unos 30 medianos (MSTs) y hasta 70 pequeños (SSTs). Con un array así, se conseguirán dos objetivos. En primer lugar, al aumentar drásticamente el área de colección respecto a los IACTs actuales, se detectarán más rayos γ en todos los rangos de energía. En segundo lugar, cuando una misma cascada Cherenkov es observada por varios telescopios a la vez, es posible analizarla con mucha más precisión gracias a las técnicas estereoscópicas. La presente tesis recoge varios desarrollos técnicos realizados como aportación a los telescopios medianos y grandes de CTA, concretamente al sistema de trigger. Al ser las cascadas Cherenkov tan breves, los sistemas que digitalizan y leen los datos de cada píxel tienen que funcionar a frecuencias muy altas (≈1 GHz), lo que hace inviable que funcionen de forma continua, ya que la cantidad de datos guardada será inmanejable. En su lugar, las señales analógicas se muestrean, guardando las muestras analógicas en un buffer circular de unos pocos µs. Mientras las señales se mantienen en el buffer, el sistema de trigger hace un análisis rápido de las señales recibidas, y decide si la imagen que hay en el buér corresponde a una cascada Cherenkov y merece ser guardada, o por el contrario puede ignorarse permitiendo que el buffer se sobreescriba. La decisión de si la imagen merece ser guardada o no, se basa en que las cascadas Cherenkov producen detecciones de fotones en píxeles cercanos y en tiempos muy próximos, a diferencia de los fotones de NSB (night sky background), que llegan aleatoriamente. Para detectar cascadas grandes es suficiente con comprobar que más de un cierto número de píxeles en una región hayan detectado más de un cierto número de fotones en una ventana de tiempo de algunos nanosegundos. Sin embargo, para detectar cascadas pequeñas es más conveniente tener en cuenta cuántos fotones han sido detectados en cada píxel (técnica conocida como sumtrigger). El sistema de trigger desarrollado en esta tesis pretende optimizar la sensibilidad a bajas energías, por lo que suma analógicamente las señales recibidas en cada píxel en una región de trigger y compara el resultado con un umbral directamente expresable en fotones detectados (fotoelectrones). El sistema diseñado permite utilizar regiones de trigger de tamaño seleccionable entre 14, 21 o 28 píxeles (2, 3, o 4 clusters de 7 píxeles cada uno), y con un alto grado de solapamiento entre ellas. De este modo, cualquier exceso de luz en una región compacta de 14, 21 o 28 píxeles es detectado y genera un pulso de trigger. En la versión más básica del sistema de trigger, este pulso se distribuye por toda la cámara de forma que todos los clusters sean leídos al mismo tiempo, independientemente de su posición en la cámara, a través de un delicado sistema de distribución. De este modo, el sistema de trigger guarda una imagen completa de la cámara cada vez que se supera el número de fotones establecido como umbral en una región de trigger. Sin embargo, esta forma de operar tiene dos inconvenientes principales. En primer lugar, la cascada casi siempre ocupa sólo una pequeña zona de la cámara, por lo que se guardan muchos píxeles sin información alguna. Cuando se tienen muchos telescopios como será el caso de CTA, la cantidad de información inútil almacenada por este motivo puede ser muy considerable. Por otro lado, cada trigger supone guardar unos pocos nanosegundos alrededor del instante de disparo. Sin embargo, en el caso de cascadas grandes la duración de las mismas puede ser bastante mayor, perdiéndose parte de la información debido al truncamiento temporal. Para resolver ambos problemas se ha propuesto un esquema de trigger y lectura basado en dos umbrales. El umbral alto decide si hay un evento en la cámara y, en caso positivo, sólo las regiones de trigger que superan el nivel bajo son leídas, durante un tiempo más largo. De este modo se evita guardar información de píxeles vacíos y las imágenes fijas de las cascadas se pueden convertir en pequeños \vídeos" que representen el desarrollo temporal de la cascada. Este nuevo esquema recibe el nombre de COLIBRI (Concept for an Optimized Local Image Building and Readout Infrastructure), y se ha descrito detalladamente en el capítulo 5. Un problema importante que afecta a los esquemas de sumtrigger como el que se presenta en esta tesis es que para sumar adecuadamente las señales provenientes de cada píxel, estas deben tardar lo mismo en llegar al sumador. Los fotomultiplicadores utilizados en cada píxel introducen diferentes retardos que deben compensarse para realizar las sumas adecuadamente. El efecto de estos retardos ha sido estudiado, y se ha desarrollado un sistema para compensarlos. Por último, el siguiente nivel de los sistemas de trigger para distinguir efectivamente las cascadas Cherenkov del NSB consiste en buscar triggers simultáneos (o en tiempos muy próximos) en telescopios vecinos. Con esta función, junto con otras de interfaz entre sistemas, se ha desarrollado un sistema denominado Trigger Interface Board (TIB). Este sistema consta de un módulo que irá montado en la cámara de cada LST o MST, y que estará conectado mediante fibras ópticas a los telescopios vecinos. Cuando un telescopio tiene un trigger local, este se envía a todos los vecinos conectados y viceversa, de modo que cada telescopio sabe si sus vecinos han dado trigger. Una vez compensadas las diferencias de retardo debidas a la propagación en las fibras ópticas y de los propios fotones Cherenkov en el aire dependiendo de la dirección de apuntamiento, se buscan coincidencias, y en el caso de que la condición de trigger se cumpla, se lee la cámara en cuestión, de forma sincronizada con el trigger local. Aunque todo el sistema de trigger es fruto de la colaboración entre varios grupos, fundamentalmente IFAE, CIEMAT, ICC-UB y UCM en España, con la ayuda de grupos franceses y japoneses, el núcleo de esta tesis son el Level 1 y la Trigger Interface Board, que son los dos sistemas en los que que el autor ha sido el ingeniero principal. Por este motivo, en la presente tesis se ha incluido abundante información técnica relativa a estos sistemas. Existen actualmente importantes líneas de desarrollo futuras relativas tanto al trigger de la cámara (implementación en ASICs), como al trigger entre telescopios (trigger topológico), que darán lugar a interesantes mejoras sobre los diseños actuales durante los próximos años, y que con suerte serán de provecho para toda la comunidad científica participante en CTA. ABSTRACT -ray astronomy studies the most energetic particles arriving to the Earth from outer space. This -rays are not generated by thermal processes in mere stars, but by means of particle acceleration mechanisms in astronomical objects such as active galactic nuclei, pulsars, supernovas or as a result of dark matter annihilation processes. The γ rays coming from these objects and their characteristics provide with valuable information to the scientist which try to understand the underlying physical fundamentals of these objects, as well as to develop theoretical models able to describe them accurately. The problem when observing rays is that they are absorbed in the highest layers of the atmosphere, so they don't reach the Earth surface (otherwise the planet would be uninhabitable). Therefore, there are only two possible ways to observe γ rays: by using detectors on-board of satellites, or by observing their secondary effects in the atmosphere. When a γ ray reaches the atmosphere, it interacts with the particles in the air generating a highly energetic electron-positron pair. These secondary particles generate in turn more particles, with less energy each time. While these particles are still energetic enough to travel faster than the speed of light in the air, they produce a bluish radiation known as Cherenkov light during a few nanoseconds. From the Earth surface, some special telescopes known as Cherenkov telescopes or IACTs (Imaging Atmospheric Cherenkov Telescopes), are able to detect the Cherenkov light and even to take images of the Cherenkov showers. From these images it is possible to know the main parameters of the original -ray, and with some -rays it is possible to deduce important characteristics of the emitting object, hundreds of light-years away. However, detecting Cherenkov showers generated by γ rays is not a simple task. The showers generated by low energy -rays contain few photons and last few nanoseconds, while the ones corresponding to high energy -rays, having more photons and lasting more time, are much more unlikely. This results in two clearly differentiated development lines for IACTs: In order to detect low energy showers, big reflectors are required to collect as much photons as possible from the few ones that these showers have. On the contrary, small telescopes are able to detect high energy showers, but a large area in the ground should be covered to increase the number of detected events. With the aim to improve the sensitivity of current Cherenkov showers in the high (> 10 TeV), medium (100 GeV - 10 TeV) and low (10 GeV - 100 GeV) energy ranges, the CTA (Cherenkov Telescope Array) project was created. This project, with more than 27 participating countries, intends to build an observatory in each hemisphere, each one equipped with 4 large size telescopes (LSTs), around 30 middle size telescopes (MSTs) and up to 70 small size telescopes (SSTs). With such an array, two targets would be achieved. First, the drastic increment in the collection area with respect to current IACTs will lead to detect more -rays in all the energy ranges. Secondly, when a Cherenkov shower is observed by several telescopes at the same time, it is possible to analyze it much more accurately thanks to the stereoscopic techniques. The present thesis gathers several technical developments for the trigger system of the medium and large size telescopes of CTA. As the Cherenkov showers are so short, the digitization and readout systems corresponding to each pixel must work at very high frequencies (_ 1 GHz). This makes unfeasible to read data continuously, because the amount of data would be unmanageable. Instead, the analog signals are sampled, storing the analog samples in a temporal ring buffer able to store up to a few _s. While the signals remain in the buffer, the trigger system performs a fast analysis of the signals and decides if the image in the buffer corresponds to a Cherenkov shower and deserves to be stored, or on the contrary it can be ignored allowing the buffer to be overwritten. The decision of saving the image or not, is based on the fact that Cherenkov showers produce photon detections in close pixels during near times, in contrast to the random arrival of the NSB phtotons. Checking if more than a certain number of pixels in a trigger region have detected more than a certain number of photons during a certain time window is enough to detect large showers. However, taking also into account how many photons have been detected in each pixel (sumtrigger technique) is more convenient to optimize the sensitivity to low energy showers. The developed trigger system presented in this thesis intends to optimize the sensitivity to low energy showers, so it performs the analog addition of the signals received in each pixel in the trigger region and compares the sum with a threshold which can be directly expressed as a number of detected photons (photoelectrons). The trigger system allows to select trigger regions of 14, 21, or 28 pixels (2, 3 or 4 clusters with 7 pixels each), and with extensive overlapping. In this way, every light increment inside a compact region of 14, 21 or 28 pixels is detected, and a trigger pulse is generated. In the most basic version of the trigger system, this pulse is just distributed throughout the camera in such a way that all the clusters are read at the same time, independently from their position in the camera, by means of a complex distribution system. Thus, the readout saves a complete camera image whenever the number of photoelectrons set as threshold is exceeded in a trigger region. However, this way of operating has two important drawbacks. First, the shower usually covers only a little part of the camera, so many pixels without relevant information are stored. When there are many telescopes as will be the case of CTA, the amount of useless stored information can be very high. On the other hand, with every trigger only some nanoseconds of information around the trigger time are stored. In the case of large showers, the duration of the shower can be quite larger, loosing information due to the temporal cut. With the aim to solve both limitations, a trigger and readout scheme based on two thresholds has been proposed. The high threshold decides if there is a relevant event in the camera, and in the positive case, only the trigger regions exceeding the low threshold are read, during a longer time. In this way, the information from empty pixels is not stored and the fixed images of the showers become to little \`videos" containing the temporal development of the shower. This new scheme is named COLIBRI (Concept for an Optimized Local Image Building and Readout Infrastructure), and it has been described in depth in chapter 5. An important problem affecting sumtrigger schemes like the one presented in this thesis is that in order to add the signals from each pixel properly, they must arrive at the same time. The photomultipliers used in each pixel introduce different delays which must be compensated to perform the additions properly. The effect of these delays has been analyzed, and a delay compensation system has been developed. The next trigger level consists of looking for simultaneous (or very near in time) triggers in neighbour telescopes. These function, together with others relating to interfacing different systems, have been developed in a system named Trigger Interface Board (TIB). This system is comprised of one module which will be placed inside the LSTs and MSTs cameras, and which will be connected to the neighbour telescopes through optical fibers. When a telescope receives a local trigger, it is resent to all the connected neighbours and vice-versa, so every telescope knows if its neighbours have been triggered. Once compensated the delay differences due to propagation in the optical fibers and in the air depending on the pointing direction, the TIB looks for coincidences, and in the case that the trigger condition is accomplished, the camera is read a fixed time after the local trigger arrived. Despite all the trigger system is the result of the cooperation of several groups, specially IFAE, Ciemat, ICC-UB and UCM in Spain, with some help from french and japanese groups, the Level 1 and the Trigger Interface Board constitute the core of this thesis, as they have been the two systems designed by the author of the thesis. For this reason, a large amount of technical information about these systems has been included. There are important future development lines regarding both the camera trigger (implementation in ASICS) and the stereo trigger (topological trigger), which will produce interesting improvements for the current designs during the following years, being useful for all the scientific community participating in CTA.