116 resultados para El Nino current.
Resumo:
La región del espectro electromagnético comprendida entre 100 GHz y 10 THz alberga una gran variedad de aplicaciones en campos tan dispares como la radioastronomía, espectroscopíamolecular, medicina, seguridad, radar, etc. Los principales inconvenientes en el desarrollo de estas aplicaciones son los altos costes de producción de los sistemas trabajando a estas frecuencias, su costoso mantenimiento, gran volumen y baja fiabilidad. Entre las diferentes tecnologías a frecuencias de THz, la tecnología de los diodos Schottky juega un importante papel debido a su madurez y a la sencillez de estos dispositivos. Además, los diodos Schottky pueden operar tanto a temperatura ambiente como a temperaturas criogénicas, con altas eficiencias cuando se usan como multiplicadores y con moderadas temperaturas de ruido en mezcladores. El principal objetivo de esta tesis doctoral es analizar los fenómenos físicos responsables de las características eléctricas y del ruido en los diodos Schottky, así como analizar y diseñar circuitos multiplicadores y mezcladores en bandas milimétricas y submilimétricas. La primera parte de la tesis presenta un análisis de los fenómenos físicos que limitan el comportamiento de los diodos Schottky de GaAs y GaN y de las características del espectro de ruido de estos dispositivos. Para llevar a cabo este análisis, un modelo del diodo basado en la técnica de Monte Carlo se ha considerado como referencia debido a la elevada precisión y fiabilidad de este modelo. Además, el modelo de Monte Carlo permite calcular directamente el espectro de ruido de los diodos sin necesidad de utilizar ningún modelo analítico o empírico. Se han analizado fenómenos físicos como saturación de la velocidad, inercia de los portadores, dependencia de la movilidad electrónica con la longitud de la epicapa, resonancias del plasma y efectos no locales y no estacionarios. También se ha presentado un completo análisis del espectro de ruido para diodos Schottky de GaAs y GaN operando tanto en condiciones estáticas como variables con el tiempo. Los resultados obtenidos en esta parte de la tesis contribuyen a mejorar la comprensión de la respuesta eléctrica y del ruido de los diodos Schottky en condiciones de altas frecuencias y/o altos campos eléctricos. También, estos resultados han ayudado a determinar las limitaciones de modelos numéricos y analíticos usados en el análisis de la respuesta eléctrica y del ruido electrónico en los diodos Schottky. La segunda parte de la tesis está dedicada al análisis de multiplicadores y mezcladores mediante una herramienta de simulación de circuitos basada en la técnica de balance armónico. Diferentes modelos basados en circuitos equivalentes del dispositivo, en las ecuaciones de arrastre-difusión y en la técnica de Monte Carlo se han considerado en este análisis. El modelo de Monte Carlo acoplado a la técnica de balance armónico se ha usado como referencia para evaluar las limitaciones y el rango de validez de modelos basados en circuitos equivalentes y en las ecuaciones de arrastredifusión para el diseño de circuitos multiplicadores y mezcladores. Una notable característica de esta herramienta de simulación es que permite diseñar circuitos Schottky teniendo en cuenta tanto la respuesta eléctrica como el ruido generado en los dispositivos. Los resultados de las simulaciones presentados en esta parte de la tesis, tanto paramultiplicadores comomezcladores, se han comparado con resultados experimentales publicados en la literatura. El simulador que integra el modelo de Monte Carlo con la técnica de balance armónico permite analizar y diseñar circuitos a frecuencias superiores a 1 THz. ABSTRACT The terahertz region of the electromagnetic spectrum(100 GHz-10 THz) presents a wide range of applications such as radio-astronomy, molecular spectroscopy, medicine, security and radar, among others. The main obstacles for the development of these applications are the high production cost of the systems working at these frequencies, highmaintenance, high volume and low reliability. Among the different THz technologies, Schottky technology plays an important rule due to its maturity and the inherent simplicity of these devices. Besides, Schottky diodes can operate at both room and cryogenic temperatures, with high efficiency in multipliers and moderate noise temperature in mixers. This PhD. thesis is mainly concerned with the analysis of the physical processes responsible for the characteristics of the electrical response and noise of Schottky diodes, as well as the analysis and design of frequency multipliers and mixers at millimeter and submillimeter wavelengths. The first part of the thesis deals with the analysis of the physical phenomena limiting the electrical performance of GaAs and GaN Schottky diodes and their noise performance. To carry out this analysis, a Monte Carlo model of the diode has been used as a reference due to the high accuracy and reliability of this diode model at millimeter and submillimter wavelengths. Besides, the Monte Carlo model provides a direct description of the noise spectra of the devices without the necessity of any additional analytical or empirical model. Physical phenomena like velocity saturation, carrier inertia, dependence of the electron mobility on the epilayer length, plasma resonance and nonlocal effects in time and space have been analysed. Also, a complete analysis of the current noise spectra of GaAs and GaN Schottky diodes operating under static and time varying conditions is presented in this part of the thesis. The obtained results provide a better understanding of the electrical and the noise responses of Schottky diodes under high frequency and/or high electric field conditions. Also these results have helped to determine the limitations of numerical and analytical models used in the analysis of the electrical and the noise responses of these devices. The second part of the thesis is devoted to the analysis of frequency multipliers and mixers by means of an in-house circuit simulation tool based on the harmonic balance technique. Different lumped equivalent circuits, drift-diffusion and Monte Carlo models have been considered in this analysis. The Monte Carlo model coupled to the harmonic balance technique has been used as a reference to evaluate the limitations and range of validity of lumped equivalent circuit and driftdiffusion models for the design of frequency multipliers and mixers. A remarkable feature of this reference simulation tool is that it enables the design of Schottky circuits from both electrical and noise considerations. The simulation results presented in this part of the thesis for both multipliers and mixers have been compared with measured results available in the literature. In addition, the Monte Carlo simulation tool allows the analysis and design of circuits above 1 THz.
Resumo:
El proyecto se basa en la innovación en la gestión de un polideportivo a través de las redes sociales. La base fundamental es hacer todo tipo de gestiones que se realizan cotidianamente por medio de una app, o a través de algún explorador con acceso a internet desde cualquier lugar sin la necesidad de estar en el recinto en sí para poder realizar esas acciones, de esta manera se mejoraría el servicio, incrementaría la comodidad, tanto por parte de la empresa como por parte de los usuarios inscritos, y se encontraría la empresa a la altura de la tecnología actual, mejorando la calidad. Para resumir y dar una idea o una serie de ejemplos, de los muchos cambios que se harían, de las realizaciones de las gestiones que varían, de la manera rudimentaria a hacerlo a través de la plataforma creada se podría dar como: - darse de alta en la instalación - realizar gestiones de datos personales - apuntarse a actividades - creación de foros para la comunicación entre usuarios - creación de blogs - mejor gestión de la propia administración Para poder ver la viabilidad de la idea, hay una serie de estudios para comprobar el acierto de la idea al encontrarse y estar en alza el mundo tecnológico, y más de las redes sociales. Además, una vez ideado el cambio, hay que cumplir unos requisitos y seguir una pautas necesarias para poder ser competitivos en el futuro y crecer de manera progresiva según el tiempo pasa, es decir, evolucionar según los tiempos que corren. ABSTRACT. The project is based on the innovation on the management of the sport center one across the social networks. The fundamental base is to do all kinds of negotiations that are realized daily by means of an app, or across some explorer with access to internet from any place without the need to be in the enclosure in yes to be able to realize these actions, hereby the service would be improved, would increase the comfort, both on the part of the company and on the part of the inscribed users, and one would find the company at a height of the current technology, improving the quality. To summarize and to give an idea or a series of examples, give many changes that would be done, give the accomplishments of the negotiations that change, give the rudimentary way to do it across the created platform it might give like: - to be given of discharge in the installation - to realize negotiations of personal information - to sign to activities - creation of forums for the communication between users - creation of blogs - better management of the own administration To be able to see the viability of the idea, there is a series of studies to verify the success of the idea on having found and to be in rise the technological world, and more of the social networks. In addition, once designed the change, it is necessary to fulfill a few requirements and follow guidelines necessary to be able to be competitive in the future and to grow in a progressive way according to the time happens, that is to say, to evolve according to these times.
Resumo:
Resumen El Diseño, que apenas está considerado en las políticas de desarrollo, por su parte tampoco ha prestado la adecuada atención a los aspectos de justicia y de desarrollo global. Encontramos los antecedentes del Diseño para el Desarrollo en la “transferencia de tecnología y en la imitación”; en las “tecnologías apropiadas” de los años 70; en la moda de hacer negocios para la “base de la pirámide (BoP)”; más recientemente en el concepto de “innovación apropiada”; y últimamente en el “enfoque de las capacidades”, que engloba cuestiones sobre justicia, igualdad y desarrollo. En este artículo de revisión se realiza una aproximación a la situación actual del Diseño para el Desarrollo, incluyendo productos e iniciativas empresariales, académicas e investigadoras. Para ello, se ha realizado una revisión en buscadores generalistas y en publicaciones especializadas, accesibles desde la Universidad Politécnica de Madrid. Los resultados obtenidos abarcan desde productos comerciales, repositorios en línea de tecnologías de desarrollo, documentación abierta para el diseño/adaptación de productos para el desarrollo, conferencias, revistas, grupos de investigación, iniciativas emprendedoras, etc. Se trata de un tema que no tiene una univoca expresión y que está siendo tratado en muchas áreas, tanto de las ciencias sociales, como técnicas y sanitarias. Abstract The design, which is hardly considered in development policies, has not paid adequate attention to justice and global development issues. The antecedents of Design for Development are found in the "technology transfer and imitation"; in "appropriate technologies" of the 70s; in the fashion of doing business for the "base of the pyramid (BoP)"; more recently in the concept of "appropriate innovation"; and lately in the "capabilities approach" which includes questions about justice, equality and development. In this article review is performed an approach to the current situation of Design for Development including: products, business models and academic and research perspectives. In order to achieve it, the review has been conducted through search engines in generic and specialized publications, accessible from the Polytechnic University of Madrid. The results obtained include from commercial products, online repository development technologies, open documentation for design / adaptation of products for development, to conferences, journals, research groups, entrepreneurial initiatives, etc. This is a topic that has no unambiguous expression and that is being addressed in many areas, as in the social sciences and technical and health sciences. Resumo O projeto, que dificilmente pode ser considerada nas políticas de desenvolvimento, enquanto isso não prestou a atenção suficiente às questões da justiça e do desenvolvimento global. Encontramos a história do Projeto para o Desenvolvimento na "transferência de tecnologia e na imitação"; em "tecnologias apropriadas" dos anos 70; na forma de fazer negócios para a "base da pirâmide (BoP)"; mais recentemente, o conceito de "inovação apropriado"; e, ultimamente, a "abordagem de capacidades", que inclui perguntas sobre justiça, igualdade e desenvolvimento. Neste artigo de revisão existe uma abordagem para a situação atual do projeto de desenvolvimento, incluindo produtos e iniciativas empresariais, acadêmicos e investigadoras. Para isso, realizamos uma revisão nos motores de busca gerais e publicações especializadas, acessível a partir da Universidade Politécnica de Madrid. Os resultados variam de produtos comerciais tecnologias de desenvolvimento repositório on-line, documentação aberta para o projeto / adaptação de produtos para o desenvolvimento, conferências, revistas, grupos de pesquisa, iniciativas empresariais, etc. Este é um tema que não tem um só significado e que esta sendo tratado em muitas áreas, tanto nas ciências sociais, como técnicas e sanitarias.
Resumo:
El aumento de la temperatura media de la Tierra durante el pasado siglo en casi 1 ºC; la subida del nivel medio del mar; la disminución del volumen de hielo y nieve terrestres; la fuerte variabilidad del clima y los episodios climáticos extremos que se vienen sucediendo durante las ultimas décadas; y el aumento de las epidemias y enfermedades infecciosas son solo algunas de las evidencias del cambio climático actual, causado, principalmente, por la acumulación de gases de efecto invernadero en la atmósfera por actividades antropogénicas. La problemática y preocupación creciente surgida a raíz de estos fenómenos, motivo que, en 1997, se adoptara el denominado “Protocolo de Kyoto” (Japón), por el que los países firmantes adoptaron diferentes medidas destinadas a controlar y reducir las emisiones de los citados gases. Entre estas medidas cabe destacar las tecnologías CAC, enfocadas a la captura, transporte y almacenamiento de CO2. En este contexto se aprobó, en octubre de 2008, el Proyecto Singular Estratégico “Tecnologías avanzadas de generación, captura y almacenamiento de CO2” (PSE-120000-2008-6), cofinanciado por el Ministerio de Ciencia e Innovación y el FEDER, el cual abordaba, en su Subproyecto “Almacenamiento Geológico de CO2” (PSS-120000-2008-31), el estudio detallado, entre otros, del Análogo Natural de Almacenamiento y Escape de CO2 de la cuenca de Ganuelas-Mazarrón (Murcia). Es precisamente en el marco de dicho Proyecto en el que se ha realizado este trabajo, cuyo objetivo final ha sido el de predecir el comportamiento y evaluar la seguridad, a corto, medio y largo plazo, de un Almacenamiento Geológico Profundo de CO2 (AGP-CO2), mediante el estudio integral del citado análogo natural. Este estudio ha comprendido: i) la contextualización geológica e hidrogeológica de la cuenca, así como la investigación geofísica de la misma; ii) la toma de muestras de aguas de algunos acuíferos seleccionados con el fin de realizar su estudio hidrogeoquímico e isotópico; iii) la caracterización mineralógica, petrográfica, geoquímica e isotópica de los travertinos precipitados a partir de las aguas de algunos de los sondeos de la cuenca; y iv) la medida y caracterización química e isotópica de los gases libres y disueltos detectados en la cuenca, con especial atención al CO2 y 222Rn. Esta información, desarrollada en capítulos independientes, ha permitido realizar un modelo conceptual de funcionamiento del sistema natural que constituye la cuenca de Ganuelas-Mazarrón, así como establecer las analogías entre este y un AGP-CO2, con posibles escapes naturales y/o antropogénicos. La aplicación de toda esta información ha servido, por un lado, para predecir el comportamiento y evaluar la seguridad, a corto, medio y largo plazo, de un AGP-CO2 y, por otro, proponer una metodología general aplicable al estudio de posibles emplazamientos de AGP-CO2 desde la perspectiva de los reservorios naturales de CO2. Los resultados más importantes indican que la cuenca de Ganuelas-Mazarrón se trata de una cubeta o fosa tectónica delimitada por fallas normales, con importantes saltos verticales, que hunden al substrato rocoso (Complejo Nevado-Filabride), y rellenas, generalmente, por materiales volcánicos-subvolcánicos ácidos. Además, esta cuenca se encuentra rellena por formaciones menos resistivas que son, de muro a techo, las margas miocenas, predominantes y casi exclusivas de la cuenca, y los conglomerados y gravas pliocuaternarias. El acuífero salino profundo y enriquecido en CO2, puesto de manifiesto por la xx exploración geotérmica realizada en dicha cuenca durante la década de los 80 y objeto principal de este estudio, se encuentra a techo de los materiales del Complejo Nevado-Filabride, a una profundidad que podría superar los 800 m, según los datos de la investigación mediante sondeos y geofísica. Por ello, no se descarta la posibilidad de que el CO2 se encuentre en estado supe critico, por lo que la citada cuenca reuniría las características principales de un almacenamiento geológico natural y profundo de CO2, o análogo natural de un AGP-CO2 en un acuífero salino profundo. La sobreexplotación de los acuíferos mas someros de la cuenca, con fines agrícolas, origino, por el descenso de sus niveles piezométricos y de la presión hidrostática, el ascenso de las aguas profundas, salinas y enriquecidas en CO2, las cuales son las responsables de la contaminación de dichos acuíferos. El estudio hidrogeoquímico de las aguas de los acuíferos investigados muestra una gran variedad de hidrofacies, incluso en aquellos de litología similar. La alta salinidad de estas aguas las hace inservibles tanto para el consumo humano como para fines agrícolas. Además, el carácter ligeramente ácido de la mayoría de estas aguas determina que tengan gran capacidad para disolver y transportar, hacia la superficie, elementos pesados y/o tóxicos, entre los que destaca el U, elemento abundante en las rocas volcánicas ácidas de la cuenca, con contenidos de hasta 14 ppm, y en forma de uraninita submicroscópica. El estudio isotópico ha permitido discernir el origen, entre otros, del C del DIC de las aguas (δ13C-DIC), explicándose como una mezcla de dos componentes principales: uno, procedente de la descomposición térmica de las calizas y mármoles del substrato y, otro, de origen edáfico, sin descartar una aportación menor de C de origen mantélico. El estudio de los travertinos que se están formando a la salida de las aguas de algunos sondeos, por la desgasificación rápida de CO2 y el consiguiente aumento de pH, ha permitido destacar este fenómeno, por analogía, como alerta de escapes de CO2 desde un AGP-CO2. El análisis de los gases disueltos y libres, con especial atención al CO2 y al 222Rn asociado, indican que el C del CO2, tanto disuelto como en fase libre, tiene un origen similar al del DIC, confirmándose la menor contribución de CO2 de origen mantélico, dada la relación R/Ra del He existente en estos gases. El 222Rn sería el generado por el decaimiento radiactivo del U, particularmente abundante en las rocas volcánicas de la cuenca, y/o por el 226Ra procedente del U o del existente en los yesos mesinienses de la cuenca. Además, el CO2 actúa como carrier del 222Rn, hecho evidenciado en las anomalías positivas de ambos gases a ~ 1 m de profundidad y relacionadas principalmente con perturbaciones naturales (fallas y contactos) y antropogénicas (sondeos). La signatura isotópica del C a partir del DIC, de los carbonatos (travertinos), y del CO2 disuelto y libre, sugiere que esta señal puede usarse como un excelente trazador de los escapes de CO2 desde un AGPCO2, en el cual se inyectara un CO2 procedente, generalmente, de la combustión de combustibles fósiles, con un δ13C(V-PDB) de ~ -30 ‰. Estos resultados han permitido construir un modelo conceptual de funcionamiento del sistema natural de la cuenca de Ganuelas-Mazarrón como análogo natural de un AGP-CO2, y establecer las relaciones entre ambos. Así, las analogías mas importantes, en cuanto a los elementos del sistema, serian la existencia de: i) un acuífero salino profundo enriquecido en CO2, que seria análoga a la formación almacén de un AGPxxi CO2; ii) una formación sedimentaria margosa que, con una potencia superior a 500 m, se correspondería con la formación sello de un AGP-CO2; y iii) acuíferos mas someros con aguas dulces y aptas para el consumo humano, rocas volcánicas ricas en U y fallas que se encuentran selladas por yesos y/o margas; elementos que también podrían concurrir en un emplazamiento de un AGP-CO2. Por otro lado, los procesos análogos mas importantes identificados serian: i) la inyección ascendente del CO2, que seria análoga a la inyección de CO2 de origen antropogénico, pero este con una signatura isotópica δ13C(V-PDB) de ~ -30 ‰; ii) la disolución de CO2 y 222Rn en las aguas del acuífero profundo, lo que seria análogo a la disolución de dichos gases en la formación almacén de un AGP-CO2; iii) la contaminación de los acuíferos mas someros por el ascenso de las aguas sobresaturadas en CO2, proceso que seria análogo a la contaminación que se produciría en los acuíferos existentes por encima de un AGP-CO2, siempre que este se perturbara natural (reactivación de fallas) o artificialmente (sondeos); iv) la desgasificación (CO2 y gases asociados, entre los que destaca el 222Rn) del acuífero salino profundo a través de sondeos, proceso análogo al que pudiera ocurrir en un AGP-CO2 perturbado; y v) la formación rápida de travertinos, proceso análogo indicativo de que el AGP-CO2 ha perdido su estanqueidad. La identificación de las analogías más importantes ha permitido, además, analizar y evaluar, de manera aproximada, el comportamiento y la seguridad, a corto, medio y largo plazo, de un AGP-CO2 emplazado en un contexto geológico similar al sistema natural estudiado. Para ello se ha seguido la metodología basada en el análisis e identificación de los FEPs (Features, Events and Processes), los cuales se han combinado entre sí para generar y analizar diferentes escenarios de evolución del sistema (scenario analysis). Estos escenarios de evolución identificados en el sistema natural perturbado, relacionados con la perforación de sondeos, sobreexplotación de acuíferos, precipitación rápida de travertinos, etc., serian análogos a los que podrían ocurrir en un AGP-CO2 que también fuera perturbado antropogénicamente, por lo que resulta totalmente necesario evitar la perturbación artificial de la formación sello del AGPCO2. Por último, con toda la información obtenida se ha propuesto una metodología de estudio que pueda aplicarse al estudio de posibles emplazamientos de un AGP-CO2 desde la perspectiva de los reservorios naturales de CO2, sean estancos o no. Esta metodología comprende varias fases de estudio, que comprendería la caracterización geológico-estructural del sitio y de sus componentes (agua, roca y gases), la identificación de las analogías entre un sistema natural de almacenamiento de CO2 y un modelo conceptual de un AGP-CO2, y el establecimiento de las implicaciones para el comportamiento y la seguridad de un AGP-CO2. ABSTRACT The accumulation of the anthropogenic greenhouse gases in the atmosphere is the main responsible for: i) the increase in the average temperature of the Earth over the past century by almost 1 °C; ii) the rise in the mean sea level; iii) the drop of the ice volume and terrestrial snow; iv) the strong climate variability and extreme weather events that have been happening over the last decades; and v) the spread of epidemics and infectious diseases. All of these events are just some of the evidence of current climate change. The problems and growing concern related to these phenomena, prompted the adoption of the so-called "Kyoto Protocol" (Japan) in 1997, in which the signatory countries established different measurements to control and reduce the emissions of the greenhouse gases. These measurements include the CCS technologies, focused on the capture, transport and storage of CO2. Within this context, it was approved, in October 2008, the Strategic Singular Project "Tecnologías avanzadas de generación, captura y almacenamiento de CO2" (PSE-120000-2008-6), supported by the Ministry of Science and Innovation and the FEDER funds. This Project, by means of the Subproject "Geological Storage of CO2" (PSS- 120000-2008-31), was focused on the detailed study of the Natural Analogue of CO2 Storage and Leakage located in the Ganuelas-Mazarron Tertiary basin (Murcia), among other Spanish Natural Analogues. This research work has been performed in the framework of this Subproject, being its final objective to predict the behaviour and evaluate the safety, at short, medium and long-term, of a CO2 Deep Geological Storage (CO2-DGS) by means of a comprehensive study of the abovementioned Natural Analogue. This study comprises: i) the geological and hydrogeological context of the basin and its geophysical research; ii) the water sampling of the selected aquifers to establish their hydrogeochemical and isotopic features; iii) the mineralogical, petrographic, geochemical and isotopic characterisation of the travertines formed from upwelling groundwater of several hydrogeological and geothermal wells; and iv) the measurement of the free and dissolved gases detected in the basin, as well as their chemical and isotopic characterisation, mainly regarding CO2 and 222Rn. This information, summarised in separate chapters in the text, has enabled to build a conceptual model of the studied natural system and to establish the analogies between both the studied natural system and a CO2-DGS, with possible natural and/or anthropogenic escapes. All this information has served, firstly, to predict the behaviour and to evaluate the safety, at short, medium and long-term, of a CO2-DGS and, secondly, to propose a general methodology to study suitable sites for a CO2-DGS, taking into account the lessons learned from this CO2 natural reservoir. The main results indicate that the Ganuelas-Mazarron basin is a graben bounded by normal faults with significant vertical movements, which move down the metamorphic substrate (Nevado-Filabride Complex), and filled with acid volcanic-subvolcanic rocks. Furthermore, this basin is filled with two sedimentary formations: i) the Miocene marls, which are predominant and almost exclusive in the basin; xxiv and ii) the Plio-Quaternary conglomerates and gravels. A deep saline CO2-rich aquifer was evidenced in this basin as a result of the geothermal exploration wells performed during the 80s, located just at the top of the Nevado-Filabride Complex and at a depth that could exceed 800 m, according to the geophysical exploration performed. This saline CO2-rich aquifer is precisely the main object of this study. Therefore, it is not discarded the possibility that the CO2 in this aquifer be in supercritical state. Consequently, the aforementioned basin gathers the main characteristics of a natural and deep CO2 geological storage, or natural analogue of a CO2-DGS in a deep saline aquifer. The overexploitation of the shallow aquifers in this basin for agriculture purposes caused the drop of the groundwater levels and hydrostatic pressures, and, as a result, the ascent of the deep saline and CO2-rich groundwater, which is the responsible for the contamination of the shallow and fresh aquifers. The hydrogeochemical features of groundwater from the investigated aquifers show the presence of very different hydrofacies, even in those with similar lithology. The high salinity of this groundwater prevents the human and agricultural uses. In addition, the slightly acidic character of most of these waters determines their capacity to dissolve and transport towards the surface heavy and/or toxic elements, among which U is highlighted. This element is abundant in the acidic volcanic rocks of the basin, with concentrations up to 14 ppm, mainly as sub-microscopic uraninite crystals. The isotopic study of this groundwater, particularly the isotopic signature of C from DIC (δ13C-DIC), suggests that dissolved C can be explained considering a mixture of C from two main different sources: i) from the thermal decomposition of limestones and marbles forming the substrate; and ii) from edaphic origin. However, a minor contribution of C from mantle degassing cannot be discarded. The study of travertines being formed from upwelling groundwater of several hydrogeological and geothermal wells, as a result of the fast CO2 degassing and the pH increase, has allowed highlighting this phenomenon, by analogy, as an alert for the CO2 leakages from a CO2-DGS. The analysis of the dissolved and free gases, with special attention to CO2 and 222Rn, indicates that the C from the dissolved and free CO2 has a similar origin to that of the DIC. The R/Ra ratio of He corroborates the minor contribution of CO2 from the mantle degassing. Furthermore, 222Rn is generated by the radioactive decay of U, particularly abundant in the volcanic rocks of the basin, and/or by 226Ra from the U or from the Messinian gypsum in the basin. Moreover, CO2 acts as a carrier of the 222Rn, a fact evidenced by the positive anomalies of both gases at ~ 1 m depth and mainly related to natural (faults and contacts) and anthropogenic (wells) perturbations. The isotopic signature of C from DIC, carbonates (travertines), and dissolved and free CO2, suggests that this parameter can be used as an excellent tracer of CO2 escapes from a CO2-DGS, in which CO2 usually from the combustion of fossil fuels, with δ13C(V-PDB) of ~ -30 ‰, will be injected. All of these results have allowed to build a conceptual model of the behaviour of the natural system studied as a natural analogue of a CO2-DGS, as well as to establish the relationships between both natural xxv and artificial systems. Thus, the most important analogies, regarding the elements of the system, would be the presence of: i) a deep saline CO2-rich aquifer, which would be analogous to the storage formation of a CO2-DGS; ii) a marly sedimentary formation with a thickness greater than 500 m, which would correspond to the sealing formation of a CO2-DGS; and iii) shallow aquifers with fresh waters suitable for human consumption, U-rich volcanic rocks, and faults that are sealed by gypsums and/or marls; geological elements that could also be present in a CO2-DGS. On the other hand, the most important analogous processes identified are: i) the upward injection of CO2, which would be analogous to the downward injection of the anthropogenic CO2, this last with a δ13C(V-PDB) of ~ -30 ‰; ii) the dissolution of CO2 and 222Rn in groundwater of the deep aquifer, which would be analogous to the dissolution of these gases in the storage formation of a CO2-DGS; iii) the contamination of the shallow aquifers by the uprising of CO2-oversaturated groundwater, an analogous process to the contamination that would occur in shallow aquifers located above a CO2-DGS, whenever it was naturally (reactivation of faults) or artificially (wells) perturbed; iv) the degassing (CO2 and associated gases, among which 222Rn is remarkable) of the deep saline aquifer through wells, process which could be similar in a perturbed CO2- DGS; v) the rapid formation of travertines, indicating that the CO2-DGS has lost its seal capacity. The identification of the most important analogies has also allowed analysing and evaluating, approximately, the behaviour and safety in the short, medium and long term, of a CO2-DGS hosted in a similar geological context of the natural system studied. For that, it has been followed the methodology based on the analysis and identification of FEPs (Features, Events and Processes) that have been combined together in order to generate and analyse different scenarios of the system evolution (scenario analysis). These identified scenarios in the perturbed natural system, related to boreholes, overexploitation of aquifers, rapid precipitation of travertines, etc., would be similar to those that might occur in a CO2-DGS anthropogenically perturbed, so that it is absolutely necessary to avoid the artificial perturbation of the seal formation of a CO2-DGS. Finally, a useful methodology for the study of possible sites for a CO2-DGS is suggested based on the information obtained from this investigation, taking into account the lessons learned from this CO2 natural reservoir. This methodology comprises several phases of study, including the geological and structural characterisation of the site and its components (water, rock and gases), the identification of the analogies between a CO2 storage natural system and a conceptual model of a CO2-DGS, and the implications regarding the behaviour and safety of a CO2-DGS.
Resumo:
The European chestnut (Castanea sativa Mill.) is a multipurpose species that has been widely cultivated around the Mediterranean basin since ancient times. New varieties were brought to the Iberian Peninsula during the Roman Empire, which coexist since then with native populations that survived the last glaciation. The relevance of chestnut cultivation has being steadily growing since the Middle Ages, until the rural decline of the past century put a stop to this trend. Forest fires and diseases were also major factors. Chestnut cultivation is gaining momentum again due to its economic (wood, fruits) and ecologic relevance, and represents currently an important asset in many rural areas of Europe. In this Thesis we apply different molecular tools to help improve current management strategies. For this study we have chosen El Bierzo (Castile and Leon, NW Spain), which has a centenary tradition of chestnut cultivation and management, and also presents several unique features from a genetic perspective (next paragraph). Moreover, its nuts are widely appreciated in Spain and abroad for their organoleptic properties. We have focused our experimental work on two major problems faced by breeders and the industry: the lack of a fine-grained genetic characterization and the need for new strategies to control blight disease. To characterize with sufficient detail the genetic diversity and structure of El Bierzo orchards, we analyzed DNA from 169 trees grafted for nut production covering the entire region. We also analyzed 62 nuts from all traditional varieties. El Bierzo constitutes an outstanding scenario to study chestnut genetics and the influence of human management because: (i) it is located at one extreme of the distribution area; (ii) it is a major glacial refuge for the native species; (iii) it has a long tradition of human management (since Roman times, at least); and (iv) its geographical setting ensures an unusual degree of genetic isolation. Thirteen microsatellite markers provided enough informativeness and discrimination power to genotype at the individual level. Together with an unexpected level of genetic variability, we found evidence of genetic structure, with three major gene pools giving rise to the current population. High levels of genetic differentiation between groups supported this organization. Interestingly, genetic structure does not match with spatial boundaries, suggesting that the exchange of material and cultivation practices have strongly influenced natural gene flow. The microsatellite markers selected for this study were also used to classify a set of 62 samples belonging to all traditional varieties. We identified several cases of synonymies and homonymies, evidencing the need to substitute traditional classification systems with new tools for genetic profiling. Management and conservation strategies should also benefit from these tools. The avenue of high-throughput sequencing technologies, combined with the development of bioinformatics tools, have paved the way to study transcriptomes without the need for a reference genome. We took advantage of RNA sequencing and de novo assembly tools to determine the transcriptional landscape of chestnut in response to blight disease. In addition, we have selected a set of candidate genes with high potential for developing resistant varieties via genetic engineering. Our results evidenced a deep transcriptional reprogramming upon fungal infection. The plant hormones ET and JA appear to orchestrate the defensive response. Interestingly, our results also suggest a role for auxins in modulating such response. Many transcription factors were identified in this work that interact with promoters of genes involved in disease resistance. Among these genes, we have conducted a functional characterization of a two major thaumatin-like proteins (TLP) that belongs to the PR5 family. Two genes encoding chestnut cotyledon TLPs have been previously characterized, termed CsTL1 and CsTL2. We substantiate here their protective role against blight disease for the first time, including in silico, in vitro and in vivo evidence. The synergy between TLPs and other antifungal proteins, particularly endo-p-1,3-glucanases, bolsters their interest for future control strategies based on biotechnological approaches.
Resumo:
La presente tesis investiga sobre la manera en que la arquitectura se ha construido para utilizar la luz natural, con el fin de aplicar estos conocimientos a la rehabilitación de edificios históricos. Para ello es necesario conocer aspectos técnicos en el uso de la luz, partiendo por comprender cuáles son los fenómenos físicos que debiéramos conocer los arquitectos para poder utilizarla adecuadamente. Es necesario también saber cómo es el comportamiento de los materiales frente a la luz y cómo utilizar¬los en el contexto rehabilitación. Dentro de los aspectos técnicos, se establece cuáles son las estrate¬gias, los sistemas y las tecnologías necesarias para la utilización de la luz en arquitectura, y se organiza esta información con el fin de hacerla clara, accesible y útil. Sin embargo, la luz no puede ser empleada en forma adecuada si no se conocen los requerimientos y las necesidades que el ser humano tiene respecto de ella, para habitar en forma confortable y salu¬dable. Es por eso que se establecen a su vez los requerimientos humanos respecto de la luz desde el punto de vista de sus características biológicas, su percepción y sus necesidades ergonómicas. Como la tesis se enmarca dentro de la problemática de la rehabilitación de edificios históricos, es necesario conocer cuál es la relación entre los procesos histórico-culturales y la técnica para utilizar la luz en la historia de la arquitectura. Se busca establecer la correlación entre historia y técnica, con el fin de responder en forma adecuada a los valores patrimoniales de un edificio histórico al alterar un aspecto tan importante como su iluminación natural. Con este conjunto de conocimientos técnicos, humanos e históricos establecidos en la primera parte de la tesis, se propone un protocolo de diseño para un proyecto de rehabilitación en cinco casos de estudio. Esta herramienta analiza el comportamiento actual de la luz para una determinada función, detecta los problemas lumínicos, establece criterios para la elección de soluciones y analiza el compor¬tamiento de estas soluciones. Finalmente compara los resultados lumínicos de las condiciones actua¬les y la solución propuesta. Por último, la investigación genera criterios que pueden ser aplicables a la normativa chilena de plani¬ficación territorial respecto del uso de la luz en contextos urbanos patrimoniales. ABSTRACT This thesis addresses how the architecture has been built to use natural light, in order to apply this knowledge to the historic buildings rehabilitation. This requires knowing technical aspects in the use of light, starting to understand what physical phenomena we, the architects, should know to use it properly. It is also necessary to know how materials behave in regards to light and how to use it in the rehabilitation context. Among the technical aspects, we should define strategies, systems and techno¬logies necessary for the use of light in architecture, and organize this information in order to make it clear, available and useful. However, light cannot be used properly if are not known requirements and needs that human beings have towards it, to live in comfortable and healthy way. That is why light human requirements are determined to know how light influences their cycles, perception and comfort. As the thesis is in frame of rehabilitation of historic building problem, it is necessary to know how is the relationship between historic-cultural processes and technology of light use, in the architecture history. It seeks to establish the correlation between History and technology, in order to give an ade¬quately answer to the heritage values of a historic building by altering an important aspect like its natural lighting. With this set of technical, human and historical knowledge, established in the first part of the thesis, a protocol is proposed for a rehabilitation project design in five study cases. This tool analyzes current behavior of light for a specifically function, detects lighting problems, establishes criteria for the selec¬tion of solutions and analyzes solution behaviors. Additionally, it compares results of current lighting conditions and the proposed solution. Finally this research generates criteria that may be applicable to Chilean territorial planning legislation, regarding use of light in patrimonial urban contexts.
Resumo:
In opposition to the current period of upheaval and manifest limitations of the quantitative methods to develop forecasting models for reliable in medium and long term future scenarios, it is increasingly necessary turning to qualitative approaches which minimize the impact of unexpected consequences: foresight. Flexible models from the new progress on complex systems development, but seen from the other side, the negative thinking. This is an instrument that looks like so contemporary but it could be inherent to the whole interdisciplinary knowledge transfer. RESUMEN Ante el convulso panorama actual y las patentes limitaciones de los métodos cuantitativos para el desarrollo de modelos de previsión de escenarios futuros fi ables a medio y largo plazo, resulta cada vez más necesario, recurrir a planteamientos cualitativos que minimicen el impacto de las consecuencias imprevistas: la prospectiva. Modelos fl exibles procedentes de los nuevos avances en el desarrollo de los sistemas complejos, pero desde un enfoque distinto, el pensamiento negativo. Un instrumento que si bien parece ser completamente contemporáneo, sería inherente a toda transferencia interdisciplinar de conocimiento.
Resumo:
La presente tesis es un estudio analítico y numérico del electrospray. En la configuración más sencilla, un caudal constante del líquido a atomizar, que debe tener una cierta conductividad eléctrica, se inyecta en un medio dieléctrico (un gas u otro líquido inmiscible con el primero) a través de un tubo capilar metálico. Entre este tubo y un electrodo lejano se aplica un voltaje continuo que origina un campo eléctrico en el líquido conductor y en el espacio que lo rodea. El campo eléctrico induce una corriente eléctrica en el líquido, que acumula carga en su superficie, y da lugar a un esfuerzo eléctrico sobre la superficie, que tiende a alargarla en la dirección del campo eléctrico. El líquido forma un menisco en el extremo del tubo capilar cuando el campo eléctrico es suficientemente intenso y el caudal suficientemente pequeño. Las variaciones de presión y los esfuerzos viscosos asociados al movimiento del líquido son despreciables en la mayor parte de este menisco, siendo dominantes los esfuerzos eléctrico y de tensión superficial que actúan sobre la superficie del líquido. En el modo de funcionamiento llamado de conochorro, el balance de estos esfuerzos hace que el menisco adopte una forma cónica (el cono de Taylor) en una región intermedia entre el extremo del tubo y la punta del menisco. La velocidad del líquido aumenta al acercarse al vértice del cono, lo cual propicia que las variaciones de la presión en el líquido generadas por la inercia o por la viscosidad entren en juego, desequilibrando el balance de esfuerzos mencionado antes. Como consecuencia, del vértice del cono sale un delgado chorro de líquido, que transporta la carga eléctrica que se acumula en la superficie. La acción del campo eléctrico tangente a la superficie sobre esta carga origina una tracción eléctrica que tiende a alargar el chorro. Esta tracción no es relevante en el menisco, donde el campo eléctrico tangente a la superficie es muy pequeño, pero se hace importante en el chorro, donde es la causa del movimiento del líquido. Lejos del cono, el chorro puede o bien desarrollar una inestabilidad asimétrica que lo transforma en una espiral (whipping) o bien romperse en un spray de gotas prácticamente monodispersas cargadas eléctricamente. La corriente eléctrica transportada por el líquido es la suma de la corriente de conducción en el interior del líquido y la corriente debida a la convección de la carga acumulada en su superficie. La primera domina en el menisco y la segunda en el chorro lejano, mientras que las dos son comparables en una región intermedia de transferencia de corriente situada al comienzo del chorro aunque aguas abajo de la región de transición cono-chorro, en la que el menisco deja de ser un cono de Taylor. Para un campo exterior dado, la acumulación de carga eléctrica en la superficie del líquido reduce el campo eléctrico en el interior del mismo, que llega a anularse cuando la carga alcanza un estado final de equilibrio. El tiempo característico de este proceso es el tiempo de relajación dieléctrica, que es una propiedad del líquido. Cuando el tiempo de residencia del líquido en la región de transición cono-chorro (o en otra región del campo fluido) es grande frente al tiempo de relajación dieléctrica, la carga superficial sigue una sucesión de estados de equilibrio y apantalla al líquido del campo exterior. Cuando esta condición deja de cumplirse, aparecen efectos de relajación de carga, que se traducen en que el campo exterior penetra en el líquido, a no ser que su constante dieléctrica sea muy alta, en cuyo caso el campo inducido por la carga de polarización evita la entrada del campo exterior en el menisco y en una cierta región del chorro. La carga eléctrica en equilibrio en la superficie de un menisco cónico intensifica el campo eléctrico y determina su variación espacial hasta distancias aguas abajo del menisco del orden de su tamaño. Este campo, calculado por Taylor, es independiente del voltaje aplicado, por lo que las condiciones locales del flujo y el valor de la corriente eléctrica son también independientes del voltaje en tanto los tamaños de las regiones que determinan estas propiedades sean pequeños frente al tamaño del menisco. Los resultados experimentales publicados en la literatura muestran que existe un caudal mínimo para el que el modo cono-chorro que acabamos de describir deja de existir. El valor medio y la desviación típica de la distribución de tamaños de las gotas generadas por un electrospray son mínimos cuando se opera cerca del caudal mínimo. A pesar de que los mecanismos responsables del caudal mínimo han sido muy estudiados, no hay aún una teoría completa del mismo, si bien su existencia parece estar ligada a la aparición de efectos de relajación de carga en la región de transición cono-chorro. En esta tesis, se presentan estimaciones de orden de magnitud, algunas existentes y otras nuevas, que muestran los balances dominantes responsables de las distintas regiones de la estructura asintótica de la solución en varios casos de interés. Cuando la inercia del líquido juega un papel en la transición cono-chorro, los resultados muestran que la región de transferencia de corriente, donde la mayor parte de la corriente pasa a la superficie, está en el chorro aguas abajo de la región de transición cono-chorro. Los efectos de relajación de carga aparecen de forma simultánea en el chorro y la región de transición cuando el caudal se disminuye hasta valores de un cierto orden. Para caudales aún menores, los efectos de relajación de carga se notan en el menisco, en una región grande comparada con la de transición cono-chorro. Cuando el efecto de las fuerzas de viscosidad es dominante en la región de transición, la región de transferencia de corriente está en el chorro pero muy próxima a la región de transición cono-chorro. Al ir disminuyendo el caudal, los efectos de relajación de carga aparecen progresivamente en el chorro, en la región de transición y por último en el menisco. Cuando el caudal es mucho mayor que el mínimo del modo cono-chorro, el menisco deja de ser cónico. El campo eléctrico debido al voltaje aplicado domina en la región de transferencia de corriente, y tanto la corriente eléctrica como el tamaño de las diferentes regiones del problema pasan a depender del voltaje aplicado. Como resultado de esta dependencia, el plano caudal-voltaje se divide en diferentes regiones que se analizan separadamente. Para caudales suficientemente grandes, la inercia del líquido termina dominando frente a las fuerzas de la viscosidad. Estos resultados teóricos se han validado con simulaciones numéricas. Para ello se ha formulado un modelo simplificado del flujo, el campo eléctrico y el transporte de carga en el menisco y el chorro del electrospray. El movimiento del líquido se supone casi unidireccional y se describe usando la aproximación de Cosserat para un chorro esbelto. Esta aproximación, ampliamente usada en la literatura, permite simular con relativa facilidad múltiples casos y cubrir amplios rangos de valores de los parámetros reteniendo los efectos de la viscosidad y la inercia del líquido. Los campos eléctricos dentro y fuera del liquido están acoplados y se calculan sin simplificación alguna usando un método de elementos de contorno. La solución estacionaria del problema se calcula mediante un método iterativo. Para explorar el espacio de los parámetros, se comienza calculando una solución para valores fijos de las propiedades del líquido, el voltaje aplicado y el caudal. A continuación, se usa un método de continuación que permite delinear la frontera del dominio de existencia del modo cono-chorro, donde el método iterativo deja de converger. Cuando el efecto de la inercia del líquido domina en la región de transición cono-chorro, el caudal mínimo para el cual el método iterativo deja de converger es del orden del valor estimado del caudal para el que comienza a haber efectos de relajación de carga en el chorro y el cono. Aunque las simulaciones no convergen por debajo de dicho caudal, el valor de la corriente eléctrica para valores del caudal ligeramente mayores parece ajustarse a las estimaciones para caudales menores, reflejando un posible cambio en los balances aplicables. Por el contrario, cuando las fuerzas viscosas dominan en la región de transición, se pueden obtener soluciones estacionarias para caudales bastante menores que aquel para el que aparecen efectos de relajación de carga en la región de transición cono-chorro. Los resultados numéricos obtenidos para estos pequeños caudales se ajustan perfectamente a las estimaciones de orden de magnitud que se describen en la memoria. Por último, se incluyen como anexos dos estudios teóricos que han surgido de forma natural durante el desarrollo de la tesis. El primero hace referencia a la singularidad en el campo eléctrico que aparece en la línea de contacto entre el líquido y el tubo capilar en la mayoría de las simulaciones. Primero se estudia en qué situaciones el campo eléctrico tiende a infinito en la línea de contacto. Después, se comprueba que dicha singularidad no supone un fallo en la descripción del problema y que además no afecta a la solución lejos de la línea de contacto. También se analiza si los esfuerzos eléctricos infinitamente grandes a los que da lugar dicha singularidad pueden ser compensados por el resto de esfuerzos que actúan en la superficie del líquido. El segundo estudio busca determinar el tamaño de la región de apantallamiento en un chorro de líquido dieléctrico sin carga superficial. En esta región, el campo exterior es compensado parcialmente por el campo que induce la carga de polarización en la superficie del líquido, de forma que en el interior del líquido el campo eléctrico es mucho menor que en el exterior. Una región como ésta aparece en las estimaciones cuando los efectos de relajación de carga son importantes en la región de transferencia de corriente en el chorro. ABSTRACT This aim of this dissertation is a theoretical and numerical analysis of an electrospray. In its most simple configuration, a constant flow rate of the liquid to be atomized, which has to be an electrical conductor, is injected into a dielectric medium (a gas or another inmiscible fluid) through a metallic capillary tube. A constant voltage is applied between this tube and a distant electrode that produces an electric field in the liquid and the surrounding medium. This electric field induces an electric current in the liquid that accumulates charge at its surface and leads to electric stresses that stretch the surface in the direction of the electric field. A meniscus appears on the end of the capillary tube when the electric field is sufficiently high and the flow rate is small. Pressure variations and viscous stresses due to the motion of the liquid are negligible in most of the meniscus, where normal electric and surface tension stresses acting on the surface are dominant. In the so-called cone-jet mode, the balance of these stresses forces the surface to adopt a conical shape -Taylor cone- in a intermediate region between the end of the tube and the tip of the meniscus. When approaching the cone apex, the velocity of the liquid increases and leads to pressure variations that eventually disturb the balance of surfaces tension and electric stresses. A thin jet emerges then from the tip of the meniscus that transports the charge accumulated at its surface. The electric field tangent to the surface of the jet acts on this charge and continuously stretches the jet. This electric force is negligible in the meniscus, where the component of the electric field tangent to the surface is small, but becomes very important in the jet. Far from the cone, the jet can either develop an asymmetrical instability named “whipping”, whereby the jet winds into a spiral, or break into a spray of small, nearly monodisperse, charged droplets. The electric current transported by the liquid has two components, the conduction current in the bulk of the liquid and the convection current due to the transport of the surface charge by the flow. The first component dominates in the meniscus, the second one in the far jet, and both are comparable in a current transfer region located in the jet downstream of the cone-jet transition region where the meniscus ceases to be a Taylor cone. Given an external electric field, the charge that accumulates at the surface of the liquid reduces the electric field inside the liquid, until an equilibrium is reached in which the electric field induced by the surface charge counters the external electric field and shields the liquid from this field. The characteristic time of this process is the electric relaxation time, which is a property of the liquid. When the residence time of the liquid in the cone-jet transition region (or in other region of the flow) is greater than the electric relaxation time, the surface charge follows a succession of equilibrium states and continuously shield the liquid from the external field. When this condition is not satisfied, charge relaxation effects appear and the external field penetrates into the liquid unless the liquid permittivity is large. For very polar liquids, the field due to the polarization charge at the surface prevents the external field from entering the liquid in the cone and in certain region of the jet. The charge at the surface of a conical meniscus intensifies the electric field around the cone, determining its spatial variation up to distances downstream of the apex of the order of the size of the meniscus. This electric field, first computed by Taylor, is independent of the applied voltage. Therefore local flow characteristics and the electric current carried by the jet are also independent of the applied voltage provided the size of the regions that determine these magnitudes are small compared with the size of the meniscus. Many experiments in the literature show the existence of a minimum flow rate below which the cone-jet mode cannot be established. The mean value and the standard deviation of the electrospray droplet size distribution are minimum when the device is operated near the minimum flow rate. There is no complete explanation of the minimum flow rate, even though possible mechanisms have been extensively studied. The existence of a minimum flow rate seems to be connected with the appearance of charge relaxation effects in the transition region. In this dissertation, order of magnitude estimations are worked out that show the dominant balances in the different regions of the asymptotic structure of the solution for different conditions of interest. When the inertia of the liquid plays a role in the cone-jet transition region, the region where most of the electric current is transfered to the surface lies in the jet downstream the cone-jet transition region. When the flow rate decreases to a certain value, charge relaxation effects appear simultaneously in the jet and in the transition region. For smaller values of the flow rate, charge relaxation effects are important in a region of the meniscus larger than the transition region. When viscous forces dominate in the flow in the cone-jet transition region, the current transfer region is located in the jet immediately after the transition region. When flow rate is decreased, charge relaxation effects appears gradually, first in the jet, then in the transition region, and finally in the meniscus. When flow rate is much larger than the cone-jet mode minimum, the meniscus ceases to be a cone. The electric current and the structure of the solution begin to depend on the applied voltage. The flow rate-voltage plane splits into different regions that are analyzed separately. For sufficiently large flow rates, the effect of the inertia of the liquid always becomes greater than the effect of the viscous forces. A set of numerical simulations have been carried out in order to validate the theoretical results. A simplified model of the problem has been devised to compute the flow, the electric field and the surface charge in the meniscus and the jet of an electrospray. The motion of the liquid is assumed to be quasi-unidirectional and described by Cosserat’s approximation for a slender jet. This widely used approximation allows to easily compute multiple configurations and to explore wide ranges of values of the governing parameters, retaining the effects of the viscosity and the inertia of the liquid. Electric fields inside and outside the liquid are coupled and are computed without any simplification using a boundary elements method. The stationary solution of the problem is obtained by means of an iterative method. To explore the parameter space, a solution is first computed for a set of values of the liquid properties, the flow rate and the applied voltage, an then a continuation method is used to find the boundaries of the cone-jet mode domain of existence, where the iterative method ceases to converge. When the inertia of the liquid dominates in the cone-jet transition region, the iterative method ceases to converge for values of the flow rate for which order-of-magnitude estimates first predict charge relaxation effects to be important in the cone and the jet. The electric current computed for values of the flow rate slightly above the minimum for which convergence is obtained seems to agree with estimates worked out for lower flow rates. When viscous forces dominate in the transition region, stationary solutions can be obtained for flow rates significantly smaller than the one for which charge relaxation effects first appear in the transition region. Numerical results obtained for those small values of the flow rate agree with our order of magnitude estimates. Theoretical analyses of two issues that have arisen naturally during the thesis are summarized in two appendices. The first appendix contains a study of the singularity of the electric field that most of the simulations show at the contact line between the liquid and the capillary tube. The electric field near the contact line is analyzed to determine the ranges of geometrical configurations and liquid permittivity where a singularity appears. Further estimates show that this singularity does not entail a failure in the description of the problem and does not affect the solution far from the contact line. The infinite electric stresses that appear at the contact line can be effectively balanced by surface tension. The second appendix contains an analysis of the size and slenderness of the shielded region of a dielectric liquid in the absence of free surface charge. In this region, the external electric field is partially offset by the polarization charge so that the inner electric field is much lower than the outer one. A similar region appears in the estimates when charge relaxation effects are important in the current transfer region.
Resumo:
habilidades de comprensión y resolución de problemas. Tanto es así que se puede afirmar con rotundidad que no existe el método perfecto para cada una de las etapas de desarrollo y tampoco existe el modelo de ciclo de vida perfecto: cada nuevo problema que se plantea es diferente a los anteriores en algún aspecto y esto hace que técnicas que funcionaron en proyectos anteriores fracasen en los proyectos nuevos. Por ello actualmente se realiza un planteamiento integrador que pretende utilizar en cada caso las técnicas, métodos y herramientas más acordes con las características del problema planteado al ingeniero. Bajo este punto de vista se plantean nuevos problemas. En primer lugar está la selección de enfoques de desarrollo. Si no existe el mejor enfoque, ¿cómo se hace para elegir el más adecuado de entre el conjunto de los existentes? Un segundo problema estriba en la relación entre las etapas de análisis y diseño. En este sentido existen dos grandes riesgos. Por un lado, se puede hacer un análisis del problema demasiado superficial, con lo que se produce una excesiva distancia entre el análisis y el diseño que muchas veces imposibilita el paso de uno a otro. Por otro lado, se puede optar por un análisis en términos del diseño que provoca que no cumpla su objetivo de centrarse en el problema, sino que se convierte en una primera versión de la solución, lo que se conoce como diseño preliminar. Como consecuencia de lo anterior surge el dilema del análisis, que puede plantearse como sigue: para cada problema planteado hay que elegir las técnicas más adecuadas, lo que requiere que se conozcan las características del problema. Para ello, a su vez, se debe analizar el problema, eligiendo una técnica antes de conocerlo. Si la técnica utiliza términos de diseño entonces se ha precondicionado el paradigma de solución y es posible que no sea el más adecuado para resolver el problema. En último lugar están las barreras pragmáticas que frenan la expansión del uso de métodos con base formal, dificultando su aplicación en la práctica cotidiana. Teniendo en cuenta todos los problemas planteados, se requieren métodos de análisis del problema que cumplan una serie de objetivos, el primero de los cuales es la necesidad de una base formal, con el fin de evitar la ambigüedad y permitir verificar la corrección de los modelos generados. Un segundo objetivo es la independencia de diseño: se deben utilizar términos que no tengan reflejo directo en el diseño, para que permitan centrarse en las características del problema. Además los métodos deben permitir analizar problemas de cualquier tipo: algorítmicos, de soporte a la decisión o basados en el conocimiento, entre otros. En siguiente lugar están los objetivos relacionados con aspectos pragmáticos. Por un lado deben incorporar una notación textual formal pero no matemática, de forma que se facilite su validación y comprensión por personas sin conocimientos matemáticos profundos pero al mismo tiempo sea lo suficientemente rigurosa para facilitar su verificación. Por otro lado, se requiere una notación gráfica complementaria para representar los modelos, de forma que puedan ser comprendidos y validados cómodamente por parte de los clientes y usuarios. Esta tesis doctoral presenta SETCM, un método de análisis que cumple estos objetivos. Para ello se han definido todos los elementos que forman los modelos de análisis usando una terminología independiente de paradigmas de diseño y se han formalizado dichas definiciones usando los elementos fundamentales de la teoría de conjuntos: elementos, conjuntos y relaciones entre conjuntos. Por otro lado se ha definido un lenguaje formal para representar los elementos de los modelos de análisis – evitando en lo posible el uso de notaciones matemáticas – complementado con una notación gráfica que permite representar de forma visual las partes más relevantes de los modelos. El método propuesto ha sido sometido a una intensa fase de experimentación, durante la que fue aplicado a 13 casos de estudio, todos ellos proyectos reales que han concluido en productos transferidos a entidades públicas o privadas. Durante la experimentación se ha evaluado la adecuación de SETCM para el análisis de problemas de distinto tamaño y en sistemas cuyo diseño final usaba paradigmas diferentes e incluso paradigmas mixtos. También se ha evaluado su uso por analistas con distinto nivel de experiencia – noveles, intermedios o expertos – analizando en todos los casos la curva de aprendizaje, con el fin de averiguar si es fácil de aprender su uso, independientemente de si se conoce o no alguna otra técnica de análisis. Por otro lado se ha estudiado la capacidad de ampliación de modelos generados con SETCM, para comprobar si permite abordar proyectos realizados en varias fases, en los que el análisis de una fase consista en ampliar el análisis de la fase anterior. En resumidas cuentas, se ha tratado de evaluar la capacidad de integración de SETCM en una organización como la técnica de análisis preferida para el desarrollo de software. Los resultados obtenidos tras esta experimentación han sido muy positivos, habiéndose alcanzado un alto grado de cumplimiento de todos los objetivos planteados al definir el método.---ABSTRACT---Software development is an inherently complex activity, which requires specific abilities of problem comprehension and solving. It is so difficult that it can even be said that there is no perfect method for each of the development stages and that there is no perfect life cycle model: each new problem is different to the precedent ones in some respect and the techniques that worked in other problems can fail in the new ones. Given that situation, the current trend is to integrate different methods, tools and techniques, using the best suited for each situation. This trend, however, raises some new problems. The first one is the selection of development approaches. If there is no a manifestly single best approach, how does one go about choosing an approach from the array of available options? The second problem has to do with the relationship between the analysis and design phases. This relation can lead to two major risks. On one hand, the analysis could be too shallow and far away from the design, making it very difficult to perform the transition between them. On the other hand, the analysis could be expressed using design terminology, thus becoming more a kind of preliminary design than a model of the problem to be solved. In third place there is the analysis dilemma, which can be expressed as follows. The developer has to choose the most adequate techniques for each problem, and to make this decision it is necessary to know the most relevant properties of the problem. This implies that the developer has to analyse the problem, choosing an analysis method before really knowing the problem. If the chosen technique uses design terminology then the solution paradigm has been preconditioned and it is possible that, once the problem is well known, that paradigm wouldn’t be the chosen one. The last problem consists of some pragmatic barriers that limit the applicability of formal based methods, making it difficult to use them in current practice. In order to solve these problems there is a need for analysis methods that fulfil several goals. The first one is the need of a formal base, which prevents ambiguity and allows the verification of the analysis models. The second goal is design-independence: the analysis should use a terminology different from the design, to facilitate a real comprehension of the problem under study. In third place the analysis method should allow the developer to study different kinds of problems: algorithmic, decision-support, knowledge based, etc. Next there are two goals related to pragmatic aspects. Firstly, the methods should have a non mathematical but formal textual notation. This notation will allow people without deep mathematical knowledge to understand and validate the resulting models, without losing the needed rigour for verification. Secondly, the methods should have a complementary graphical notation to make more natural the understanding and validation of the relevant parts of the analysis. This Thesis proposes such a method, called SETCM. The elements conforming the analysis models have been defined using a terminology that is independent from design paradigms. Those terms have been then formalised using the main concepts of the set theory: elements, sets and correspondences between sets. In addition, a formal language has been created, which avoids the use of mathematical notations. Finally, a graphical notation has been defined, which can visually represent the most relevant elements of the models. The proposed method has been thoroughly tested during the experimentation phase. It has been used to perform the analysis of 13 actual projects, all of them resulting in transferred products. This experimentation allowed evaluating the adequacy of SETCM for the analysis of problems of varying size, whose final design used different paradigms and even mixed ones. The use of the method by people with different levels of expertise was also evaluated, along with the corresponding learning curve, in order to assess if the method is easy to learn, independently of previous knowledge on other analysis techniques. In addition, the expandability of the analysis models was evaluated, assessing if the technique was adequate for projects organised in incremental steps, in which the analysis of one step grows from the precedent models. The final goal was to assess if SETCM can be used inside an organisation as the preferred analysis method for software development. The obtained results have been very positive, as SETCM has obtained a high degree of fulfilment of the goals stated for the method.
Resumo:
Las rápidas y continuas transformaciones urbanas que experimentan las ciudades actuales han generado importantes cambios en la forma en que se vive, experimenta y percibe la vida en ellas. Estos procesos de transformación, a veces fruto del rápido crecimiento de los entornos urbanos, de su heterogeneidad, de sus dinámicas económicas, de la confrontación de las diferencias sociales de los habitantes o simplemente producto de nuevos usos en los entornos, han propiciado un creciente interés por comprender el efecto que un determinado contexto urbano tiene sobre el individuo y viceversa. O dicho de forma más general, se ha buscado comprender la relación entre el ser humano y el entorno. Así, más recientemente, la atención de muchos estudios se ha posado también en los patrones de uso de los espacios, los cuales van acompañados de una infinidad de cogniciones y valoraciones surgidas en los residentes producto de sus experiencias con el entorno construido. Dentro del desarrollo de estas investigaciones, han surgido una gran variedad de conceptos que han sido identificados por la trascendencia que tienen sobre el vínculo entre el individuo y el contexto, entre los cuales encontramos los conceptos de Identidad, Apropiación de lugar, Sentido de Comunidad y Satisfacción residencial. Este trabajo, tomando como base estos cuatro conceptos, se ha preocupado por comprender la forma en que éstos se relacionan con una serie de variables socio-demográficas, físico-urbanas y cognitivas en la dimensión urbana, con el propósito de valorar el poder de estos constructos —y las variables vinculadas— con los procesos de transformación urbana. La finalidad de la realización de dicho análisis se sustenta en poder identificar como estos factores son tomados en consideración en el urbanismo para así poder reconocer diversas opciones para mediar o incidir sobre estas variables desde las políticas públicas, la planificación urbana o el proyecto urbano. Esto pues, se parte del entendimiento de que la práctica urbanística tiene la opción de interceder sobre una serie de cuestiones que afectan directamente el bienestar y la calidad de vida de las personas, por lo cual su absoluto entendimiento sobre los efectos que fenómenos urbanos como éstos tienen sobre los entornos, es de gran transcendencia para la disciplina. Por tanto, esta investigación ha recopilado y analizado, mediante diferentes herramientas estadísticas, gran cantidad de datos provenientes de una encuesta realizada en un barrio de la ciudad de Madrid, que le han permitido identificar las variables que más peso tienen en los procesos urbanos que desembocan en una mayor Identificación, Apropiación, Sentido de Comunidad y Satisfacción Residencial en el individuo. Esta primera etapa, permitió posteriormente indagar, con ayuda de un panel de expertos urbanistas, sobre las posibilidades de la disciplina para mediar o interceder sobre esos aspectos, lo que nos permitió finalmente alcanzar algunos resultados y conclusiones que permiten valorar las opciones de las diferentes escalas de intervención urbana y los retos de cara al futuro de trabajos sobre esta temática. ABSTRACT The fast and continuous urban transformations that current major cities experience, have generated important changes in the way in which we live, experience and perceive life in them. These transformation processes, sometimes result of rapid growth of urban environments, of their heterogeneity, of their economic dynamics, of the confrontation of social differences amongst its population or just as a product of new ways environments are used, have led to a growing interest in understanding the effect that a given urban context has on the individual and vice versa. In other words, it’s sought to understand the relationship between human beings and the environment. Thus, more recently, the attention of many studies have also focused in the patterns of use of space, which are accompanied by a multitude of cognitions and valuations arising in residents product of their experiences with the built environment. Within the development of those investigations, there have been a great variety of concepts that have been identified due to the importance they have on the relationship between the individual and the context, among which are the concepts of identity, appropriation of place, sense of community and residential satisfaction. This work, based on these four concepts, has been concerned with understanding how they relate to a series of socio-demographic, physical and cognitive variables in an urban dimension, in order to assess the power of these constructs —and related variables— with urban transformation processes. The purpose of that analysis is based on being able to identify how these factors are taken into consideration in planning, in order to recognize different options to mediate or influence on these variables from public policies, urban planning or urban project. This then, is on the understanding that the planning practice has the option to intercede on a number of issues that directly affect the welfare and quality of life of people, so the absolute understanding of the effects of urban phenomena like these have over environments, is of great importance to the discipline. Therefore, this research has collected and analyzed, using different statistical tools, lots of data obtained from a survey performed in a neighborhood of the city of Madrid, which enabled it to identify the variables that have more weight in urban processes that lead in higher identification, appropriation, sense of community and residential satisfaction in the individual. This first step, then allows investigating, with the help of a panel of expert planners, on the possibility of the discipline to mediate or intercede on these aspects, which ultimately enabled us to achieve some results and conclusions that allow evaluating the options of different scales of urban intervention and challenges for the future of work on this subject.
Resumo:
La producción habitacional moderna chilena del siglo xx proporcionó modelos valiosos en los que abundaban espacios proclives al encuentro de la comunidad que, además, han logrado perdurar en el tiempo. Sin embargo, el estado de degradación en que se encuentran algunos de estos conjuntos ha puesto en entredicho sus cualidades efectivas para resolver el problema de la vivienda, tanto por su racionalidad excesiva como por su escasa capacidad para acoger los modos de vida propios de sus habitantes. A día de hoy, ante la masificación indiscriminada del mercado inmobiliario, cabe plantearse una mirada retrospectiva hacia algunos de estos conjuntos que mediaron entre la renovación y la realidad local preexistente, como ocurrió en algunos contextos geográficos complejos como el ‘Gran Valparaíso’. Las ciudades de Valparaíso y Viña del Mar destacan por su peculiar morfología urbana entre planicie y cerros, conformada tanto por construcciones espontáneas como planificadas, generalmente adaptadas a la geografía. La aparición de nuevos modelos en altura en los cerros tuvo consecuencias significativas para la escala del barrio y la ciudad, como la apropiación del patrimonio común de los ciudadanos —la vista hacia el paisaje de la bahía— y un cierto descontrol en las relaciones entre lo construido y su entorno inmediato. Dicha situación se tradujo en la deshumanización de los espacios colectivos y la pérdida del ‘sentido de lo comunitario’, dos situaciones propias del habitar local. Sin embargo, algunos conjuntos modernos dieron importancia a este tipo de espacios, que utilizaron como complemento a los reducidos recintos comunes de la unidad habitacional. Así, mediante la integración de circulaciones, espacios comunitarios y dotaciones, se estimuló la ‘comunidad’ y se favoreció la relación socio-espacial entre la vecindad y el barrio. El hecho de que en su implantación recogiesen cualidades locales —o no— requiere de un estudio más exhaustivo, especialmente en lo que toca a los modos de vida asociados. Esta tesis presenta la trayectoria y el proceso de desarrollo comunitario de siete conjuntos habitacionales modernos construidos en Valparaíso y Viña del Mar. Una evolución que estuvo impulsada por las cualidades formales y funcionales de los espacios comunes, profundamente arraigados al lugar. A través de un análisis retrospectivo de los ámbitos de encuentro y la trayectoria de la vida cotidiana, y construido desde la documentación junto con los recuerdos de los habitantes originarios, este trabajo revisa el estado actual de dichos conjuntos, sus singularidades y los cambios que han experimentado en el tiempo. ABSTRACT The twentieth century’s Chilean modern housing production has provided valuable models in which abounded spaces likely to community encounter, that also have managed to survive over time. However, some modern housing complexes exhibit an evident state of deterioration, that contradicts their characteristics for solving housing problems, both for its excessive rationality as their limited capacity to accommodate the ways of life of its inhabitants. However while the housing market has established a model based on standardization and individuality, an evaluation of the real characteristics of the main modern constructions is required, that mediate between the renewal and the existing local reality especially in cities emplaced in geographic complexes such as the ‘Gran Valparaíso’. The cities of Valparaiso and Viña del Mar are notable for its unique urban morphology between flat land and hills, formed both by spontaneous as planned constructions, generally adapted to the geography. The emergence of these new height models, particularly in the hills, had significant consequences at neighborhood and city. On the one hand has implied ownership of the common heritage of the people —the view of the landscape of the bay— and on the other hand have devalued the relationship between the built and the immediate environment. That situation even involved the dehumanization of collective spaces and loss of ‘sense of community’, both part of the local ways of live. However some modern collective housing gave importance to such spaces as a way to address the lack of common spaces in the dwelling unit. Through the integration of circulations, community spaces and endowments, ‘community’ was stimulated and socio-spatial relationship between vicinity and the neighborhood was favored. The fact that in its implementation to collect local qualities —or not— requires further study, especially in terms of associated lifestyles. This thesis presents the trajectory and community development process of seven modern housing complexes built in Valparaíso and Viña del Mar. As will be seen, without a doubt the formal and functional qualities of common spaces prompted the neighborhood’s evolution, deeply rooted in place.. Through a built from the documentation with the memories of the original inhabitants retrospective analysis of the areas of encounter and experience of everyday life, this research reviews the current status of these sets, their singularities and the changes that have experienced over time.
Resumo:
“Quien contamina, paga“, con esta premisa surgió la idea de este Trabajo Fin de Máster, en adelante TFM, cuyo objetivo era identificar medidas alternativas reales para una optimización del proceso actual de gestión de residuos sólidos urbanos ante una sociedad cada vez más superpoblada y con mayores ratios de consumo. Cada español genera anualmente un volumen de 485 Kg de residuos, de los cuales únicamente el 33 % son reciclados y pueden volver a un flujo normal de uso, especialmente preocupante durante los últimos años es el auge de los productos envasados, tanto de bebidas como de alimentos , cuya utilización se ha duplicado en la última década. La motivación de este trabajo Fin de Máster ha sido la de poner de manifiesto que la sostenibilidad con el medioambiente puede ir de la mano de la rentabilidad y del progreso. Durante este TFM se ha estudiado y analizado la viabilidad económica de implantación de un nuevo modelo de depósito, devolución y retorno en el mercado retail español y como con la adopción de este nuevo sistema se pueden lograr beneficios tanto para el propio minorista, como para el medio ambiente con ratios de reciclado superiores al 98%. La preocupación por el medio ambiente empieza a ser una constante entre los consumidores españoles y dicha preocupación comienza a ser influenciadora en las decisiones de compra (productos eco, sostenibilidad…). Nuestra propuesta consiste en dotar a los principales distribuidores del sector retail español de un sistema de depósito, devolución y retorno para envases de bebidas capaz de generar diferenciación, innovación y rentabilidad frente a la competencia. Dicho sistema consiste en pagar un depósito por cada envase de bebida que se adquiera y su correspondiente devolución en la siguiente compra, una vez que se devuelva vacío al establecimiento. Para ello se ha analizado el sector de la distribución en España, especialmente la distribución de bebidas. Se trata de un sector muy competitivo, que presenta varios formatos en función del tamaño del establecimiento (Hipermercados, Supermercados, tiendas tradicionales). Las principales empresas distribuidoras (Carrefour, Mercadona, Alcampo, Eroski, DIA) se encuentran en procesos de cambios estratégicos para lograr atraer a más consumidores hacia sus tiendas, por lo que nuestra propuesta podrá añadir valor a la hora de influenciar en la decisión del lugar de compra. En nuestro caso, nos dirigiremos principalmente a las grandes empresas distribuidoras, Hipermercados de más de 2.500 m2 ,que cuentan con más de 500 puntos de venta y distribución donde existe la posibilidad real de implantar un SDDR. Además se ha realizado un estudio de mercado sobre la influencia de dicho sistema en el consumidor final, donde se ha detectado dos segmentos principales cuya decisión de compra se vería muy influenciada por la implantación de un SDDR, un segmento Sénior, entre 45-54 años, preocupados por el medio ambiente y con poder adquisitivo suficiente como para que el pago del depósito no sea bloqueante, y un segmento Junior, entre 18-24 años, también muy concienciado el medio ambiente, de capacidad económica menor pero qué influye en la decisión de compra de sus progenitores. Para llevar a cabo este plan de negocio será necesario una inversión inicial de 57.000 €, con unas expectativas de recuperación de dicha inversión en el primer año y una TIR del 56%, presentando un VAN de 127.961 € para los 7 años de vida del proyecto. Para dar a conocer a los clientes del Hipermercado los beneficios de utilizar un sistema SDDR, se realizarán campañas de marketing a través de diferentes canales, promociones de apertura, acciones de marketing exteriores y planes de fidelización. La organización e implantación en el Hipermercado será muy sencilla con roles claramente diferenciados, únicamente involucraría a unos 9 recursos definidos y en aproximadamente 3 meses desde el inicio del proyecto ya se podría ofertar dicho servicio a los clientes del Hipermercado. Además se han analizado los principales riesgos a los que se enfrentaría el negocio, ponderándose en una matriz impacto-probabilidad. Se han establecido medidas correctoras en el caso que dicho riesgo aflore. Habrá que tener especialmente precaución con la pérdida de ventas durante el arranque del negocio en el caso que esto ocurra, por lo que se deberá controlar el gasto, fomentar la captación de clientes y mantener un fondo de maniobra lo suficientemente elevado como para absorber dicho riesgo.---ABSTRACT---“Polluters pay”, with this premise this TFM aimed at identifying real alternative measures for optimization of the current process of solid waste management in a crowded society and with greater consumption ratios. Spaniards generates an annual volume of 485 kg of waste; only 33 % are recycled and can return to a normal flow. Specially concern is the increased of packaged product in recent years, mainly drink and food, their use has been duplicated in the last decade. The motivation for this Thesis was to highlight that sustainability, profitability and progress can go together. During this TFM has been studied and analyzed the economic feasibility of implementing a new model of deposit , refund and return in the Spanish retail market and as with the adoption of this new system can achieve benefits for the retailer itself therefore to the environment with ratios above 98% recycled. Concern for the environment is becoming a constant among Spanish consumers , and this concern is becoming influencer in purchasing decisions ( eco, sustainability ... ) . Our proposal is to provide the main distributors of the Spanish retail sector a system of deposit, refund and return for beverage containers capable of generating differentiation, innovation and profitability over the competition. This system is to pay a deposit for each beverage container they purchase and their corresponding return in the next purchase, once they return empty to the establishment. For this we have analyzed the distribution sector in Spain, especially the distribution of beverages. This is a highly competitive industry, which features various formats depending on the size of establishments (hypermarkets, supermarkets, traditional shops). The main distribution companies (Carrefour, Mercadona, Alcampo, Eroski, DIA) are in the process of strategic changes in order to attract more consumers to their stores, so that our approach can add value in influencing the decision of place shopping. In our case, we will go mainly to large distributors, Hypermarkets of over 2,500 m2, which have more than 500 outlets and distribution where there is a real possibility of implementing a SDDR. It has also conducted a market study on the influence of that system on the final consumer, which has detected two main segments whose purchasing decisions would be greatly influenced by the introduction of a SDDR, a Senior segment, 45-54 years concerned about the environment and purchasing power enough that the deposit is not blocking, and a Junior Segment, aged 18-24, also concern with environment, lower economic capacity but what influences the decision purchase of their parents). To carry out this business plan will require an initial investment of 57,000 €, with expectations of recovery of such investment in the first year and an IRR of 56%, with an NPV of € 127,961 for the 7 years of the project . To publicize hypermarket customers the benefits of using a SDDR system, marketing campaigns conducted through different channels, opening promotions, marketing activities and external loyalty schemes. The organization and implementation in the Hypermarket is easy with distinct roles, involve only about 9 resourced and in about 3 months from the start of the project and could offer this service to customers in the hypermarket. We have also analyzed the main risks and established corrective measures to surface that risk . We should take caution with lost sales during startup of the business, such as control spending, customer retention and maintaining enough working capital.
Resumo:
El taller de proyectos constituye el núcleo de la enseñanza arquitectónica. Estudiar sus procesos educativos en la actualidad implica la contextualización teórica del acto educativo y la revisión histórica de la evolución de su estructura social. Esta estructura, es heredera de la larga tradición del taller donde los maestros de obra, artesanos, arquitectos y artistas, se ocupaban desde siempre de la enseñanza de la construcción, de la artesanía, del diseño arquitectónico y del arte. Los aprendices se sometían a la autoridad de sus maestros y pasaban horas practicando, produciendo y aprendiendo junto a ellos. Con la aparición de las primeras Academias de arte y posteriormente de arquitectura, se evidenció un progresivo interés de los Estados hacía los productos artísticos y arquitectónicos. La consideración de las artes y de la arquitectura como proyecto estatal, supuso la construcción lenta, pero consolidable, de un proyecto educativo paralelo, coexistiendo simultáneamente con los talleres de los maestros, pero sin posibilidad de integración, hasta mucho más tarde. La “teoría”, que es de lo que se ocupaba la academia, con la “práctica” que es lo que se desarrollaba en el taller, no encontraban fácilmente la manera de encajarse y complementarse mutuamente en un proyecto educativo común. Las concepciones educativas de ambos, afrontaban la enseñanza y el aprendizaje desde puntos de vista también diferentes; mientras la Academia representaba el conocimiento validado y explicitado, en el taller se trabajaba con un conocimiento tácito e implícito. En la práctica artística del taller era donde se producía el aprendizaje mientras que en la Academia es donde se validaba. Esta estructura llegó en muchas ocasiones a situaciones extremas, no siendo casual que las más grandes crisis registradas en la historia de la enseñanza de las artes, coincidieran con un aumento de la distancia entre estas dos “instituciones”, talleres y academias. Por otra parte, parece que cualquier proyecto o concepto innovador, se ha fundado sobre la redistribución de estos equilibrios perdidos. En dicho contexto, en el campo de la educación y especialmente en el siglo XX, surge un debate que se estructura en base a los fines de la educación, contemplando dos posturas bien diferenciadas. Una de ellas sostiene como fin primordial de la educación, el desarrollo de la conciencia y la reciprocidad social del individuo. La otra, fija como fin el desarrollo de su singularidad. La búsqueda del equilibrio entre ambas, parte del interés por fomentar el crecimiento de lo que cada ser humano posee de individual, armonizándolo con la unidad orgánica del grupo social al que pertenece (Read 2010, 33). Sobre esta tensión se han basado muchos de los discursos pedagógicos y especialmente los aquí usados. La estructura social en los talleres de proyectos arquitectónicos, presenta hoy día una máxima integración entre las dos instituciones, el taller y la Academia, tanto a nivel del espacio, donde tiene lugar la enseñanza, como a nivel conceptual y pedagógico. Los talleres de proyectos poseen un formato de enseñanza y aprendizaje que constituye un paradigma (Schön, 2008) no solo dentro, sino también fuera del campo arquitectónico. Bajo este formato se complementa el aprendizaje práctico con el teórico y la producción, con la validación del conocimiento. Aunque tal estructura pedagógica presenta importantes variaciones entre unas escuelas de arquitectura y otras, los principales procesos que tienen lugar, son lo suficientemente similares, como para poder ser examinados desde una perspectiva común. Esta investigación, estudia el taller de proyectos desde un aspecto pedagógico, que contempla tanto los discursos educativos, como la historia de la evolución del taller como constructo social. El análisis se estructura sobre los elementos fundantes del acto didáctico: un sujeto que aprende, un sujeto que enseña, un método, la estrategia o procedimiento a través del que se enseña, un contenido y el propio acto docente (Sánchez Cerezo, 1994, 530). Además, se han añadido otros dos elementos que se consideran fundamentales para llevar a cabo el estudio: el contexto de la enseñanza, tanto el tangible como el intangible y la evaluación de la enseñanza y del aprendizaje. El caso de estudio de la presente investigación se sitúa en la Escuela de Arquitectura de Madrid en la actualidad. Sin embargo, no se pretende generar un retrato exacto de esta institución sino utilizarla como ejemplo principal en el desarrollo de los capítulos del método, contenido, acto docente y contexto, en los que también se introducen ejemplos de otras escuelas de arquitectura que amplían los argumentos presentados que constituyen la contextualización teórica del acto pedagógico en los talleres de proyectos arquitectónicos. ABSTRACT Design studio constitutes the core of architectural education. To study its current educational processes involves a theoretical approach of its educational praxis and an historic revision of how its social structure evolved. This structure is inherited from the long tradition of the workshop in which master masons, craftsmen, architects and artists have always been in charge of teaching construction, crafts, architectural design and art. Apprentices were subjected to the authority of their teachers and spent hours practicing, producing and learning along with them. With the establishment of the first Academies of Art and later of Architecture, the interest of the State in artistic and architectural products started growing. The understanding of arts and architecture as a state project entailed the slow, but robust development of a parallel education project. This project coexisted with the masters’ workshops, without the possibility of integration between two, until much later. It was difficult to find a way to synthesize academic “theory” with workshop “practice”. The workshops’ and the Academy's conception about teaching and learning differed significantly. While the Academy represented a verified and explicit knowledge, the workshop worked with a tacit and implicit knowledge. The workshops produced education through artistic practice, while the the Academy organized and verified knowledge. This dual framework has on occasions reached extremes. It is no accident that the biggest known crises in the history of arts education coincide with an increase in the distance between these two "institutions", the workshops and Academies. Furthermore, it seems that most innovative concepts or projects have been founded on restoring the lost balance between the two. In this context, in the field of education, and especially during the 20th century, a debate that contemplated the purpose of education and resulted in two quite differentiated approaches, emerged,. One position claims as the primary purpose of education the development of social awareness and mutuality in individuals. The other approach sets as a purpose developing each student's uniqueness. The quest for the right balance between these two positions is based on the assumption that the general purpose of education is to foster the growth of what is individual in each human being, at the same time harmonizing the individuality thus educed with the organic unity of the social group to which the individual belongs (Read, 2010, 33). This tension forms the basis for many pedagogical discourses, especially the ones utilized in this dissertation. The social structure of architecture studios today demonstrates a very high level of integration between the two institutions, the workshop and the Academy, both in terms of space —where the teaching takes place— as well as on a conceptual and pedagogical level. Architecture studios today have developed a format for teaching and learning that has established a paradigm (Schön, 2008) , not only in architecture, but also in other fields. Under this paradigm, practical and theoretical learning, as well as production and verification of knowledge, complement each other. And although this pedagogical structure presents important variations among different schools of architecture, the principal processes that take place in the studio are sufficiently similar so as to be examined from a common perspective. This research examines the architecture studio from a pedagogical point of view, that takes into account both the educational discourses, as well as the historical evolution of the workshop as a social structure. The analysis presented here is structured on the fundamentals of the teaching act: an individual learning, an individual teaching, a method, strategy or procedure for teaching and learning, the content and the teaching act itself (Sánchez Cerezo, 1994, 530). Two extra elements that were considered essential for carrying out this study have also been added: the context in which teaching takes place, tangible as well as intangible, and the evaluation of teaching and learning. The Madrid School of Architecture in the present day served as a case study. However the aim is not to generate an accurate portrayal of this school but to use it as the principal example for the development of the chapters of method, content, teaching act and context. In addition to that, examples from other schools of architecture are introduced in order to further the presented arguments that constitute the theoretical contextualization of the pedagogical act in architecture studios.
Resumo:
El análisis de las diferentes alternativas en la planificación y diseño de corredores y trazados de carreteras debe basarse en la correcta definición de variables territoriales que sirvan como criterios para la toma de decisión y esto requiere un análisis ambiental preliminar de esas variables de calidad. En España, los estudios de viabilidad de nuevas carreteras y autovías están asociados a una fase del proceso de decisión que se corresponde con el denominado Estudio Informativo, el cual establece condicionantes físicos, ambientales, de uso del suelo y culturales que deben ser considerados en las primeras fases de la definición del trazado de un corredor de carretera. Así, la metodología más frecuente es establecer diferentes niveles de capacidad de acogida del territorio en el área de estudio con el fin de resumir las variables territoriales en mapas temáticos y facilitar el proceso de trazado de las alternativas de corredores de carretera. El paisaje es un factor limitante a tener en cuenta en la planificación y diseño de carreteras y, por tanto, deben buscarse trazados más sostenibles en relación con criterios estéticos y ecológicos del mismo. Pero este factor no es frecuentemente analizado en los Estudios Informativos e incluso, si es considerado, los estudios específicos de la calidad del paisaje (estético y ecológico) y de las formas del terreno no incorporan las recomendaciones de las guías de trazado para evitar o reducir los impactos en el paisaje. Además, los mapas de paisaje que se generan en este tipo de estudios no se corresponden con la escala de desarrollo del Estudio Informativo (1:5.000). Otro déficit común en planificación de corredores y trazados de carreteras es que no se tiene en cuenta la conectividad del paisaje durante el proceso de diseño de la carretera para prevenir la afección a los corredores de fauna existentes en el paisaje. Este déficit puede originar un posterior efecto barrera en los movimientos dispersivos de la fauna y la fragmentación de sus hábitats debido a la ocupación parcial o total de las teselas de hábitats con importancia biológica para la fauna (o hábitats focales) y a la interrupción de los corredores de fauna que concentran esos movimientos dispersivos de la fauna entre teselas. El objetivo principal de esta tesis es mejorar el estudio del paisaje para prevenir su afección durante el proceso de trazado de carreteras, facilitar la conservación de los corredores de fauna (o pasillos verdes) y la localización de medidas preventivas y correctoras en términos de selección y cuantificación de factores de idoneidad a fin de reducir los impactos visuales y ecológicos en el paisaje a escala local. Concretamente, la incorporación de valores cuantitativos y bien justificados en el proceso de decisión permite incrementar la transparencia en el proceso de diseño de corredores y trazados de carreteras. Con este fin, se han planteado cuatro preguntas específicas en esta investigación (1) ¿Cómo se seleccionan y evalúan los factores territoriales limitantes para localizar una nueva carretera por los profesionales españoles de planificación del territorio en relación con el paisaje? (2) ¿Cómo pueden ser definidos los corredores de fauna a partir de factores del paisaje que influyen en los movimientos dispersivos de la fauna? (3) ¿Cómo pueden delimitarse y evaluarse los corredores de fauna incluyendo el comportamiento parcialmente errático en los movimientos dispersivos de la fauna y el efecto barrera de los elementos antrópicos a una escala local? (4) ¿Qué y cómo las recomendaciones de diseño de carreteras relacionadas con el paisaje y las formas del terreno pueden ser incluidas en un modelo de Sistemas de Información Geográfica (SIG) para ayudar a los ingenieros civiles durante el proceso de diseño de un trazado de carreteras bajo el punto de vista de la sostenibilidad?. Esta tesis doctoral propone nuevas metodologías que mejoran el análisis visual y ecológico del paisaje utilizando indicadores y modelos SIG para obtener alternativas de trazado que produzcan un menor impacto en el paisaje. Estas metodologías fueron probadas en un paisaje heterogéneo con una alta tasa de densidad de corzo (Capreolus capreolus L.), uno de los grandes mamíferos más atropellados en la red de carreteras españolas, y donde está planificada la construcción de una nueva autovía que atravesará la mitad del área de distribución del corzo. Inicialmente, se han analizado las variables utilizadas en 22 estudios de proyectos de planificación de corredores de carreteras promovidos por el Ministerio de Fomento entre 2006 y 2008. Estas variables se agruparon según condicionantes físicos, ambientales, de usos del suelo y culturales con el fin de comparar los valores asignados de capacidad de acogida del territorio a cada variable en los diferentes estudios revisados. Posteriormente, y como etapa previa de un análisis de conectividad, se construyó un mapa de resistencia de los movimientos dispersivos del corzo en base a la literatura y al juicio de expertos. Usando esta investigación como base, se le asignó un valor de resistencia a cada factor seleccionado para construir la matriz de resistencia, ponderándolo y combinándolo con el resto de factores usando el proceso analítico jerárquico y los operadores de lógica difusa como métodos de análisis multicriterio. Posteriormente, se diseñó una metodología SIG para delimitar claramente la extensión física de los corredores de fauna de acuerdo a un valor umbral de ancho geométrico mínimo, así como la existencia de múltiples potenciales conexiones entre cada par de teselas de hábitats presentes en el paisaje estudiado. Finalmente, se realizó un procesado de datos Light Detection and Ranging (LiDAR) y un modelo SIG para calcular la calidad del paisaje (estético y ecológico), las formas del terreno que presentan características similares para trazar una carretera y la acumulación de vistas de potenciales conductores y observadores de los alrededores de la nueva vía. Las principales contribuciones de esta investigación al conocimiento científico existente en el campo de la evaluación del impacto ambiental en relación al diseño de corredores y trazados de carreteras son cuatro. Primero, el análisis realizado de 22 Estudios Informativos de planificación de carreteras reveló que los métodos aplicados por los profesionales para la evaluación de la capacidad de acogida del territorio no fue suficientemente estandarizada, ya que había una falta de uniformidad en el uso de fuentes cartográficas y en las metodologías de evaluación de la capacidad de acogida del territorio, especialmente en el análisis de la calidad del paisaje estético y ecológico. Segundo, el análisis realizado en esta tesis destaca la importancia de los métodos multicriterio para estructurar, combinar y validar factores que limitan los movimientos dispersivos de la fauna en el análisis de conectividad. Tercero, los modelos SIG desarrollados Generador de alternativas de corredores o Generator of Alternative Corridors (GAC) y Eliminador de Corredores Estrechos o Narrow Corridor Eraser (NCE) pueden ser aplicados sistemáticamente y sobre una base científica en análisis de conectividad como una mejora de las herramientas existentes para la comprensión el paisaje como una red compuesta por nodos y enlaces interconectados. Así, ejecutando los modelos GAC y NCE de forma iterativa, pueden obtenerse corredores alternativos con similar probabilidad de ser utilizados por la fauna y sin que éstos presenten cuellos de botella. Cuarto, el caso de estudio llevado a cabo de prediseño de corredores y trazado de una nueva autovía ha sido novedoso incluyendo una clasificación semisupervisada de las formas del terreno, filtrando una nube de puntos LiDAR e incluyendo la nueva geometría 3D de la carretera en el Modelo Digital de Superficie (MDS). El uso combinado del procesamiento de datos LiDAR y de índices y clasificaciones geomorfológicas puede ayudar a los responsables encargados en la toma de decisiones a evaluar qué alternativas de trazado causan el menor impacto en el paisaje, proporciona una visión global de los juicios de valor más aplicados y, en conclusión, define qué medidas de integración paisajística correctoras deben aplicarse y dónde. ABSTRACT The assessment of different alternatives in road-corridor planning and layout design must be based on a number of well-defined territorial variables that serve as decision-making criteria, and this requires a high-quality preliminary environmental analysis of those quality variables. In Spain, feasibility studies for new roads and motorways are associated to a phase of the decision procedure which corresponds with the one known as the Informative Study, which establishes the physical, environmental, land-use and cultural constraints to be considered in the early stages of defining road corridor layouts. The most common methodology is to establish different levels of Territorial Carrying Capacity (TCC) in the study area in order to summarize the territorial variables on thematic maps and facilitate the tracing process of road-corridor layout alternatives. Landscape is a constraint factor that must be considered in road planning and design, and the most sustainable layouts should be sought based on aesthetic and ecological criteria. However this factor is not often analyzed in Informative Studies and even if it is, baseline studies on landscape quality (aesthetic and ecological) and landforms do not usually include the recommendations of road tracing guides designed to avoid or reduce impacts on the landscape. The resolution of the landscape maps produced in this type of studies does not comply with the recommended road design scale (1:5,000) in the regulations for the Informative Study procedure. Another common shortcoming in road planning is that landscape ecological connectivity is not considered during road design in order to avoid affecting wildlife corridors in the landscape. In the prior road planning stage, this issue could lead to a major barrier effect for fauna dispersal movements and to the fragmentation of their habitat due to the partial or total occupation of habitat patches of biological importance for the fauna (or focal habitats), and the interruption of wildlife corridors that concentrate fauna dispersal movements between patches. The main goal of this dissertation is to improve the study of the landscape and prevent negative effects during the road tracing process, and facilitate the preservation of wildlife corridors (or green ways) and the location of preventive and corrective measures by selecting and quantifying suitability factors to reduce visual and ecological landscape impacts at a local scale. Specifically the incorporation of quantitative and well-supported values in the decision-making process provides increased transparency in the road corridors and layouts design process. Four specific questions were raised in this research: (1) How are territorial constraints selected and evaluated in terms of landscape by Spanish land-planning practitioners before locating a new road? (2) How can wildlife corridors be defined based on the landscape factors influencing the dispersal movements of fauna? (3) How can wildlife corridors be delimited and assessed to include the partially erratic movements of fauna and the barrier effect of the anthropic elements at a local scale? (4) How recommendations of road design related to landscape and landforms can be included in a Geographic Information System (GIS) model to aid civil engineers during the road layout design process and support sustainable development? This doctoral thesis proposes new methodologies that improve the assessment of the visual and ecological landscape character using indicators and GIS models to obtain road layout alternatives with a lower impact on the landscape. These methodologies were tested on a case study of a heterogeneous landscape with a high density of roe deer (Capreolus capreolus L.) –one of the large mammals most commonly hit by vehicles on the Spanish road network– and where a new motorway is planned to pass through the middle of their distribution area. We explored the variables used in 22 road-corridor planning projects sponsored by the Ministry of Public Works between 2006 and 2008. These variables were grouped into physical, environmental, land-use and cultural constraints for the purpose of comparing the TCC values assigned to each variable in the various studies reviewed. As a prior stage in a connectivity analysis, a map of resistance to roe deer dispersal movements was created based on the literature and experts judgment. Using this research as a base, each factor selected to build the matrix was assigned a resistance value and weighted and combined with the rest of the factors using the analytic hierarchy process (AHP) and fuzzy logic operators as multicriteria assessment (MCA) methods. A GIS methodology was designed to clearly delimit the physical area of wildlife corridors according to a geometric threshold width value, and the multiple potential connections between each pair of habitat patches in the landscape. A Digital Surface Model Light Detection and Ranging (LiDAR) dataset processing and a GIS model was performed to determine landscape quality (aesthetic and ecological) and landforms with similar characteristics for the road layout, and the cumulative viewshed of potential drivers and observers in the area surrounding the new motorway. The main contributions of this research to current scientific knowledge in the field of environmental impact assessment for road corridors and layouts design are four. First, the analysis of 22 Informative Studies on road planning revealed that the methods applied by practitioners for assessing the TCC were not sufficiently standardized due to the lack of uniformity in the cartographic information sources and the TCC valuation methodologies, especially in the analysis of the aesthetic and ecological quality of the landscape. Second, the analysis in this dissertation highlights the importance of multicriteria methods to structure, combine and validate factors that constrain wildlife dispersal movements in the connectivity analysis. Third, the “Generator of Alternative Corridors (GAC)” and “Narrow Corridor Eraser (NCE)” GIS models developed can be applied systematically and on a scientific basis in connectivity analyses to improve existing tools and understand landscape as a network composed of interconnected nodes and links. Thus, alternative corridors with similar probability of use by fauna and without bottlenecks can be obtained by iteratively running GAC and NCE models. Fourth, our case study of new motorway corridors and layouts design innovatively included semi-supervised classification of landforms, filtering of LiDAR point clouds and new 3D road geometry on the Digital Surface Model (DSM). The combined used of LiDAR data processing and geomorphological indices and classifications can help decision-makers assess which road layouts produce lower impacts on the landscape, provide an overall insight into the most commonly applied value judgments, and in conclusion, define which corrective measures should be applied in terms of landscaping, and where.
Resumo:
Resulta interesante comprender como microorganismos sencillos como la bacteria Escherichia coli poseen mecanismos no tan simples para responder al entorno en el que está gestionada por complicadas redes de regulación formadas por genes y proteínas, donde cada elemento de la red genética debe tomar parte en armonía, en el momento justo y la cantidad adecuada para dar lugar a la respuesta celular apropiada. La biología sintética es un nuevo área de la biología y la tecnología que fusiona la biolog ía molecular, la ingeniería genética y las herramientas computacionales, para crear sistemas biológicos con funcionalidades novedosas. Los sistemas creados sintéticamente son ya una realidad, y cada vez se acumulan más trabajos alrededor del mundo que muestran su factibilidad. En este campo no solo se hacen pequeñas modificaciones en la información genética, sino que también se diseñan, manipulan e introducen circuitos genéticos a los organismos. Actualmente, se hace un gran esfuerzo para construir circuitos genéticos formados por numerosos genes y caracterizar la interacción de los mismos con otras moléculas, su regulaci ón, expresión y funcionalidad en diferentes organismos. La mayoría de los proyectos de biología sintética que se han desarrollado hasta ahora, se basan en el conocimiento actual del funcionamiento de los organismos vivos. Sin embargo, la información es numerosa y creciente, por lo que se requiere de herramientas computacionales y matem áticas para integrar y hacer manejable esta gran cantidad de información. El simulador de colonias bacterianas GRO posee la capacidad de representar las dinámicas más simples del comportamiento celular, tales como crecimiento, división y comunicación intercelular mediante conjugación, pero carece de la capacidad de simular el comportamiento de la colonia en presencia de un circuito genético. Para ello, se ha creado un nuevo módulo de regulación genética que maneja las interaciones entre genes y proteínas de cada célula ejecutando respuestas celulares específicas. Dado que en la mayoría de los experimentos intervienen colonias del orden de 105 individuos, es necesario un módulo de regulación genética simplificado que permita representar de la forma más precisa posible este proceso en colonias de tales magnitudes. El módulo genético integrado en GRO se basa en una red booleana, en la que un gen puede transitar entre dos estados, on (expresado) o off (reprimido), y cuya transición viene dada por una serie de reglas lógicas.---ABSTRACT---It is interesting to understand how simple organisms such as Escherichia coli do not have simple mechanisms to respond to the environment in which they find themselves. This response is managed by complicated regulatory networks formed by genes and proteins, where each element of the genetic network should take part in harmony, at the right time and with the right amount to give rise to the appropriate cellular response. Synthetic biology is a new area of biology and technology that combines molecular biology, genetic engineering and computational tools to create biological systems with novel features. The synthetically created systems are already a reality, and increasingly accumulate work around the world showing their feasibility. In this field not only minor changes are made in the genetic information but also genetic circuits designed, manipulated and introduced into the organisms. Currently, it takes great effort to build genetic circuits formed by numerous genes and characterize their interaction with other molecules, their regulation, their expression and their function in different organisms. Most synthetic biology projects that have been developed so far are based on the current knowledge of the functioning of living organisms. However, there is a lot of information and it keeps accumulating, so it requires computational and mathematical tools to integrate and manage this wealth of information. The bacterial colonies simulator, GRO, has the ability to represent the simplest dynamics of cell behavior, such as growth, division and intercellular communication by conjugation, but lacks the ability to simulate the behavior of the colony in the presence of a genetic circuit. To this end, a new genetic regulation module that handles interactions between genes and proteins for each cell running specific cellular responses has been created. Since most experiments involve colonies of about 105 individuals, a simplified genetic module which represent cell dynamics as accurately and simply as possible is needed. The integrated genetic GRO module is based on a Boolean network, in which a gene can be in either of two states, on (expressed) or off (repressed), and whose transition is given by a set of logical rules.