14 resultados para Colecciones - Biblioteca de Autor - Otros documentos relacionados con Gabriel Miró

em Universidad Politécnica de Madrid


Relevância:

100.00% 100.00%

Publicador:

Resumo:

El período de la Historia comprendido entre 1570 y 1620 nos ha dejado un importante conjunto de documentos relacionados con la construcción naval en la Península Ibérica. En una época convulsa en la que los reinos de España y Portugal se aglutinaron bajo una misma Corona, surgen una serie de manuscritos, libros y leyes que reflejan la creciente preocupación de la sociedad por el tema naval. Entre sus páginas encontramos las descripciones del proceso constructivo de los buques que sus autores consideraban más significativos para las demandas que se planteaban en ese momento. Este proceso que combinaba generación de formas y construcción del buque provenía de una secular tradición nacida en el Mediterráneo. Mediante reglas geométricas sencillas, el constructor naval trazaba las secciones centrales y el perfil de la nao, quedando los extremos de la misma (hasta más de la mitad de la eslora) a su buen hacer y experiencia. Las herramientas informáticas de generación de superficies mediante NURBs (Non- Uniform Rational B-spline) permiten reconstruir las formas de los navíos reproduciendo con fiabilidad las carenas de los mismos a partir de los documentos de la época. Mediante un estudio detallado de interpretación de los textos y transcribiendo los procesos, llegamos a obtener con un buen grado de precisión las carenas de los buques descritos en sus páginas. A partir de ahí y mediante el análisis cualitativo y cuantitativo de los parámetros obtenidos es posible valorar si las soluciones representadas por los barcos respondían a las preguntas planteadas por sus autores , la influencia de factores externos a la construcción naval tales como las regulaciones del Estado o identificar su relación con el germen y la expansión de la teoría que ha determinado los efectos de la Ciencia en la Arquitectura Naval. Comenzando por la nao veneciana de 1550, heredera de la secular tradición constructiva mediterránea, hasta llegar a las Reales Ordenanzas promulgadas en 1618, se reproducen hasta nueve carenas a partir de otros tantos documentos, se dibujan sus planos de formas y se exportan para su análisis hidrostático. El trabajo requiere la realización de otros estudios en paralelo necesarios para entender aquellos factores que formaron parte del desarrollo tecnológico naval como son, las unidades de medida en uso en los astilleros, los distintos sistemas de arqueo impuestos por la Corona y la representación de los diferentes instrumentos geométricos de modificación de los parámetros de diseño. A lo largo del trabajo se dan respuesta a interrogantes planteados por la arqueología en relación con el desarrollo de la arquitectura naval poniendo en evidencia que durante este período quedaron establecidos los fundamentos teórico-prácticos de lo que más adelante se convirtió en la ciencia de la ingeniería naval y se plantean nuevos retos para aquellos que deseen continuar la apasionante tarea de la investigación científica de nuestra historia. ABSTRACT The period of the History comprised between 1570 and 1620 has left an important set of shipbuilding documents in the Iberian Peninsula. In a turbulent time in which the kingdoms of Spain and Portugal were ruled under the same Crown, manuscripts, books and laws that reflect the growing concern of society for the naval theme arose. We found among their pages shipbuilding process descriptions of the more relevant vessels that responded to claims that arose at that time. This process brought together hull generation and shipbuilding and came from a secular tradition born in the Mediterranean. By means of simple geometric rules, the shipbuilder traced the central sections and profile of the ship, leaving the ends thereof (almost half of the length) to its good performance and experience. 3D computer modelling software by NURBs (Non-Uniform Rational B-spline) surfaces helps to reconstruct ships hulls from contemporary documents. Through a detailed texts interpretation and transcription processes, we manage to reach with a good degree of accuracy the ship hulls described in its pages. From there and through qualitative and quantitative analysis of the parameters obtained we can assess whether the solutions represented by ships gave response to the questions raised by the authors, the influence of external factors such as shipbuilding state regulations or identify their relationship to the origin and expansion of the theory that has determined the effects of Science in Naval Architecture. From the 1550 Venetian nao, inheritor of the secular Mediterranean building tradition, to the Royal Ordinances enacted in 1618, as nine hulls are reproduced, their line drawings are traced and exported for analysis hydrostatic. Further studies are needed to understand the factors that were part of shipbuilding technology development as the units of measure in use in shipyards, the different official regulations for calculating ship tonnage and the different geometric instruments to amend the design parameters. The work gives response to questions raised by archaeology in relation to the development of naval architecture highlighting that during this period were established the theoretical and practical foundations of what later became the science of naval engineering and raising new challenges for those wishing to continue the exciting task of scientific research of our History.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Esta Tesis plantea la pregunta de si el uso de morteros con parafinas microencapsuladas combinado con colectores solares térmicos puede reducir el consumo de energías convencionales, en un sistema tradicional de suelo radiante. Se pretende contribuir al conocimiento acerca del efecto que produce en el edificio, el calor latente acumulado en suelos radiantes, utilizando morteros de cemento Portland con material de cambio de fase (PCM), en conjunto con la energía solar. Para cumplir con este propósito, la investigación se desarrolla considerando diversos aspectos. En primer lugar, se revisa y analiza la documentación disponible en la actualidad, de almacenamiento de energía mediante calor latente en la construcción, y en particular la aplicación de microcápsulas de PCM en morteros y suelos radiantes. También se revisa la documentación relacionada con la aplicación de la energía solar térmica y en suelo radiante. Se analiza la normativa vigente respecto al material, a los colectores solares y al suelo radiante. Se verifica que no hay normativa relacionada con mortero-PCM, debido a esto se aplica en la investigación una adaptación de la existente. La fase experimental desarrollada esta principalmente dirigida a la cuantificación, caracterización y evaluación de las propiedades físicas, mecánicas y térmicas del mortero de cemento Portland con parafinas microencapsuladas. Los resultados obtenidos y su análisis, permiten conocer el comportamiento de este tipo de morteros, con las diferentes variables aplicadas en la investigación. Además, permite disponer de la información necesaria, para crear una metodología para el diseño de morteros con parafina microencapsulada, tanto del punto de vista de su resistencia a la compresión y contenido de PCM, como de su comportamiento térmico como acumulador de calor. Esto se logra procesando la información obtenida y generando modelos matemáticos, para dosificar mezclas, y predecir la acumulación de calor en función de su composición. Se determinan los tipos y cantidades de PCM, y el cemento más adecuado. Se obtienen importantes conclusiones respecto a los aspectos constructivos a considerar en la aplicación de morteros con PCM, en suelo radiante. Se analiza y evalúa la demanda térmica que se puede cubrir con el suelo radiante, utilizando morteros con parafina microencapsulada, a través de la acumulación de energía solar producida por colectores solares, para condiciones climáticas, técnicas y tipologías constructivas específicas. Se determina que cuando los paneles cubren más de 60 % de la demanda por calefacción, se puede almacenar en los morteros con PCM, el excedente generado durante el día. Se puede cubrir la demanda de acumulación de energía con los morteros con PCM, en la mayoría de los casos analizados. Con esto, se determina que el uso de morteros con PCM, aporta a la eficiencia energética de los edificios, disminuyendo el consumo de energías convencionales, reemplazándola por energía solar térmica. En esta investigación, el énfasis está en las propiedades del material mortero de cemento-PCM y en poder generar metodologías que faciliten su uso. Se aborda el uso de la energía solar, para verificar que es posible su acumulación en morteros con PCM aplicados en suelo radiante, posibilitando el reemplazo de energías convencionales. Quedan algunos aspectos de la aplicación de energía solar a suelo radiante con morteros con PCM, que no han sido tratados con la profundidad que requieren, y que resultan interesantes de evaluar en este tipo de aplicaciones constructivas, como entre otros, los relacionados con la cuantificación de los ahorros de energía en las diferentes estaciones del año, de la estabilización de temperaturas internas, su análisis de costo y la optimización de este tipo de sistemas para utilización en verano, los que dan pie para otras Tesis o proyectos de investigación. ABSTRACT This Thesis proposes the question of whether the use of mortars with microencapsulated paraffin combined with solar thermal collectors can reduce conventional energy consumption in a traditional heating floor system. It aims to contribute to knowledge about the effect that it has on the building, the latent heat accumulated in heating floor, using Portland cement mortars with phase change material (PCM), in conjunction with solar energy. To fulfill this purpose, the research develops it considering various aspects. First, it reviews and analyzes the documentation available today, about energy storage by latent heat in the building, and in particular the application of PCM microcapsules in mortars and heating floors. It also reviews the documentation related to the application of solar thermal energy and heating floor. Additionally, it analyzes the current regulations regarding to material, solar collectors and heating floors. It verifies that there aren’t regulations related to PCM mortar, due to this, it applies an adaptation in the investigation. The experimental phase is aimed to the quantification, mainly, characterization and evaluation of physical, mechanical and thermal properties of Portland cement mortar with microencapsulated paraffin. The results and analysis, which allow us to know the behavior of this type of mortars with different variables applied in research. It also allows having the information necessary to create a methodology for designing mortars with microencapsulated paraffin, both from the standpoint of its resistance to compression and PCM content, and its thermal performance as a heat accumulator. This accomplishes by processing the information obtained, and generating mathematical models for dosing mixtures, and predicting heat accumulation depending on their composition. The research determines the kinds and amounts of PCM, and the most suitable cement. Relevant conclusions obtain it regarding constructive aspects to consider in the implementation of PCM mortars in heating floor. Also, it analyzes and evaluates the thermal demand that it can be covered in heating floor using microencapsulated paraffin mortars, through the accumulation of solar energy produced by solar collectors to weather conditions, technical and specific building typologies. It determines that if the panels cover more than 60% of the demand for heating, the surplus generated during the day can be stored in PCM mortars. It meets the demand of energy storage with PCM mortars, in most of the cases analyzed. With this, it determines that the use of PCM mortars contributes to building energy efficiency, reducing consumption of conventional energy, replacing it with solar thermal energy. In this research approaches the use of solar energy to determine that it’s possible to verify its accumulation in PCM mortars applied in heating floor, enabling the replacement of conventional energy. The emphasis is on material properties of PCM mortar and, in order to generate methodologies to facilitate their use. There are some aspects of solar energy application in PCM mortars in heating floor, which have not been discussed with the depth required, and that they are relevant to evaluate in this kind of construction applications, including among others: the applications related to the energy savings quantification in different seasons of the year, the stabilizing internal temperatures, its cost analysis and optimization of these systems for use in summer, which can give ideas for other thesis or research projects.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este texto propone la incorporación de las ideas de sistemas como elemento indispensable en los currículos universitarios relacionados con computación. Con este objetivo,se presenta la experiencia acumulada en la Escuela Técnica Superior de Ingenieros de Telecomunicación de Madrid desde 1978. Más concretamente, se muestran los objetivos,metodología y resultados obtenidos dentro de una asignatura denominada Ingeniería de Sistemas, integrada en el último curso de una especialización en Ingeniería Telemática (Informática y Comunicaciones).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La optimización de parámetros tales como el consumo de potencia, la cantidad de recursos lógicos empleados o la ocupación de memoria ha sido siempre una de las preocupaciones principales a la hora de diseñar sistemas embebidos. Esto es debido a que se trata de sistemas dotados de una cantidad de recursos limitados, y que han sido tradicionalmente empleados para un propósito específico, que permanece invariable a lo largo de toda la vida útil del sistema. Sin embargo, el uso de sistemas embebidos se ha extendido a áreas de aplicación fuera de su ámbito tradicional, caracterizadas por una mayor demanda computacional. Así, por ejemplo, algunos de estos sistemas deben llevar a cabo un intenso procesado de señales multimedia o la transmisión de datos mediante sistemas de comunicaciones de alta capacidad. Por otra parte, las condiciones de operación del sistema pueden variar en tiempo real. Esto sucede, por ejemplo, si su funcionamiento depende de datos medidos por el propio sistema o recibidos a través de la red, de las demandas del usuario en cada momento, o de condiciones internas del propio dispositivo, tales como la duración de la batería. Como consecuencia de la existencia de requisitos de operación dinámicos es necesario ir hacia una gestión dinámica de los recursos del sistema. Si bien el software es inherentemente flexible, no ofrece una potencia computacional tan alta como el hardware. Por lo tanto, el hardware reconfigurable aparece como una solución adecuada para tratar con mayor flexibilidad los requisitos variables dinámicamente en sistemas con alta demanda computacional. La flexibilidad y adaptabilidad del hardware requieren de dispositivos reconfigurables que permitan la modificación de su funcionalidad bajo demanda. En esta tesis se han seleccionado las FPGAs (Field Programmable Gate Arrays) como los dispositivos más apropiados, hoy en día, para implementar sistemas basados en hardware reconfigurable De entre todas las posibilidades existentes para explotar la capacidad de reconfiguración de las FPGAs comerciales, se ha seleccionado la reconfiguración dinámica y parcial. Esta técnica consiste en substituir una parte de la lógica del dispositivo, mientras el resto continúa en funcionamiento. La capacidad de reconfiguración dinámica y parcial de las FPGAs es empleada en esta tesis para tratar con los requisitos de flexibilidad y de capacidad computacional que demandan los dispositivos embebidos. La propuesta principal de esta tesis doctoral es el uso de arquitecturas de procesamiento escalables espacialmente, que son capaces de adaptar su funcionalidad y rendimiento en tiempo real, estableciendo un compromiso entre dichos parámetros y la cantidad de lógica que ocupan en el dispositivo. A esto nos referimos con arquitecturas con huellas escalables. En particular, se propone el uso de arquitecturas altamente paralelas, modulares, regulares y con una alta localidad en sus comunicaciones, para este propósito. El tamaño de dichas arquitecturas puede ser modificado mediante la adición o eliminación de algunos de los módulos que las componen, tanto en una dimensión como en dos. Esta estrategia permite implementar soluciones escalables, sin tener que contar con una versión de las mismas para cada uno de los tamaños posibles de la arquitectura. De esta manera se reduce significativamente el tiempo necesario para modificar su tamaño, así como la cantidad de memoria necesaria para almacenar todos los archivos de configuración. En lugar de proponer arquitecturas para aplicaciones específicas, se ha optado por patrones de procesamiento genéricos, que pueden ser ajustados para solucionar distintos problemas en el estado del arte. A este respecto, se proponen patrones basados en esquemas sistólicos, así como de tipo wavefront. Con el objeto de poder ofrecer una solución integral, se han tratado otros aspectos relacionados con el diseño y el funcionamiento de las arquitecturas, tales como el control del proceso de reconfiguración de la FPGA, la integración de las arquitecturas en el resto del sistema, así como las técnicas necesarias para su implementación. Por lo que respecta a la implementación, se han tratado distintos aspectos de bajo nivel dependientes del dispositivo. Algunas de las propuestas realizadas a este respecto en la presente tesis doctoral son un router que es capaz de garantizar el correcto rutado de los módulos reconfigurables dentro del área destinada para ellos, así como una estrategia para la comunicación entre módulos que no introduce ningún retardo ni necesita emplear recursos configurables del dispositivo. El flujo de diseño propuesto se ha automatizado mediante una herramienta denominada DREAMS. La herramienta se encarga de la modificación de las netlists correspondientes a cada uno de los módulos reconfigurables del sistema, y que han sido generadas previamente mediante herramientas comerciales. Por lo tanto, el flujo propuesto se entiende como una etapa de post-procesamiento, que adapta esas netlists a los requisitos de la reconfiguración dinámica y parcial. Dicha modificación la lleva a cabo la herramienta de una forma completamente automática, por lo que la productividad del proceso de diseño aumenta de forma evidente. Para facilitar dicho proceso, se ha dotado a la herramienta de una interfaz gráfica. El flujo de diseño propuesto, y la herramienta que lo soporta, tienen características específicas para abordar el diseño de las arquitecturas dinámicamente escalables propuestas en esta tesis. Entre ellas está el soporte para el realojamiento de módulos reconfigurables en posiciones del dispositivo distintas a donde el módulo es originalmente implementado, así como la generación de estructuras de comunicación compatibles con la simetría de la arquitectura. El router has sido empleado también en esta tesis para obtener un rutado simétrico entre nets equivalentes. Dicha posibilidad ha sido explotada para aumentar la protección de circuitos con altos requisitos de seguridad, frente a ataques de canal lateral, mediante la implantación de lógica complementaria con rutado idéntico. Para controlar el proceso de reconfiguración de la FPGA, se propone en esta tesis un motor de reconfiguración especialmente adaptado a los requisitos de las arquitecturas dinámicamente escalables. Además de controlar el puerto de reconfiguración, el motor de reconfiguración ha sido dotado de la capacidad de realojar módulos reconfigurables en posiciones arbitrarias del dispositivo, en tiempo real. De esta forma, basta con generar un único bitstream por cada módulo reconfigurable del sistema, independientemente de la posición donde va a ser finalmente reconfigurado. La estrategia seguida para implementar el proceso de realojamiento de módulos es diferente de las propuestas existentes en el estado del arte, pues consiste en la composición de los archivos de configuración en tiempo real. De esta forma se consigue aumentar la velocidad del proceso, mientras que se reduce la longitud de los archivos de configuración parciales a almacenar en el sistema. El motor de reconfiguración soporta módulos reconfigurables con una altura menor que la altura de una región de reloj del dispositivo. Internamente, el motor se encarga de la combinación de los frames que describen el nuevo módulo, con la configuración existente en el dispositivo previamente. El escalado de las arquitecturas de procesamiento propuestas en esta tesis también se puede beneficiar de este mecanismo. Se ha incorporado también un acceso directo a una memoria externa donde se pueden almacenar bitstreams parciales. Para acelerar el proceso de reconfiguración se ha hecho funcionar el ICAP por encima de la máxima frecuencia de reloj aconsejada por el fabricante. Así, en el caso de Virtex-5, aunque la máxima frecuencia del reloj deberían ser 100 MHz, se ha conseguido hacer funcionar el puerto de reconfiguración a frecuencias de operación de hasta 250 MHz, incluyendo el proceso de realojamiento en tiempo real. Se ha previsto la posibilidad de portar el motor de reconfiguración a futuras familias de FPGAs. Por otro lado, el motor de reconfiguración se puede emplear para inyectar fallos en el propio dispositivo hardware, y así ser capaces de evaluar la tolerancia ante los mismos que ofrecen las arquitecturas reconfigurables. Los fallos son emulados mediante la generación de archivos de configuración a los que intencionadamente se les ha introducido un error, de forma que se modifica su funcionalidad. Con el objetivo de comprobar la validez y los beneficios de las arquitecturas propuestas en esta tesis, se han seguido dos líneas principales de aplicación. En primer lugar, se propone su uso como parte de una plataforma adaptativa basada en hardware evolutivo, con capacidad de escalabilidad, adaptabilidad y recuperación ante fallos. En segundo lugar, se ha desarrollado un deblocking filter escalable, adaptado a la codificación dedeo escalable, como ejemplo de aplicación de las arquitecturas de tipo wavefront propuestas. El hardware evolutivo consiste en el uso de algoritmos evolutivos para diseñar hardware de forma autónoma, explotando la flexibilidad que ofrecen los dispositivos reconfigurables. En este caso, los elementos de procesamiento que componen la arquitectura son seleccionados de una biblioteca de elementos presintetizados, de acuerdo con las decisiones tomadas por el algoritmo evolutivo, en lugar de definir la configuración de las mismas en tiempo de diseño. De esta manera, la configuración del core puede cambiar cuando lo hacen las condiciones del entorno, en tiempo real, por lo que se consigue un control autónomo del proceso de reconfiguración dinámico. Así, el sistema es capaz de optimizar, de forma autónoma, su propia configuración. El hardware evolutivo tiene una capacidad inherente de auto-reparación. Se ha probado que las arquitecturas evolutivas propuestas en esta tesis son tolerantes ante fallos, tanto transitorios, como permanentes y acumulativos. La plataforma evolutiva se ha empleado para implementar filtros de eliminación de ruido. La escalabilidad también ha sido aprovechada en esta aplicación. Las arquitecturas evolutivas escalables permiten la adaptación autónoma de los cores de procesamiento ante fluctuaciones en la cantidad de recursos disponibles en el sistema. Por lo tanto, constituyen un ejemplo de escalabilidad dinámica para conseguir un determinado nivel de calidad, que puede variar en tiempo real. Se han propuesto dos variantes de sistemas escalables evolutivos. El primero consiste en un único core de procesamiento evolutivo, mientras que el segundo está formado por un número variable de arrays de procesamiento. La codificación dedeo escalable, a diferencia de los codecs no escalables, permite la decodificación de secuencias dedeo con diferentes niveles de calidad, de resolución temporal o de resolución espacial, descartando la información no deseada. Existen distintos algoritmos que soportan esta característica. En particular, se va a emplear el estándar Scalable Video Coding (SVC), que ha sido propuesto como una extensión de H.264/AVC, ya que este último es ampliamente utilizado tanto en la industria, como a nivel de investigación. Para poder explotar toda la flexibilidad que ofrece el estándar, hay que permitir la adaptación de las características del decodificador en tiempo real. El uso de las arquitecturas dinámicamente escalables es propuesto en esta tesis con este objetivo. El deblocking filter es un algoritmo que tiene como objetivo la mejora de la percepción visual de la imagen reconstruida, mediante el suavizado de los "artefactos" de bloque generados en el lazo del codificador. Se trata de una de las tareas más intensivas en procesamiento de datos de H.264/AVC y de SVC, y además, su carga computacional es altamente dependiente del nivel de escalabilidad seleccionado en el decodificador. Por lo tanto, el deblocking filter ha sido seleccionado como prueba de concepto de la aplicación de las arquitecturas dinámicamente escalables para la compresión de video. La arquitectura propuesta permite añadir o eliminar unidades de computación, siguiendo un esquema de tipo wavefront. La arquitectura ha sido propuesta conjuntamente con un esquema de procesamiento en paralelo del deblocking filter a nivel de macrobloque, de tal forma que cuando se varía del tamaño de la arquitectura, el orden de filtrado de los macrobloques varia de la misma manera. El patrón propuesto se basa en la división del procesamiento de cada macrobloque en dos etapas independientes, que se corresponden con el filtrado horizontal y vertical de los bloques dentro del macrobloque. Las principales contribuciones originales de esta tesis son las siguientes: - El uso de arquitecturas altamente regulares, modulares, paralelas y con una intensa localidad en sus comunicaciones, para implementar cores de procesamiento dinámicamente reconfigurables. - El uso de arquitecturas bidimensionales, en forma de malla, para construir arquitecturas dinámicamente escalables, con una huella escalable. De esta forma, las arquitecturas permiten establecer un compromiso entre el área que ocupan en el dispositivo, y las prestaciones que ofrecen en cada momento. Se proponen plantillas de procesamiento genéricas, de tipo sistólico o wavefront, que pueden ser adaptadas a distintos problemas de procesamiento. - Un flujo de diseño y una herramienta que lo soporta, para el diseño de sistemas reconfigurables dinámicamente, centradas en el diseño de las arquitecturas altamente paralelas, modulares y regulares propuestas en esta tesis. - Un esquema de comunicaciones entre módulos reconfigurables que no introduce ningún retardo ni requiere el uso de recursos lógicos propios. - Un router flexible, capaz de resolver los conflictos de rutado asociados con el diseño de sistemas reconfigurables dinámicamente. - Un algoritmo de optimización para sistemas formados por múltiples cores escalables que optimice, mediante un algoritmo genético, los parámetros de dicho sistema. Se basa en un modelo conocido como el problema de la mochila. - Un motor de reconfiguración adaptado a los requisitos de las arquitecturas altamente regulares y modulares. Combina una alta velocidad de reconfiguración, con la capacidad de realojar módulos en tiempo real, incluyendo el soporte para la reconfiguración de regiones que ocupan menos que una región de reloj, así como la réplica de un módulo reconfigurable en múltiples posiciones del dispositivo. - Un mecanismo de inyección de fallos que, empleando el motor de reconfiguración del sistema, permite evaluar los efectos de fallos permanentes y transitorios en arquitecturas reconfigurables. - La demostración de las posibilidades de las arquitecturas propuestas en esta tesis para la implementación de sistemas de hardware evolutivos, con una alta capacidad de procesamiento de datos. - La implementación de sistemas de hardware evolutivo escalables, que son capaces de tratar con la fluctuación de la cantidad de recursos disponibles en el sistema, de una forma autónoma. - Una estrategia de procesamiento en paralelo para el deblocking filter compatible con los estándares H.264/AVC y SVC que reduce el número de ciclos de macrobloque necesarios para procesar un frame de video. - Una arquitectura dinámicamente escalable que permite la implementación de un nuevo deblocking filter, totalmente compatible con los estándares H.264/AVC y SVC, que explota el paralelismo a nivel de macrobloque. El presente documento se organiza en siete capítulos. En el primero se ofrece una introducción al marco tecnológico de esta tesis, especialmente centrado en la reconfiguración dinámica y parcial de FPGAs. También se motiva la necesidad de las arquitecturas dinámicamente escalables propuestas en esta tesis. En el capítulo 2 se describen las arquitecturas dinámicamente escalables. Dicha descripción incluye la mayor parte de las aportaciones a nivel arquitectural realizadas en esta tesis. Por su parte, el flujo de diseño adaptado a dichas arquitecturas se propone en el capítulo 3. El motor de reconfiguración se propone en el 4, mientras que el uso de dichas arquitecturas para implementar sistemas de hardware evolutivo se aborda en el 5. El deblocking filter escalable se describe en el 6, mientras que las conclusiones finales de esta tesis, así como la descripción del trabajo futuro, son abordadas en el capítulo 7. ABSTRACT The optimization of system parameters, such as power dissipation, the amount of hardware resources and the memory footprint, has been always a main concern when dealing with the design of resource-constrained embedded systems. This situation is even more demanding nowadays. Embedded systems cannot anymore be considered only as specific-purpose computers, designed for a particular functionality that remains unchanged during their lifetime. Differently, embedded systems are now required to deal with more demanding and complex functions, such as multimedia data processing and high-throughput connectivity. In addition, system operation may depend on external data, the user requirements or internal variables of the system, such as the battery life-time. All these conditions may vary at run-time, leading to adaptive scenarios. As a consequence of both the growing computational complexity and the existence of dynamic requirements, dynamic resource management techniques for embedded systems are needed. Software is inherently flexible, but it cannot meet the computing power offered by hardware solutions. Therefore, reconfigurable hardware emerges as a suitable technology to deal with the run-time variable requirements of complex embedded systems. Adaptive hardware requires the use of reconfigurable devices, where its functionality can be modified on demand. In this thesis, Field Programmable Gate Arrays (FPGAs) have been selected as the most appropriate commercial technology existing nowadays to implement adaptive hardware systems. There are different ways of exploiting reconfigurability in reconfigurable devices. Among them is dynamic and partial reconfiguration. This is a technique which consists in substituting part of the FPGA logic on demand, while the rest of the device continues working. The strategy followed in this thesis is to exploit the dynamic and partial reconfiguration of commercial FPGAs to deal with the flexibility and complexity demands of state-of-the-art embedded systems. The proposal of this thesis to deal with run-time variable system conditions is the use of spatially scalable processing hardware IP cores, which are able to adapt their functionality or performance at run-time, trading them off with the amount of logic resources they occupy in the device. This is referred to as a scalable footprint in the context of this thesis. The distinguishing characteristic of the proposed cores is that they rely on highly parallel, modular and regular architectures, arranged in one or two dimensions. These architectures can be scaled by means of the addition or removal of the composing blocks. This strategy avoids implementing a full version of the core for each possible size, with the corresponding benefits in terms of scaling and adaptation time, as well as bitstream storage memory requirements. Instead of providing specific-purpose architectures, generic architectural templates, which can be tuned to solve different problems, are proposed in this thesis. Architectures following both systolic and wavefront templates have been selected. Together with the proposed scalable architectural templates, other issues needed to ensure the proper design and operation of the scalable cores, such as the device reconfiguration control, the run-time management of the architecture and the implementation techniques have been also addressed in this thesis. With regard to the implementation of dynamically reconfigurable architectures, device dependent low-level details are addressed. Some of the aspects covered in this thesis are the area constrained routing for reconfigurable modules, or an inter-module communication strategy which does not introduce either extra delay or logic overhead. The system implementation, from the hardware description to the device configuration bitstream, has been fully automated by modifying the netlists corresponding to each of the system modules, which are previously generated using the vendor tools. This modification is therefore envisaged as a post-processing step. Based on these implementation proposals, a design tool called DREAMS (Dynamically Reconfigurable Embedded and Modular Systems) has been created, including a graphic user interface. The tool has specific features to cope with modular and regular architectures, including the support for module relocation and the inter-module communications scheme based on the symmetry of the architecture. The core of the tool is a custom router, which has been also exploited in this thesis to obtain symmetric routed nets, with the aim of enhancing the protection of critical reconfigurable circuits against side channel attacks. This is achieved by duplicating the logic with an exactly equal routing. In order to control the reconfiguration process of the FPGA, a Reconfiguration Engine suited to the specific requirements set by the proposed architectures was also proposed. Therefore, in addition to controlling the reconfiguration port, the Reconfiguration Engine has been enhanced with the online relocation ability, which allows employing a unique configuration bitstream for all the positions where the module may be placed in the device. Differently to the existing relocating solutions, which are based on bitstream parsers, the proposed approach is based on the online composition of bitstreams. This strategy allows increasing the speed of the process, while the length of partial bitstreams is also reduced. The height of the reconfigurable modules can be lower than the height of a clock region. The Reconfiguration Engine manages the merging process of the new and the existing configuration frames within each clock region. The process of scaling up and down the hardware cores also benefits from this technique. A direct link to an external memory where partial bitstreams can be stored has been also implemented. In order to accelerate the reconfiguration process, the ICAP has been overclocked over the speed reported by the manufacturer. In the case of Virtex-5, even though the maximum frequency of the ICAP is reported to be 100 MHz, valid operations at 250 MHz have been achieved, including the online relocation process. Portability of the reconfiguration solution to today's and probably, future FPGAs, has been also considered. The reconfiguration engine can be also used to inject faults in real hardware devices, and this way being able to evaluate the fault tolerance offered by the reconfigurable architectures. Faults are emulated by introducing partial bitstreams intentionally modified to provide erroneous functionality. To prove the validity and the benefits offered by the proposed architectures, two demonstration application lines have been envisaged. First, scalable architectures have been employed to develop an evolvable hardware platform with adaptability, fault tolerance and scalability properties. Second, they have been used to implement a scalable deblocking filter suited to scalable video coding. Evolvable Hardware is the use of evolutionary algorithms to design hardware in an autonomous way, exploiting the flexibility offered by reconfigurable devices. In this case, processing elements composing the architecture are selected from a presynthesized library of processing elements, according to the decisions taken by the algorithm, instead of being decided at design time. This way, the configuration of the array may change as run-time environmental conditions do, achieving autonomous control of the dynamic reconfiguration process. Thus, the self-optimization property is added to the native self-configurability of the dynamically scalable architectures. In addition, evolvable hardware adaptability inherently offers self-healing features. The proposal has proved to be self-tolerant, since it is able to self-recover from both transient and cumulative permanent faults. The proposed evolvable architecture has been used to implement noise removal image filters. Scalability has been also exploited in this application. Scalable evolvable hardware architectures allow the autonomous adaptation of the processing cores to a fluctuating amount of resources available in the system. Thus, it constitutes an example of the dynamic quality scalability tackled in this thesis. Two variants have been proposed. The first one consists in a single dynamically scalable evolvable core, and the second one contains a variable number of processing cores. Scalable video is a flexible approach for video compression, which offers scalability at different levels. Differently to non-scalable codecs, a scalable video bitstream can be decoded with different levels of quality, spatial or temporal resolutions, by discarding the undesired information. The interest in this technology has been fostered by the development of the Scalable Video Coding (SVC) standard, as an extension of H.264/AVC. In order to exploit all the flexibility offered by the standard, it is necessary to adapt the characteristics of the decoder to the requirements of each client during run-time. The use of dynamically scalable architectures is proposed in this thesis with this aim. The deblocking filter algorithm is the responsible of improving the visual perception of a reconstructed image, by smoothing blocking artifacts generated in the encoding loop. This is one of the most computationally intensive tasks of the standard, and furthermore, it is highly dependent on the selected scalability level in the decoder. Therefore, the deblocking filter has been selected as a proof of concept of the implementation of dynamically scalable architectures for video compression. The proposed architecture allows the run-time addition or removal of computational units working in parallel to change its level of parallelism, following a wavefront computational pattern. Scalable architecture is offered together with a scalable parallelization strategy at the macroblock level, such that when the size of the architecture changes, the macroblock filtering order is modified accordingly. The proposed pattern is based on the division of the macroblock processing into two independent stages, corresponding to the horizontal and vertical filtering of the blocks within the macroblock. The main contributions of this thesis are: - The use of highly parallel, modular, regular and local architectures to implement dynamically reconfigurable processing IP cores, for data intensive applications with flexibility requirements. - The use of two-dimensional mesh-type arrays as architectural templates to build dynamically reconfigurable IP cores, with a scalable footprint. The proposal consists in generic architectural templates, which can be tuned to solve different computational problems. •A design flow and a tool targeting the design of DPR systems, focused on highly parallel, modular and local architectures. - An inter-module communication strategy, which does not introduce delay or area overhead, named Virtual Borders. - A custom and flexible router to solve the routing conflicts as well as the inter-module communication problems, appearing during the design of DPR systems. - An algorithm addressing the optimization of systems composed of multiple scalable cores, which size can be decided individually, to optimize the system parameters. It is based on a model known as the multi-dimensional multi-choice Knapsack problem. - A reconfiguration engine tailored to the requirements of highly regular and modular architectures. It combines a high reconfiguration throughput with run-time module relocation capabilities, including the support for sub-clock reconfigurable regions and the replication in multiple positions. - A fault injection mechanism which takes advantage of the system reconfiguration engine, as well as the modularity of the proposed reconfigurable architectures, to evaluate the effects of transient and permanent faults in these architectures. - The demonstration of the possibilities of the architectures proposed in this thesis to implement evolvable hardware systems, while keeping a high processing throughput. - The implementation of scalable evolvable hardware systems, which are able to adapt to the fluctuation of the amount of resources available in the system, in an autonomous way. - A parallelization strategy for the H.264/AVC and SVC deblocking filter, which reduces the number of macroblock cycles needed to process the whole frame. - A dynamically scalable architecture that permits the implementation of a novel deblocking filter module, fully compliant with the H.264/AVC and SVC standards, which exploits the macroblock level parallelism of the algorithm. This document is organized in seven chapters. In the first one, an introduction to the technology framework of this thesis, specially focused on dynamic and partial reconfiguration, is provided. The need for the dynamically scalable processing architectures proposed in this work is also motivated in this chapter. In chapter 2, dynamically scalable architectures are described. Description includes most of the architectural contributions of this work. The design flow tailored to the scalable architectures, together with the DREAMs tool provided to implement them, are described in chapter 3. The reconfiguration engine is described in chapter 4. The use of the proposed scalable archtieectures to implement evolvable hardware systems is described in chapter 5, while the scalable deblocking filter is described in chapter 6. Final conclusions of this thesis, and the description of future work, are addressed in chapter 7.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Se ha estudiado la influencia de cinco técnicas (metodología de elaboración, tipo de recipiente de conservación y tiempo de conservación del vino en rama, temperatura de conservación y tiempo de conservación del vino embotellado) sobre parámetros fisico-químicos y descriptores sensoriales ligados a la acidez y al color en vinos tintos jóvenes de la variedad Mencía en la DO. Valdeorras (Ourense, Galicia). Los resultados muestran que los 19 parámetros estudiados son muy sensibles a las técnicas estudiadas. Tres de las cinco técnicas afectan (p<0,05) a los 19 parámetros y las otras dos (p<0,05) a diez de ellos. La maceración prefermentativa en frio y la conservación del vino en barrica aumentaron la acidez, pero la elaboración tradicional, la conservación del vino en depósito, la conservación del vino en botella durante tres meses y el empleo de una temperatura de conservación del vino embotellado baja y constante fueron más adecuadas para el color. Esto hace necesario establecer condiciones muy concretas para cada técnica según el parámetro considerado.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La presente tesis es un estudio analítico y numérico del electrospray. En la configuración más sencilla, un caudal constante del líquido a atomizar, que debe tener una cierta conductividad eléctrica, se inyecta en un medio dieléctrico (un gas u otro líquido inmiscible con el primero) a través de un tubo capilar metálico. Entre este tubo y un electrodo lejano se aplica un voltaje continuo que origina un campo eléctrico en el líquido conductor y en el espacio que lo rodea. El campo eléctrico induce una corriente eléctrica en el líquido, que acumula carga en su superficie, y da lugar a un esfuerzo eléctrico sobre la superficie, que tiende a alargarla en la dirección del campo eléctrico. El líquido forma un menisco en el extremo del tubo capilar cuando el campo eléctrico es suficientemente intenso y el caudal suficientemente pequeño. Las variaciones de presión y los esfuerzos viscosos asociados al movimiento del líquido son despreciables en la mayor parte de este menisco, siendo dominantes los esfuerzos eléctrico y de tensión superficial que actúan sobre la superficie del líquido. En el modo de funcionamiento llamado de conochorro, el balance de estos esfuerzos hace que el menisco adopte una forma cónica (el cono de Taylor) en una región intermedia entre el extremo del tubo y la punta del menisco. La velocidad del líquido aumenta al acercarse al vértice del cono, lo cual propicia que las variaciones de la presión en el líquido generadas por la inercia o por la viscosidad entren en juego, desequilibrando el balance de esfuerzos mencionado antes. Como consecuencia, del vértice del cono sale un delgado chorro de líquido, que transporta la carga eléctrica que se acumula en la superficie. La acción del campo eléctrico tangente a la superficie sobre esta carga origina una tracción eléctrica que tiende a alargar el chorro. Esta tracción no es relevante en el menisco, donde el campo eléctrico tangente a la superficie es muy pequeño, pero se hace importante en el chorro, donde es la causa del movimiento del líquido. Lejos del cono, el chorro puede o bien desarrollar una inestabilidad asimétrica que lo transforma en una espiral (whipping) o bien romperse en un spray de gotas prácticamente monodispersas cargadas eléctricamente. La corriente eléctrica transportada por el líquido es la suma de la corriente de conducción en el interior del líquido y la corriente debida a la convección de la carga acumulada en su superficie. La primera domina en el menisco y la segunda en el chorro lejano, mientras que las dos son comparables en una región intermedia de transferencia de corriente situada al comienzo del chorro aunque aguas abajo de la región de transición cono-chorro, en la que el menisco deja de ser un cono de Taylor. Para un campo exterior dado, la acumulación de carga eléctrica en la superficie del líquido reduce el campo eléctrico en el interior del mismo, que llega a anularse cuando la carga alcanza un estado final de equilibrio. El tiempo característico de este proceso es el tiempo de relajación dieléctrica, que es una propiedad del líquido. Cuando el tiempo de residencia del líquido en la región de transición cono-chorro (o en otra región del campo fluido) es grande frente al tiempo de relajación dieléctrica, la carga superficial sigue una sucesión de estados de equilibrio y apantalla al líquido del campo exterior. Cuando esta condición deja de cumplirse, aparecen efectos de relajación de carga, que se traducen en que el campo exterior penetra en el líquido, a no ser que su constante dieléctrica sea muy alta, en cuyo caso el campo inducido por la carga de polarización evita la entrada del campo exterior en el menisco y en una cierta región del chorro. La carga eléctrica en equilibrio en la superficie de un menisco cónico intensifica el campo eléctrico y determina su variación espacial hasta distancias aguas abajo del menisco del orden de su tamaño. Este campo, calculado por Taylor, es independiente del voltaje aplicado, por lo que las condiciones locales del flujo y el valor de la corriente eléctrica son también independientes del voltaje en tanto los tamaños de las regiones que determinan estas propiedades sean pequeños frente al tamaño del menisco. Los resultados experimentales publicados en la literatura muestran que existe un caudal mínimo para el que el modo cono-chorro que acabamos de describir deja de existir. El valor medio y la desviación típica de la distribución de tamaños de las gotas generadas por un electrospray son mínimos cuando se opera cerca del caudal mínimo. A pesar de que los mecanismos responsables del caudal mínimo han sido muy estudiados, no hay aún una teoría completa del mismo, si bien su existencia parece estar ligada a la aparición de efectos de relajación de carga en la región de transición cono-chorro. En esta tesis, se presentan estimaciones de orden de magnitud, algunas existentes y otras nuevas, que muestran los balances dominantes responsables de las distintas regiones de la estructura asintótica de la solución en varios casos de interés. Cuando la inercia del líquido juega un papel en la transición cono-chorro, los resultados muestran que la región de transferencia de corriente, donde la mayor parte de la corriente pasa a la superficie, está en el chorro aguas abajo de la región de transición cono-chorro. Los efectos de relajación de carga aparecen de forma simultánea en el chorro y la región de transición cuando el caudal se disminuye hasta valores de un cierto orden. Para caudales aún menores, los efectos de relajación de carga se notan en el menisco, en una región grande comparada con la de transición cono-chorro. Cuando el efecto de las fuerzas de viscosidad es dominante en la región de transición, la región de transferencia de corriente está en el chorro pero muy próxima a la región de transición cono-chorro. Al ir disminuyendo el caudal, los efectos de relajación de carga aparecen progresivamente en el chorro, en la región de transición y por último en el menisco. Cuando el caudal es mucho mayor que el mínimo del modo cono-chorro, el menisco deja de ser cónico. El campo eléctrico debido al voltaje aplicado domina en la región de transferencia de corriente, y tanto la corriente eléctrica como el tamaño de las diferentes regiones del problema pasan a depender del voltaje aplicado. Como resultado de esta dependencia, el plano caudal-voltaje se divide en diferentes regiones que se analizan separadamente. Para caudales suficientemente grandes, la inercia del líquido termina dominando frente a las fuerzas de la viscosidad. Estos resultados teóricos se han validado con simulaciones numéricas. Para ello se ha formulado un modelo simplificado del flujo, el campo eléctrico y el transporte de carga en el menisco y el chorro del electrospray. El movimiento del líquido se supone casi unidireccional y se describe usando la aproximación de Cosserat para un chorro esbelto. Esta aproximación, ampliamente usada en la literatura, permite simular con relativa facilidad múltiples casos y cubrir amplios rangos de valores de los parámetros reteniendo los efectos de la viscosidad y la inercia del líquido. Los campos eléctricos dentro y fuera del liquido están acoplados y se calculan sin simplificación alguna usando un método de elementos de contorno. La solución estacionaria del problema se calcula mediante un método iterativo. Para explorar el espacio de los parámetros, se comienza calculando una solución para valores fijos de las propiedades del líquido, el voltaje aplicado y el caudal. A continuación, se usa un método de continuación que permite delinear la frontera del dominio de existencia del modo cono-chorro, donde el método iterativo deja de converger. Cuando el efecto de la inercia del líquido domina en la región de transición cono-chorro, el caudal mínimo para el cual el método iterativo deja de converger es del orden del valor estimado del caudal para el que comienza a haber efectos de relajación de carga en el chorro y el cono. Aunque las simulaciones no convergen por debajo de dicho caudal, el valor de la corriente eléctrica para valores del caudal ligeramente mayores parece ajustarse a las estimaciones para caudales menores, reflejando un posible cambio en los balances aplicables. Por el contrario, cuando las fuerzas viscosas dominan en la región de transición, se pueden obtener soluciones estacionarias para caudales bastante menores que aquel para el que aparecen efectos de relajación de carga en la región de transición cono-chorro. Los resultados numéricos obtenidos para estos pequeños caudales se ajustan perfectamente a las estimaciones de orden de magnitud que se describen en la memoria. Por último, se incluyen como anexos dos estudios teóricos que han surgido de forma natural durante el desarrollo de la tesis. El primero hace referencia a la singularidad en el campo eléctrico que aparece en la línea de contacto entre el líquido y el tubo capilar en la mayoría de las simulaciones. Primero se estudia en qué situaciones el campo eléctrico tiende a infinito en la línea de contacto. Después, se comprueba que dicha singularidad no supone un fallo en la descripción del problema y que además no afecta a la solución lejos de la línea de contacto. También se analiza si los esfuerzos eléctricos infinitamente grandes a los que da lugar dicha singularidad pueden ser compensados por el resto de esfuerzos que actúan en la superficie del líquido. El segundo estudio busca determinar el tamaño de la región de apantallamiento en un chorro de líquido dieléctrico sin carga superficial. En esta región, el campo exterior es compensado parcialmente por el campo que induce la carga de polarización en la superficie del líquido, de forma que en el interior del líquido el campo eléctrico es mucho menor que en el exterior. Una región como ésta aparece en las estimaciones cuando los efectos de relajación de carga son importantes en la región de transferencia de corriente en el chorro. ABSTRACT This aim of this dissertation is a theoretical and numerical analysis of an electrospray. In its most simple configuration, a constant flow rate of the liquid to be atomized, which has to be an electrical conductor, is injected into a dielectric medium (a gas or another inmiscible fluid) through a metallic capillary tube. A constant voltage is applied between this tube and a distant electrode that produces an electric field in the liquid and the surrounding medium. This electric field induces an electric current in the liquid that accumulates charge at its surface and leads to electric stresses that stretch the surface in the direction of the electric field. A meniscus appears on the end of the capillary tube when the electric field is sufficiently high and the flow rate is small. Pressure variations and viscous stresses due to the motion of the liquid are negligible in most of the meniscus, where normal electric and surface tension stresses acting on the surface are dominant. In the so-called cone-jet mode, the balance of these stresses forces the surface to adopt a conical shape -Taylor cone- in a intermediate region between the end of the tube and the tip of the meniscus. When approaching the cone apex, the velocity of the liquid increases and leads to pressure variations that eventually disturb the balance of surfaces tension and electric stresses. A thin jet emerges then from the tip of the meniscus that transports the charge accumulated at its surface. The electric field tangent to the surface of the jet acts on this charge and continuously stretches the jet. This electric force is negligible in the meniscus, where the component of the electric field tangent to the surface is small, but becomes very important in the jet. Far from the cone, the jet can either develop an asymmetrical instability named “whipping”, whereby the jet winds into a spiral, or break into a spray of small, nearly monodisperse, charged droplets. The electric current transported by the liquid has two components, the conduction current in the bulk of the liquid and the convection current due to the transport of the surface charge by the flow. The first component dominates in the meniscus, the second one in the far jet, and both are comparable in a current transfer region located in the jet downstream of the cone-jet transition region where the meniscus ceases to be a Taylor cone. Given an external electric field, the charge that accumulates at the surface of the liquid reduces the electric field inside the liquid, until an equilibrium is reached in which the electric field induced by the surface charge counters the external electric field and shields the liquid from this field. The characteristic time of this process is the electric relaxation time, which is a property of the liquid. When the residence time of the liquid in the cone-jet transition region (or in other region of the flow) is greater than the electric relaxation time, the surface charge follows a succession of equilibrium states and continuously shield the liquid from the external field. When this condition is not satisfied, charge relaxation effects appear and the external field penetrates into the liquid unless the liquid permittivity is large. For very polar liquids, the field due to the polarization charge at the surface prevents the external field from entering the liquid in the cone and in certain region of the jet. The charge at the surface of a conical meniscus intensifies the electric field around the cone, determining its spatial variation up to distances downstream of the apex of the order of the size of the meniscus. This electric field, first computed by Taylor, is independent of the applied voltage. Therefore local flow characteristics and the electric current carried by the jet are also independent of the applied voltage provided the size of the regions that determine these magnitudes are small compared with the size of the meniscus. Many experiments in the literature show the existence of a minimum flow rate below which the cone-jet mode cannot be established. The mean value and the standard deviation of the electrospray droplet size distribution are minimum when the device is operated near the minimum flow rate. There is no complete explanation of the minimum flow rate, even though possible mechanisms have been extensively studied. The existence of a minimum flow rate seems to be connected with the appearance of charge relaxation effects in the transition region. In this dissertation, order of magnitude estimations are worked out that show the dominant balances in the different regions of the asymptotic structure of the solution for different conditions of interest. When the inertia of the liquid plays a role in the cone-jet transition region, the region where most of the electric current is transfered to the surface lies in the jet downstream the cone-jet transition region. When the flow rate decreases to a certain value, charge relaxation effects appear simultaneously in the jet and in the transition region. For smaller values of the flow rate, charge relaxation effects are important in a region of the meniscus larger than the transition region. When viscous forces dominate in the flow in the cone-jet transition region, the current transfer region is located in the jet immediately after the transition region. When flow rate is decreased, charge relaxation effects appears gradually, first in the jet, then in the transition region, and finally in the meniscus. When flow rate is much larger than the cone-jet mode minimum, the meniscus ceases to be a cone. The electric current and the structure of the solution begin to depend on the applied voltage. The flow rate-voltage plane splits into different regions that are analyzed separately. For sufficiently large flow rates, the effect of the inertia of the liquid always becomes greater than the effect of the viscous forces. A set of numerical simulations have been carried out in order to validate the theoretical results. A simplified model of the problem has been devised to compute the flow, the electric field and the surface charge in the meniscus and the jet of an electrospray. The motion of the liquid is assumed to be quasi-unidirectional and described by Cosserat’s approximation for a slender jet. This widely used approximation allows to easily compute multiple configurations and to explore wide ranges of values of the governing parameters, retaining the effects of the viscosity and the inertia of the liquid. Electric fields inside and outside the liquid are coupled and are computed without any simplification using a boundary elements method. The stationary solution of the problem is obtained by means of an iterative method. To explore the parameter space, a solution is first computed for a set of values of the liquid properties, the flow rate and the applied voltage, an then a continuation method is used to find the boundaries of the cone-jet mode domain of existence, where the iterative method ceases to converge. When the inertia of the liquid dominates in the cone-jet transition region, the iterative method ceases to converge for values of the flow rate for which order-of-magnitude estimates first predict charge relaxation effects to be important in the cone and the jet. The electric current computed for values of the flow rate slightly above the minimum for which convergence is obtained seems to agree with estimates worked out for lower flow rates. When viscous forces dominate in the transition region, stationary solutions can be obtained for flow rates significantly smaller than the one for which charge relaxation effects first appear in the transition region. Numerical results obtained for those small values of the flow rate agree with our order of magnitude estimates. Theoretical analyses of two issues that have arisen naturally during the thesis are summarized in two appendices. The first appendix contains a study of the singularity of the electric field that most of the simulations show at the contact line between the liquid and the capillary tube. The electric field near the contact line is analyzed to determine the ranges of geometrical configurations and liquid permittivity where a singularity appears. Further estimates show that this singularity does not entail a failure in the description of the problem and does not affect the solution far from the contact line. The infinite electric stresses that appear at the contact line can be effectively balanced by surface tension. The second appendix contains an analysis of the size and slenderness of the shielded region of a dielectric liquid in the absence of free surface charge. In this region, the external electric field is partially offset by the polarization charge so that the inner electric field is much lower than the outer one. A similar region appears in the estimates when charge relaxation effects are important in the current transfer region.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La conciencia de la crisis de la modernidad -que comienza ya a finales del siglo XIX- ha cobrado más experiencia debido al conocimiento de los límites del desarrollo económico, ya que como parecía razonable pensar, también los recursos naturales son finitos. En 1972, el Club de Roma analizó las distintas opciones disponibles para conseguir armonizar el desarrollo sostenible y las limitaciones medioambientales. Fue en 1987 cuando la Comisión Mundial para el Medio Ambiente y el Desarrollo de la ONU definía por primera vez el concepto de desarrollo sostenible. Definición que posteriormente fue incorporada en todos los programas de la ONU y sirvió de eje, por ejemplo, a la Cumbre de la Tierra celebrada en Río de Janeiro en 1992. Parece evidente que satisfacer la demanda energética, fundamentalmente desde la Revolución Industrial en el s XIX, trajo consigo un creciente uso de los combustibles fósiles, con la consiguiente emisión de los gases de efecto invernadero (GEI) y el aumento de la temperatura global media terrestre. Esta temperatura se incrementó en los últimos cien años en una media de 0.74ºC. La mayor parte del incremento observado desde la mitad del siglo XX en esta temperatura media se debe, con una probabilidad de al menos el 90%, al aumento observado en los GEI antropogénicos, siendo uno de ellos el CO2 que proviene de la transformación del carbono de los combustibles fósiles durante su combustión. Ante el creciente uso de los combustibles fósiles, los proyectos CAC, proyectos de captura, transporte y almacenamiento, se presentan como una contribución al desarrollo sostenible ya que se trata de una tecnología que permite mitigar el cambio climático. Para valorar si la tecnología CAC es sostenible, habrá que comprobar si existe o no capacidad para almacenar el CO2 en una cantidad mayor a la de producción y durante el tiempo necesario que impone la evolución de la concentración de CO2 en la atmósfera para mantenerla por debajo de las 450ppmv (concentración de CO2 que propone el Panel Intergubernamental para el Cambio Climático). El desarrollo de los proyectos CAC completos pasa por la necesaria selección de adecuados almacenes de CO2 que sean capaces de soportar los efectos de las presiones de inyección, así como asegurar la capacidad de dichos almacenes y la estanqueidad del CO2 en los mismos. La caracterización geológica de un acuífero susceptible de ser almacén de CO2 debe conducir a determinar las propiedades que dicho almacén posee para asegurar un volumen adecuado de almacenamiento, una inyectabilidad del CO2 en el mismo a un ritmo adecuado y la estanqueidad del CO2 en dicho acuífero a largo plazo. El presente trabajo pretende estudiar los parámetros que tienen influencia en el cálculo de la capacidad del almacén, para lo que en primer lugar se ha desarrollado la tecnología necesaria para llevar a cabo la investigación mediante ensayos de laboratorio. Así, se ha desarrollado una patente, "ATAP, equipo para ensayos petrofísicos (P201231913)", con la que se ha llevado a cabo la parte experimental de este trabajo para la caracterización de los parámetros que tienen influencia en el cálculo de la capacidad del almacén. Una vez desarrollada la tecnología, se aborda el estudio de los distintos parámetros que tienen influencia en la capacidad del almacén realizando ensayos con ATAP. Estos ensayos definen el volumen del almacenamiento, llegándose a la conclusión de que en la determinación de este volumen, juegan un papel importante el alcance de los mecanismos trampa, físicos o químicos, del CO2 en el almacén. Ensayos que definen la capacidad del almacén de "aceptar" o "rechazar" el CO2 inyectado, la inyectabilidad, y por último, ensayos encaminados a determinar posibles fugas que se pueden dar a través de los pozos de inyección, definidos estos como caminos preferenciales de fugas en un almacén subterráneo de CO2. Queda de este modo caracterizada la estanqueidad del CO2 en el acuífero a largo plazo y su influencia obvia en la determinación de la capacidad del almacén. Unido al propósito de la estimación de la capacidad del almacén, se encuentra el propósito de asegurar la estanqueidad de dichos almacenes en el tiempo, y adelantarse a la evolución de la pluma de CO2 en el interior de dichos almacenes. Para cumplir este propósito, se ha desarrollado un modelo dinámico a escala de laboratorio, mediante el programa ECLIPSE 300, con el fin de establecer una metodología para el cálculo de la capacidad estimada del almacén, así como el estudio de la evolución de la pluma de CO2 dentro del acuífero a lo largo del tiempo, partiendo de los resultados obtenidos en los ensayos realizados en ATAP y con la modelización de la probeta de roca almacén empleada en dichos ensayos. Presentamos por tanto un trabajo que establece las bases metodológicas para el estudio de la influencia de distintos parámetros petrofísicos en el cálculo de la capacidad del almacén unidos al desarrollo tecnológico de ATAP y su utilización para la determinación de dichos parámetros aplicables a cada acuífero concreto de estudio. ABSTRACT The crisis of modernity –which begins at the end of 19th Century- has been more important due to the knowledge of the limits of economic development, since it appeared to be thought reasonable, the natural resources are finite. In 1972, The Club of Rome analyzed the different options available in order to harmonize the sustainability and the environment development. It was in 1987 when The Global Commission on The Environment and the Development of UN, defined for the first time the concept of Sustainable Development. This definition that was fully incorporated in all the UN programs and it was useful as an axis, for example, in La Cumbre de la Tierra summit in Río de Janeiro in 1992. It seems obvious to satisfy energetic demand, basically after The Industrial Revolution in 19th Century, which represented an increasing use of fossil fuels, therefore greenhouse gases emission and the increasing of global average temperature. This temperature increased in the last 100 years up to 0.74ºC. The major part of the temperature increase is due to the increase observed in Greenhouse gases with human origin, at least with 90% of probability. The most important gas is the CO2 because of its quantity. In the face of the increasing use of fossil fuels, the CCS projects, Carbon Capture and Storage projects, appear as a contribution of sustainable development since it is a technology for avoiding the climate change. In order to evaluate if CCS technology is sustainable, it will be necessary to prove if the capacity for CO2 storage is available or not in a quantity greater than the production one and during the time necessary to keep the CO2 concentration in the atmosphere lower than 450ppmv (concentration imposed by IPCC). The development of full CCS projects goes through the selection of good CO2 storages that are able to support the effects of pressure injection, and assure the capacity of such storages and the watertightness of CO2. The geological characterization of the aquifer that could be potential CO2 storage should lead to determine the properties that such storage has in order to assure the adequate storage volume, the CO2 injectivity in a good rate, and the watertightness of the CO2 in the long term. The present work aims to study the parameters that have influence on the calculation of storage capacity, and for that purpose the appropriate technology has been developed for carrying out the research by mean of laboratory tests. Thus, a patent has been developed, "ATAP, equipo para ensayos petrofísicos (P201231913)", that has been used for developing the experimental part of this work. Once the technology has been developed, the study of different parameters, that have influence on the capacity of the storage, has been addressed developing different tests in ATAP. These tests define the storage volume which is related to the scope of different CO2 trap mechanisms, physical or chemical, in the storage. Tests that define the capacity of the storage to “accept” or “reject” the injected CO2, the injectivity, and tests led to determine possible leakages through injection wells. In this way we could talk about the watertightness in the aquifer in the long term and its influence on the storage capacity estimation. Together with the purpose of the storage capacity estimation, is the purpose of assuring the watertightness of such storages in the long term and anticipating the evolution of CO2 plume inside such aquifers. In order to fulfill this purpose, a dynamic model has been developed with ECLIPSE 300, for stablishing the methodology for the calculation of storage capacity estimation and the evolution of the CO2 plume, starting out with the tests carried out in ATAP. We present this work that establishes the methodology bases for the study of the influence of different petrophysics parameters in the calculation of the capacity of the storage together with the technological development of ATAP and its utilization for the determination of such parameters applicable to each aquifer.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Desde hace más de una década se vienen realizando en España enormes esfuerzos por implantar programas bilingües español-inglés en los centros educativos y es, por tanto, de gran interés conocer qué efectos ha tenido y está teniendo actualmente la implantación de dichos programas en los alumnos. Son, así pues, objetivos de este trabajo: identificar los efectos de la educación bilingüe en España, establecer propuestas de mejora frente a los problemas o insuficiencias detectadas y, por último, ofrecer una serie de propuestas relativas a la elaboración de materiales didácticos dentro del enfoque metodológico de Aprendizaje Integrado de Contenidos y Lenguas Extranjeras (AICLE). Se presentan también un banco de recursos didácticos de apoyo a uno de los bloques en los que se organiza la asignatura de Tecnología de la Enseñanza Secundaria Obligatoria, los resultados esperados del proyecto, una propuesta de valoración de la puesta en práctica del mismo y, como conclusión, se valoran positivamente este tipo de recursos y se propone la conveniencia de desarrollar nuevos recursos didácticos que aborden otras temáticas dentro de la Tecnología. ABSTRACT From the mid-nineties onwards great efforts have been made in Spain in order to implement bilingual education programs into primary and secondary schools. Therefore, this work’s main objectives are to identify the effects of bilingual education in Spain and to make proposals for the improvement or elimination of the identified problems and weaknesses and for creating Content and Language Integrated Learning- specific learning materials. The work also includes a teacher resource bank to support one of the blocks in which the subject of Technology in Secondary Education is organized, the expected results, an assessment plan to measure the project’s success and, as a conclusion, it is highlighted the need for creating new materials that address other thematic areas within the subject of Tecnology.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Los cultivos hortofrutícolas están muy extendidos en España, especialmente en el Sur y a orillas del Mediterráneo, donde el clima es muy apropiado para muchas especies de frutas y hortalizas. La superficie dedicada a cultivos hortícolas es de 3.915.000 ha (1.830.000 ha descontado el olivar), las cuales produjeron en I 982 unos ingresos brutos a los agricultores de 574.896 x 106 ptas. La mecanización de los cultivos hortícolas está muy generalizada en las faenas comunes con otros cultivos (laboreo, fertilización, pulverización); se han conseguido grandes avances en la mecanización de la siembra y trasplante, y están menos extendidos los medios mecánicos para la recolección o aún no se ha logrado una solución satisfactoria para algunos cultivos. La recolección de los productos hortofrutícolas presenta la dificultad de que los órganos a recoger son muy diversos por lo que las máquinas de recolección deben ser muy específicas, se usan pocos días al año y su coste horario resulta elevado. Estas circunstancias unidas al hecho de que la recesión económica ha provocado desde 1974 la aparición de mano de obra desocupada, ha impedido que se haya generalizado la recolección mecanizada en la horticultura. La industria nacional sólo se ha preocupado de fabricar máquinas destinadas a recoger los cultivos más extendidos (olivar, patata) y ha sido necesario importar las máquinas más sofisticadas para cosechar otros cultivos (tomate, judías verdes, guisantes, etc.). Paralelamente al desarrollo y utilización de las máquinas para efectuar la recolección, se han investigado otros problemas relacionados con la misma. En los cultivos anuales se ha avanzado en la selección de variedades especialmente adaptadas a la recolección. Se han desarrollado algunas variedades autóctonas y se han adaptado otras traídas de EE.UU., y Más concretamente de California, dada la similitud de clima. La introducción de variedades y métodos de cultivo distintos de los tradicionales presenta dificultades aunque en los últimos años parece acelerarse la transformación hacia los nuevos sistemas. La infraestructura (parcelas pequeñas) es un problema básico en ciertas áreas, pero en los nuevos regadíos se cuenta con una situación bastante adecuada para los sistemas más industriales de producción. Los cultivos frutales son más difíciles de mecanizar. La poda que tiene la vid hace que sea prácticamente imposible hasta ahora la recolección mecánica y es muy difícil lograrlo con el olivar. Sé han hecho grandes avances en el manejo y limpieza del producto recogido y su transporte a fábrica, estando estas faenas mecanizadas casi por completo.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La gestión de hábitat orientada a la conservación de polinizadores en los agro-ecosistemas requiere una selección de especies vegetales atendiendo fundamentalmente a dos criterios: i) el potencial atractivo de sus flores a los polinizadores; y ii) la simplicidad en su manejo agronómico. Además de estas premisas, es necesario considerar la capacidad invasora de estas especies vegetales, debido a que algunas de las más atractivas pueden resultar invasoras en determinados agro-ecosistemas. Por lo tanto, es preciso determinar qué especies vegetales son las más indicadas para ser implementadas en cada agro-ecosistema. En la presente tesis doctoral se plantea la búsqueda de las especies vegetales adecuadas para atraer polinizadores en los agro-ecosistemas del centro de España. En una primera aproximación, se ha evaluado la atracción y expansión espacial (potencial invasivo) de seis plantas perennes de la familia Lamiaceae (aromáticas), elegidas por ser nativas de la región mediterránea. La elección de las especies vegetales se ha llevado a cabo con el fin de crear márgenes funcionales basados en la mezcla de especies vegetales con distintos periodos de floración, de modo que prolonguen la disponibilidad de recursos florales en el tiempo. Tras un primer año dedicado al establecimiento de las especies aromáticas, en los dos años siguientes se ha estudiado la atracción individual y combinada de las especies vegetales sobre los polinizadores, y como ésta se ve afectada por la densidad y la morfología floral, utilizando para ello un diseño experimental en bloques al azar. Los resultados de este estudio han puesto de manifiesto que la morfología floral no tuvo influencia sobre la atracción de las especies vegetales, pero si la densidad floral, puesto que las especies vegetales con mayor densidad de flores (Nepeta tuberosa e Hyssopus officinalis) han mostrado mayor atracción a polinizadores. Cabe destacar que de las seis especies consideradas, dos especies de verano (Melissa officinalis y Thymbra capitata) no han contribuido de forma efectiva a la atracción de la mezcla hacia los polinizadores, mostrando una reducción significativa de este parámetro respecto a las otras especies aromáticas a lo largo del verano. Se ha observado que ninguna de las especies aromáticas evaluadas ha mostrado tendencia invasora a lo largo del estudio. En base a estos resultados, se puede concluir que entre las especies aromáticas estudiadas, N. tuberosa, H. officinalis y Salvia verbenaca son las que ofrecen mayor potencial para ser utilizadas en la conservación de polinizadores. De forma similar al caso de las plantas aromáticas, se ha llevado a cabo una segunda experimentación que incluía doce plantas anuales con floración de primavera, en la que se evaluó la atracción a polinizadores y su comportamiento agronómico. Este estudio con especies herbáceas se ha prolongado durante dos años, utilizando un diseño experimental de bloques aleatorios. Las variables analizadas fueron: el atractivo de las distintas especies vegetales a los polinizadores, su eficiencia de atracción (calculada como una combinación de la duración de la floración y las visitas de insectos), su respuesta a dos tipos de manejo agronómico (cultivo en mezcla frente a monocultivo; laboreo frente a no-laboreo) y su potencial invasivo. Los resultados de esta segunda experimentación han mostrado que las flores de Borago officinalis, Echium plantagineum, Phacelia tanacetifolia y Diplotaxis tenuifolia son atractivas a las abejas, mientras que las flores de Calendula arvensis, Coriandrum sativum, D. tenuifolia y Lobularia maritima son atractivas a los sírfidos. Con independencia del tipo de polinizadores atraídos por cada especie vegetal, se ha observado una mayor eficiencia de atracción en parcelas con monocultivo de D. tenuifolia respecto a las parcelas donde se cultivó una mezcla de especies herbáceas, si bien en estas últimas se observó mayor eficiencia de atracción que en la mayoría de parcelas mono-específicas. Respecto al potencial invasivo de las especies herbáceas, a pesar de que algunas de las más atractivas a polinizadores (P. tanacetifolia and C. arvensis) mostraron tendencia a un comportamiento invasor, su capacidad de auto-reproducción se vio reducida con el laboreo. En resumen, D. tenuifolia es la única especie que presentó una alta eficiencia de atracción a distintos tipos de polinizadores, conjuntamente con una alta capacidad de auto-reproducción pero sin mostrar carácter invasor. Comparando el atractivo de las especies vegetales utilizadas en este estudio sobre los polinizadores, D. tenuifolia es la especie más recomendable para su cultivo orientado a la atracción de polinizadores en agro-ecosistemas en el centro de España. Esta especie herbácea, conocida como rúcula, tiene la ventaja añadida de ser una especie comercializada para el consumo humano. Además de su atractivo a polinizadores, deben considerarse otros aspectos relacionados con la fisiología y el comportamiento de esta especie vegetal en los agro-ecosistemas antes de recomendar su cultivo. Dado que el cultivo en un campo agrícola de una nueva especie vegetal implica unos costes de producción, por ejemplo debidos a la utilización de agua de riego, es necesario evaluar el incremento en dichos costes en función de demanda hídrica específica de esa especie vegetal. Esta variable es especialmente importante en zonas dónde se presentan sequías recurrentes como es el caso del centro y sur-este de la península Ibérica. Este razonamiento ha motivado un estudio sobre los efectos del estrés hídrico por sequía y el estrés por déficit moderado y severo de riego sobre el crecimiento y floración de la especie D. tenuifolia, así como sobre la atracción a polinizadores. Los resultados muestran que tanto el crecimiento y floración de D. tenuifolia como su atracción a polinizadores no se ven afectados si la falta de riego se produce durante un máximo de 4 días. Sin embargo, si la falta de riego se extiende a lo largo de 8 días o más, se observa una reducción significativa en el crecimiento vegetativo, el número de flores abiertas, el área total y el diámetro de dichas flores, así como en el diámetro y longitud del tubo de la corola. Por otro lado, el estudio pone de manifiesto que un déficit hídrico regulado permite una gestión eficiente del agua, la cual, dependiendo del objetivo final del cultivo de D. tenuifolia (para consumo o solo para atracción de polinizadores), puede reducir su consumo entre un 40 y un 70% sin afectar al crecimiento vegetativo y desarrollo floral, y sin reducir significativamente el atractivo a los polinizadores. Finalmente, esta tesis aborda un estudio para determinar cómo afecta el manejo de hábitat a la producción de los cultivos. En concreto, se ha planteado una experimentación que incluye márgenes mono-específicos y márgenes con una mezcla de especies atractivas a polinizadores, con el fin de determinar su efecto sobre la producción del cultivo de cilantro (C. sativum). La elección del cultivo de cilantro se debe a que requiere la polinización de insectos para su reproducción (aunque, en menor medida, puede polinizarse también por el viento), además de la facilidad para estimar su producción en condiciones semi-controladas de campo. El diseño experimental consistía en la siembra de márgenes mono-específicos de D. tenuifolia y márgenes con mezcla de seis especies anuales situados junto al cultivo de cilantro. Estos cultivos con márgenes florales fueron comparados con controles sin margen floral. Además, un segundo grupo de plantas de cilantro situadas junto a todos los tratamientos, cuyas flores fueron cubiertas para evitar su polinización, sirvió como control para evaluar la influencia de los polinizadores en la producción del cultivo. Los resultados muestran que la presencia de cualquiera de los dos tipos de margen floral mejora el peso y el porcentaje de germinación de las semillas de cilantro frente al control sin margen. Si se comparan los dos tipos de margen, se ha observado un mayor número de semillas de cilantro junto al margen con mezcla de especies florales respecto al margen mono-específico, probablemente debido al mayor número visitas de polinizadores. Puesto que el experimento se realizó en condiciones de campo semi-controladas, esto sugiere que las visitas de polinizadores fueron el factor determinante en los resultados. Por otro lado, los resultados apuntan a que la presencia de un margen floral (ya sea mono-especifico o de mezcla) en cultivos de pequeña escala puede aumentar la producción de cilantro en más de un 200%, al tiempo que contribuyen a la conservación de los polinizadores. ABSTRACT Habitat management, aimed to conserve pollinators in agro-ecosystems, requires selection of the most suitable plant species in terms of their attractiveness to pollinators and simplicity of agronomic management. However, since all flowers are not equally attractive to pollinators and many plant species can be weedy or invasive in the particular habitat, it is important to test which plant species are the most appropriate to be implemented in specific agro-ecosystems. For that reason, this PhD dissertation has been focused on determination of the most appropriate aromatic and herbaceous plants for conservation of pollinators in agro-ecosystems of Central Spain. Therefore, in a first approximation, spatial expansion (i.e. potential weediness) and attractiveness to pollinators of six aromatic perennial plants from the Lamiaceae family, native and frequent in the Mediterranean region, were evaluated. Preliminary plant selection was based on designing a functional mixed margins consisting of plants attractive to pollinators and with different blooming periods, in order to extend the availability of floral resources in the field. After a year of vegetative growth, the next two years the plant species were studied in a randomized block design experiment in order to estimate their attractiveness to pollinators in Central Spain and to investigate whether floral morphology and density affect attractiveness to pollinators. The final aim of the study was to evaluate how their phenology and attractiveness to pollinators can affect the functionality of a flowering mixture of these plants. In addition, the spatial expansion, i.e. potential weediness, of the selected plant species was estimated under field conditions, as the final purpose of the studied plants is to be implemented within agro-ecosystems. The results of the experiment showed that floral morphology did not affect the attractiveness of plants to pollinators, but floral density did, as plant species with higher floral density (i.e. Nepeta tuberosa and Hyssopus officinalis) showed significantly higher attractiveness to pollinators. In addition, of six plant species, two summer species (Melissa officinalis and Thymbra capitata) did not efficiently contribute to the attractiveness of the mixture to pollinators, which reduced its attractiveness during the summer period. Finally, as none of the plants showed weedy behaviour under field conditions, the attractive plant species, i.e. N. tuberosa, H. officinalis and the early spring flowering Salvia verbenaca, showed good potential to conserve the pollinators. Similarly, in a second approximation, the attractiveness to pollinators and agronomic behaviour of twelve herbaceous plants blooming in spring were studied. This experiment was conducted over two years in a randomized block design in order to evaluate attractiveness of preselected plant species to pollinators, as well as their attractiveness efficiency (a combination of duration of flowering and insect visitation), their response to two different agronomic management practices (growing in mixed vs. mono-specific plots; tillage vs. no-tillage), and their potential weediness. The results of this experiment showed that the flowers of Borago officinalis, Echium plantagineum, Phacelia tanacetifolia and Diplotaxis tenuifolia were attractive to bees, while Calendula arvensis, Coriandrum sativum, D. tenuifolia and Lobularia maritima were attractive to hoverflies. In addition, floral mixture resulted in lower attractiveness efficiency to pollinators than mono-specific D. tenuifolia, but higher than most of the mono-specific stands. On the other hand, although some of the most attractive plant species (e.g. P. tanacetifolia and C. arvensis) showed potential weediness, their self-seeding was reduced by tillage. After comparing attractiveness efficiency of various herbaceous species to pollinators and their potential weediness, the results indicated that D. tenuifolia showed the highest attractiveness efficiency to pollinators and efficient self-reproduction, making it highly recommended to attract bees and hoverflies in agro-ecosystems of Central Spain. In addition, this plant, commonly known as wild rocket, has a supplementary economic value as a commercialized crop. The implementation of a new floral margin in agro-ecosystems means increased production costs, especially in regions with frequent and long droughts (as it is Central and South-East area of Iberian Peninsula), where the principal agricultural cost is irrigation. Therefore, before recommending D. tenuifolia for sustainable habitat management within agro-ecosystems, it is necessary to study the effect of drought stress and moderate and severe deficit irrigation on its growth, flower development and attractiveness to pollinators. The results of this experiment showed that in greenhouse conditions, potted D. tenuifolia could be without irrigation for 4 days without affecting its growth, flowering and attractiveness to pollinators. However, lack of irrigation for 8 days or longer significantly reduced the vegetative growth, number of open flowers, total floral area, flower diameter, corolla tube diameter and corolla tube length of D. tenuifolia. This study showed that regulated deficit irrigation can improve water use efficiency, and depending on the purpose of growing D. tenuifolia, as a crop or as a beneficial plant to attract pollinators, it can reduce water consumption by 40% to 70% without affecting its vegetative and floral development and without reducing its attractiveness to pollinators. Finally, the following experiment was developed in order to understand how habitat management can influence on the agricultural production. For this purpose, it was evaluated if the vicinity of mixed and mono-specific field margins, preselected to conserve pollinators within agro-ecosystems, can improve seed production in coriander (C. sativum). The selection of this plant species for the experiment was based on its necessity for insect pollination for production of seeds (even though some pollen can be transmitted from one flower to another by wind) and the fact that under semi-controlled field conditions established in the field it is possible to estimate its total seed production. Since D. tenuifolia is attractive for both bees and hoverflies in Central Spain, the main objective of this experiment was to estimate the impact of two different types of field margins, i.e. mono-specific margin with D. tenuifolia and mixed margin with six herbaceous species, on the seed production of potted coriander. For that reason, it was tested: i) if open pollination (control without proximate field margin and treatments with nearby mono-specific and mixed margin) increases the seed production of coriander when compared with no-pollination (covered inflorescences of coriander) under field conditions; ii) if frequency of pollinator visitation to the flowers of coriander was higher in the presence of field margins than in the control without field margin; and iii) if seed production was higher in the presence of field margins than in control plants of coriander without field margin. The results showed that the proximity of both types of floral margins (mixed and mono-specific) improved the seed quality of coriander plants, as seed weight and germination rate were higher than in control plants without field margin. Furthermore, the number of seeds produced was significantly higher in coriander plants grown near mixed margins than near mono-specific margin, probably due to an increase in pollinator visits. Since the experiment was conducted under semi-controlled field conditions, it can be concluded that pollinator visits was the main factor that biased the results, and that presence of both mixed or mono-specific (D. tenuifolia) margins can improve the production of coriander for more than 200% in small-scale gardens and, in addition, conserve the local pollinators.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En la actualidad existe un gran conocimiento en la caracterización de rellenos hidráulicos, tanto en su caracterización estática, como dinámica. Sin embargo, son escasos en la literatura estudios más generales y globales de estos materiales, muy relacionados con sus usos y principales problemáticas en obras portuarias y mineras. Los procedimientos semi‐empíricos para la evaluación del efecto silo en las celdas de cajones portuarios, así como para el potencial de licuefacción de estos suelos durantes cargas instantáneas y terremotos, se basan en estudios donde la influencia de los parámetros que los rigen no se conocen en gran medida, dando lugar a resultados con considerable dispersión. Este es el caso, por ejemplo, de los daños notificados por el grupo de investigación del Puerto de Barcelona, la rotura de los cajones portuarios en el Puerto de Barcelona en 2007. Por estos motivos y otros, se ha decidido desarrollar un análisis para la evaluación de estos problemas mediante la propuesta de una metodología teórico‐numérica y empírica. El enfoque teórico‐numérico desarrollado en el presente estudio se centra en la determinación del marco teórico y las herramientas numéricas capaces de solventar los retos que presentan estos problemas. La complejidad del problema procede de varios aspectos fundamentales: el comportamiento no lineal de los suelos poco confinados o flojos en procesos de consolidación por preso propio; su alto potencial de licuefacción; la caracterización hidromecánica de los contactos entre estructuras y suelo (camino preferencial para el flujo de agua y consolidación lateral); el punto de partida de los problemas con un estado de tensiones efectivas prácticamente nulo. En cuanto al enfoque experimental, se ha propuesto una metodología de laboratorio muy sencilla para la caracterización hidromecánica del suelo y las interfaces, sin la necesidad de usar complejos aparatos de laboratorio o procedimientos excesivamente complicados. Este trabajo incluye por tanto un breve repaso a los aspectos relacionados con la ejecución de los rellenos hidráulicos, sus usos principales y los fenómenos relacionados, con el fin de establecer un punto de partida para el presente estudio. Este repaso abarca desde la evolución de las ecuaciones de consolidación tradicionales (Terzaghi, 1943), (Gibson, English & Hussey, 1967) y las metodologías de cálculo (Townsend & McVay, 1990) (Fredlund, Donaldson and Gitirana, 2009) hasta las contribuciones en relación al efecto silo (Ranssen, 1985) (Ravenet, 1977) y sobre el fenómeno de la licuefacción (Casagrande, 1936) (Castro, 1969) (Been & Jefferies, 1985) (Pastor & Zienkiewicz, 1986). Con motivo de este estudio se ha desarrollado exclusivamente un código basado en el método de los elementos finitos (MEF) empleando el programa MATLAB. Para ello, se ha esablecido un marco teórico (Biot, 1941) (Zienkiewicz & Shiomi, 1984) (Segura & Caron, 2004) y numérico (Zienkiewicz & Taylor, 1989) (Huerta & Rodríguez, 1992) (Segura & Carol, 2008) para resolver problemas de consolidación multidimensional con condiciones de contorno friccionales, y los correspondientes modelos constitutivos (Pastor & Zienkiewicz, 1986) (Fiu & Liu, 2011). Asimismo, se ha desarrollado una metodología experimental a través de una serie de ensayos de laboratorio para la calibración de los modelos constitutivos y de la caracterización de parámetros índice y de flujo (Castro, 1969) (Bahda 1997) (Been & Jefferies, 2006). Para ello se han empleado arenas de Hostun como material (relleno hidráulico) de referencia. Como principal aportación se incluyen una serie de nuevos ensayos de corte directo para la caracterización hidromecánica de la interfaz suelo – estructura de hormigón, para diferentes tipos de encofrados y rugosidades. Finalmente, se han diseñado una serie de algoritmos específicos para la resolución del set de ecuaciones diferenciales de gobierno que definen este problema. Estos algoritmos son de gran importancia en este problema para tratar el procesamiento transitorio de la consolidación de los rellenos hidráulicos, y de otros efectos relacionados con su implementación en celdas de cajones, como el efecto silo y la licuefacciones autoinducida. Para ello, se ha establecido un modelo 2D axisimétrico, con formulación acoplada u‐p para elementos continuos y elementos interfaz (de espesor cero), que tratan de simular las condiciones de estos rellenos hidráulicos cuando se colocan en las celdas portuarias. Este caso de estudio hace referencia clara a materiales granulares en estado inicial muy suelto y con escasas tensiones efectivas, es decir, con prácticamente todas las sobrepresiones ocasionadas por el proceso de autoconsolidación (por peso propio). Por todo ello se requiere de algoritmos numéricos específicos, así como de modelos constitutivos particulares, para los elementos del continuo y para los elementos interfaz. En el caso de la simulación de diferentes procedimientos de puesta en obra de los rellenos se ha requerido la modificacion de los algoritmos empleados para poder así representar numéricamente la puesta en obra de estos materiales, además de poder realizar una comparativa de los resultados para los distintos procedimientos. La constante actualización de los parámetros del suelo, hace también de este algoritmo una potente herramienta que permite establecer un interesante juego de perfiles de variables, tales como la densidad, el índice de huecos, la fracción de sólidos, el exceso de presiones, y tensiones y deformaciones. En definitiva, el modelo otorga un mejor entendimiento del efecto silo, término comúnmente usado para definir el fenómeno transitorio del gradiente de presiones laterales en las estructuras de contención en forma de silo. Finalmente se incluyen una serie de comparativas entre los resultados del modelo y de diferentes estudios de la literatura técnica, tanto para el fenómeno de las consolidaciones por preso propio (Fredlund, Donaldson & Gitirana, 2009) como para el estudio del efecto silo (Puertos del Estado, 2006, EuroCódigo (2006), Japan Tech, Stands. (2009), etc.). Para concluir, se propone el diseño de un prototipo de columna de decantación con paredes friccionales, como principal propuesta de futura línea de investigación. Wide research is nowadays available on the characterization of hydraulic fills in terms of either static or dynamic behavior. However, reported comprehensive analyses of these soils when meant for port or mining works are scarce. Moreover, the semi‐empirical procedures for assessing the silo effect on cells in floating caissons, and the liquefaction potential of these soils during sudden loads or earthquakes are based on studies where the underlying influence parameters are not well known, yielding results with significant scatter. This is the case, for instance, of hazards reported by the Barcelona Liquefaction working group, with the failure of harbor walls in 2007. By virtue of this, a complex approach has been undertaken to evaluate the problem by a proposal of numerical and laboratory methodology. Within a theoretical and numerical scope, the study is focused on the numerical tools capable to face the different challenges of this problem. The complexity is manifold; the highly non‐linear behavior of consolidating soft soils; their potentially liquefactable nature, the significance of the hydromechanics of the soil‐structure contact, the discontinuities as preferential paths for water flow, setting “negligible” effective stresses as initial conditions. Within an experimental scope, a straightforward laboratory methodology is introduced for the hydromechanical characterization of the soil and the interface without the need of complex laboratory devices or cumbersome procedures. Therefore, this study includes a brief overview of the hydraulic filling execution, main uses (land reclamation, filled cells, tailing dams, etc.) and the underlying phenomena (self‐weight consolidation, silo effect, liquefaction, etc.). It comprises from the evolution of the traditional consolidation equations (Terzaghi, 1943), (Gibson, English, & Hussey, 1967) and solving methodologies (Townsend & McVay, 1990) (Fredlund, Donaldson and Gitirana, 2009) to the contributions in terms of silo effect (Ranssen, 1895) (Ravenet, 1977) and liquefaction phenomena (Casagrande, 1936) (Castro, 1969) (Been & Jefferies, 1985) (Pastor & Zienkiewicz, 1986). The novelty of the study lies on the development of a Finite Element Method (FEM) code, exclusively formulated for this problem. Subsequently, a theoretical (Biot, 1941) (Zienkiewicz and Shiomi, 1984) (Segura and Carol, 2004) and numerical approach (Zienkiewicz and Taylor, 1989) (Huerta, A. & Rodriguez, A., 1992) (Segura, J.M. & Carol, I., 2008) is introduced for multidimensional consolidation problems with frictional contacts and the corresponding constitutive models (Pastor & Zienkiewicz, 1986) (Fu & Liu, 2011). An experimental methodology is presented for the laboratory test and material characterization (Castro 1969) (Bahda 1997) (Been & Jefferies 2006) using Hostun sands as reference hydraulic fill. A series of singular interaction shear tests for the interface calibration is included. Finally, a specific model algorithm for the solution of the set of differential equations governing the problem is presented. The process of consolidation and settlements involves a comprehensive simulation of the transient process of decantation and the build‐up of the silo effect in cells and certain phenomena related to self‐compaction and liquefaction. For this, an implementation of a 2D axi‐syimmetric coupled model with continuum and interface elements, aimed at simulating conditions and self‐weight consolidation of hydraulic fills once placed into floating caisson cells or close to retaining structures. This basically concerns a loose granular soil with a negligible initial effective stress level at the onset of the process. The implementation requires a specific numerical algorithm as well as specific constitutive models for both the continuum and the interface elements. The simulation of implementation procedures for the fills has required the modification of the algorithm so that a numerical representation of these procedures is carried out. A comparison of the results for the different procedures is interesting for the global analysis. Furthermore, the continuous updating of the model provides an insightful logging of variable profiles such as density, void ratio and solid fraction profiles, total and excess pore pressure, stresses and strains. This will lead to a better understanding of complex phenomena such as the transient gradient in lateral pressures due to silo effect in saturated soils. Interesting model and literature comparisons for the self‐weight consolidation (Fredlund, Donaldson, & Gitirana, 2009) and the silo effect results (Puertos del Estado (2006), EuroCode (2006), Japan Tech, Stands. (2009)). This study closes with the design of a decantation column prototype with frictional walls as the main future line of research.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

RESUMEN. En este artículo abordamos la evaluación de textos especializados, con fines docentes, mediante un estudio experimental basado en los rasgos de textualidad que hacen que el texto resulte coherente para sus lectores. Se comprueba, empíricamente, que existe una correlación positiva entre la adecuación del texto a los rasgos de textualidad y su comprensión por parte de los alumnos de ingeniería de Minas que han formado el grupo experimental. Queda patente cómo textos que en un primer análisis se pudiera afirmar que cumplen los criterios de textualidad, aplicados a otro contexto situacional distinto de aquel para el que fueron escritos, pueden no cumplir con los mismos criterios, resultando inadecuados o no totalmente inteligibles. Se constata que la coherencia textual no depende exclusivamente de factores intratextuales, sino también de aquellos otros extratextuales relacionados con la comunidad receptora. ABSTRACT. This article deals with the evaluation of specialised texts for eduactional purposes. It reports on an experimental study based on those textuality feactures which make a text coherent to the readers. It is empirically tested that there exists a positive correlation between textuality features of a given text and its reading comprehension by engineering students participating in the experimental study. It is shown how texts, that initially comply with textuality features, taken into a different context from that for which they were written, may become inadequate or even non understandable. It becomes evident that textual coherence does not depend exclusively on intratextual elements but on those extratextual ones related to the receiving community as well.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Las desviaciones de tiempo y coste constituyen un fenómeno muy frecuente en la industria de la construcción. Existe un gran número de proyectos que no se terminan en el plazo y el tiempo estipulados, y esto parece que se ha convertido más en la norma que en la excepción. Los proyectos de construcción son heterogéneos por naturaleza y pueden llegar a ser muy complejos, involucrando numerosos procesos y expuestos a infinidad de variables y factores que pueden afectar el cumplimiento de los objetivos de tiempo y coste. Las desviaciones de tiempo y coste no favorecen ni al promotor ni al resto de equipos participantes del proyecto, dando lugar además la mayoría de las veces a situaciones de conflictos y relaciones adversas entre participantes del proyecto. Es por todo ello que surge la necesidad de atender a una estrategia de gestión de riesgos eficaz, como herramienta esencial de la gestión de proyectos para contribuir al éxito de los mismos. Es preciso considerar también que los proyectos de construcción pueden presentar distintas características específicas según el tipo de proyecto de que se traten. El presente trabajo de investigación estudia concretamente los proyectos de edificios de uso hotelero, los cuales pueden presentar estructuras organizativas muy diversas, incluyendo numerosos agentes participantes y procesos que a su vez se desarrollan en un entorno que ya es muy dinámico por su propia naturaleza. En el sector hotelero el cumplimiento de los objetivos de tiempo y coste del proyecto son especialmente importantes ya que cualquier retraso en la fecha de apertura estimada del hotel se traducirá en pérdidas importantes de negocio y cuota de mercado y podrá llevar asociadas también repercusiones importantes en otros aspectos relacionados con la operativa hotelera. Si se conocen las causas que originan tales desviaciones de tiempo y coste, se podrán establecer las correspondientes medidas de actuación para anticiparnos a ellas y que no se produzcan, siendo ésta la base del propósito de esta tesis. Así, la identificación de riesgos supone el primer paso para una gestión de riesgos eficaz, fundamental para contribuir al éxito de un proyecto. El contexto de la investigación delimita como lugar geográfico de estudio España, donde el sector turístico constituye un motor importante de la economía y en el que la eficiencia y competitividad debe estar reflejada también en el proceso del proyecto edificatorio, minimizándose los retrasos y sobrecostes. El presente estudio investiga por tanto los factores de riesgo más críticos que dan lugar a desviaciones de tiempo y coste en proyectos de edificios de uso hotelero en España. A partir del análisis de la literatura existente se genera una propuesta de identificación de factores de riesgo, que se analiza mediante un análisis cualitativo basado en la opinión de expertos y estudio de casos específicos. De los resultados de este análisis se determinan los niveles críticos para cada factor de riesgo, se comparan además las percepciones de niveles de riesgo según distintos tipos de grupos profesionales, y se establece un procedimiento en cuanto a prioridad de acción de respuesta. Así, se desarrolla una propuesta final de identificación y matriz de factores de riesgo con el objetivo de que pueda servir de base a propietarios, empresas gestoras y otros participantes de proyectos hoteleros para diseñar un plan de gestión de riesgos eficaz, contribuyendo de este modo al éxito del proyecto en cuanto a cumplimiento de objetivos de tiempo y coste programados. ABSTRACT Cost and schedule overruns constitute a very frequent phenomenon in the construction industry. A large number of construction projects do not finish on the estimated time and cost, and this scenario seems to be becoming the norm rather than the exception. Construction projects are heterogeneous by nature and they can become very complex as they involve a large number of processes which are subject to many variables and factors that may give rise to time and cost overruns. Time and cost overruns cause dissatisfaction not only to owners but all stakeholders involved in the project, leading most of the times to undesirable situations of conflicts and adversarial relationships between project participants. Hence, it becomes necessary to adopt an effective risk management strategy as an essential part of project management in order to achieve project success. Construction projects may have different characteristics depending on the type of project. This research specifically focuses on hotel construction projects. Hotel projects usually involve complex organizational structures, including many project participants and processes which develop in an environment that is already dynamic by nature. In this type of projects, the achievement of time and cost objectives is particularly important, as any delay of the hotel opening date will result in significant loss of business and market share and may also involve key important implications related to hotel operations. If the risk factors that lead to time and cost overrun are known in advance, preventive actions could be established in order to avoid them, so that time and cost overruns are minimized. This constitutes the aim of this research, being risk identification the first step of any effective risk management strategy for project success. The context of this research is focused on a particular geographical area, being this Spain. Tourism in Spain is a major contributor to the Spanish economy, and efficiency and competiveness should also be reflected in the building processes of the hotel industry, where delays and cost overruns should be kept to the minimum. The aim of this study is to explore the most critical risk factors leading to time and cost overruns in hotel construction projects in Spain. From the analysis of the literature review, a proposal of a risk identification framework is developed, which will be further analyzed by a qualitative assessment based on expert opinions and the study of specific case studies. From the results of this assessment, the levels of risk criticality are determined for the identified factors, a comparison of the perceptions of risk levels among different groups of respondents is also carried out, and a procedure for prioritization of factors in terms of needs of response is established. A final proposal of a risk register matrix framework is then developed in order to assist hotel owners, project management companies or other hotel project stakeholders, and provide them with a base to design their own specific risk management plans, contributing in this way to project success with regards to the achievement of cost and time objectives.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Lightness fue un término muy popular en el panorama arquitectónico a mediados de los años 90. Contribuyó decisivamente a ello la exposición que, en 1995, el MoMA de Nueva York dedicó a una serie de arquitecturas agrupadas bajo el título Light Construction. Aunque fue el evento más conocido por la institución que lo albergaba, no fue el único que se ocupó entonces de ese aspecto de la arquitectura. En paralelo, durante el otoño de 1995, la Universidad de Columbia dedicó un seminario a la reflexión sobre el vidrio en la arquitectura, desde la modernidad hasta nuestros días. El seminario se denominó The Culture of Glass y la profesora fue Joan Ockman. Un año antes, la serie de eventos promovidos por ANY fijaba su atención en el tema de la levedad, y le dedicaba en exclusiva el número 5 de su revista ANY Magazine bajo el título Lightness. Estos tres acercamientos -aunque complementarios- parecían solamente rodear el centro de una propuesta arquitectónica que se intuía vinculada a la levedad. Una vista atrás permite descubrir dos elementos más que amplían el marco de esta búsqueda aportando las miradas de uno de los maestros españoles sobre el estado actual de la arquitectura y de un filósofo que se embarca nada menos que en arriesgar a crear un espacio postmoderno. La primera de estas miradas atañe al ámbito universitario. Se trata de la conferencia del profesor Sáenz de Oíza para inaugurar el curso académico 1991-92 en la E.T.S.A.M. La segunda, más lejana en el tiempo, pero fundamental para comprender la idea que se propone sobre la levedad, es la manifestación Les Immatériaux, celebrada en 1985 en el Centre Georges Pompidou de París y comisariada por J.F.Lyotard. Estos cinco eventos delimitan un marco de referencia temporal y conceptual en el que es posible caracterizar y diferenciar un concepto de levedad propio de la arquitectura contemporánea. La búsqueda de este concepto, de lo que lo hace propio de esta época, ayudará a diferenciarlo de las aproximaciones a la levedad en arquitecturas pasadas, fundamentalmente de la modernidad clásica y la postmodernidad. También permitirá aflorar el pensamiento sobre la arquitectura en relación con la obra de arte, no como objeto estético, sino como objeto que pone en cuestión nuestra mirada y nuestro conocimiento del mundo. Por tanto, alejado de estilos o meras soluciones técnicas. El campo de la levedad ya no se reduce a la oposición entre lo ligero y lo pesado, como podría corresponder a una interpretación moderna, sino que adquiere otros matices relacionados con la vista, el equilibrio o el movimiento de un cuerpo que se convierte en intermediario de la experiencia. La búsqueda de esta forma de levedad en arquitecturas construidas nos ayudará a entender los aspectos que la caracterizan y que siempre se enlazan bajo la forma de un trabajo sutil sobre el soporte de la arquitectura, cuestionando lo que entendíamos por estable. ABSTRACT Lightness was a popular term in the architectural scene in the mid nineties. The exhibition that MoMa in New York devoted to a number of architectures gathered under the title Light Construction, in 1995, was a decisive contribution to it. Although it was the best known event thanks to the institution that hosted it, it was not the only one that dealt with that aspect of architecture. In parallel, during the autumn of 1995, Columbia University dedicated a seminar to the reflection about glass in architecture, from modernity up to now. The seminar was called The Culture of Glass and the professor was Joan Ockman. A year earlier, the series of events promoted by ANY focused on the subject of lightness, and the number 5 of the magazine ANY Magazine was exclusively dedicated to it under the title Lightness. These three approaches –although complementary- only seemed to surround the core of an architectural proposal that appeared to be linked to lightness. A look back allows for discovering two more elements that broaden the framework of this search contributing the views of one of the Spanish masters on the current architecture status and a philosopher who gets involved in no less than to create a postmodern space. The first of these views concerns university scope. It is the lecture by Professor Sáenz de Oíza to inaugurate the academic year 1991-92 at the E.T.S.A.M. The second, far off in time, but critical to understand the proposal initially guessed, is the manifestation Les Immatériaux, held in 1985 at the Centre Georges Pompidou in Paris and curated by J.F.Lyotard. These five events define a temporal and conceptual reference framework in which it is possible to characterize and differentiate a lightness concept belonging to contemporary architecture. The search of this concept, of what may have related to present time, helps to differentiate it from the approaches to the lightness in past architectures, mainly of classical modernism and postmodernism. It will also allow for emerging the thinking about architecture in relation to the work of art, not as an aesthetic object, but as an object that question our view and our knowledge of the world. Therefore, far from styles or mere technical solutions. The field of lightness is no longer limited to the opposition between light and heavy, as may correspond to a modern interpretation, but acquires other nuances related to sight, balance or movement of a body that becomes an intermediary of experience. The search for this kind of lightness in built architecture will help us to understand, by the way shown, the aspects that define it and that are always linked: the subtle work on the architectural support that leads us to question ourselves about what we understand as stable.