16 resultados para New mechanism
em Universidad Politécnica de Madrid
Resumo:
Concurrency in Logic Programming has received much attention in the past. One problem with many proposals, when applied to Prolog, is that they involve large modifications to the standard implementations, and/or the communication and synchronization facilities provided do not fit as naturally within the language model as we feel is possible. In this paper we propose a new mechanism for implementing synchronization and communication for concurrency, based on atomic accesses to designated facts in the (shared) datábase. We argüe that this model is comparatively easy to implement and harmonizes better than previous proposals within the Prolog control model and standard set of built-ins. We show how in the proposed model it is easy to express classical concurrency algorithms and to subsume other mechanisms such as Linda, variable-based communication, or classical parallelism-oriented primitives. We also report on an implementation of the model and provide performance and resource consumption data.
Resumo:
La corrosión bajo tensiones (SCC) es un problema de gran importancia en las aleaciones de aluminio de máxima resistencia (serie Al-Zn-Mg-Cu). La utilización de tratamientos térmicos sobremadurados, en particular el T73, ha conseguido prácticamente eliminar la susceptibilidad a corrosión bajo tensiones en dichas aleaciones pero a costa de reducir su resistencia mecánica. Desde entonces se ha tratado de optimizar simultáneamente ambos comportamientos, encontrándose para ello diversos inconvenientes entre los que destacan: la dificultad de medir experimentalmente el crecimiento de grieta por SCC, y el desconocimiento de las causas y el mecanismo por el cual se produce la SCC. Los objetivos de esta Tesis son mejorar el sistema de medición de grietas y profundizar en el conocimiento de la SCC, con el fin de obtener tratamientos térmicos que aúnen un óptimo comportamiento tanto en SCC como mecánico en las aleaciones de aluminio de máxima resistencia utilizadas en aeronáutica. Para conseguir los objetivos anteriormente descritos se han realizado unos cuarenta tratamientos térmicos diferentes, de los cuales la gran mayoría son nuevos, para profundizar en el conocimiento de la influencia de la microestructura (fundamentalmente, de los precipitados coherentes) en el comportamiento de las aleaciones Al-Zn-Mg-Cu, y estudiar la viabilidad de nuevos tratamientos apoyados en el conocimiento adquirido. Con el fin de obtener unos resultados aplicables a productos o semiproductos de aplicación aeronáutica, los tratamientos térmicos se han realizado a trozos grandes de una plancha de 30 mm de espesor de la aleación de aluminio 7475, muy utilizada en las estructuras aeronáuticas. Asimismo con el objeto de conseguir una mayor fiabilidad de los resultados obtenidos se han utilizado, normalmente, tres probetas de cada tratamiento para los diferentes ensayos realizados. Para la caracterización de dichos tratamientos se han utilizado diversas técnicas: medida de dureza y conductividad eléctrica, ensayos de tracción, calorimetría diferencial de barrido (DSC), metalografía, fractografía, microscopia electrónica de transmisión (MET) y de barrido (MEB), y ensayos de crecimiento de grieta en probeta DCB, que a su vez han permitido hacer una estimación del comportamiento en tenacidad del material. Las principales conclusiones del estudio realizado se pueden resumir en las siguientes: Se han diseñado y desarrollado nuevos métodos de medición de grieta basados en el empleo de la técnica de ultrasonidos, que permiten medir el crecimiento de grieta por corrosión bajo tensiones con la precisión y fiabilidad necesarias para valorar adecuadamente la susceptibilidad a corrosión bajo tensiones. La mejora de medida de la posición del frente de grieta ha dado lugar, entre otras cosas, a la definición de un nuevo ensayo a iniciación en probetas preagrietadas. Asimismo, se ha deducido una nueva ecuación que permite calcular el factor de intensidad de tensiones existente en punta de grieta en probetas DCB teniendo en cuenta la influencia de la desviación del plano de crecimiento de la grieta del plano medio de la probeta. Este aspecto ha sido determinante para poder explicar los resultados experimentales obtenidos ya que el crecimiento de la grieta por un plano paralelo al plano medio de la probeta DCB pero alejado de él reduce notablemente el factor de intensidades de tensiones que actúa en punta de grieta y modifica las condiciones reales del ensayo. Por otro lado, se han identificado los diferentes constituyentes de la microestructura de precipitación de todos los tratamientos térmicos estudiados y, en especial, se ha conseguido constatar (mediante MET y DSC) la existencia de zonas de Guinier-Preston del tipo GP(II) en la microestructura de numerosos tratamientos térmicos (no descrita en la bibliografía para las aleaciones del tipo de la estudiada) lo que ha permitido establecer una nueva interpretación de la evolución de la microestructura en los diferentes tratamientos. Al hilo de lo anterior, se han definido nuevas secuencias de precipitación para este tipo de aleaciones, que han permitido entender mejor la constitución de la microestructura y su relación con las propiedades en los diferentes tratamientos térmicos estudiados. De igual manera, se ha explicado el papel de los diferentes microconstituyentes en diversas propiedades mecánicas (propiedades a tracción, dureza y tenacidad KIa); en particular, el estudio realizado de la relación de la microestructura con la tenacidad KIa es inédito. Por otra parte, se ha correlacionado el comportamiento en corrosión bajo tensiones, tanto en la etapa de incubación de grieta como en la de propagación, con las características medidas de los diferentes constituyentes microestructurales de los tratamientos térmicos ensayados, tanto de interior como de límite de grano, habiéndose obtenido que la microestructura de interior de grano tiene una mayor influencia en el comportamiento en corrosión bajo tensiones que la de límite de grano. De forma especial, se ha establecido la importancia capital, y muy negativa, de la presencia en la microestructura de zonas de Guinier-Preston en el crecimiento de la grieta por corrosión bajo tensiones. Finalmente, como consecuencia de todo lo anterior, se ha propuesto un nuevo mecanismo por el que se produce la corrosión bajo tensiones en este tipo de aleaciones de aluminio, y que de forma muy resumida se puede concretar lo siguiente: la acumulación de hidrógeno (formado, básicamente, por un proceso corrosivo de disolución anódica) delante de la zonas GP (en especial, de las zonas GP(I)) próximas a la zona libre de precipitados que se desarrolla alrededor del límite de grano provoca enfragilización local y causa el rápido crecimiento de grieta característico de algunos tratamientos térmicos de este tipo de aleaciones. ABSTRACT The stress corrosion cracking (SCC) is a major problem in the aluminum alloys of high resistance (series Al-Zn-Mg-Cu). The use of overaged heat treatments, particularly T73 has achieved virtually eliminate the susceptibility to stress corrosion cracking in such alloys but at the expense of reducing its mechanical strength. Since then we have tried to simultaneously optimize both behaviors, several drawbacks found for it among them: the difficulty of measuring experimentally the SCC crack growth, and ignorance of the causes and the mechanism by which SCC occurs. The objectives of this thesis are to improve the measurement system of cracks and deeper understanding of the SCC, in order to obtain heat treatments that combine optimum performance in both SCC and maximum mechanical strength in aluminum alloys used in aerospace To achieve the above objectives have been made about forty different heat treatments, of which the vast majority are new, to deepen the understanding of the influence of microstructure (mainly of coherent precipitates) in the behavior of the alloys Al -Zn-Mg-Cu, and study the feasibility of new treatments supported by the knowledge gained. To obtain results for products or semi-finished aircraft application, heat treatments were performed at a large pieces plate 30 mm thick aluminum alloy 7475, widely used in aeronautical structures. Also in order to achieve greater reliability of the results obtained have been used, normally, three specimens of each treatment for various tests. For the characterization of these treatments have been used several techniques: measurement of hardness and electrical conductivity, tensile testing, differential scanning calorimetry (DSC), metallography, fractography, transmission (TEM) and scanning (SEM) electron microscopy, and crack growth tests on DCB specimen, which in turn have allowed to estimate the behavior of the material in fracture toughness. The main conclusions of the study can be summarized as follows: We have designed and developed new methods for measuring crack based on the use of the ultrasound technique, for measuring the growth of stress corrosion cracks with the accuracy and reliability needed to adequately assess the susceptibility to stress corrosion. Improved position measurement of the crack front has resulted, among other things, the definition of a new initiation essay in pre cracked specimens. Also, it has been inferred a new equation to calculate the stress intensity factor in crack tip existing in DCB specimens considering the influence of the deviation of the plane of the crack growth of the medium plane of the specimen. This has been crucial to explain the experimental results obtained since the crack growth by a plane parallel to the medium plane of the DCB specimen but away from it greatly reduces the stress intensity factor acting on the crack tip and modifies the actual conditions of the essay. Furthermore, we have identified the various constituents of the precipitation microstructure of all heat treatments studied and, in particular note has been achieved (by TEM and DSC) the existence of the type GP (II) of Guinier-Preston zones in the microstructure of several heat treatments (not described in the literature for alloys of the type studied) making it possible to establish a new interpretation of the evolution of the microstructure in the different treatments. In line with the above, we have defined new precipitation sequences for these alloys, which have allowed a better understanding of the formation of the microstructure in relation to the properties of different heat treatments studied. Similarly, explained the role of different microconstituents in various mechanical properties (tensile properties, hardness and toughness KIa), in particular, the study of the relationship between the tenacity KIa microstructure is unpublished. Moreover, has been correlated to the stress corrosion behavior, both in the incubation step as the crack propagation, with the measured characteristics of the various microstructural constituents heat treatments tested, both interior and boundary grain, having obtained the internal microstructure of grain has a greater influence on the stress corrosion cracking behavior in the grain boundary. In a special way, has established the importance, and very negative, the presence in the microstructure of Guinier-Preston zones in crack growth by stress corrosion. Finally, following the above, we have proposed a new mechanism by which stress corrosion cracking occurs in this type of aluminum alloy, and, very briefly, one can specify the following: the accumulation of hydrogen (formed basically by a corrosive process of anodic dissolution) in front of the GP zones (especially the GP (I) zones) near the precipitates free zone that develops around grain boundary causes local embrittlement which characterizes rapid crack growth of some heat treatments such alloys.
Resumo:
Energy consumption in data centers is nowadays a critical objective because of its dramatic environmental and economic impact. Over the last years, several approaches have been proposed to tackle the energy/cost optimization problem, but most of them have failed on providing an analytical model to target both the static and dynamic optimization domains for complex heterogeneous data centers. This paper proposes and solves an optimization problem for the energy-driven configuration of a heterogeneous data center. It also advances in the proposition of a new mechanism for task allocation and distribution of workload. The combination of both approaches outperforms previous published results in the field of energy minimization in heterogeneous data centers and scopes a promising area of research.
Resumo:
El extraordinario auge de las nuevas tecnologías de la información, el desarrollo de la Internet de las Cosas, el comercio electrónico, las redes sociales, la telefonía móvil y la computación y almacenamiento en la nube, han proporcionado grandes beneficios en todos los ámbitos de la sociedad. Junto a éstos, se presentan nuevos retos para la protección y privacidad de la información y su contenido, como la suplantación de personalidad y la pérdida de la confidencialidad e integridad de los documentos o las comunicaciones electrónicas. Este hecho puede verse agravado por la falta de una frontera clara que delimite el mundo personal del mundo laboral en cuanto al acceso de la información. En todos estos campos de la actividad personal y laboral, la Criptografía ha jugado un papel fundamental aportando las herramientas necesarias para garantizar la confidencialidad, integridad y disponibilidad tanto de la privacidad de los datos personales como de la información. Por otro lado, la Biometría ha propuesto y ofrecido diferentes técnicas con el fin de garantizar la autentificación de individuos a través del uso de determinadas características personales como las huellas dáctilares, el iris, la geometría de la mano, la voz, la forma de caminar, etc. Cada una de estas dos ciencias, Criptografía y Biometría, aportan soluciones a campos específicos de la protección de datos y autentificación de usuarios, que se verían enormemente potenciados si determinadas características de ambas ciencias se unieran con vistas a objetivos comunes. Por ello es imperativo intensificar la investigación en estos ámbitos combinando los algoritmos y primitivas matemáticas de la Criptografía con la Biometría para dar respuesta a la demanda creciente de nuevas soluciones más técnicas, seguras y fáciles de usar que potencien de modo simultáneo la protección de datos y la identificacíón de usuarios. En esta combinación el concepto de biometría cancelable ha supuesto una piedra angular en el proceso de autentificación e identificación de usuarios al proporcionar propiedades de revocación y cancelación a los ragos biométricos. La contribución de esta tesis se basa en el principal aspecto de la Biometría, es decir, la autentificación segura y eficiente de usuarios a través de sus rasgos biométricos, utilizando tres aproximaciones distintas: 1. Diseño de un esquema criptobiométrico borroso que implemente los principios de la biometría cancelable para identificar usuarios lidiando con los problemas acaecidos de la variabilidad intra e inter-usuarios. 2. Diseño de una nueva función hash que preserva la similitud (SPHF por sus siglas en inglés). Actualmente estas funciones se usan en el campo del análisis forense digital con el objetivo de buscar similitudes en el contenido de archivos distintos pero similares de modo que se pueda precisar hasta qué punto estos archivos pudieran ser considerados iguales. La función definida en este trabajo de investigación, además de mejorar los resultados de las principales funciones desarrolladas hasta el momento, intenta extender su uso a la comparación entre patrones de iris. 3. Desarrollando un nuevo mecanismo de comparación de patrones de iris que considera tales patrones como si fueran señales para compararlos posteriormente utilizando la transformada de Walsh-Hadarmard. Los resultados obtenidos son excelentes teniendo en cuenta los requerimientos de seguridad y privacidad mencionados anteriormente. Cada uno de los tres esquemas diseñados han sido implementados para poder realizar experimentos y probar su eficacia operativa en escenarios que simulan situaciones reales: El esquema criptobiométrico borroso y la función SPHF han sido implementados en lenguaje Java mientras que el proceso basado en la transformada de Walsh-Hadamard en Matlab. En los experimentos se ha utilizado una base de datos de imágenes de iris (CASIA) para simular una población de usuarios del sistema. En el caso particular de la función de SPHF, además se han realizado experimentos para comprobar su utilidad en el campo de análisis forense comparando archivos e imágenes con contenido similar y distinto. En este sentido, para cada uno de los esquemas se han calculado los ratios de falso negativo y falso positivo. ABSTRACT The extraordinary increase of new information technologies, the development of Internet of Things, the electronic commerce, the social networks, mobile or smart telephony and cloud computing and storage, have provided great benefits in all areas of society. Besides this fact, there are new challenges for the protection and privacy of information and its content, such as the loss of confidentiality and integrity of electronic documents and communications. This is exarcebated by the lack of a clear boundary between the personal world and the business world as their differences are becoming narrower. In both worlds, i.e the personal and the business one, Cryptography has played a key role by providing the necessary tools to ensure the confidentiality, integrity and availability both of the privacy of the personal data and information. On the other hand, Biometrics has offered and proposed different techniques with the aim to assure the authentication of individuals through their biometric traits, such as fingerprints, iris, hand geometry, voice, gait, etc. Each of these sciences, Cryptography and Biometrics, provides tools to specific problems of the data protection and user authentication, which would be widely strengthen if determined characteristics of both sciences would be combined in order to achieve common objectives. Therefore, it is imperative to intensify the research in this area by combining the basics mathematical algorithms and primitives of Cryptography with Biometrics to meet the growing demand for more secure and usability techniques which would improve the data protection and the user authentication. In this combination, the use of cancelable biometrics makes a cornerstone in the user authentication and identification process since it provides revocable or cancelation properties to the biometric traits. The contributions in this thesis involve the main aspect of Biometrics, i.e. the secure and efficient authentication of users through their biometric templates, considered from three different approaches. The first one is designing a fuzzy crypto-biometric scheme using the cancelable biometric principles to take advantage of the fuzziness of the biometric templates at the same time that it deals with the intra- and inter-user variability among users without compromising the biometric templates extracted from the legitimate users. The second one is designing a new Similarity Preserving Hash Function (SPHF), currently widely used in the Digital Forensics field to find similarities among different files to calculate their similarity level. The function designed in this research work, besides the fact of improving the results of the two main functions of this field currently in place, it tries to expand its use to the iris template comparison. Finally, the last approach of this thesis is developing a new mechanism of handling the iris templates, considering them as signals, to use the Walsh-Hadamard transform (complemented with three other algorithms) to compare them. The results obtained are excellent taking into account the security and privacy requirements mentioned previously. Every one of the three schemes designed have been implemented to test their operational efficacy in situations that simulate real scenarios: The fuzzy crypto-biometric scheme and the SPHF have been implemented in Java language, while the process based on the Walsh-Hadamard transform in Matlab. The experiments have been performed using a database of iris templates (CASIA-IrisV2) to simulate a user population. The case of the new SPHF designed is special since previous to be applied i to the Biometrics field, it has been also tested to determine its applicability in the Digital Forensic field comparing similar and dissimilar files and images. The ratios of efficiency and effectiveness regarding user authentication, i.e. False Non Match and False Match Rate, for the schemes designed have been calculated with different parameters and cases to analyse their behaviour.
Resumo:
Los sistemas de videoconferencia y colaboración en tiempo real para múltiples usuarios permiten a sus usuarios comunicarse por medio de vídeo, audio y datos. Históricamente estos han sido sistemas caros de obtener y de mantener. El paso de las décadas ha limado estos problemas acercado el mundo de comunicación en tiempo real a un grupo mucho más amplio, llegando a usarse en diversos ámbitos como la educación o la medicina. En este sentido, el último gran salto evolutivo al que hemos asistido ha sido la transición de este tipo de aplicaciones hacia la Web. Varias tecnologías han permitido este viaje hacia el navegador. Las Aplicaciones Ricas de Internet (RIAs), que permiten crear aplicaciones Web interactivas huyendo del clásico esquema de petición y respuesta y llevando funcionalidades propias de las aplicaciones nativas a la Web. Por otro lado, la computación en la nube o Cloud Computing, con su modelo de pago por uso de recursos virtualizados, ha llevado a la creación de servicios que se adaptan mejor a la demanda, han habilitado este viaje hacia el navegador. No obstante, como cada cambio, este salto presenta una serie de retos para los sistemas de videoconferencia establecidos. Esta tesis doctoral propone un conjunto de arquitecturas, mecanismos y algoritmos para adaptar los sistemas de multiconferencia al entorno Web, teniendo en cuenta que este es accedido desde dispositivos diferentes y mediante redes de acceso variadas. Para ello se comienza por el estudio de los requisitos que debe cumplir un sistema de videoconferencia en la Web. Como resultado se diseña, implementa y desarrolla un servicio de videoconferencia que permite la colaboración avanzada entre múltiples usuarios mediante vídeo, audio y compartición de escritorio. Posteriormente, se plantea un sistema de comunicación entre una aplicación nativa y Web, proponiendo técnicas de adaptación entre los dos entornos que permiten la conversación de manera transparente para los usuarios. Estos sistemas permiten facilitar la transición hacia tecnologías Web. Como siguiente paso, se identificaron los principales problemas que existen para la comunicación multiusuario en dispositivos de tamaño reducido (teléfonos inteligentes) utilizando redes de acceso heterogéneas. Se propone un mecanismo, combinación de transcodificación y algoritmos de adaptación de calidad para superar estas limitaciones y permitir a los usuarios de este tipo de dispositivos participar en igualdad de condiciones. La aparición de WebRTC como tecnología disruptiva en este entorno, permitiendo nuevas posibilidades de comunicación en navegadores, motiva la segunda iteración de esta tesis. Aquí se presenta un nuevo esquema de adaptación a la demanda para servidores de videoconferencia diseñado para las necesidades del entorno Web y para aprovechar las características de Cloud Computing. Finalmente, esta tesis repasa las conclusiones obtenidas como fruto del trabajo llevado a cabo, reflejando la evolución de la videoconferencia Web desde sus inicios hasta nuestros días. ABSTRACT Multiuser Videoconferencing and real-time collaboration systems allow users to communicate using video, audio and data streams. These systems have been historically expensive to obtain and maintain. Over the last few decades, technological breakthroughs have mitigated those costs and popularized real time video communication, allowing its use in environments such as education or health. The last big evolutionary leap forward has been the transition of these types of applications towards theWeb. Several technologies have allowed this journey to theWeb browser. Firstly, Rich Internet Applications (RIAs) enable the creation of dynamic Web pages that defy the classical request-response interaction and provide an experience similar to their native counterparts. On the other hand, Cloud Computing brings the leasing of virtualized hardware resources in a pay-peruse model and, with it, better scalability in resource-demanding services. However, as with every change, this evolution imposes a set of challenges on existing videoconferencing solutions. This dissertation proposes a set of architectures, mechanisms and algorithms that aim to adapt multi-conferencing systems to the Web platform, taking into account the variety of devices and access networks that come with it. To this end, this thesis starts with a study concerning the requirements that must be met by new Web videoconferencing systems. The result of this study is the design, development and implementation of a new videoconferencing services that provides advanced collaboration to its user by providing video and audio communication as well as desktop sharing. After this, a new communication system between Web and native applications is presented. This system proposes adaptation mechanisms to bridge the two worlds providing a seamless integration transparent to users who can now access the powerful native application via an easy Web interface. The next step is to identify the main challenges posed by multi-conferencing on small devices (smartphones) with heterogeneous access networks. This dissertation proposes a mechanism that combines transcoding and adaptive quality algorithms to overcome those limitations. A second iteration in this dissertation is motivated by WebRTC. WebRTC appears as a disrupting technology by enabling new real-time communication possibilities in browsers. A new mechanism for flexible videoconferencing server scalability is presented. This mechanism aims to address the strong scalability requirements in the Web environment by taking advantage of Cloud Computing. Finally, the dissertation discusses the results obtained throughout the study, capturing the evolution of Web videoconferencing systems.
Resumo:
El presente trabajo de investigación se ocupa del estudio de las vibraciones verticales inducidas por vórtices (VIV) en aquellos puentes que, por sus características geométricas y propiedades dinámicas, muestran cierta sensibilidad este tipo de fenómeno aeroelástico. El objeto principal es el análisis del mecanismo de interacción viento-estructura sobre secciones no fuseladas de geometría simple, con objeto de realizar una adecuada caracterización del problema y poder abordar posteriormente el análisis de otras secciones de geometría más compleja, representativas de los principales elementos estructurales de los puentes, como arcos, tableros, torres y pilas. Este aspecto es fundamental durante la fase de diseño del puente, donde deberán tenerse en cuenta también una serie de detalles que pueden influir significativamente su sensibilidad ante problemas aerodinámicos, como la morfología y dimensiones principales de la sección transversal del tablero, la disposición de barreras de seguridad y barreras cortaviento, o las riostras que unen diferentes elementos estructurales. La configuración de dos elementos en tándem o la construcción de un puente en las inmediaciones de otro existente son otros aspectos a considerar respecto a la sensibilidad frente a efectos aeroelásticos. El estudio se ha llevado a cabo principalmente mediante la implementación de simulaciones numéricas que reproducen la interacción entre la corriente de aire y secciones representativas de modelos estructurales, a partir de un código CFD basado en el método de las partículas de vórtices (VPM), siguiendo por tanto un esquema Lagrangiano. Los resultados han sido validados con datos experimentales existentes, valores procedentes de ensayos en túnel de viento y registros reales a partir de diferentes casos de estudio: Alconétar (2006), Niterói (1980), Trans- Tokyo Bay (1995) y Volgogrado (2010). Finalmente, se propone un modelo semi-empírico para la estimación del rango de velocidades críticas y amplitudes de oscilación basado en la utilización de las derivadas de flameo de Scanlan, y la densidad espectral de las fuerzas aerodinámicas en el dominio de la frecuencia. The present research work concerns the study of vertical vortex-induced vibrations (VIV) in bridges which show certain sensitivity to this type of aeroelastic phenomenon. It focuses on the analysis of the wind-structure interaction mechanism on bluff sections, with the objective of making a good characterisation of the problem and subsequently addressing the analysis of sections with a complex geometry, which are representative of the bridge structural elements, such as arches, decks, towers and piers. This issue is of relative importance during the bridge design phase, since minor details of the aforementioned elements can significantly influence its sensitivity to aerodynamic problems. The shape and main dimensions of the deck cross section, the addition of safety barriers and windshields, the presence of braces to enhance the structure mechanical properties, the utilisation of cross sections in tandem arrangement, or the erection of a new bridge in the vicinity of another existing one are some of the aspects to be considered regarding the sensitivity to the aeroelastic effects. The study has been carried out mainly through the implementation of numerical simulations that reproduces the interaction between the airflow and the representative cross section of a structural bridge model, by the use of a CFD code based on the vortex particle method (VPM), thus following a Lagrangian scheme. The results have been validated with existing experimental data, values from wind tunnel tests and full scale observations from the different case studies: Alconétar (2006), Niterói (1980), Trans-Tokyo Bay (1995) and Volgograd (2010). Finally, a new semi-empirical model is proposed for the estimation of the critical wind velocity ranges and oscillation amplitudes based on the use of the Scanlan’s flutter derivatives and the power spectral density of aerodynamic force time history in the frequency domain.
Resumo:
Copper nitride is a metastable material which results very attractive because of their potential to be used in functional device. Cu3 N easily decomposes into Cu and N2 by annealing [1] or irradiation (electron, ions, laser) [2, 3]. Previous studies carried out in N-rich Cu3 N films irradiated with Cu at 42MeV evidence a very efficient sputtering of N whose yield (5×10 3 atom/ion), for a film with a thickness of just 100 nm, suggest that the origin of the sputtering has an electronic nature. This N depletion was observed to be responsible for new phase formation ( Cu2 O) and pure Cu [4]
Resumo:
The improvement of energy efficiency in existing buildings is always a challenge due to their particular, and sometimes protected, constructive solutions. New constructive regulations in Spain leave a big undefined gap when a restoration is considered because they were developed for new buildings. However, rehabilitation is considered as an opportunity for many properties because it allows owners to obtain benefits from the use of the buildings. The current financial and housing crisis has turned society point of view to existing buildings and making them more efficient is one of the Spanish government’s aims. The economic viability of a rehabilitation action should take all factors into account: both construction costs and the future operative costs of the building must be considered. Nevertheless, the application of these regulations in Spain is left to the designer’s opinion and always under a subjective point of view. With the research work described in this paper and with the help of some case-studies, the cost of adapting an existing building to the new constructive regulations will be studied and Energetic Efficiency will be evaluated depending on how the investment is recovered. The interest of the research is based on showing how new constructive solutions can achieve higher levels of efficiency in terms of energy, construction and economy and it will demonstrate that Life Cycle Costing analysis can be a mechanism to find the advantages and disadvantages of using these new constructive solutions. Therefore, this paper has the following objectives: analysing constructive solutions in existing buildings - to establish a process for assessing total life cycle costs (LCC) during the planning stages with consideration of future operating costs - to select the most advantageous operating system – To determine the return on investment in terms of construction costs based on new techniques, the achieved energy savings and investment payback periods.
Resumo:
Introduction and motivation: A wide variety of organisms have developed in-ternal biomolecular clocks in order to adapt to cyclic changes of the environment. Clock operation involves genetic networks. These genetic networks have to be mod¬eled in order to understand the underlying mechanism of oscillations and to design new synthetic cellular clocks. This doctoral thesis has resulted in two contributions to the fields of genetic clocks and systems and synthetic biology, generally. The first contribution is a new genetic circuit model that exhibits an oscillatory behav¬ior through catalytic RNA molecules. The second and major contribution is a new genetic circuit model demonstrating that a repressor molecule acting on the positive feedback of a self-activating gene produces reliable oscillations. First contribution: A new model of a synthetic genetic oscillator based on a typical two-gene motif with one positive and one negative feedback loop is pre¬sented. The originality is that the repressor is a catalytic RNA molecule rather than a protein or a non-catalytic RNA molecule. This catalytic RNA is a ribozyme that acts post-transcriptionally by binding to and cleaving target mRNA molecules. This genetic clock involves just two genes, a mRNA and an activator protein, apart from the ribozyme. Parameter values that produce a circadian period in both determin¬istic and stochastic simulations have been chosen as an example of clock operation. The effects of the stochastic fluctuations are quantified by a period histogram and autocorrelation function. The conclusion is that catalytic RNA molecules can act as repressor proteins and simplify the design of genetic oscillators. Second and major contribution: It is demonstrated that a self-activating gene in conjunction with a simple negative interaction can easily produce robust matically validated. This model is comprised of two clearly distinct parts. The first is a positive feedback created by a protein that binds to the promoter of its own gene and activates the transcription. The second is a negative interaction in which a repressor molecule prevents this protein from binding to its promoter. A stochastic study shows that the system is robust to noise. A deterministic study identifies that the oscillator dynamics are mainly driven by two types of biomolecules: the protein, and the complex formed by the repressor and this protein. The main conclusion of this study is that a simple and usual negative interaction, such as degradation, se¬questration or inhibition, acting on the positive transcriptional feedback of a single gene is a sufficient condition to produce reliable oscillations. One gene is enough and the positive transcriptional feedback signal does not need to activate a second repressor gene. At the genetic level, this means that an explicit negative feedback loop is not necessary. Unlike many genetic oscillators, this model needs neither cooperative binding reactions nor the formation of protein multimers. Applications and future research directions: Recently, RNA molecules have been found to play many new catalytic roles. The first oscillatory genetic model proposed in this thesis uses ribozymes as repressor molecules. This could provide new synthetic biology design principles and a better understanding of cel¬lular clocks regulated by RNA molecules. The second genetic model proposed here involves only a repression acting on a self-activating gene and produces robust oscil¬lations. Unlike current two-gene oscillators, this model surprisingly does not require a second repressor gene. This result could help to clarify the design principles of cellular clocks and constitute a new efficient tool for engineering synthetic genetic oscillators. Possible follow-on research directions are: validate models in vivo and in vitro, research the potential of second model as a genetic memory, investigate new genetic oscillators regulated by non-coding RNAs and design a biosensor of positive feedbacks in genetic networks based on the operation of the second model Resumen Introduccion y motivacion: Una amplia variedad de organismos han desarro-llado relojes biomoleculares internos con el fin de adaptarse a los cambios ciclicos del entorno. El funcionamiento de estos relojes involucra redes geneticas. El mo delado de estas redes geneticas es esencial tanto para entender los mecanismos que producen las oscilaciones como para diseiiar nuevos circuitos sinteticos en celulas. Esta tesis doctoral ha dado lugar a dos contribuciones dentro de los campos de los circuitos geneticos en particular, y biologia de sistemas y sintetica en general. La primera contribucion es un nuevo modelo de circuito genetico que muestra un comportamiento oscilatorio usando moleculas de ARN cataliticas. La segunda y principal contribucion es un nuevo modelo de circuito genetico que demuestra que una molecula represora actuando sobre el lazo de un gen auto-activado produce oscilaciones robustas. Primera contribucion: Es un nuevo modelo de oscilador genetico sintetico basado en una tipica red genetica compuesta por dos genes con dos lazos de retroa-limentacion, uno positivo y otro negativo. La novedad de este modelo es que el represor es una molecula de ARN catalftica, en lugar de una protefna o una molecula de ARN no-catalitica. Este ARN catalitico es una ribozima que actua despues de la transcription genetica uniendose y cortando moleculas de ARN mensajero (ARNm). Este reloj genetico involucra solo dos genes, un ARNm y una proteina activadora, aparte de la ribozima. Como ejemplo de funcionamiento, se han escogido valores de los parametros que producen oscilaciones con periodo circadiano (24 horas) tanto en simulaciones deterministas como estocasticas. El efecto de las fluctuaciones es-tocasticas ha sido cuantificado mediante un histograma del periodo y la función de auto-correlacion. La conclusion es que las moleculas de ARN con propiedades cataliticas pueden jugar el misnio papel que las protemas represoras, y por lo tanto, simplificar el diseno de los osciladores geneticos. Segunda y principal contribucion: Es un nuevo modelo de oscilador genetico que demuestra que un gen auto-activado junto con una simple interaction negativa puede producir oscilaciones robustas. Este modelo ha sido estudiado y validado matematicamente. El modelo esta compuesto de dos partes bien diferenciadas. La primera parte es un lazo de retroalimentacion positiva creado por una proteina que se une al promotor de su propio gen activando la transcription. La segunda parte es una interaction negativa en la que una molecula represora evita la union de la proteina con el promotor. Un estudio estocastico muestra que el sistema es robusto al ruido. Un estudio determinista muestra que la dinamica del sistema es debida principalmente a dos tipos de biomoleculas: la proteina, y el complejo formado por el represor y esta proteina. La conclusion principal de este estudio es que una simple y usual interaction negativa, tal como una degradation, un secuestro o una inhibition, actuando sobre el lazo de retroalimentacion positiva de un solo gen es una condition suficiente para producir oscilaciones robustas. Un gen es suficiente y el lazo de retroalimentacion positiva no necesita activar a un segundo gen represor, tal y como ocurre en los relojes actuales con dos genes. Esto significa que a nivel genetico un lazo de retroalimentacion negativa no es necesario de forma explicita. Ademas, este modelo no necesita reacciones cooperativas ni la formation de multimeros proteicos, al contrario que en muchos osciladores geneticos. Aplicaciones y futuras lineas de investigacion: En los liltimos anos, se han descubierto muchas moleculas de ARN con capacidad catalitica. El primer modelo de oscilador genetico propuesto en esta tesis usa ribozimas como moleculas repre¬soras. Esto podria proporcionar nuevos principios de diseno en biologia sintetica y una mejor comprension de los relojes celulares regulados por moleculas de ARN. El segundo modelo de oscilador genetico propuesto aqui involucra solo una represion actuando sobre un gen auto-activado y produce oscilaciones robustas. Sorprendente-mente, un segundo gen represor no es necesario al contrario que en los bien conocidos osciladores con dos genes. Este resultado podria ayudar a clarificar los principios de diseno de los relojes celulares naturales y constituir una nueva y eficiente he-rramienta para crear osciladores geneticos sinteticos. Algunas de las futuras lineas de investigation abiertas tras esta tesis son: (1) la validation in vivo e in vitro de ambos modelos, (2) el estudio del potential del segundo modelo como circuito base para la construction de una memoria genetica, (3) el estudio de nuevos osciladores geneticos regulados por ARN no codificante y, por ultimo, (4) el rediseno del se¬gundo modelo de oscilador genetico para su uso como biosensor capaz de detectar genes auto-activados en redes geneticas.
Resumo:
The popularity of MapReduce programming model has increased interest in the research community for its improvement. Among the other directions, the point of fault tolerance, concretely the failure detection issue seems to be a crucial one, but that until now has not reached its satisfying level. Motivated by this, I decided to devote my main research during this period into having a prototype system architecture of MapReduce framework with a new failure detection service, containing both analytical (theoretical) and implementation part. I am confident that this work should lead the way for further contributions in detecting failures to any NoSQL App frameworks, and cloud storage systems in general.
Resumo:
Recently a new recipe for developing and deploying real-time systems has become increasingly adopted in the JET tokamak. Powered by the advent of x86 multi-core technology and the reliability of the JET’s well established Real-Time Data Network (RTDN) to handle all real-time I/O, an official Linux vanilla kernel has been demonstrated to be able to provide realtime performance to user-space applications that are required to meet stringent timing constraints. In particular, a careful rearrangement of the Interrupt ReQuests’ (IRQs) affinities together with the kernel’s CPU isolation mechanism allows to obtain either soft or hard real-time behavior depending on the synchronization mechanism adopted. Finally, the Multithreaded Application Real-Time executor (MARTe) framework is used for building applications particularly optimised for exploring multicore architectures. In the past year, four new systems based on this philosophy have been installed and are now part of the JET’s routine operation. The focus of the present work is on the configuration and interconnection of the ingredients that enable these new systems’ real-time capability and on the impact that JET’s distributed real-time architecture has on system engineering requirements, such as algorithm testing and plant commissioning. Details are given about the common real-time configuration and development path of these systems, followed by a brief description of each system together with results regarding their real-time performance. A cycle time jitter analysis of a user-space MARTe based application synchronising over a network is also presented. The goal is to compare its deterministic performance while running on a vanilla and on a Messaging Real time Grid (MRG) Linux kernel.
Resumo:
El óxido nitroso (N2O) es un potente gas de efecto invernadero (GHG) proveniente mayoritariamente de la fertilización nitrogenada de los suelos agrícolas. Identificar estrategias de manejo de la fertilización que reduzcan estas emisiones sin suponer un descenso de los rendimientos es vital tanto a nivel económico como medioambiental. Con ese propósito, en esta Tesis se han evaluado: (i) estrategias de manejo directo de la fertilización (inhibidores de la nitrificación/ureasa); y (ii) interacciones de los fertilizantes con (1) el manejo del agua, (2) residuos de cosecha y (3) diferentes especies de plantas. Para conseguirlo se llevaron a cabo meta-análisis, incubaciones de laboratorio, ensayos en invernadero y experimentos de campo. Los inhibidores de la nitrificación y de la actividad ureasa se proponen habitualmente como medidas para reducir las pérdidas de nitrógeno (N), por lo que su aplicación estaría asociada al uso eficiente del N por parte de los cultivos (NUE). Sin embargo, su efecto sobre los rendimientos es variable. Con el objetivo de evaluar en una primera fase su efectividad para incrementar el NUE y la productividad de los cultivos, se llevó a cabo un meta-análisis. Los inhibidores de la nitrificación dicyandiamide (DCD) y 3,4-dimetilepyrazol phosphate (DMPP) y el inhibidor de la ureasa N-(n-butyl) thiophosphoric triamide (NBPT) fueron seleccionados para el análisis ya que generalmente son considerados las mejores opciones disponibles comercialmente. Nuestros resultados mostraron que su uso puede ser recomendado con el fin de incrementar tanto el rendimiento del cultivo como el NUE (incremento medio del 7.5% y 12.9%, respectivamente). Sin embargo, se observó que su efectividad depende en gran medida de los factores medioambientales y de manejo de los estudios evaluados. Una mayor respuesta fue encontrada en suelos de textura gruesa, sistemas irrigados y/o en cultivos que reciben altas tasas de fertilizante nitrogenado. En suelos alcalinos (pH ≥ 8), el inhibidor de la ureasa NBPT produjo el mayor efecto. Dado que su uso representa un coste adicional para los agricultores, entender las mejores prácticas que permitan maximizar su efectividad es necesario para posteriormente realizar comparaciones efectivas con otras prácticas que incrementen la productividad de los cultivos y el NUE. En base a los resultados del meta-análisis, se seleccionó el NBPT como un inhibidor con gran potencial. Inicialmente desarrollado para reducir la volatilización de amoniaco (NH3), en los últimos años algunos investigadores han demostrado en estudios de campo un efecto mitigador de este inhibidor sobre las pérdidas de N2O provenientes de suelos fertilizados bajo condiciones de baja humedad del suelo. Dada la alta variabilidad de los experimentos de campo, donde la humedad del suelo cambia rápidamente, ha sido imposible entender mecanísticamente el potencial de los inhibidores de la ureasa (UIs) para reducir emisiones de N2O y su dependencia con respecto al porcentaje de poros llenos de agua del suelo (WFPS). Por lo tanto se realizó una incubación en laboratorio con el propósito de evaluar cuál es el principal mecanismo biótico tras las emisiones de N2O cuando se aplican UIs bajo diferentes condiciones de humedad del suelo (40, 60 y 80% WFPS), y para analizar hasta qué punto el WFPS regula el efecto del inhibidor sobre las emisiones de N2O. Un segundo UI (i.e. PPDA) fue utilizado para comparar el efecto del NBPT con el de otro inhibidor de la ureasa disponible comercialmente; esto nos permitió comprobar si el efecto de NBPT es específico de ese inhibidor o no. Las emisiones de N2O al 40% WFPS fueron despreciables, siendo significativamente más bajas que las de todos los tratamientos fertilizantes al 60 y 80% WFPS. Comparado con la urea sin inhibidor, NBPT+U redujo las emisiones de N2O al 60% WFPS pero no tuvo efecto al 80% WFPS. La aplicación de PPDA incrementó significativamente las emisiones con respecto a la urea al 80% WFPS mientras que no se encontró un efecto significativo al 60% WFPS. Al 80% WFPS la desnitrificación fue la principal fuente de las emisiones de N2O en todos los tratamientos mientras que al 60% tanto la nitrificación como la desnitrificación tuvieron un papel relevante. Estos resultados muestran que un correcto manejo del NBPT puede suponer una estrategia efectiva para mitigar las emisiones de N2O. Con el objetivo de trasladar nuestros resultados de los estudios previos a condiciones de campo reales, se desarrolló un experimento en el que se evaluó la efectividad del NBPT para reducir pérdidas de N y aumentar la productividad durante un cultivo de cebada (Hordeum vulgare L.) en secano Mediterráneo. Se determinó el rendimiento del cultivo, las concentraciones de N mineral del suelo, el carbono orgánico disuelto (DOC), el potencial de desnitrificación, y los flujos de NH3, N2O y óxido nítrico (NO). La adición del inhibidor redujo las emisiones de NH3 durante los 30 días posteriores a la aplicación de urea en un 58% y las emisiones netas de N2O y NO durante los 95 días posteriores a la aplicación de urea en un 86 y 88%, respectivamente. El uso de NBPT también incrementó el rendimiento en grano en un 5% y el consumo de N en un 6%, aunque ninguno de estos incrementos fue estadísticamente significativo. Bajo las condiciones experimentales dadas, estos resultados demuestran el potencial del inhibidor de la ureasa NBPT para mitigar las emisiones de NH3, N2O y NO provenientes de suelos arables fertilizados con urea, mediante la ralentización de la hidrólisis de la urea y posterior liberación de menores concentraciones de NH4 + a la capa superior del suelo. El riego por goteo combinado con la aplicación dividida de fertilizante nitrogenado disuelto en el agua de riego (i.e. fertirriego por goteo) se considera normalmente una práctica eficiente para el uso del agua y de los nutrientes. Algunos de los principales factores (WFPS, NH4 + y NO3 -) que regulan las emisiones de GHGs (i.e. N2O, CO2 y CH4) y NO pueden ser fácilmente manipulados por medio del fertirriego por goteo sin que se generen disminuciones del rendimiento. Con ese propósito se evaluaron opciones de manejo para reducir estas emisiones en un experimento de campo durante un cultivo de melón (Cucumis melo L.). Los tratamientos incluyeron distintas frecuencias de riego (semanal/diario) y tipos de fertilizantes nitrogenados (urea/nitrato cálcico) aplicados por fertirriego. Fertirrigar con urea en lugar de nitrato cálcico aumentó las emisiones de N2O y NO por un factor de 2.4 y 2.9, respectivamente (P < 0.005). El riego diario redujo las emisiones de NO un 42% (P < 0.005) pero aumentó las emisiones de CO2 un 21% (P < 0.05) comparado con el riego semanal. Analizando el Poder de Calentamiento global en base al rendimiento así como los factores de emisión del NO, concluimos que el fertirriego semanal con un fertilizante de tipo nítrico es la mejor opción para combinar productividad agronómica con sostenibilidad medioambiental en este tipo de agroecosistemas. Los suelos agrícolas en las áreas semiáridas Mediterráneas se caracterizan por su bajo contenido en materia orgánica y bajos niveles de fertilidad. La aplicación de residuos de cosecha y/o abonos es una alternativa sostenible y eficiente desde el punto de vista económico para superar este problema. Sin embargo, estas prácticas podrían inducir cambios importantes en las emisiones de N2O de estos agroecosistemas, con impactos adicionales en las emisiones de CO2. En este contexto se llevó a cabo un experimento de campo durante un cultivo de cebada (Hordeum vulgare L.) bajo condiciones Mediterráneas para evaluar el efecto de combinar residuos de cosecha de maíz con distintos inputs de fertilizantes nitrogenados (purín de cerdo y/o urea) en estas emisiones. La incorporación de rastrojo de maíz incrementó las emisiones de N2O durante el periodo experimental un 105%. Sin embargo, las emisiones de NO se redujeron significativamente en las parcelas enmendadas con rastrojo. La sustitución parcial de urea por purín de cerdo redujo las emisiones netas de N2O un 46 y 39%, con y sin incorporación de residuo de cosecha respectivamente. Las emisiones netas de NO se redujeron un 38 y un 17% para estos mismos tratamientos. El ratio molar DOC:NO3 - demostró predecir consistentemente las emisiones de N2O y NO. El efecto principal de la interacción entre el fertilizante nitrogenado y el rastrojo de maíz se dio a los 4-6 meses de su aplicación, generando un aumento del N2O y una disminución del NO. La sustitución de urea por purín de cerdo puede considerarse una buena estrategia de manejo dado que el uso de este residuo orgánico redujo las emisiones de óxidos de N. Los pastos de todo el mundo proveen numerosos servicios ecosistémicos pero también suponen una importante fuente de emisión de N2O, especialmente en respuesta a la deposición de N proveniente del ganado mientras pasta. Para explorar el papel de las plantas como mediadoras de estas emisiones, se analizó si las emisiones de N2O dependen de la riqueza en especies herbáceas y/o de la composición específica de especies, en ausencia y presencia de una deposición de orina. Las hipótesis fueron: 1) las emisiones de N2O tienen una relación negativa con la productividad de las plantas; 2) mezclas de cuatro especies generan menores emisiones que monocultivos (dado que su productividad será mayor); 3) las emisiones son menores en combinaciones de especies con distinta morfología radicular y alta biomasa de raíz; y 4) la identidad de las especies clave para reducir el N2O depende de si hay orina o no. Se establecieron monocultivos y mezclas de dos y cuatro especies comunes en pastos con rasgos funcionales divergentes: Lolium perenne L. (Lp), Festuca arundinacea Schreb. (Fa), Phleum pratense L. (Php) y Poa trivialis L. (Pt), y se cuantificaron las emisiones de N2O durante 42 días. No se encontró relación entre la riqueza en especies y las emisiones de N2O. Sin embargo, estas emisiones fueron significativamente menores en ciertas combinaciones de especies. En ausencia de orina, las comunidades de plantas Fa+Php actuaron como un sumidero de N2O, mientras que los monocultivos de estas especies constituyeron una fuente de N2O. Con aplicación de orina la comunidad Lp+Pt redujo (P < 0.001) las emisiones de N2O un 44% comparado con los monocultivos de Lp. Las reducciones de N2O encontradas en ciertas combinaciones de especies pudieron explicarse por una productividad total mayor y por una complementariedad en la morfología radicular. Este estudio muestra que la composición de especies herbáceas es un componente clave que define las emisiones de N2O de los ecosistemas de pasto. La selección de combinaciones de plantas específicas en base a la deposición de N esperada puede, por lo tanto, ser clave para la mitigación de las emisiones de N2O. ABSTRACT Nitrous oxide (N2O) is a potent greenhouse gas (GHG) directly linked to applications of nitrogen (N) fertilizers to agricultural soils. Identifying mitigation strategies for these emissions based on fertilizer management without incurring in yield penalties is of economic and environmental concern. With that aim, this Thesis evaluated: (i) the use of nitrification and urease inhibitors; and (ii) interactions of N fertilizers with (1) water management, (2) crop residues and (3) plant species richness/identity. Meta-analysis, laboratory incubations, greenhouse mesocosm and field experiments were carried out in order to understand and develop effective mitigation strategies. Nitrification and urease inhibitors are proposed as means to reduce N losses, thereby increasing crop nitrogen use efficiency (NUE). However, their effect on crop yield is variable. A meta-analysis was initially conducted to evaluate their effectiveness at increasing NUE and crop productivity. Commonly used nitrification inhibitors (dicyandiamide (DCD) and 3,4-dimethylepyrazole phosphate (DMPP)) and the urease inhibitor N-(n-butyl) thiophosphoric triamide (NBPT) were selected for analysis as they are generally considered the best available options. Our results show that their use can be recommended in order to increase both crop yields and NUE (grand mean increase of 7.5% and 12.9%, respectively). However, their effectiveness was dependent on the environmental and management factors of the studies evaluated. Larger responses were found in coarse-textured soils, irrigated systems and/or crops receiving high nitrogen fertilizer rates. In alkaline soils (pH ≥ 8), the urease inhibitor NBPT produced the largest effect size. Given that their use represents an additional cost for farmers, understanding the best management practices to maximize their effectiveness is paramount to allow effective comparison with other practices that increase crop productivity and NUE. Based on the meta-analysis results, NBPT was identified as a mitigation option with large potential. Urease inhibitors (UIs) have shown to promote high N use efficiency by reducing ammonia (NH3) volatilization. In the last few years, however, some field researches have shown an effective mitigation of UIs over N2O losses from fertilized soils under conditions of low soil moisture. Given the inherent high variability of field experiments where soil moisture content changes rapidly, it has been impossible to mechanistically understand the potential of UIs to reduce N2O emissions and its dependency on the soil water-filled pore space (WFPS). An incubation experiment was carried out aiming to assess what is the main biotic mechanism behind N2O emission when UIs are applied under different soil moisture conditions (40, 60 and 80% WFPS), and to analyze to what extent the soil WFPS regulates the effect of the inhibitor over N2O emissions. A second UI (i.e. PPDA) was also used aiming to compare the effect of NBPT with that of another commercially available urease inhibitor; this allowed us to see if the effect of NBPT was inhibitor-specific or not. The N2O emissions at 40% WFPS were almost negligible, being significantly lower from all fertilized treatments than that produced at 60 and 80% WFPS. Compared to urea alone, NBPT+U reduced the N2O emissions at 60% WFPS but had no effect at 80% WFPS. The application of PPDA significantly increased the emissions with respect to U at 80% WFPS whereas no significant effect was found at 60% WFPS. At 80% WFPS denitrification was the main source of N2O emissions for all treatments. Both nitrification and denitrification had a determinant role on these emissions at 60% WFPS. These results suggest that adequate management of the UI NBPT can provide, under certain soil conditions, an opportunity for N2O mitigation. We translated our previous results to realistic field conditions by means of a field experiment with a barley crop (Hordeum vulgare L.) under rainfed Mediterranean conditions in which we evaluated the effectiveness of NBPT to reduce N losses and increase crop yields. Crop yield, soil mineral N concentrations, dissolved organic carbon (DOC), denitrification potential, NH3, N2O and nitric oxide (NO) fluxes were measured during the growing season. The inclusion of the inhibitor reduced NH3 emissions in the 30 d following urea application by 58% and net N2O and NO emissions in the 95 d following urea application by 86 and 88%, respectively. NBPT addition also increased grain yield by 5% and N uptake by 6%, although neither increase was statistically significant. Under the experimental conditions presented here, these results demonstrate the potential of the urease inhibitor NBPT in abating NH3, N2O and NO emissions from arable soils fertilized with urea, slowing urea hydrolysis and releasing lower concentrations of NH4 + to the upper soil layer. Drip irrigation combined with split application of N fertilizer dissolved in the irrigation water (i.e. drip fertigation) is commonly considered best management practice for water and nutrient efficiency. Some of the main factors (WFPS, NH4 + and NO3 -) regulating the emissions of GHGs (i.e. N2O, carbon dioxide (CO2) and methane (CH4)) and NO can easily be manipulated by drip fertigation without yield penalties. In this study, we tested management options to reduce these emissions in a field experiment with a melon (Cucumis melo L.) crop. Treatments included drip irrigation frequency (weekly/daily) and type of N fertilizer (urea/calcium nitrate) applied by fertigation. Crop yield, environmental parameters, soil mineral N concentrations, N2O, NO, CH4, and CO2 fluxes were measured during the growing season. Fertigation with urea instead of calcium nitrate increased N2O and NO emissions by a factor of 2.4 and 2.9, respectively (P < 0.005). Daily irrigation reduced NO emissions by 42% (P < 0.005) but increased CO2 emissions by 21% (P < 0.05) compared with weekly irrigation. Based on yield-scaled Global Warming Potential as well as NO emission factors, we conclude that weekly fertigation with a NO3 --based fertilizer is the best option to combine agronomic productivity with environmental sustainability. Agricultural soils in semiarid Mediterranean areas are characterized by low organic matter contents and low fertility levels. Application of crop residues and/or manures as amendments is a cost-effective and sustainable alternative to overcome this problem. However, these management practices may induce important changes in the nitrogen oxide emissions from these agroecosystems, with additional impacts on CO2 emissions. In this context, a field experiment was carried out with a barley (Hordeum vulgare L.) crop under Mediterranean conditions to evaluate the effect of combining maize (Zea mays L.) residues and N fertilizer inputs (organic and/or mineral) on these emissions. Crop yield and N uptake, soil mineral N concentrations, dissolved organic carbon (DOC), denitrification capacity, N2O, NO and CO2 fluxes were measured during the growing season. The incorporation of maize stover increased N2O emissions during the experimental period by c. 105 %. Conversely, NO emissions were significantly reduced in the plots amended with crop residues. The partial substitution of urea by pig slurry reduced net N2O emissions by 46 and 39 %, with and without the incorporation of crop residues respectively. Net emissions of NO were reduced 38 and 17 % for the same treatments. Molar DOC:NO3 - ratio was found to be a robust predictor of N2O and NO fluxes. The main effect of the interaction between crop residue and N fertilizer application occurred in the medium term (4-6 month after application), enhancing N2O emissions and decreasing NO emissions as consequence of residue incorporation. The substitution of urea by pig slurry can be considered a good management strategy since N2O and NO emissions were reduced by the use of the organic residue. Grassland ecosystems worldwide provide many important ecosystem services but they also function as a major source of N2O, especially in response to N deposition by grazing animals. In order to explore the role of plants as mediators of these emissions, we tested whether and how N2O emissions are dependent on grass species richness and/or specific grass species composition in the absence and presence of urine deposition. We hypothesized that: 1) N2O emissions relate negatively to plant productivity; 2) four-species mixtures have lower emissions than monocultures (as they are expected to be more productive); 3) emissions are lowest in combinations of species with diverging root morphology and high root biomass; and 4) the identity of the key species that reduce N2O emissions is dependent on urine deposition. We established monocultures and two- and four-species mixtures of common grass species with diverging functional traits: Lolium perenne L. (Lp), Festuca arundinacea Schreb. (Fa), Phleum pratense L. (Php) and Poa trivialis L. (Pt), and quantified N2O emissions for 42 days. We found no relation between plant species richness and N2O emissions. However, N2O emissions were significantly reduced in specific plant species combinations. In the absence of urine, plant communities of Fa+Php acted as a sink for N2O, whereas the monocultures of these species constituted a N2O source. With urine application Lp+Pt plant communities reduced (P < 0.001) N2O emissions by 44% compared to monocultures of Lp. Reductions in N2O emissions by species mixtures could be explained by total biomass productivity and by complementarity in root morphology. Our study shows that plant species composition is a key component underlying N2O emissions from grassland ecosystems. Selection of specific grass species combinations in the context of the expected nitrogen deposition regimes may therefore provide a key management practice for mitigation of N2O emissions.
Resumo:
One of the major challenges in evolutionary robotics is constituted by the need of the robot being able to make decisions on its own, in accordance with the multiple tasks programmed, optimizing its timings and power. In this paper, we present a new automatic decision making mechanism for a robot guide that allows the robot to make the best choice in order to reach its aims, performing its tasks in an optimal way. The election of which is the best alternative is based on a series of criteria and restrictions of the tasks to perform. The software developed in the project has been verified on the tour-guide robot Urbano. The most important aspect of this proposal is that the design uses learning as the means to optimize the quality in the decision making. The modeling of the quality index of the best choice to perform is made using fuzzy logic and it represents the beliefs of the robot, which continue to evolve in order to match the "external reality”. This fuzzy system is used to select the most appropriate set of tasks to perform during the day. With this tool, the tour guide-robot prepares its agenda daily, which satisfies the objectives and restrictions, and it identifies the best task to perform at each moment. This work is part of the ARABOT project of the Intelligent Control Research Group at the Universidad Politécnica de Madrid to create "awareness" in a robot guide.
Resumo:
This paper describes an experimental procedure consisting of impact tests that simulate a collision of a human head with an industrial robot with the aim to validate a safety index named as New Index for Robots (NIR) and its outputs. The experiments in this paper are based on lab tests. It is an attempt to characterize the NIR index underlying the main parameters that are involved in crash interaction and to highlight limitations and weakness of suggested impact tests.
Resumo:
In the smart building control industry, creating a platform to integrate different communication protocols and ease the interaction between users and devices is becoming increasingly important. BATMP is a platform designed to achieve this goal. In this paper, the authors describe a novel mechanism for information exchange, which introduces a new concept, Parameter, and uses it as the common object among all the BATMP components: Gateway Manager, Technology Manager, Application Manager, Model Manager and Data Warehouse. Parameter is an object which represents a physical magnitude and contains the information about its presentation, available actions, access type, etc. Each component of BATMP has a copy of the parameters. In the Technology Manager, three drivers for different communication protocols, KNX, CoAP and Modbus, are implemented to convert devices into parameters. In the Gateway Manager, users can control the parameters directly or by defining a scenario. In the Application Manager, the applications can subscribe to parameters and decide the values of parameters by negotiating. Finally, a Negotiator is implemented in the Model Manager to notify other components about the changes taking place in any component. By applying this mechanism, BATMP ensures the simultaneous and concurrent communication among users, applications and devices.