984 resultados para Neuropeptide-y Levels


Relevância:

30.00% 30.00%

Publicador:

Resumo:

El enriquecimiento del conocimiento sobre la Irradiancia Solar (IS) a nivel de superficie terrestre, así como su predicción, cobran gran interés para las Energías Renovables (ER) - Energía Solar (ES)-, y para distintas aplicaciones industriales o ecológicas. En el ámbito de las ER, el uso óptimo de la ES implica contar con datos de la IS en superficie que ayuden tanto, en la selección de emplazamientos para instalaciones de ES, como en su etapa de diseño (dimensionar la producción) y, finalmente, en su explotación. En este último caso, la observación y la predicción es útil para el mercado energético, la planificación y gestión de la energía (generadoras y operadoras del sistema eléctrico), especialmente en los nuevos contextos de las redes inteligentes de transporte. A pesar de la importancia estratégica de contar con datos de la IS, especialmente los observados por sensores de IS en superficie (los que mejor captan esta variable), estos no siempre están disponibles para los lugares de interés ni con la resolución espacial y temporal deseada. Esta limitación se une a la necesidad de disponer de predicciones a corto plazo de la IS que ayuden a la planificación y gestión de la energía. Se ha indagado y caracterizado las Redes de Estaciones Meteorológicas (REM) existentes en España que publican en internet sus observaciones, focalizando en la IS. Se han identificado 24 REM (16 gubernamentales y 8 redes voluntarios) que aglutinan 3492 estaciones, convirtiéndose éstas en las fuentes de datos meteorológicos utilizados en la tesis. Se han investigado cinco técnicas de estimación espacial de la IS en intervalos de 15 minutos para el territorio peninsular (3 técnicas geoestadísticas, una determinística y el método HelioSat2 basado en imágenes satelitales) con distintas configuraciones espaciales. Cuando el área de estudio tiene una adecuada densidad de observaciones, el mejor método identificado para estimar la IS es el Kriging con Regresión usando variables auxiliares -una de ellas la IS estimada a partir de imágenes satelitales-. De este modo es posible estimar espacialmente la IS más allá de los 25 km identificados en la bibliografía. En caso contrario, se corrobora la idoneidad de utilizar estimaciones a partir de sensores remotos cuando la densidad de observaciones no es adecuada. Se ha experimentado con el modelado de Redes Neuronales Artificiales (RNA) para la predicción a corto plazo de la IS utilizando observaciones próximas (componentes espaciales) en sus entradas y, los resultados son prometedores. Así los niveles de errores disminuyen bajo las siguientes condiciones: (1) cuando el horizonte temporal de predicción es inferior o igual a 3 horas, las estaciones vecinas que se incluyen en el modelo deben encentrarse a una distancia máxima aproximada de 55 km. Esto permite concluir que las RNA son capaces de aprender cómo afectan las condiciones meteorológicas vecinas a la predicción de la IS. ABSTRACT ABSTRACT The enrichment of knowledge about the Solar Irradiance (SI) at Earth's surface and its prediction, have a high interest for Renewable Energy (RE) - Solar Energy (SE) - and for various industrial and environmental applications. In the field of the RE, the optimal use of the SE involves having SI surface to help in the selection of sites for facilities ES, in the design stage (sizing energy production), and finally on their production. In the latter case, the observation and prediction is useful for the market, planning and management of the energy (generators and electrical system operators), especially in new contexts of smart transport networks (smartgrid). Despite the strategic importance of SI data, especially those observed by sensors of SI at surface (the ones that best measure this environmental variable), these are not always available to the sights and the spatial and temporal resolution desired. This limitation is bound to the need for short-term predictions of the SI to help planning and energy management. It has been investigated and characterized existing Networks of Weather Stations (NWS) in Spain that share its observations online, focusing on SI. 24 NWS have been identified (16 government and 8 volunteer networks) that implies 3492 stations, turning it into the sources of meteorological data used in the thesis. We have investigated five technical of spatial estimation of SI in 15 minutes to the mainland (3 geostatistical techniques and HelioSat2 a deterministic method based on satellite images) with different spatial configurations. When the study area has an adequate density of observations we identified the best method to estimate the SI is the regression kriging with auxiliary variables (one of them is the SI estimated from satellite images. Thus it is possible to spatially estimate the SI beyond the 25 km identified in the literature. Otherwise, when the density of observations is inadequate the appropriateness is using the estimates values from remote sensing. It has been experimented with Artificial Neural Networks (ANN) modeling for predicting the short-term future of the SI using observations from neighbor’s weather stations (spatial components) in their inputs, and the results are promising. The error levels decrease under the following conditions: (1) when the prediction horizon is less or equal than 3 hours the best models are the ones that include data from the neighboring stations (at a maximum distance of 55 km). It is concluded that the ANN is able to learn how weather conditions affect neighboring prediction of IS at such Spatio-temporal horizons.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El aumento de la temperatura media de la Tierra durante el pasado siglo en casi 1 ºC; la subida del nivel medio del mar; la disminución del volumen de hielo y nieve terrestres; la fuerte variabilidad del clima y los episodios climáticos extremos que se vienen sucediendo durante las ultimas décadas; y el aumento de las epidemias y enfermedades infecciosas son solo algunas de las evidencias del cambio climático actual, causado, principalmente, por la acumulación de gases de efecto invernadero en la atmósfera por actividades antropogénicas. La problemática y preocupación creciente surgida a raíz de estos fenómenos, motivo que, en 1997, se adoptara el denominado “Protocolo de Kyoto” (Japón), por el que los países firmantes adoptaron diferentes medidas destinadas a controlar y reducir las emisiones de los citados gases. Entre estas medidas cabe destacar las tecnologías CAC, enfocadas a la captura, transporte y almacenamiento de CO2. En este contexto se aprobó, en octubre de 2008, el Proyecto Singular Estratégico “Tecnologías avanzadas de generación, captura y almacenamiento de CO2” (PSE-120000-2008-6), cofinanciado por el Ministerio de Ciencia e Innovación y el FEDER, el cual abordaba, en su Subproyecto “Almacenamiento Geológico de CO2” (PSS-120000-2008-31), el estudio detallado, entre otros, del Análogo Natural de Almacenamiento y Escape de CO2 de la cuenca de Ganuelas-Mazarrón (Murcia). Es precisamente en el marco de dicho Proyecto en el que se ha realizado este trabajo, cuyo objetivo final ha sido el de predecir el comportamiento y evaluar la seguridad, a corto, medio y largo plazo, de un Almacenamiento Geológico Profundo de CO2 (AGP-CO2), mediante el estudio integral del citado análogo natural. Este estudio ha comprendido: i) la contextualización geológica e hidrogeológica de la cuenca, así como la investigación geofísica de la misma; ii) la toma de muestras de aguas de algunos acuíferos seleccionados con el fin de realizar su estudio hidrogeoquímico e isotópico; iii) la caracterización mineralógica, petrográfica, geoquímica e isotópica de los travertinos precipitados a partir de las aguas de algunos de los sondeos de la cuenca; y iv) la medida y caracterización química e isotópica de los gases libres y disueltos detectados en la cuenca, con especial atención al CO2 y 222Rn. Esta información, desarrollada en capítulos independientes, ha permitido realizar un modelo conceptual de funcionamiento del sistema natural que constituye la cuenca de Ganuelas-Mazarrón, así como establecer las analogías entre este y un AGP-CO2, con posibles escapes naturales y/o antropogénicos. La aplicación de toda esta información ha servido, por un lado, para predecir el comportamiento y evaluar la seguridad, a corto, medio y largo plazo, de un AGP-CO2 y, por otro, proponer una metodología general aplicable al estudio de posibles emplazamientos de AGP-CO2 desde la perspectiva de los reservorios naturales de CO2. Los resultados más importantes indican que la cuenca de Ganuelas-Mazarrón se trata de una cubeta o fosa tectónica delimitada por fallas normales, con importantes saltos verticales, que hunden al substrato rocoso (Complejo Nevado-Filabride), y rellenas, generalmente, por materiales volcánicos-subvolcánicos ácidos. Además, esta cuenca se encuentra rellena por formaciones menos resistivas que son, de muro a techo, las margas miocenas, predominantes y casi exclusivas de la cuenca, y los conglomerados y gravas pliocuaternarias. El acuífero salino profundo y enriquecido en CO2, puesto de manifiesto por la xx exploración geotérmica realizada en dicha cuenca durante la década de los 80 y objeto principal de este estudio, se encuentra a techo de los materiales del Complejo Nevado-Filabride, a una profundidad que podría superar los 800 m, según los datos de la investigación mediante sondeos y geofísica. Por ello, no se descarta la posibilidad de que el CO2 se encuentre en estado supe critico, por lo que la citada cuenca reuniría las características principales de un almacenamiento geológico natural y profundo de CO2, o análogo natural de un AGP-CO2 en un acuífero salino profundo. La sobreexplotación de los acuíferos mas someros de la cuenca, con fines agrícolas, origino, por el descenso de sus niveles piezométricos y de la presión hidrostática, el ascenso de las aguas profundas, salinas y enriquecidas en CO2, las cuales son las responsables de la contaminación de dichos acuíferos. El estudio hidrogeoquímico de las aguas de los acuíferos investigados muestra una gran variedad de hidrofacies, incluso en aquellos de litología similar. La alta salinidad de estas aguas las hace inservibles tanto para el consumo humano como para fines agrícolas. Además, el carácter ligeramente ácido de la mayoría de estas aguas determina que tengan gran capacidad para disolver y transportar, hacia la superficie, elementos pesados y/o tóxicos, entre los que destaca el U, elemento abundante en las rocas volcánicas ácidas de la cuenca, con contenidos de hasta 14 ppm, y en forma de uraninita submicroscópica. El estudio isotópico ha permitido discernir el origen, entre otros, del C del DIC de las aguas (δ13C-DIC), explicándose como una mezcla de dos componentes principales: uno, procedente de la descomposición térmica de las calizas y mármoles del substrato y, otro, de origen edáfico, sin descartar una aportación menor de C de origen mantélico. El estudio de los travertinos que se están formando a la salida de las aguas de algunos sondeos, por la desgasificación rápida de CO2 y el consiguiente aumento de pH, ha permitido destacar este fenómeno, por analogía, como alerta de escapes de CO2 desde un AGP-CO2. El análisis de los gases disueltos y libres, con especial atención al CO2 y al 222Rn asociado, indican que el C del CO2, tanto disuelto como en fase libre, tiene un origen similar al del DIC, confirmándose la menor contribución de CO2 de origen mantélico, dada la relación R/Ra del He existente en estos gases. El 222Rn sería el generado por el decaimiento radiactivo del U, particularmente abundante en las rocas volcánicas de la cuenca, y/o por el 226Ra procedente del U o del existente en los yesos mesinienses de la cuenca. Además, el CO2 actúa como carrier del 222Rn, hecho evidenciado en las anomalías positivas de ambos gases a ~ 1 m de profundidad y relacionadas principalmente con perturbaciones naturales (fallas y contactos) y antropogénicas (sondeos). La signatura isotópica del C a partir del DIC, de los carbonatos (travertinos), y del CO2 disuelto y libre, sugiere que esta señal puede usarse como un excelente trazador de los escapes de CO2 desde un AGPCO2, en el cual se inyectara un CO2 procedente, generalmente, de la combustión de combustibles fósiles, con un δ13C(V-PDB) de ~ -30 ‰. Estos resultados han permitido construir un modelo conceptual de funcionamiento del sistema natural de la cuenca de Ganuelas-Mazarrón como análogo natural de un AGP-CO2, y establecer las relaciones entre ambos. Así, las analogías mas importantes, en cuanto a los elementos del sistema, serian la existencia de: i) un acuífero salino profundo enriquecido en CO2, que seria análoga a la formación almacén de un AGPxxi CO2; ii) una formación sedimentaria margosa que, con una potencia superior a 500 m, se correspondería con la formación sello de un AGP-CO2; y iii) acuíferos mas someros con aguas dulces y aptas para el consumo humano, rocas volcánicas ricas en U y fallas que se encuentran selladas por yesos y/o margas; elementos que también podrían concurrir en un emplazamiento de un AGP-CO2. Por otro lado, los procesos análogos mas importantes identificados serian: i) la inyección ascendente del CO2, que seria análoga a la inyección de CO2 de origen antropogénico, pero este con una signatura isotópica δ13C(V-PDB) de ~ -30 ‰; ii) la disolución de CO2 y 222Rn en las aguas del acuífero profundo, lo que seria análogo a la disolución de dichos gases en la formación almacén de un AGP-CO2; iii) la contaminación de los acuíferos mas someros por el ascenso de las aguas sobresaturadas en CO2, proceso que seria análogo a la contaminación que se produciría en los acuíferos existentes por encima de un AGP-CO2, siempre que este se perturbara natural (reactivación de fallas) o artificialmente (sondeos); iv) la desgasificación (CO2 y gases asociados, entre los que destaca el 222Rn) del acuífero salino profundo a través de sondeos, proceso análogo al que pudiera ocurrir en un AGP-CO2 perturbado; y v) la formación rápida de travertinos, proceso análogo indicativo de que el AGP-CO2 ha perdido su estanqueidad. La identificación de las analogías más importantes ha permitido, además, analizar y evaluar, de manera aproximada, el comportamiento y la seguridad, a corto, medio y largo plazo, de un AGP-CO2 emplazado en un contexto geológico similar al sistema natural estudiado. Para ello se ha seguido la metodología basada en el análisis e identificación de los FEPs (Features, Events and Processes), los cuales se han combinado entre sí para generar y analizar diferentes escenarios de evolución del sistema (scenario analysis). Estos escenarios de evolución identificados en el sistema natural perturbado, relacionados con la perforación de sondeos, sobreexplotación de acuíferos, precipitación rápida de travertinos, etc., serian análogos a los que podrían ocurrir en un AGP-CO2 que también fuera perturbado antropogénicamente, por lo que resulta totalmente necesario evitar la perturbación artificial de la formación sello del AGPCO2. Por último, con toda la información obtenida se ha propuesto una metodología de estudio que pueda aplicarse al estudio de posibles emplazamientos de un AGP-CO2 desde la perspectiva de los reservorios naturales de CO2, sean estancos o no. Esta metodología comprende varias fases de estudio, que comprendería la caracterización geológico-estructural del sitio y de sus componentes (agua, roca y gases), la identificación de las analogías entre un sistema natural de almacenamiento de CO2 y un modelo conceptual de un AGP-CO2, y el establecimiento de las implicaciones para el comportamiento y la seguridad de un AGP-CO2. ABSTRACT The accumulation of the anthropogenic greenhouse gases in the atmosphere is the main responsible for: i) the increase in the average temperature of the Earth over the past century by almost 1 °C; ii) the rise in the mean sea level; iii) the drop of the ice volume and terrestrial snow; iv) the strong climate variability and extreme weather events that have been happening over the last decades; and v) the spread of epidemics and infectious diseases. All of these events are just some of the evidence of current climate change. The problems and growing concern related to these phenomena, prompted the adoption of the so-called "Kyoto Protocol" (Japan) in 1997, in which the signatory countries established different measurements to control and reduce the emissions of the greenhouse gases. These measurements include the CCS technologies, focused on the capture, transport and storage of CO2. Within this context, it was approved, in October 2008, the Strategic Singular Project "Tecnologías avanzadas de generación, captura y almacenamiento de CO2" (PSE-120000-2008-6), supported by the Ministry of Science and Innovation and the FEDER funds. This Project, by means of the Subproject "Geological Storage of CO2" (PSS- 120000-2008-31), was focused on the detailed study of the Natural Analogue of CO2 Storage and Leakage located in the Ganuelas-Mazarron Tertiary basin (Murcia), among other Spanish Natural Analogues. This research work has been performed in the framework of this Subproject, being its final objective to predict the behaviour and evaluate the safety, at short, medium and long-term, of a CO2 Deep Geological Storage (CO2-DGS) by means of a comprehensive study of the abovementioned Natural Analogue. This study comprises: i) the geological and hydrogeological context of the basin and its geophysical research; ii) the water sampling of the selected aquifers to establish their hydrogeochemical and isotopic features; iii) the mineralogical, petrographic, geochemical and isotopic characterisation of the travertines formed from upwelling groundwater of several hydrogeological and geothermal wells; and iv) the measurement of the free and dissolved gases detected in the basin, as well as their chemical and isotopic characterisation, mainly regarding CO2 and 222Rn. This information, summarised in separate chapters in the text, has enabled to build a conceptual model of the studied natural system and to establish the analogies between both the studied natural system and a CO2-DGS, with possible natural and/or anthropogenic escapes. All this information has served, firstly, to predict the behaviour and to evaluate the safety, at short, medium and long-term, of a CO2-DGS and, secondly, to propose a general methodology to study suitable sites for a CO2-DGS, taking into account the lessons learned from this CO2 natural reservoir. The main results indicate that the Ganuelas-Mazarron basin is a graben bounded by normal faults with significant vertical movements, which move down the metamorphic substrate (Nevado-Filabride Complex), and filled with acid volcanic-subvolcanic rocks. Furthermore, this basin is filled with two sedimentary formations: i) the Miocene marls, which are predominant and almost exclusive in the basin; xxiv and ii) the Plio-Quaternary conglomerates and gravels. A deep saline CO2-rich aquifer was evidenced in this basin as a result of the geothermal exploration wells performed during the 80s, located just at the top of the Nevado-Filabride Complex and at a depth that could exceed 800 m, according to the geophysical exploration performed. This saline CO2-rich aquifer is precisely the main object of this study. Therefore, it is not discarded the possibility that the CO2 in this aquifer be in supercritical state. Consequently, the aforementioned basin gathers the main characteristics of a natural and deep CO2 geological storage, or natural analogue of a CO2-DGS in a deep saline aquifer. The overexploitation of the shallow aquifers in this basin for agriculture purposes caused the drop of the groundwater levels and hydrostatic pressures, and, as a result, the ascent of the deep saline and CO2-rich groundwater, which is the responsible for the contamination of the shallow and fresh aquifers. The hydrogeochemical features of groundwater from the investigated aquifers show the presence of very different hydrofacies, even in those with similar lithology. The high salinity of this groundwater prevents the human and agricultural uses. In addition, the slightly acidic character of most of these waters determines their capacity to dissolve and transport towards the surface heavy and/or toxic elements, among which U is highlighted. This element is abundant in the acidic volcanic rocks of the basin, with concentrations up to 14 ppm, mainly as sub-microscopic uraninite crystals. The isotopic study of this groundwater, particularly the isotopic signature of C from DIC (δ13C-DIC), suggests that dissolved C can be explained considering a mixture of C from two main different sources: i) from the thermal decomposition of limestones and marbles forming the substrate; and ii) from edaphic origin. However, a minor contribution of C from mantle degassing cannot be discarded. The study of travertines being formed from upwelling groundwater of several hydrogeological and geothermal wells, as a result of the fast CO2 degassing and the pH increase, has allowed highlighting this phenomenon, by analogy, as an alert for the CO2 leakages from a CO2-DGS. The analysis of the dissolved and free gases, with special attention to CO2 and 222Rn, indicates that the C from the dissolved and free CO2 has a similar origin to that of the DIC. The R/Ra ratio of He corroborates the minor contribution of CO2 from the mantle degassing. Furthermore, 222Rn is generated by the radioactive decay of U, particularly abundant in the volcanic rocks of the basin, and/or by 226Ra from the U or from the Messinian gypsum in the basin. Moreover, CO2 acts as a carrier of the 222Rn, a fact evidenced by the positive anomalies of both gases at ~ 1 m depth and mainly related to natural (faults and contacts) and anthropogenic (wells) perturbations. The isotopic signature of C from DIC, carbonates (travertines), and dissolved and free CO2, suggests that this parameter can be used as an excellent tracer of CO2 escapes from a CO2-DGS, in which CO2 usually from the combustion of fossil fuels, with δ13C(V-PDB) of ~ -30 ‰, will be injected. All of these results have allowed to build a conceptual model of the behaviour of the natural system studied as a natural analogue of a CO2-DGS, as well as to establish the relationships between both natural xxv and artificial systems. Thus, the most important analogies, regarding the elements of the system, would be the presence of: i) a deep saline CO2-rich aquifer, which would be analogous to the storage formation of a CO2-DGS; ii) a marly sedimentary formation with a thickness greater than 500 m, which would correspond to the sealing formation of a CO2-DGS; and iii) shallow aquifers with fresh waters suitable for human consumption, U-rich volcanic rocks, and faults that are sealed by gypsums and/or marls; geological elements that could also be present in a CO2-DGS. On the other hand, the most important analogous processes identified are: i) the upward injection of CO2, which would be analogous to the downward injection of the anthropogenic CO2, this last with a δ13C(V-PDB) of ~ -30 ‰; ii) the dissolution of CO2 and 222Rn in groundwater of the deep aquifer, which would be analogous to the dissolution of these gases in the storage formation of a CO2-DGS; iii) the contamination of the shallow aquifers by the uprising of CO2-oversaturated groundwater, an analogous process to the contamination that would occur in shallow aquifers located above a CO2-DGS, whenever it was naturally (reactivation of faults) or artificially (wells) perturbed; iv) the degassing (CO2 and associated gases, among which 222Rn is remarkable) of the deep saline aquifer through wells, process which could be similar in a perturbed CO2- DGS; v) the rapid formation of travertines, indicating that the CO2-DGS has lost its seal capacity. The identification of the most important analogies has also allowed analysing and evaluating, approximately, the behaviour and safety in the short, medium and long term, of a CO2-DGS hosted in a similar geological context of the natural system studied. For that, it has been followed the methodology based on the analysis and identification of FEPs (Features, Events and Processes) that have been combined together in order to generate and analyse different scenarios of the system evolution (scenario analysis). These identified scenarios in the perturbed natural system, related to boreholes, overexploitation of aquifers, rapid precipitation of travertines, etc., would be similar to those that might occur in a CO2-DGS anthropogenically perturbed, so that it is absolutely necessary to avoid the artificial perturbation of the seal formation of a CO2-DGS. Finally, a useful methodology for the study of possible sites for a CO2-DGS is suggested based on the information obtained from this investigation, taking into account the lessons learned from this CO2 natural reservoir. This methodology comprises several phases of study, including the geological and structural characterisation of the site and its components (water, rock and gases), the identification of the analogies between a CO2 storage natural system and a conceptual model of a CO2-DGS, and the implications regarding the behaviour and safety of a CO2-DGS.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

En la Web 2.0, donde usuarios finales sin grandes conocimientos de programación pueden interactuar y crear aplicaciones web utilizando componentes publicados en Internet, ofrecidos por una gran variedad de proveedores de servicio. La selección de estos componentes requiere de un análisis exhaustivo por parte de los usuarios sobre las propiedades de estos componentes en referencia a su calidad. En este proyecto, se presentan dos modelos de calidad según una estructura jerárquica, uno para componentes web como elementos autónomos y otro para componentes utilizados en aplicaciones de mashup, basado en un análisis de la emergente Web 2.0. Además, se define una herramienta de medición y anotación de calidad para los distintos niveles de los modelos. Estas herramientas pretenden ser un útil instrumento para los desarrolladores y usuarios de componentes y mashups.---ABSTRACT---In the Web 2.0, where end users without a technical programming background can interact and develop web applications leveraging web components published on the Internet, offered by a great diversity of service providers. This component selection requires an exhaustive analysis by these end users based on the requirements of these components related to their quality. In this work, two quality models are presented according to a hierarchical structure, one for web components as independent elements and another one for web components as parts of web mashup applications, based on an analysis of the emerging Web 2.0. In addition, a measuring and write down quality framework is defined to weigh the quality of all the levels of the models. These tools intend to provide a useful instrument to components and mashup developers and end users.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La creciente complejidad, heterogeneidad y dinamismo inherente a las redes de telecomunicaciones, los sistemas distribuidos y los servicios avanzados de información y comunicación emergentes, así como el incremento de su criticidad e importancia estratégica, requieren la adopción de tecnologías cada vez más sofisticadas para su gestión, su coordinación y su integración por parte de los operadores de red, los proveedores de servicio y las empresas, como usuarios finales de los mismos, con el fin de garantizar niveles adecuados de funcionalidad, rendimiento y fiabilidad. Las estrategias de gestión adoptadas tradicionalmente adolecen de seguir modelos excesivamente estáticos y centralizados, con un elevado componente de supervisión y difícilmente escalables. La acuciante necesidad por flexibilizar esta gestión y hacerla a la vez más escalable y robusta, ha provocado en los últimos años un considerable interés por desarrollar nuevos paradigmas basados en modelos jerárquicos y distribuidos, como evolución natural de los primeros modelos jerárquicos débilmente distribuidos que sucedieron al paradigma centralizado. Se crean así nuevos modelos como son los basados en Gestión por Delegación, en el paradigma de código móvil, en las tecnologías de objetos distribuidos y en los servicios web. Estas alternativas se han mostrado enormemente robustas, flexibles y escalables frente a las estrategias tradicionales de gestión, pero continúan sin resolver aún muchos problemas. Las líneas actuales de investigación parten del hecho de que muchos problemas de robustez, escalabilidad y flexibilidad continúan sin ser resueltos por el paradigma jerárquico-distribuido, y abogan por la migración hacia un paradigma cooperativo fuertemente distribuido. Estas líneas tienen su germen en la Inteligencia Artificial Distribuida (DAI) y, más concretamente, en el paradigma de agentes autónomos y en los Sistemas Multi-agente (MAS). Todas ellas se perfilan en torno a un conjunto de objetivos que pueden resumirse en alcanzar un mayor grado de autonomía en la funcionalidad de la gestión y una mayor capacidad de autoconfiguración que resuelva los problemas de escalabilidad y la necesidad de supervisión presentes en los sistemas actuales, evolucionar hacia técnicas de control fuertemente distribuido y cooperativo guiado por la meta y dotar de una mayor riqueza semántica a los modelos de información. Cada vez más investigadores están empezando a utilizar agentes para la gestión de redes y sistemas distribuidos. Sin embargo, los límites establecidos en sus trabajos entre agentes móviles (que siguen el paradigma de código móvil) y agentes autónomos (que realmente siguen el paradigma cooperativo) resultan difusos. Muchos de estos trabajos se centran en la utilización de agentes móviles, lo cual, al igual que ocurría con las técnicas de código móvil comentadas anteriormente, les permite dotar de un mayor componente dinámico al concepto tradicional de Gestión por Delegación. Con ello se consigue flexibilizar la gestión, distribuir la lógica de gestión cerca de los datos y distribuir el control. Sin embargo se permanece en el paradigma jerárquico distribuido. Si bien continúa sin definirse aún una arquitectura de gestión fiel al paradigma cooperativo fuertemente distribuido, estas líneas de investigación han puesto de manifiesto serios problemas de adecuación en los modelos de información, comunicación y organizativo de las arquitecturas de gestión existentes. En este contexto, la tesis presenta un modelo de arquitectura para gestión holónica de sistemas y servicios distribuidos mediante sociedades de agentes autónomos, cuyos objetivos fundamentales son el incremento del grado de automatización asociado a las tareas de gestión, el aumento de la escalabilidad de las soluciones de gestión, soporte para delegación tanto por dominios como por macro-tareas, y un alto grado de interoperabilidad en entornos abiertos. A partir de estos objetivos se ha desarrollado un modelo de información formal de tipo semántico, basado en lógica descriptiva que permite un mayor grado de automatización en la gestión en base a la utilización de agentes autónomos racionales, capaces de razonar, inferir e integrar de forma dinámica conocimiento y servicios conceptualizados mediante el modelo CIM y formalizados a nivel semántico mediante lógica descriptiva. El modelo de información incluye además un “mapping” a nivel de meta-modelo de CIM al lenguaje de especificación de ontologías OWL, que supone un significativo avance en el área de la representación y el intercambio basado en XML de modelos y meta-información. A nivel de interacción, el modelo aporta un lenguaje de especificación formal de conversaciones entre agentes basado en la teoría de actos ilocucionales y aporta una semántica operacional para dicho lenguaje que facilita la labor de verificación de propiedades formales asociadas al protocolo de interacción. Se ha desarrollado también un modelo de organización holónico y orientado a roles cuyas principales características están alineadas con las demandadas por los servicios distribuidos emergentes e incluyen la ausencia de control central, capacidades de reestructuración dinámica, capacidades de cooperación, y facilidades de adaptación a diferentes culturas organizativas. El modelo incluye un submodelo normativo adecuado al carácter autónomo de los holones de gestión y basado en las lógicas modales deontológica y de acción.---ABSTRACT---The growing complexity, heterogeneity and dynamism inherent in telecommunications networks, distributed systems and the emerging advanced information and communication services, as well as their increased criticality and strategic importance, calls for the adoption of increasingly more sophisticated technologies for their management, coordination and integration by network operators, service providers and end-user companies to assure adequate levels of functionality, performance and reliability. The management strategies adopted traditionally follow models that are too static and centralised, have a high supervision component and are difficult to scale. The pressing need to flexibilise management and, at the same time, make it more scalable and robust recently led to a lot of interest in developing new paradigms based on hierarchical and distributed models, as a natural evolution from the first weakly distributed hierarchical models that succeeded the centralised paradigm. Thus new models based on management by delegation, the mobile code paradigm, distributed objects and web services came into being. These alternatives have turned out to be enormously robust, flexible and scalable as compared with the traditional management strategies. However, many problems still remain to be solved. Current research lines assume that the distributed hierarchical paradigm has as yet failed to solve many of the problems related to robustness, scalability and flexibility and advocate migration towards a strongly distributed cooperative paradigm. These lines of research were spawned by Distributed Artificial Intelligence (DAI) and, specifically, the autonomous agent paradigm and Multi-Agent Systems (MAS). They all revolve around a series of objectives, which can be summarised as achieving greater management functionality autonomy and a greater self-configuration capability, which solves the problems of scalability and the need for supervision that plague current systems, evolving towards strongly distributed and goal-driven cooperative control techniques and semantically enhancing information models. More and more researchers are starting to use agents for network and distributed systems management. However, the boundaries established in their work between mobile agents (that follow the mobile code paradigm) and autonomous agents (that really follow the cooperative paradigm) are fuzzy. Many of these approximations focus on the use of mobile agents, which, as was the case with the above-mentioned mobile code techniques, means that they can inject more dynamism into the traditional concept of management by delegation. Accordingly, they are able to flexibilise management, distribute management logic about data and distribute control. However, they remain within the distributed hierarchical paradigm. While a management architecture faithful to the strongly distributed cooperative paradigm has yet to be defined, these lines of research have revealed that the information, communication and organisation models of existing management architectures are far from adequate. In this context, this dissertation presents an architectural model for the holonic management of distributed systems and services through autonomous agent societies. The main objectives of this model are to raise the level of management task automation, increase the scalability of management solutions, provide support for delegation by both domains and macro-tasks and achieve a high level of interoperability in open environments. Bearing in mind these objectives, a descriptive logic-based formal semantic information model has been developed, which increases management automation by using rational autonomous agents capable of reasoning, inferring and dynamically integrating knowledge and services conceptualised by means of the CIM model and formalised at the semantic level by means of descriptive logic. The information model also includes a mapping, at the CIM metamodel level, to the OWL ontology specification language, which amounts to a significant advance in the field of XML-based model and metainformation representation and exchange. At the interaction level, the model introduces a formal specification language (ACSL) of conversations between agents based on speech act theory and contributes an operational semantics for this language that eases the task of verifying formal properties associated with the interaction protocol. A role-oriented holonic organisational model has also been developed, whose main features meet the requirements demanded by emerging distributed services, including no centralised control, dynamic restructuring capabilities, cooperative skills and facilities for adaptation to different organisational cultures. The model includes a normative submodel adapted to management holon autonomy and based on the deontic and action modal logics.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

En las últimas dos décadas, los productores han plantado olivares en seto para lograr la mecanización de la poda y en especial de la cosecha, reducir los costes de mano de obra y permitir intervenciones de manejo rápidas y oportunas. Los olivares se desarrollaron en ausencia del conocimiento científico, sobre el diseño óptimo de la estructura de la copa, necesario para incrementar la producción y calidad del aceite. En contraste, con los árboles muy espaciados y distribuidos uniformemente de las plantaciones tradicionales, en el olivar en seto hay una marcada variabilidad espacial y temporal de la radiación disponible en función del diseño de la plantación. Así, conocer la respuesta fisiológica y productiva del olivo a la radiación resulta fundamental en el olivar en seto. La orientación de las filas y el ancho de calle son aspectos que se deciden en el diseño de las plantaciones en seto. Ambos aspectos modifican la radiación interceptada por la canopia y, por lo tanto, pueden incidir en la productividad y calidad del aceite. Una vez realizada la plantación no pueden ser modificados, y así las ventajas o desventajas permanecerán fijas durante toda la vida productiva del olivar. A pesar de esto, el impacto de la orientación de las filas y el ancho de calle han recibido poca atención en olivos y en la mayoría de los frutales conducidos en seto. Por todo ello, los objetivos principales de esta tesis fueron, (i) evaluar el efecto de la orientación del seto y del ancho de calle, sobre la productividad y calidad del aceite, (ii) evaluar un modelo que estime la radiación dentro de la canopia. Este modelo permitirá cuantificar las relaciones entre la radiación y los componentes del rendimiento y calidad del aceite de olivares en setos con un amplio rango de estructuras y (iii) conocer la variabilidad en las características de las hojas (morfológicas y fisiológicas) y de los tejidos del fruto (tamaño y composición) en diferentes posiciones de la copa de los setos. Para ello, se dispuso de 3 ensayos de olivar en seto (cv. Arbequina) implantados en 2008 en el municipio de La Puebla de Montalbán, Toledo. La primera cosecha fue en 2010 y a partir del 2012 los setos formaron una copa continua. A partir de ese año, los setos se mantuvieron mediante poda, con similar ancho (~1 m) y altura (~2,5 m), acordes a las dimensiones de la cosechadora vendimiadora. En los años 2012 y 2013 se estudió en profundidad la respuesta de las plantas de estos ensayos. En el ensayo 1, los setos fueron plantados con cuatro orientaciones de filas: N–S, NE–SO, NO–SE y E–O y el mismo ancho de calle (4 m). En los otros dos ensayos, los setos fueron plantados con tres anchos de calle (5,0, 4,0 y 2,5 m), y con filas orientadas N–S (ensayo 2) y E–O (ensayo 3). La respuesta de la orientación de las filas se evaluó a nivel de seto y de estratos del seto (alturas y caras), a través de mediciones del crecimiento de brotes, componentes reproductivos, características y temperatura del fruto, estado hídrico del suelo y de las plantas, fotosíntesis neta de las hojas y contenido de ácidos grasos. Los setos orientados NE–SO (2,7 t/ha) lograron la mayor producción de aceite, que fue significativamente más alta que la de los setos E–O (2,3 t/ha). La producción de aceite de los setos E–O no se diferenció estadísticamente de los setos N–S (2,5 t/ha). Las diferencias productivas entre orientaciones fueron explicadas por el número de frutos en cosecha, a su vez la variación en el número de frutos estuvo asociada al efecto de la orientación de las filas sobre el número de yemas desarrolladas y el porcentaje de inflorescencias fértiles. Las hojas en las caras iluminadas de los setos NE–SO y N–S presentaron mayor tasa fotosintética a la mañana (~10.0 h) que los setos E–O, en el año 2012, pero no en 2013. La orientación de las filas no tuvo un efecto significativo en el contenido de ácidos grasos de los aceites extraídos, esto ocurrió a pesar de variaciones en la temperatura interna de los frutos (3 °C) y de la radiación (40%) entre las distintas caras de los setos. La orientación del seto afectó significativamente al contenido relativo de agua del suelo, donde setos E–O presentaron valores más altos (12%) que setos N–S durante el verano y otoño. Sin embargo, el potencial hídrico de tallo fue similar entre orientaciones. En los ensayos 2 y 3, se evaluó el efecto que produce, a nivel de seto y de estratos (caras y alturas), reducir el ancho de calle de 5,0 a 4,0 y 2,5 m, en un seto orientado N–S y otro E–O, respectivamente. La relación entre altura/ancho de calle libre aumentó 0,6 a 0,8 y 1,6, al reducir 5,0, 4,0 y 2,5 m el ancho de calle, mientras la longitud de seto y el volumen de copa por hectárea incrementó 100% al reducir de 5,0 a 2,5 m, el ancho de calle. En los setos orientados N–S, la producción de aceite por ha acumulada en 4 campañas, incrementó significativamente un 52 %, al reducir de 5,0 a 2,5 m el ancho de calle. Los setos N–S con calle más estrecha (2,5 m) tuvieron un 19% menos frutos que los setos con calle más ancha (5,0 m) y a su vez el 60% de los mismos se localizaron los estratos altos de la canopia de los setos con calles estrecha en comparación al 40% en setos con calle de 5,0 m. En los estratos más bajos de los setos con calles de 2,5m hubo menor crecimiento de los brotes y los frutos tuvieron menor peso seco, contenido de aceite y madurez, que los frutos en los estratos bajos de los setos a 5,0 m. Los componentes del rendimiento y características de los frutos (agua y madurez) fueron similares entre la caras E y O, independientemente del ancho de calle. En los setos orientados E–O, la producción de aceite por ha acumulada en 4 campañas, no respondió significativamente al ancho de calle, debido a una disminución significativa en el número de frutos y producción de aceite por m de seto, al reducir de 5,0 a 2,5 m, el ancho de calle. En los setos orientados E–O, con calles de 5,0 m, los frutos presentaron similar peso seco, contenido de aceite y agua, en las caras S y N, sin embargo, cuando la calle fue reducida a 2,5, los frutos de la cara S fueron más pesado y maduros que en la cara N. Independientemente del ancho de calle y de la orientación del seto, el aceite presentó mayor contenido de ácidos palmitoleico, palmítico, esteárico y linoleico en los frutos del estrato más alto de la canopia disminuyendo hacia la base. En contraste, el contenido de ácido oleico aumentó desde el estrato más alto hacia la base de los setos. Las diferencias en el contenido de ácidos grasos entre la parte alta y baja de los setos, incrementó al reducir el ancho de calle en los setos N–S, pero no en los E-O. En conclusión, en olivares en seto, reducir el ancho de calle permite incrementar la producción de aceite, en setos orientados N–S, pero no en E–O. Un modelo que estima la cantidad y distribución de la radiación en toda la copa del seto, fue utilizado para estimar la radiación interceptada en distintos estratos del seto. El modelo requiere un valor del coeficiente de extinción (k) para estimar la transmisión de radiación a través de la copa, el cual fue obtenido experimentalmente (k=1,2). Utilizando los datos del ensayo 1, un único modelo lineal relacionó el peso seco y el rendimiento graso de setos con la radiación interceptada por los distintos estratos de setos con cuatro orientaciones de filas. La densidad de frutos fue también relacionada con la radiación, pero más débilmente. En los setos orientados N–S, plantados con tres anchos de calles, (ensayo 2) el contenido de ácidos palmitoleico y linoleico del aceite incrementó linealmente con el incremento de la radiación interceptada, mientras el contenido ácido oleico disminuyó linealmente con el incremento de la radiación. El contenido de ácidos grasos del aceite no estuvo relacionado con la radiación interceptada en setos orientados E–O (Ensayo 3). En los setos N–S y E–O, plantados con anchos de calle de 2,5 m, se estudiaron las interacciones entre la radiación y características de las hojas, número de fruto, tamaño y composición de los frutos a nivel de órgano, tejido y células. Independientemente de la orientación del seto, el área y el contenido de clorofila de las hojas incrementaron significativamente en los estratos más bajos de los setos. Mientras, las hojas de los estratos medios del seto presentaron mayor capacidad fotosintética que en los estratos bajos y alto de los setos. Los estratos del seto que interceptaron más radiación produjeron frutos con mayor tamaño y contenido de aceite en el mesocarpo, sin efectos sobre el tamaño y composición del endocarpo. A nivel celular, los frutos expuestos a mayor nivel de radiación desarrollaron en el mesocarpo células de mayor tamaño en comparación a frutos menos expuestos, mientras el número de células no fue afectado. Adicionalmente, el número y tamaño de las células estuvo relacionado con la composición del mesocarpo en términos de aceite, agua y peso seco menos aceite. Esta tesis, contribuye, desde una perspectiva integral del cultivo del olivo, a cuantificar el impacto de la orientación y ancho de calle sobre la producción y calidad del aceite en olivares conducidos en setos. El análisis y discusión de la relación entre la radiación y los componentes del rendimiento y calidad del aceite, puede ayudar a diseñar plantaciones en seto con dimensiones óptimas para la intercepción de la radiación. ABSTRACT In the last two decades, olive hedgerow system has been established by commercial growers to allow continuous mechanized pruning and especially harvest, reduce costs of manual labour and allow more rapid and timely management interventions. The adoption of hedgerow was done in the absence of adequate scientific knowledge of the impact of this orchard structure and associated mechanization on tree response, yield and quality, after centuries in low-density orchards and open-formed trees. The row orientation and width alley are fundamental aspects in the hedgerow design and have been scarcely studied in olive. Both aspects modify the radiation intercepted by the canopy, and consequently the productivity and oil quality, and once defined in orchard planting cannot be changed, so advantages and disadvantages remain fixed for the lifespan of the orchard. The main objectives of this thesis were to (i) evaluate the impact of the row orientation and width alley on productivity and oil quality by the measurements of profile of the determining processes of shoot growth, fruit temperature, yield components and fruit and oil characteristics on opposite sides of olive hedgerows. Additionally, the effect of row orientation on the plant water status was also evaluated; (ii) evaluate a mathematical model for estimating the radiation within the canopy and quantify the relationships between the radiation estimated and yield components and oil quality in olive hedgerows under wide range of structures and; (iii) determine the variability in the characteristics of the leaves (morphological and physiological) and fruit tissues (size and composition) in different positions of the hedgerows canopy. Three plots of olive hedgerows (cv. Arbequina) planted in 2008 in La Puebla de Montalbán, Toledo were evaluated during the 2012 and 2013 seasons. The hedgerows were maintained by lateral pruning and topping with the same width (1 m) and height (2.5 m) compatible with the intended harvester. In a plot (experiment 1), the hedgerows were planted with the same width alley (4 m) and four row orientations: N–S, NE–SW, NW–SE and E–W. Other two plots (Experiments 2 and 3) separated by approximately 100 m were planted with N–S and E–O oriented rows and three alley widths in each orientation: 5.0, 4.0 and 2.5 m. In the exp. 1, maximum fruit yield were achieved by NE–SW and NW–SW (15.7 t/ha). Of these, NE–SW achieved the highest oil yield (2.7 t/ha). There were no differences in fruit or oil yield between N–S (2.5 t oil/ha) and E–W (2.3 t oil/ha) orientations. Fruit number was the most important component to explain these differences, by previous influence on number of bud developed and percentage of fertile inflorescences. Fruit maturity and oil quality on both sides of the hedgerows were not affected by row orientation. This occurred despite significant variations in the internal fruit temperature, which was closely related to the irradiance received by the canopy and the time of day. Additionally, row orientation significantly affected the relative water content of the soil, where E–W oriented hedgerows showed consistently higher values than N–S during summer-autumn season. The stem water potential at midday, however, was similar between orientations, revealing possible lower water consumption of E–W than N–S oriented hedgerows. In the exp. 2, regardless of row orientation, reduction of row spacing from 5.0 to 4.0 and 2.5 m increases the ratio of canopy depth to free alley width (Al/An) from 0.6 to 0.8 and 1.6, respectively, and ads 25 and 100 % more hedgerow length per ha. In N–S oriented hedgerows, oil production per ha increased significantly by 14 and 52 % in 4.0 m and 2.5 m relative to 5.0 m row spacing, the effect being proportionally less than the increase in hedgerow length per ha. Hedgerows spaced 2.5 m with Al/An = 1.6 produced relatively fewer fruits per unit length than did wider spacings and were preferentially distributed in upper layers. Fruits located at the bottom of the canopy were smaller, with lower oil content and were less mature. In E–W oriented hedgerows, oil production per ha did not respond significantly to row spacing, despite the doubling of row length from the 5.0 to the 2.5 m row spacing. The explanation was found in fewer fruit per unit length of hedgerow and smaller oil content at 2.5 m than 5.0 m row spacing, averaged over the experimental period. In E–W hedgerows spaced at 5.0 m with Al/An = 0.6, the vertical profiles of fruit characteristics (mass, oil and water contents, and maturity) were similar between opposing sides, but at 4.0 m (Al/An= 0.8) and 2.5 m (Al/An=1.6) spacings, fruits on the S side were heavier and more mature than on N side. The oil extracted from fruits harvested at different heights of N–S and E–W oriented hedgerows showed higher palmitoleic, palmitic, stearic and linoleic contents at the canopy top decreasing toward base. The oleic content was reverse, increased from top to base. In N–S hedgerows, vertical gradients increased by reducing the alley width, but not in the E–W oriented hedgerows. The simulation of internal canopy irradiance was related in a single relationship (R2 = 0.63) to the vertical profiles of fruit weight and oil content of olive hedgerows with wide range of structures. The density of fruits was also associated with the irradiance but more weakly (R2 = 0.27), and revealed a more complex response involving changes in the vegetative structure by canopy management (topping) and the effect of radiation on the previous sequence that defines the number of fruits. The vertical profiles of oil quality traits were closely associated to canopy irradiance, but only when the N–S oriented hedgerows were considered. The contents of palmitoleic and linoleic acid in the oil increased linearly when intercepted irradiance increased from 9 to 19 mol PAR/m2. In contrast, oleic content decreased linearly in this irradiance range. Additionally, we advanced knowledge regarding the interactions among irradiance and leaf, fruit number, size and composition at organ-, tissue- and cellular- levels. The irradiance received at different positions in the canopy strongly affected the leaf area and chlorophyll content, and mesocarp size and composition (water and oil), without effects on endocarp size and composition. At the cellular level, light-exposed fruit developed larger mesocarp cells than shaded fruits, but cell number was not affected. Our results indicate that cell number and size are related to mesocarp composition in term of oil, water, and dry weight menus oil, although the specific manner in which they interact remains to be determined. This research contributes from an integral perspective of olive growing to quantify the impact of row orientation and width alley on productivity and oil quality in hedgerows systems. The analysis and discussion of the relationships between radiation and yield components and oil quality can help understand the impact of design olive hedgerows in general and in a wide range of environmental conditions.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A half-adder and ñxll-adder desing using a new optical processing element is presented. The Optical Processing element is maded using fiber optic, optical couplers and non-linear optical device. This element allow programmability of fourteen difference pair of logical function of two inputs in two outputs. Two optical control signáis of non-binary logic made the choice of the logical function pair obtain in the outputs. By the appropiate selection of the power levels of the optical control signáis, we can configúrate a half-adder and with an small modification a full-adder. Also, a ripple carry adder desing is presented.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El presente documento, evalúa y analiza el ruido existente en las inmediaciones del CEIS (Centro Estudio, Innovación y Servicios), situado en la carretera Villaviciosa de Odón a Móstoles (M-856) en el Km 1,5. El objetivo es obtener datos de nivel de ruido en función del tiempo para conocer su variabilidad a lo largo de la semana, para promover una intercomparación entre laboratorios con ruido real. La zona que contempla el proyecto tiene variedad de ruido medioambiental: ruido de tráfico rodado, ruido industrial, ruido de instalaciones y ruido de tráfico aéreo. Estas fuentes de ruido pueden presentarse en diversas combinaciones. Para el ruido total existente, se analiza por un lado el ruido específico de la carretera M-856, y por otro lado el ruido residual asociado a sucesos aislados, como el ruido de tráfico aéreo, ruido industrial y de instalaciones. Para el cálculo de los niveles sonoros de la zona se realiza una evaluación del índice de ruido Ld, para el periodo de día, utilizando como herramienta de cálculo el programa CadnaA versión 4.2. Se realiza la validación de los niveles sonoros obtenidos en el CadnaA en las inmediaciones de la carretera Villaviciosa de Odón a Móstoles. Para ello se comparan los niveles obtenidos en el modelo acústico de la zona elaborado mediante CadnaA y los niveles medidos “in-situ”. Una vez obtenidos los niveles sonoros, se calcula la incertidumbre de las medidas ejecutadas “in-situ” en la última jornada de mediciones realizada, correspondientes a niveles de presión sonora continuos equivalente ponderado A (LAeq, 5min) y de las medidas simuladas en CadnaA , teniendo en cuenta las posibles desviaciones ocasionadas por el equipo de medida, condiciones meteorológicas, variaciones del tráfico, metodología de ensayo..... Por último se valoran los datos obtenidos y se evalúa la posibilidad de promover una intercomparación entre laboratorios realizada con el ruido real de tráfico de la zona. ABSTRACT. The next document evaluates the noise in sorrounding areas of CEIS (Centro Estudio, Innovación y Servicios), located in the road from Villaviciosa de Odón to Móstoles (M-856), in 1.5 km. The aim of this project is to get precise information during time to promove an intercomparation between laboratories with real noise. The area included in the project has several environmental noise: traffic noise, industrial noise and air traffic noise. These noise sources can be combined in different ways. The specific noise of the M-856 on one hand, and the residual noise associated with air traffic noise and industrial noise on the other. The calculation tool CadnaA, 4.2 version, simulates sound levels for the day period and the index Ld. The validation of sound levels around the road Villaviciosa de Odon to Móstoles, is made by comparing the obtained levels in the acoustic model and the real measured levels “in situ” . The uncertainty of the measures "in-situ", and the uncertainty of the sound levels simulated in the acoustic model CadnaA, is calculated using the measurements “in situ” (LAeq, 5min) of the last day. For that calculation, is necessary to take into account the deviations resulting from the measurement equipment, weather conditions, traffic variations, test methodology.... Finally the obtained data are evaluated, considering the possibility of promote an intercomparison between laboratories with real traffic noise of the area.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Existe una creciente preocupación por las catástrofes de origen natural que están por llegar, motivo por el que se están realizando estudios desde prácticamente todas las ramas de la ciencia. La razón para ello se puede encontrar en el miedo a que los eventos futuros puedan dificultar las actividades humanas, aunque no es el único factor. Por todo ello, se produce una dispersión muy importante incluso en los conceptos más elementales como qué debe ser considerado o cómo debe llamarse y catalogarse uno u otro elemento. En consecuencia, los métodos para comprender los riesgos naturales también son muy diferentes, rara vez encontrándose enfoques realmente multidisciplinares. Se han realizado algunos esfuerzos para crear un marco de entendimiento común como por ejemplo, la "Directiva sobre inundaciones" o, más recientemente, la Directiva Inspire. Las entidades aseguradoras y reaseguradoras son un actor importante entre los muchos involucrados en los estudios de riesgos. Su interés radica en el hecho de que terminan pagando la mayor parte de la factura, si no toda. Pero, a cuánto puede ascender esa factura, no es una pregunta fácil de responder aún en casos muy concretos, y sin embargo, es la pregunta que constantemente se plantea por parte de los tomadores de decisiones a todos los niveles. Este documento resume las actividades de investigación que han llevado a cabo al objeto de sentar un marco de referencia, implementando de enfoques numéricos capaces de hacer frente a algunas de las cuestiones más relevantes que se encuentran en casi todos los estudios de riesgos naturales, ensayando conceptos de manera pragmática. Para ello, se escogió un lugar experimental de acuerdo a diferentes criterios, como la densidad de población, la facilidad de proporcionar los límites geográficos claros, la presencia de tres de los procesos geológicos más importantes (inundaciones, terremotos y vulcanismo) y la disponibilidad de datos. El modelo aquí propuesto aprovecha fuentes de datos muy diversas para evaluar los peligros naturales, poniendo de relieve la necesidad de un enfoque multidisciplinar y emplea un catálogo de datos único, unificado, independiente (no orientado), coherente y homogéneo para estimar el valor de las propiedades. Ahora bien, los datos se explotan de manera diferente según cada tipo de peligro, manteniendo sin variación los conceptos subyacentes. Durante esta investigación, se ha encontrado una gran brecha en la relación entre las pérdidas reales y las probabilidades del peligro, algo contrario a lo que se ha pensado que debía ser el comportamiento más probable de los riesgos naturales, demostrando que los estudios de riesgo tienen vida útil muy limitada. En parte debido ello, el modelo propuesto en este estudio es el de trabajar con escenarios, fijando una probabilidad de ocurrencia, lo que es contrario al modelo clásico de evaluar funciones continuas de riesgo. Otra razón para abordar la cuestión mediante escenarios es forzar al modelo para proporcionar unas cifras creíbles de daño máximo fijando cuestiones como la ubicación espacial de un evento y sus probabilidades, aportando una nueva visión del "peor escenario posible” de probabilidad conocida. ABSTRACT There is a growing concern about catastrophes of natural origin about to come hence many studies are being carried out from almost any science branch. Even though it is not the only one, fear for the upcoming events that might jeopardize any given human activity is the main motive. A forking effect is therefore heavily present even on the basic concepts of what is to be considered or how should it be named and catalogued; as a consequence, methods towards understanding natural risks also show great differences and a multidisciplinary approach has seldomly been followed. Some efforts were made to create a common understanding of such a matter, the “Floods Directive” or more recently the Inspire Directive, are a couple of examples. The insurance sector is an important actor among the many involved. Their interest relies on the fact that, eventually, they pay most of the bill if not all. But how much could that be is not an easy question to be answerd even in a very specific case, and it is almost always the question posed by decision makers at all levels. This document summarizes research activities that have being carried out in order to put some solid ground to be followed, implementing numerical approaches that are capable of coping with some of the most relevant issues found in almost all natural risk studies, testing concepts pragmatically. In order to do so, an experimental site was selected according to different criteria, such as population density, the ease of providing clear geographical boundaries, the presence of three of the most important geological processes (floods, earthquakes and volcanism) and data availability. The model herein proposed takes advantage of very diferent data sources in the assessment of hazard, pointing out how a multidisciplinary approach is needed, and uses only one unified, independent, consistent, homogeneous (non objective driven) source for assessing property value. Data is exploited differently according to each hazard type, but the underlying concepts remain the same. During this research, a deep detachment was found between actual loss and hazard chances, contrarily to what has been thought to be the most likely behaviour of natural hazards, proving that risk studies have a very limited lifespan. Partially because of such finding, the model in this study addresses scenarios with fixed probability of occurrence, as opposed to studying a continuous hazard function as usually proposed. Another reason for studying scenarios was to force the model to provide a reliable figure after a set of given parameters where fixed, such as the spatial location of an event and its chances, so the “worst case” of a given return period could be found.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

En esta tesis se ha profundizado en el estudio y desarrollo de modelos de soporte para el aprendizaje colaborativo a distancia, que ha permitido proponer una arquitectura fundamentada en los principios del paradigma CSCL (Computer Supported Collaborative Learning). La arquitectura propuesta aborda un tipo de problema concreto que requiere el uso de técnicas derivadas del Trabajo Colaborativo, la Inteligencia Artificial, Interfaces de Usuario así como ideas tomadas de la Pedagogía y la Psicología. Se ha diseñado una solución completa, abierta y genérica. La arquitectura aprovecha las nuevas tecnologías para lograr un sistema efectivo de apoyo a la educación a distancia. Está organizada en cuatro niveles: el de Configuración, el de Experiencia, el de Organización y el de Análisis. A partir de ella se ha implementado un sistema llamado DEGREE. En DEGREE, cada uno de los niveles de la arquitectura da lugar a un subsistema independiente pero relacionado con los otros. La aplicación saca partido del uso de espacios de trabajo estructurados. El subsistema Configurador de Experiencias permite definir los elementos de un espacio de trabajo y una experiencia y adaptarlos a cada tipo de usuario. El subsistema Manejador de Experiencias recoge las contribuciones de los usuarios para construir una solución conjunta de un problema. Las intervenciones de los alumnos se estructuran basándose en un grafo conversacional genérico. Además, se registran todas las acciones de los usuarios para representar explícitamente el proceso completo que lleva a la solución. Estos datos también se almacenan en una memoria común que constituye el subsistema llamado Memoria Organizativa de Experiencias. El subsistema Analizador estudia las intervenciones de los usuarios. Este análisis permite inferir conclusiones sobre la forma en que trabajan los grupos y sus actitudes frente a la colaboración, teniendo en cuenta además el conocimiento subjetivo del observador. El proceso de desarrollo en paralelo de la arquitectura y el sistema ha seguido un ciclo de refinamiento en cinco fases con sucesivas etapas de prototipado y evaluación formativa. Cada fase de este proceso se ha realizado con usuarios reales y se han considerado las opiniones de los usuarios para mejorar las funcionalidades de la arquitectura así como la interfaz del sistema. Esta aproximación ha permitido, además, comprobar la utilidad práctica y la validez de las propuestas que sustentan este trabajo.---ABSTRACT---In this thesis, we have studied in depth the development of support models for distance collaborative learning and subsequently devised an architecture based on the Computer Supported Collaborative Learning paradigm principles. The proposed architecture addresses a specific problem: coordinating groups of students to perform collaborative distance learning activities. Our approach uses Cooperative Work, Artificial Intelligence and Human-Computer Interaction techniques as well as some ideas from the fields of Pedagogy and Psychology. We have designed a complete, open and generic solution. Our architecture exploits the new information technologies to achieve an effective system for education purposes. It is organised into four levels: Configuration, Experience, Organisation and Reflection. This model has been implemented into a system called DEGREE. In DEGREE, each level of the architecture gives rise to an independent subsystem related to the other ones. The application benefits from the use of shared structured workspaces. The configuration subsystem allows customising the elements that define an experience and a workspace. The experience subsystem gathers the users' contributions to build joint solutions to a given problem. The students' interventions build up a structure based on a generic conversation graph. Moreover, all user actions are registered in order to represent explicitly the complete process for reaching the group solution. Those data are also stored into a common memory, which constitutes the organisation subsystem. The user interventions are studied by the reflection subsystem. This analysis allows us inferring conclusions about the way in which the group works and its attitudes towards collaboration. The inference process takes into account the observer's subjective knowledge. The process of developing both the architecture and the system in parallel has run through a five-pass cycle involving successive stages of prototyping and formative evaluation. At each stage of that process, we have considered the users' feedback for improving the architecture's functionalities as well as the system interface. This approach has allowed us to prove the usability and validity of our proposal.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

En regiones semiáridas, con veranos cálidos, evapotranspiraciones elevadas, humedades relativas bajas, además de precipitaciones intermitentes y escasas (400 mm al año) que reducen la recarga del perfil en invierno, se puede ver afectada la productividad y sostenibilidad de los viñedos. Por eso en estas zonas puede ser necesario utilizar el riego suplementario para mantener la calidad y aumentar la productividad. En este marco de circunstancias es en el que se desarrolla la mayoría de la viticultura española, y en concreto en la zona centro donde se realizó el estudio. Con este trabajo se pretende estudiar la influencia del agua del riego, con distintas dosis y aplicada en diferentes fases de crecimiento y maduración de la baya, en la producción y calidad de la uva. Se estudió la influencia del déficit moderado continuo aplicado antes y después de envero, en el aprovechamiento de los recursos ambientales y en la respuesta del cv. Cabernet Sauvignon. El ensayo se desarrolló en 2010 y 2011 en la finca “La Alcoholera”, perteneciente a bodegas LICINIA S.L., ubicada en la localidad de Chinchón, Comunidad de Madrid, España. Durante 2010 y 2011 se realizaron estudios en cepas del cv. Cabernet Sauvignon (clon 15), injertadas sobre 41B y plantadas en 2005. Con poda corta en Cordón Royat unilateral de 80 cm de altura, y cuya vegetación alcanzó una altura de 97 cm. Las cepas del ensayo fueron conducidas verticalmente en espaldera (VSP), con 10 yemas por metro lineal. Las plantas dentro de la fila fueron separadas 1 m y la distancia de la calle fue de 3 m. La orientación de las filas norte – sur. Se plantearon cuatro tratamientos experimentales con diferentes dosis y momento de aplicación del riego. - T: Testigo. Déficit ligero, con un aporte continuado de agua desde floración (420 mm). - DMc: Déficit moderado continuo. Manejo del riego convencional, empezando en pre-envero (154 mm) - DM1: Déficit moderado a partir de pre-envero. Aporte de riego continuado desde floración reduciéndose la dosis de riego en pre-envero (312 mm). - DM2: Déficit moderado hasta pre-envero. Se empezó a regar a partir de preenvero (230 mm). Se observó que bajo condiciones de estrés hídrico leve, el crecimiento se reduce disminuyendo la migración de fotoasimilados hacia los órganos vegetativos. Generando menor área foliar en las plantas sometidas a déficit hídrico moderado entre floración y cuajado. Disminuyendo su consumo. En maduración la humedad del suelo dependió principalmente del riego aplicado y del consumo de la planta; dicho consumo dependió a la vez del desarrollo foliar del canopy y de la necesidad hídrica de la vid. El aumento del déficit hídrico disminuyó el contenido de agua en el suelo, lo que provocó diferencias en el estado hídrico y en el intercambio gaseoso de las hojas. En condiciones de déficit moderado, la fotosíntesis se encontró altamente correlacionada con el potencial hídrico foliar medido a mediodía solar. Además en condiciones de déficit moderado continuo la disponibilidad hídrica, la demanda atmosférica y el nivel de hidratación de las hojas, interaccionaron de forma compleja en la regulación estomática de las hojas, condicionando el intercambio gaseoso y la eficiencia en el uso del agua. Al aumentar el volumen de agua aplicado el peso de madera de poda por metro de fila fue superior. Las diferencias encontradas en el rendimiento fueron debidas a las diferencias en el peso de baya. El cual estuvo condicionado por la estrategia de riego, ya que, el déficit hídrico moderado antes de envero fue más crítico para el rendimiento que el déficit impuesto durante la madurez. Por otro lado, la biomasa dependió de la actividad fisiológica de la planta, la cual fue altamente dependiente de la disponibilidad hídrica. Déficit hídrico moderado aplicado de cuajado a envero, generó bayas más pequeñas y aumentó la relación hollejo:pulpa. El déficit moderado aplicado después de envero favoreció la acumulación de IPT y antocianos extraíbles, mejorando la calidad de la uva, pero disminuyó la acidez de la baya. El riego aplicado de envero a vendimia desaceleró la concentración de azúcares en bayas que fueron sometidas a déficit antes de pre-envero. ABSTRACT Mediterranean climate is characterized by hot summers, high evapotranspiration rates, and scarce precipitations (400 mm per year) during grapevine cycle. These extremely dry conditions affect vineyard productivity and sustainability. Supplementary irrigation is needed practice in order to maintain yield and quality. Almost all Spanish grape growing regions are characterized by these conditions, especially in the center region, where this trial was performed. The main objective of this work is to study the influence of water irrigation on yield and quality. For this aim, different levels of irrigation (mm of water applied) were applied during different stages of growth and berry maturity of Caberent Sauvignon grapevines. The work was conducted from 2010 to 2011 and located in Licinia (40º 12´ N, 3º 28´ W), Madrid, Spain. The cultivar utilized was Cabernet Sauvignon, clone 15 grafted onto rootstock 41B, planted in 2005. The vineyard was oriented north-south, with spacing on 3 meters between rows and 1 meter between plants. Vines were spurpruned to 10 buds per meter and trained in unilateral cordon with a height of 80 cm. Shoots were positioned vertically (VSP). Considering the amount of water and the moment of the application, four experimental treatments were applied: - T: Control sample. Slight deficit (420 mm) applied from bloom to maturity. - DMc: Continuous moderate deficit. Traditional irrigation: application of 154 mm of water from pre-veraison to maturity. - DM1: Deficit moderate from pre-veraison. Irrigation of 312 mm of water from bloom to pre-veraison. - DM2: Deficit moderate to pre-veraison. Irrigation of 230 mm of water from preveraison to maturity Under moderated water stress conditions it was seen than leaf growth decreases due to the reduction of migration of photo-assimilates to vegetative organs. Vines with moderate water deficit between flowering and ripening develop less leaf area and decrease its water consumption. During maturation of berries, soil moisture depends on irrigation and plant consumption. This consumption further depends on vegetation development and on the vine needs for water. By increasing water deficit, the water content in the soil decreases. This causes differences in leaf water status and in the gases exchange. Under moderate deficit conditions, photosynthesis was found highly correlated with midday leaf water potential. Further, atmospheric demand and the level of leaves hydration interact in complex ways in the stomatal regulation, which affects leaf gas exchange and the efficiency of water use. The amount of water applied is directly proportional to pruning weight. Changes in berry weight cause differences in yield ratios. The differences in berry weights are conditioned by the irrigation strategy, the moderate water deficit before veraison influences more than the deficit applied from veraison. Biomass generated for the plant depends on its physiological activity, which is highly related to the water availability. Moderate water deficit applied from fruit set to ripening generates smaller berries, increasing the pulp/skin ratio. Moderate deficit applied after veraison promotes the accumulation of extractables anthocyans and TPI. Despite this treatment improves color parameters of the grapes, it decreases its total acidity. Irrigation applied from veraison to harvest slows down sugar accumulation in berries compared to those under deficit before veraison conditions.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Esta tesis doctoral consiste en un estudio empírico de la competencia lingüística del alumnado de la Escuela Técnica Superior de Ingenieros Industriales (ETSII), de la Universidad Politécnica de Madrid (UPM) en el uso de los grupos nominales (GN) en inglés profesional y académico (IPA). Mediante el análisis estadístico de los datos de las pruebas de nivel de inglés general y de conocimiento de los rasgos lingüísticos diferenciadores del IPA, se ha buscado constatar que los GN, tan presentes en los textos ingleses de carácter científico-técnico, son uno de los rasgos IPA que más dificultad presenta para el alumnado de ingeniería de habla española, cuya enseñanza es necesario abordar de forma diferenciada para que se puedan usar correctamente. El trabajo comienza presentando las características lingüísticas generales del IPA, entre las que destaca la frecuente presencia de los GN en las comunicaciones de carácter científico y técnico. Comprueba la hipótesis de que la comprensión y el uso de los GN es el rasgo lingüístico que ofrece mayor dificultad para esta población. Se detiene en explicar las propiedades de los GN en inglés y de las palabras que lo forman; es decir, muestra clases de palabras, regularidades y excepciones que están presentes en los textos científico-técnicos. También expone y razona el comportamiento de las distintas categorías gramaticales que pueden figurar como premodificadoras y se centra en ejemplos reales y datos objetivos, para llegar a conclusiones cuantitativas sobre el uso y la frecuencia de los GN en el discurso científico-técnico, así como en los diferentes grados de dificultad que dichas construcciones presentan al alumnado. El método de investigación seguido consiste en la recopilación y análisis estadístico de los datos procedentes de una muestra de población de alumnos de 5º curso de la ETSII de la UPM utilizando el análisis de la varianza ANOVA. Los datos se han tratado teniendo en cuenta el nivel general de inglés de cada alumno, según el Marco Común Europeo de Referencia para las Lenguas (MCERL), que oscila entre el nivel A2 y el C1, con una mayor frecuencia de B1 y B2. Las conclusiones se basan en el análisis de los datos empíricos obtenidos, que nos permiten deducir unos principios generales relevantes respecto al uso de los GN –simples y complejos- en el inglés para la ciencia y la tecnología (ICT) y al grado de dificultad que sus distintos tipos presentan al alumnado, con un grado de confianza superior al 95%. A partir de estos datos se ofrece un planteamiento didáctico que facilite la comprensión y elaboración de los distintos tipos de GN. La estructura general de la tesis se divide en seis capítulos. El capítulo 1 es una introducción en la que se presentan las razones que han motivado esta tesis, las hipótesis, los objetivos y la metodología de la misma. En el capítulo 2 se recogen los rasgos lingüísticos distintivos del ICT, incidiendo en la relación competencia comunicativa/competencia lingüística. En el capítulo 3 se analizan los GN profundizando en aspectos lingüísticos. El capítulo 4 se centra en el estudio empírico propiamente dicho y en el análisis estadístico de los datos. Del análisis se extraen las conclusiones objetivas sobre la dificultad que presentan los diferentes rasgos IPA analizados, con detenimiento en los GN simples y complejos. El capítulo 5 ofrece un planteamiento didáctico práctico sobre la enseñanza de los GN en el contexto del ICT, con una investigación sobre el terreno y el análisis estadístico de los resultados obtenidos antes y después de la aplicación didáctica. En el capítulo 6 se comentan los resultados obtenidos a lo largo del estudio, aportando las conclusiones, las limitaciones y las recomendaciones para futuros trabajos de investigación sobre el tema de la tesis. ABSTRACT This doctoral thesis consists of an empirical study of the linguistic competence of the Technical University of Madrid (UPM) industrial engineering students on the use of nominal groups (NG) in English for Academic and Professional Purposes (EAPP). In order to confirm that NG is the EAPP linguistic feature that presents the greatest difficulty to Spanish engineering students, a statistical analysis of the data obtained from the application of a general English test and the EAPP linguistic features tests -developed for this purpose- was carried out. Consequently, this linguistic feature needs to be specifically taught in order to be used correctly by Spanish engineering students. The study begins by presenting the general language characteristics of EAPP, among which the frequent presence of NG in scientific and technical writings stands out. It verifies the hypothesis that the understanding and use of NG in English is the most difficult linguistic feature for Spanish engineering students. It explains the features of English NG analyzing the words they are composed of by depicting the types of words, regularities and exceptions that are present in technical and scientific English. It also explains the behavior of the different grammar categories that act as pre-modifiers of the noun and focuses on real examples taken from authentic publications and quantitative data, to reach objective conclusions about the use and degree of difficulty of the NG for the students. The research methodology includes the gathering of data from the 5th year industrial engineering students´ tests and analyzing them by means of the ANOVA statistical application. The data have been treated in relation to the students’ Common European Framework of Reference for Languages (CEFRL) levels, which range from A2 to C1, although the majority lye between B1 and B2 levels. The conclusions are based on the results, which allow us to obtain relevant information about the understanding and use of NG –simple and complex- by the focus group, with a 95% confidence level. From these data, a methodological approach to NG teaching has been tested to help students to acquire such linguistic feature. The general structure of this thesis is divided into six chapters. The first is an introduction containing the reasons that have motivated this piece of research, the hypotheses, objectives and methodology employed. The second deals with the distinctive linguistic features of EST underlying the concepts of linguistic and communicative competence. Chapter three focuses on the grammar aspects of NG. Chapter four contains the empirical study and the statistical analysis of the data. Results allow us to reach objective conclusions about the degree of difficulty of the EAPP linguistic features studied, focusing on simple and complex NG. Chapter five discusses a methodological approach to the teaching of NG in an EST context, comparing students’ test results before and after the NG teaching application. Finally, chapter six discusses the findings obtained along the study, presenting the conclusions, limitations and recommendations for future research in this area.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

En la actualidad las industrias químicas, farmacéuticas y clínicas, originan contaminantes en aguas superficiales, aguas subterráneas y suelos de nuestro país, como es el caso del fenol, contaminante orgánico común y altamente dañino para los organismos, incluso a bajas concentraciones. Existen en el mercado diferentes metodologías para minimizar la contaminación pero muchos de estos procesos tienen un alto coste, generación de contaminantes, etc. La adsorción de contaminantes por medio de arcillas es un método ampliamente utilizado, encontrándose eficaz y económico. Pero la dificultad de adsorber un contaminante orgánico como el fenol motiva la creación de un material llamado organoarcillas. Las organoarcillas son arcillas modificadas con un surfactante, a su vez, los surfactantes son moléculas orgánicas que confieren a la superficie de la arcilla carga catiónica en lugar de aniónica, haciendo más fácil la adsorción de fenol. Para esta tesis se ha elegido el caolín como material adsorbente, fácilmente disponible y relativamente de bajo coste. Se ha trabajado con: arenas de caolín, material directo de la extracción, y caolín lavado, originado del proceso de lavado de las arenas de caolín. Ambos grupos se diferencian fundamentalmente por su contenido en cuarzo, ampliamente mayor en las arenas de caolín. Con el objetivo de desarrollar un material a partir del caolín y arenas de éste con capacidad de retención de contaminates, en concreto, fenol, se procedió a modificar los materiales de partida mediante tratamientos térmicos, mecánicos y/o químicos, dando lugar a compuestos con mayor superficie química reactiva. Para ello se sometió el caolín y las arenas caoliníferas a temperaturas de 750ºC durante 3h, a moliendas hasta alcanzar su amorfización, y/o a activaciones con HCl 6M o con NaOH 5M durante 3h a 90ºC. En total se obtuvieron 18 muestras, en las que se estudiaron las características físico-químicas, mineralógicas y morfológicas de cada una de ellas con el fin de caracterizarlas después de haber sufrido los tratamientos y/o activaciones químicas. Los cambios producidos fueron estudiados mediante pH, capacidad de intercambio catiónico (CEC), capacidad de adsorción de agua (WCU y CWC), distribución de tamaño de partícula (PSD), área de superficie específica (SBET), difracción de rayos X (XRD), espectroscopía infrarroja por transformada de Fourier (FTIR), métodos térmicos (TG, DTG y DTA), y microscopía electrónica de transmisión y barrido (SEM y TEM). Además se analizó los cambios producidos por los tratamientos en función de las pérdidas de Al y Si que acontece en las 18 muestras. Los resultados para los materiales derivados de la arenas caoliníferas fueron similares a los obtenidos para los caolines lavados, la diferencia radica en la cantidad de contenido de caolinita en los diferente grupos de muestras. Apoyándonos en las técnicas de caracterización se puede observar que los tratamientos térmico y molienda produce materiales amorfos, este cambio en la estructura inicial sumado a las activaciones ácida y alcalina dan lugar a pérdidas de Si y Al, ocasionando que sus propiedades físico-químicas, mineralógicas y morfológicas se vean alteradas. Un fuerte aumento es observado en las áreas superficiales y en la CEC en determinadas muestras, además entre los cambios producidos se encuentra la producción de diferentes zeolitas en porcentajes distintos con el tratamiento alcalino. Para la obtención de las organoarcillas, las 18 muestras se sometieron a la surfactación con hexadeciltrimetil amonio (HDTMA) 20 mM durante 24h a 60ºC, esta concentración de tensioactivo fue más alta que la CEC de cada muestra. Los camext bios anteriormente producidos por los tratamientos y activaciones, afectan de forma diferente en la adsorción de HDTMA, variando por tanto la adsorción del surfactante en la superficie de las muestras. Se determinó el tensioactivo en superficie por FTIR, además se realizó un análisis de componentes principales (PCA) para examinar la dependencia entre las relaciones Si/Al de las muestras en la capacidad de adsorción de tensioactivo, y para el estudio de la adsorción de HDTMA en las muestras se realizaron además del análisis termogravimétrico, aproximaciones con los modelos de Freundllich y Langmuir. Se persigue conocer las diferentes formas y maneras que tiene el tensioactivo de fijarse en la superficie de las muestras. En las organoarcillas resultantes se cuantificó el fenol adsorbido cuando éstas fueron puestas en contacto con diferentes concentraciones de fenol: 50, 500, 1000, 2000, y 2500 mg/l durante 24h. El contaminante sorbido se calculó por medio de cromatografía de gases, y se realizaron aproximaciones con los modelos de Freundllich y Langmuir. El comportamiento de adsorción de fenol en arcillas orgánicas es regido por las características de las muestras. De forma general se puede decir que las muestras de caolines lavados tienen más capacidad de adsorción de fenol que las muestras de arenas de caolín y que la activación alcalina ha proporcionado una mejora en la adsorción de fenol en los dos grupos. En consecuencia se han obtenido materiales adsorbentes heterogéneos y por tanto, con propiedades diferentes. Se ha evaluado el comportamiento global de las arenas de caolín por un lado y del caolín lavado por otro. Las arenas de caolín presentan altos niveles de cuarzo y su uso para ciertos tipos de industrias no son recomendados en ocasiones por el alto costo que el proceso de limpieza y purificación implicaría. Por ello es importante reseñar en este proyecto las aplicaciones que ofrecen algunas muestras de este grupo. Los ensayos acontecidos en esta tesis han dado lugar a las siguientes publicaciones: • Pérdida de Al y Si en caolines modificados térmica- o mecánicamente y activados por tratamientos químicos. A. G. San Cristóbal, C Vizcayno, R. Castelló. Macla 9, 113-114. (2008). • Acid activation of mechanically and thermally modfied kaolins. A. G. San Cristóbal, R. Castelló, M. A. Martín Luengo, C Vizcayno. Mater. Res. Bull. 44 (2009) 2103-2111. • Zeolites prepared from calcined and mechanically modified kaolins. A comparative study. A. G San Cristóbal, R. Castelló, M. A. Martín Luengo, C Vizcayno. Applied Clay Science 49 (2010) 239-246. • Study comparative of the sorption of HDTMA on natural and modified kaolin. A. G San Cristóbal, R. Castelló, J. M. Castillejo, C Vizcayno. Aceptada en Clays and Clay minerals. • Capacity of modified kaolin sand and washed kaolin to adsorb phenol. A. G San Cristóbal, R. Castelló, C Vizcayno. Envío a revista sujeto a la publicación del artículo anterior. ABSTRACT Today’s chemical, pharmaceutical and clinical industries generate pollutants that affect the soils and surface and ground waters of our country. Among these, phenol is a common organic pollutant that is extremely harmful to living organisms, even at low concentrations. Several protocols exist to minimize the effects of pollutants, but most are costly procedures or even generate other pollutants. The adsorption of hazardous materials onto clays is perhaps the most used, efficient and cost-saving method available. However, organic compounds such as phenol are difficult to adsorb and this has led to the development of materials known as organoclays, which are much better at remediating organic compounds. Organoclays are clays that have been modified using a surfactant. In turn, surfactants are organic molecules that confer a cationic rather than anionic charge to the clay surface, improving it’s capacity to adsorb phenol. For this doctorate project, kaolin was selected as an adsorbent material for the removal of phenol given its easy sourcing and relatively low cost. The materials investigated were kaolin sand, a directly extracted material, and washed kaolin, which is the byproduct of the kaolin sand washing process. The main difference between the materials is their quartz content, which is much higher in the kaolin sands. To generate a product from kaolin or kaolin sand capable of retaining organic pollutants such as phenol, both materials were subjected to several heat, chemical and/or mechanical treatments to give rise to compounds with a greater reactive surface area. To this end the two starting materials underwent heating at 750ºC for 3 h, grinding to the point of amorphization and/or activation with HCl 6M or NaOH 5M for 3 h at 90ºC. These treatments gave rise to 18 processed samples, which were characterized in terms of their morphological, mineralogical, and physical-chemical properties. The behaviour of these new materials was examined in terms of their pH, cation exchange capacity (CEC), water adsorption capacity (WCU and WCC), particle size distribution (PSD), specific surface area (SBET), and their X-ray diffraction (XRD), Fourier transform infrared spectroscopy (FTIR), thermal (DTG, DTA) and scanning and transmission electron microscopy (SEM and TEM) properties. The changes conferred by the different treatments were also examined in terms of Al and Si losses. Results for the materials derived from kaolin sands and washed kaolin were similar, with differences attributable to the kaolinite contents of the samples. The treatments heat and grinding produced amorphous materials, which when subjected to acid or alkali activation gave rise to Si and Al losses. This in turn led to a change in physico- chemical, mineralogical and morphological properties. Some samples showed a highly increased surface area and CEC. Further, among the changes produced, alkali treatment led to the generation of zeolites in different proportions depending on the sample. To produce the organoclays, the 18 samples were surfacted with hexadecyltrimethylammonium (HDTMA) 20 mM for 24 h at 60ºC. This surfactant concentration is higher than the CEC of each sample. The amount of HDTMA adsorbed onto the surface of each sample determined by FTIR varied according to treatment. A principle components analysis (PCA) was performed to examine correlations between sample Si/Al ratios and surfactant adsorption capacity. In addition, to explore HDTMA adsorption by the samples, DTG and DTA data were fitted to Freundllich and Langmuir models. The mechanisms of surfactant attachment to the sample surface were also addressed. The amount of phenol adsorbed by the resultant organoclays was determined when exposed to different phenol concentrations: 50, 500, 1000, 2000, and 2500 mg/l for 24 h. The quantity of adsorbed pollutant was estimated by gas chromatography and the data fitted to the models of Freundllich and Langmuir. Results indicate that the phenol adsorption capacity of the surfacted samples is dependent on the sample’s characteristics. In general, the washed kaolin samples showed a greater phenol adsorption capacity than the kaolon sands and alkali activation improved this capacity in the two types of sample. In conclusion, the treatments used gave rise to adsorbent materials with varying properties. Kaolin sands showed high quartz levels and their use in some industries is not recommended due to the costs involved in their washing and purification. The applications suggested by the data obtained for some of the kaolin sand samples indicate the added value of this industrial by-product. The results of this research project have led to the following publications: • Pérdida de Al y Si en caolines modificados térmica- o mecánicamente y activados por tratamientos químicos. A. G. San Cristóbal, C Vizcayno, R. Castelló. Macla 9, 113-114. (2008). • Acid activation of mechanically and thermally modfied kaolins. A. G. San Cristóbal, R. Castelló, M. A. Martín Luengo, C Vizcayno. Mater. Res. Bull. 44 (2009) 2103-2111. • Zeolites prepared from calcined and mechanically modified kaolins. A comparative study. A. G. San Cristóbal, R. Castelló, M. A. Martín Luengo, C Vizcayno. Applied Clay Science 49 (2010) 239-246. • Study comparative of the sorption of HDTMA on natural and modified kaolin. A. G. San Cristóbal, R. Castelló, J. M. Castillejo, C Vizcayno Accepted in Clays and Clay minerals. • Capacity of modified kaolin sand and washed kaolin to adsorb phenol. A. G San Cristóbal, R. Castelló, C Vizcayno. Shipment postponed, subject to the publication of the previous article.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Abstract The Tower of Martín González, also known as castle of La Raya, is placed in the actual border between the Spanish provinces of Soria and Zaragoza and in the historical limit between the Crowns of Castile and Aragon: this is the reason for its name. The castle dominates the hedge of the plain-moors that surround the Valley of Nágima River. It is a castle with courtyard and a high tower in the western flank. The paper analyzes the castle in four main levels. All references about the castle are studied to draw a historical narration and to relate with the territory and other fortifications, both Castilian and Aragonese. Despite its advanced state of ruin, it preserves many rests that allow making an analysis of its defensive elements and constructive aspects. Resumen La torre de Martín González, también conocida como el castillo de La Raya, se sitúa en el límite actual entre las provincias de Soria y Zaragoza y en el límite histórico entre las coronas de Castilla y Aragón. Domina el extremo de los páramos que circundan el río Nágima. Es un castillo de tipo torrejón con patio de armas y una torre del homenaje adosada a su flanco occidental. El análisis contempla cuatro niveles fundamentales para el entendimiento de la arquitectura fortificada. La comunicación revisa la documentación existente sobre los elementos históricos que se ponen en relación, mediante el análisis territorial, con el sistema fortificado de frontera. A pesar de su avanzado estado de ruina, conserva restos que permiten realizar una lectura interpretativa de sus elementos defensivos y de sus aspectos constructivos.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Evaluar la asociación entre los niveles físicos de la aptitud, de calidad relacionada con la salud de la vida (CVRS) y la obesidad sarcopénica

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Soccer participation worldwide is increasing and every club try to discover new talents. It is well know that there is an important correlation between body composition (BC) and talent detection (TD) and when coaches and selectors choose players, they tend to choose them with optimum BC.