772 resultados para Fundamentos de las Bases de Datos


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nuestro objetivo es compartir la experiencia de implementación y desarrollo en OJS del Portal de Revistas Científicas de la Facultad de Humanidades y Ciencias de la Educación (FaHCE) de la Universidad Nacional de La Plata (UNLP) a través del cual se publican en acceso abierto, bajo licencias Creative Commons, las revistas científicas de esta Unidad Académica, incluyendo tanto las electrónicas como las versiones digitales de las de formato papel. El proyecto Portal de Revistas, inaugurado en diciembre de 2012, a cargo del Area de Publicaciones, logró unificar el acceso a las revistas de la institución que integran el Núcleo Básico de Revistas Científicas Argentinas (CAICYT-CONICET). Su objetivo es facilitar la gestión editorial, el cumplimiento de la periodicidad y de los parámetros de evaluación sugeridos por las bases de datos regionales e internacionales y la automatización de los envíos a bases de datos para aumentar su visibilidad optimizando los tiempos de trabajo

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Se aborda la trayectoria de la revista académica de bibliotecología Palabra Clave (La Plata), desde el punto de vista del editor. En este sentido, se brinda una mirada crítica del campo editorial de la comunicación científica, enfatizando el lugar de inscripción de las Ciencias Sociales y sus publicaciones. Asimismo, se procurando identificar el objeto de dispuesta del campo (la determinación de los parámetros de calidad editorial y calidad científica), las maneras en que los dominantes actualizan su preponderancia (esto es, el juego que proponen las bases de datos comerciales) y, por último, las estrategias plausibles para las revistas que recién arriban al campo. Dentro de este último aspecto, se describe el camino seguido por Palabra Clave (La Plata), en el marco de las condiciones sociales, académicas y materiales de la Universidad Nacional de La Plata. Se concluye que la tarea de edición en este contexto institucional no se limita en la actividad propiamente dicha, sino que forma parte de un proceso de formación académica más amplio

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Independientemente de sus implicaciones en las IDE, los mapas son y se han utilizado para presentar la información existente sobre la Tierra. No están exentos de errores ya que, debido a una mala redacción gráfica, pueden conducir a una mala legibilidad de la información o incluso a una idea equivocada de la realidad que muestran. Los mapas son modelos de la realidad y para eso se utilizan artificios como (a) las escalas, que obligan a reducir el tamaño y simplificar la información, (b) las proyecciones cartográficas que permiten representar la esfericidad de la Tierra sobre un plano, (c) las cartografías temáticas que representan aspectos concretos de la superficie de la Tierra (edafología, climatología, población, etc.) y (d) el lenguaje cartográfico con sus reglas de redacción, sintácticas, ortográficas y semánticas. Este último aspecto es clave para la producción de mapas que cumplan el objetivo de presentar adecuadamente la información geográfica, al que se dedica este capítulo. La redacción en base a sistemas de símbolos dispone de unas normas relacionadas con las capacidades perceptivas del sistema visual humano que no deben infringirse. El conocimiento de las variables gráficas que pueden aplicarse a la simbología (la forma, el color, el tamaño, etc.); las ventajas y dificultades que tienen cada una de esas variables para la percepción; su aplicación a los diferentes fenómenos, ya sean puntuales lineales o superficiales; la forma en la que se haya adquirido la información que los define (información cualitativa, ordenada o cuantitativa), permitirá garantizar que la información gráfica enviada al lector no sólo sea entendida sino que sea correctamente comprendida. Vulnerar el uso de las variables visuales, desconocer el funcionamiento de la percepción respecto a los estímulos visuales y no tener en cuenta el tipo de información que define a los fenómenos, crea errores como se muestra en el presente capítulo a través de unos ejemplos finales.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La presente tesis doctoral se centra en el estudio de la respuesta molecular de las coníferas mediterráneas al estrés hídrico. Para ello se ha escogido como especie modelo Pinus pinaster Ait., la conífera más abundante en España, y que habita un amplio rango de situaciones ecológicas, especialmente en lo relativo a la disponibilidad de agua. En primer lugar, se ha aplicado un estrés hídrico controlado en cultivo hidropónico y se ha generando una genoteca sustractiva con objeto de identificar los genes inducidos por el estrés, analizando su expresión en raíces, tallos y acículas. A continuación, se ha analizado, la expresión de los genes anteriormente obtenidos así como de otros seleccionados de las bases de datos disponibles, durante una sequía prolongada en tierra, similar a las que las plantas deben afrontar en la naturaleza. Se ha utilizado en este caso, además de P. pinaster, P. pinea, otra conífera mediterránea adaptada a las sequías recurrentes. Este trabajo ha permitido identificar genes candidato expresionales, presumiblemente comunes en la respuesta molecular de las coníferas al déficit hídrico. Se han detectado diferencias notables en la expresión de determinados genes, que podrían ser los responsables de las diferencias exhibidas por ambas especies en el comportamiento frente a la sequía. Entre los genes identificados como inducidos por el estrés hídrico se encuentran varios miembros de la familia de las deshidrinas. Trabajos previos han utilizado deshidrinas como genes candidato; no obstante, la falta de especificidad de ciertos fragmentos y marcadores utilizados, debido a la complejidad estructural de esta familia, resta fiabilidad a algunos de los resultados publicados. Por este motivo, se ha estudiado en detalle esta familia en P. pinaster, se han identificado y caracterizado 8 miembros y se ha analizado su patrón de expresión frente a sequía. Este estudio ha permitido describir por primera vez unos segmentos conservados en la secuencia de aminoácidos de las deshidrinas de pináceas, cuya presencia y número de repeticiones parece estar relacionado con su especificidad. Por último, se han escogido tres genes implicados en distintas fases de la respuesta al estrés hídrico para su análisis exhaustivo: una deshidrina, una nodulina y un factor de transcripción tipo AP2. Se ha caracterizado su estructura exón/intrón y secuenciado su región promotora. Además, se han obtenido líneas transformadas que sobreexpresan estos genes tanto de forma heteróloga, en la especie modelo Arabidopsis thaliana, como en el propio P. pinaster. Este material facilitará la realización de futuros estudios sobre la función y el mecanismo de actuación de estos genes en la respuesta al estrés hídrico. ABSTRACT This thesis focuses in the study of the molecular response to water stress in Mediterranean conifers. For this purpose, P. pinaster was selected as model species. It’s the most abundant conifer in Spain, living in a wide range of ecological conditions, especially regarding water availability. First, we have applied a controlled polyethylene glycol-induced water stress in hydroponic culture and obtained a suppression subtractive hybridization (SSH) library, with the aim of identifying genes induced by water stress, analysing their expression in roots, stems and needles. We have then analysed the expression patterns of the identified genes, together with other genes selected from public databases. This study was conducted throughout a prolonged drought stress in soil, similar to the ones plants have to face in nature. In this case not only P. pinaster was analysed but also P. pinea, another Mediterranean conifer well adapted to recurrent droughts. This work has enabled us to identify of reliable candidate genes, presumably shared with other conifers in the response to water stress. We observed remarkable differences in the expression of some genes, which could be involved in the differential behaviour that these species show in the water stress response. Within the genes induced by water stress, several members of the dehydrin gene family were identified. Due to the structural complexity of the family, certain ambiguities and inconsistencies have been detected in previous works that have used dehydrins as candidate genes. For this reason, we have analysed thoroughly this gene family in P. pinaster, and have identified and characterized eight different members, whose expression patterns during drought have also been assessed. This study has allowed us to identify for the first time novel conserved segments in the amino acids sequences of Pinaceae. The presence and number of repetitions of these segments could be associated with the functional specificity of these proteins. Finally, three genes involved in different steps of the water stress response were selected for an exhaustive analysis: a dehydrin, a nodulin and an AP2 transcription factor. For all of them, the exon/intron structure was established and their promoter region was sequenced. Also, transformed lines were obtained both in Arabidopsis thaliana and in P. pinaster for the constitutive overexpression of these genes. This material will facilitate the development of further studies to investigate the function of these genes during the water stress response

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Abstract The creation of atlases, or digital models where information from different subjects can be combined, is a field of increasing interest in biomedical imaging. When a single image does not contain enough information to appropriately describe the organism under study, it is then necessary to acquire images of several individuals, each of them containing complementary data with respect to the rest of the components in the cohort. This approach allows creating digital prototypes, ranging from anatomical atlases of human patients and organs, obtained for instance from Magnetic Resonance Imaging, to gene expression cartographies of embryo development, typically achieved from Light Microscopy. Within such context, in this PhD Thesis we propose, develop and validate new dedicated image processing methodologies that, based on image registration techniques, bring information from multiple individuals into alignment within a single digital atlas model. We also elaborate a dedicated software visualization platform to explore the resulting wealth of multi-dimensional data and novel analysis algo-rithms to automatically mine the generated resource in search of bio¬logical insights. In particular, this work focuses on gene expression data from developing zebrafish embryos imaged at the cellular resolution level with Two-Photon Laser Scanning Microscopy. Disposing of quantitative measurements relating multiple gene expressions to cell position and their evolution in time is a fundamental prerequisite to understand embryogenesis multi-scale processes. However, the number of gene expressions that can be simultaneously stained in one acquisition is limited due to optical and labeling constraints. These limitations motivate the implementation of atlasing strategies that can recreate a virtual gene expression multiplex. The developed computational tools have been tested in two different scenarios. The first one is the early zebrafish embryogenesis where the resulting atlas constitutes a link between the phenotype and the genotype at the cellular level. The second one is the late zebrafish brain where the resulting atlas allows studies relating gene expression to brain regionalization and neurogenesis. The proposed computational frameworks have been adapted to the requirements of both scenarios, such as the integration of partial views of the embryo into a whole embryo model with cellular resolution or the registration of anatom¬ical traits with deformable transformation models non-dependent on any specific labeling. The software implementation of the atlas generation tool (Match-IT) and the visualization platform (Atlas-IT) together with the gene expression atlas resources developed in this Thesis are to be made freely available to the scientific community. Lastly, a novel proof-of-concept experiment integrates for the first time 3D gene expression atlas resources with cell lineages extracted from live embryos, opening up the door to correlate genetic and cellular spatio-temporal dynamics. La creación de atlas, o modelos digitales, donde la información de distintos sujetos puede ser combinada, es un campo de creciente interés en imagen biomédica. Cuando una sola imagen no contiene suficientes datos como para describir apropiadamente el organismo objeto de estudio, se hace necesario adquirir imágenes de varios individuos, cada una de las cuales contiene información complementaria respecto al resto de componentes del grupo. De este modo, es posible crear prototipos digitales, que pueden ir desde atlas anatómicos de órganos y pacientes humanos, adquiridos por ejemplo mediante Resonancia Magnética, hasta cartografías de la expresión genética del desarrollo de embrionario, típicamente adquiridas mediante Microscopía Optica. Dentro de este contexto, en esta Tesis Doctoral se introducen, desarrollan y validan nuevos métodos de procesado de imagen que, basándose en técnicas de registro de imagen, son capaces de alinear imágenes y datos provenientes de múltiples individuos en un solo atlas digital. Además, se ha elaborado una plataforma de visualization específicamente diseñada para explorar la gran cantidad de datos, caracterizados por su multi-dimensionalidad, que resulta de estos métodos. Asimismo, se han propuesto novedosos algoritmos de análisis y minería de datos que permiten inspeccionar automáticamente los atlas generados en busca de conclusiones biológicas significativas. En particular, este trabajo se centra en datos de expresión genética del desarrollo embrionario del pez cebra, adquiridos mediante Microscopía dos fotones con resolución celular. Disponer de medidas cuantitativas que relacionen estas expresiones genéticas con las posiciones celulares y su evolución en el tiempo es un prerrequisito fundamental para comprender los procesos multi-escala característicos de la morfogénesis. Sin embargo, el número de expresiones genéticos que pueden ser simultáneamente etiquetados en una sola adquisición es reducido debido a limitaciones tanto ópticas como del etiquetado. Estas limitaciones requieren la implementación de estrategias de creación de atlas que puedan recrear un multiplexado virtual de expresiones genéticas. Las herramientas computacionales desarrolladas han sido validadas en dos escenarios distintos. El primer escenario es el desarrollo embrionario temprano del pez cebra, donde el atlas resultante permite constituir un vínculo, a nivel celular, entre el fenotipo y el genotipo de este organismo modelo. El segundo escenario corresponde a estadios tardíos del desarrollo del cerebro del pez cebra, donde el atlas resultante permite relacionar expresiones genéticas con la regionalización del cerebro y la formación de neuronas. La plataforma computacional desarrollada ha sido adaptada a los requisitos y retos planteados en ambos escenarios, como la integración, a resolución celular, de vistas parciales dentro de un modelo consistente en un embrión completo, o el alineamiento entre estructuras de referencia anatómica equivalentes, logrado mediante el uso de modelos de transformación deformables que no requieren ningún marcador específico. Está previsto poner a disposición de la comunidad científica tanto la herramienta de generación de atlas (Match-IT), como su plataforma de visualización (Atlas-IT), así como las bases de datos de expresión genética creadas a partir de estas herramientas. Por último, dentro de la presente Tesis Doctoral, se ha incluido una prueba conceptual innovadora que permite integrar los mencionados atlas de expresión genética tridimensionales dentro del linaje celular extraído de una adquisición in vivo de un embrión. Esta prueba conceptual abre la puerta a la posibilidad de correlar, por primera vez, las dinámicas espacio-temporales de genes y células.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Como en todos los medios de transporte, la seguridad en los viajes en avión es de primordial importancia. Con los aumentos de tráfico aéreo previstos en Europa para la próxima década, es evidente que el riesgo de accidentes necesita ser evaluado y monitorizado cuidadosamente de forma continúa. La Tesis presente tiene como objetivo el desarrollo de un modelo de riesgo de colisión exhaustivo como método para evaluar el nivel de seguridad en ruta del espacio aéreo europeo, considerando todos los factores de influencia. La mayor limitación en el desarrollo de metodologías y herramientas de monitorización adecuadas para evaluar el nivel de seguridad en espacios de ruta europeos, donde los controladores aéreos monitorizan el tráfico aéreo mediante la vigilancia radar y proporcionan instrucciones tácticas a las aeronaves, reside en la estimación del riesgo operacional. Hoy en día, la estimación del riesgo operacional está basada normalmente en reportes de incidentes proporcionados por el proveedor de servicios de navegación aérea (ANSP). Esta Tesis propone un nuevo e innovador enfoque para evaluar el nivel de seguridad basado exclusivamente en el procesamiento y análisis trazas radar. La metodología propuesta ha sido diseñada para complementar la información recogida en las bases de datos de accidentes e incidentes, mediante la provisión de información robusta de los factores de tráfico aéreo y métricas de seguridad inferidas del análisis automático en profundidad de todos los eventos de proximidad. La metodología 3-D CRM se ha implementado en un prototipo desarrollado en MATLAB © para analizar automáticamente las trazas radar y planes de vuelo registrados por los Sistemas de Procesamiento de Datos Radar (RDP) e identificar y analizar todos los eventos de proximidad (conflictos, conflictos potenciales y colisiones potenciales) en un periodo de tiempo y volumen del espacio aéreo. Actualmente, el prototipo 3-D CRM está siendo adaptado e integrado en la herramienta de monitorización de prestaciones de Aena (PERSEO) para complementar las bases de accidentes e incidentes ATM y mejorar la monitorización y proporcionar evidencias de los niveles de seguridad. ABSTRACT As with all forms of transport, the safety of air travel is of paramount importance. With the projected increases in European air traffic in the next decade and beyond, it is clear that the risk of accidents needs to be assessed and carefully monitored on a continuing basis. The present thesis is aimed at the development of a comprehensive collision risk model as a method of assessing the European en-route risk, due to all causes and across all dimensions within the airspace. The major constraint in developing appropriate monitoring methodologies and tools to assess the level of safety in en-route airspaces where controllers monitor air traffic by means of radar surveillance and provide aircraft with tactical instructions lies in the estimation of the operational risk. The operational risk estimate normally relies on incident reports provided by the air navigation service providers (ANSPs). This thesis proposes a new and innovative approach to assessing aircraft safety level based exclusively upon the process and analysis of radar tracks. The proposed methodology has been designed to complement the information collected in the accident and incident databases, thereby providing robust information on air traffic factors and safety metrics inferred from the in depth assessment of proximate events. The 3-D CRM methodology is implemented in a prototype tool in MATLAB © in order to automatically analyze recorded aircraft tracks and flight plan data from the Radar Data Processing systems (RDP) and identify and analyze all proximate events (conflicts, potential conflicts and potential collisions) within a time span and a given volume of airspace. Currently, the 3D-CRM prototype is been adapted and integrated in AENA’S Performance Monitoring Tool (PERSEO) to complement the information provided by the ATM accident and incident databases and to enhance monitoring and providing evidence of levels of safety.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La hipótesis de esta tesis es: "La optimización de la ventana considerando simultáneamente aspectos energéticos y aspectos relativos a la calidad ambiental interior (confort higrotérmico, lumínico y acústico) es compatible, siempre que se conozcan y consideren las sinergias existentes entre ellos desde las primeras fases de diseño". En la actualidad se desconocen las implicaciones de muchas de las decisiones tomadas en torno a la ventana; para que su eficiencia en relación a todos los aspectos mencionados pueda hacerse efectiva es necesaria una herramienta que aporte más información de la actualmente disponible en el proceso de diseño, permitiendo así la optimización integral, en función de las circunstancias específicas de cada proyecto. En la fase inicial de esta investigación se realiza un primer acercamiento al tema, a través del estado del arte de la ventana; analizando la normativa existente, los componentes, las prestaciones, los elementos experimentales y la investigación. Se observa que, en ocasiones, altos requisitos de eficiencia energética pueden suponer una disminución de las prestaciones del sistema en relación con la calidad ambiental interior, por lo que surge el interés por integrar al análisis energético aspectos relativos a la calidad ambiental interior, como son las prestaciones lumínicas y acústicas y la renovación de aire. En este punto se detecta la necesidad de realizar un estudio integral que incorpore los distintos aspectos y evaluar las sinergias que se dan entre las distintas prestaciones que cumple la ventana. Además, del análisis de las soluciones innovadoras y experimentales se observa la dificultad de determinar en qué medida dichas soluciones son eficientes, ya que son soluciones complejas, no caracterizadas y que no están incorporadas en las metodologías de cálculo o en las bases de datos de los programas de simulación. Por lo tanto, se plantea una segunda necesidad, generar una metodología experimental para llevar a cabo la caracterización y el análisis de la eficiencia de sistemas innovadores. Para abordar esta doble necesidad se plantea la optimización mediante una evaluación del elemento acristalado que integre la eficiencia energética y la calidad ambiental interior, combinando la investigación teórica y la investigación experimental. En el ámbito teórico, se realizan simulaciones, cálculos y recopilación de información de distintas tipologías de hueco, en relación con cada prestación de forma independiente (acústica, iluminación, ventilación). A pesar de haber partido con un enfoque integrador, resulta difícil esa integración detectándose una carencia de herramientas disponible. En el ámbito experimental se desarrolla una metodología para la evaluación del rendimiento y de aspectos ambientales de aplicación a elementos innovadores de difícil valoración mediante la metodología teórica. Esta evaluación consiste en el análisis comparativo experimental entre el elemento innovador y un elemento estándar; para llevar a cabo este análisis se han diseñado dos espacios iguales, que denominamos módulos de experimentación, en los que se han incorporado los dos sistemas; estos espacios se han monitorizado, obteniéndose datos de consumo, temperatura, iluminancia y humedad relativa. Se ha realizado una medición durante un periodo de nueve meses y se han analizado y comparado los resultados, obteniendo así el comportamiento real del sistema. Tras el análisis teórico y el experimental, y como consecuencia de esa necesidad de integrar el conocimiento existente se propone una herramienta de evaluación integral del elemento acristalado. El desarrollo de esta herramienta se realiza en base al procedimiento de diagnóstico de calidad ambiental interior (CAI) de acuerdo con la norma UNE 171330 “Calidad ambiental en interiores”, incorporando el factor de eficiencia energética. De la primera parte del proceso, la parte teórica y el estado del arte, se obtendrán los parámetros que son determinantes y los valores de referencia de dichos parámetros. En base a los parámetros relevantes obtenidos se da forma a la herramienta, que consiste en un indicador de producto para ventanas que integra todos los factores analizados y que se desarrolla según la Norma UNE 21929 “Sostenibilidad en construcción de edificios. Indicadores de sostenibilidad”. ABSTRACT The hypothesis of this thesis is: "The optimization of windows considering energy and indoor environmental quality issues simultaneously (hydrothermal comfort, lighting comfort, and acoustic comfort) is compatible, provided that the synergies between these issues are known and considered from the early stages of design ". The implications of many of the decisions made on this item are currently unclear. So that savings can be made, an effective tool is needed to provide more information during the design process than the currently available, thus enabling optimization of the system according to the specific circumstances of each project. The initial phase deals with the study from an energy efficiency point of view, performing a qualitative and quantitative analysis of commercial, innovative and experimental windows. It is observed that sometimes, high-energy efficiency requirements may mean a reduction in the system's performance in relation to user comfort and health, that's why there is an interest in performing an integrated analysis of indoor environment aspects and energy efficiency. At this point a need for a comprehensive study incorporating the different aspects is detected, to evaluate the synergies that exist between the various benefits that meet the window. Moreover, from the analysis of experimental and innovative windows, a difficulty in establishing to what extent these solutions are efficient is observed; therefore, there is a need to generate a methodology for performing the analysis of the efficiency of the systems. Therefore, a second need arises, to generate an experimental methodology to perform characterization and analysis of the efficiency of innovative systems. To address this dual need, the optimization of windows by an integrated evaluation arises, considering energy efficiency and indoor environmental quality, combining theoretical and experimental research. In the theoretical field, simulations and calculations are performed; also information about the different aspects of indoor environment (acoustics, lighting, ventilation) is gathered independently. Despite having started with an integrative approach, this integration is difficult detecting lack available tools. In the experimental field, a methodology for evaluating energy efficiency and indoor environment quality is developed, to be implemented in innovative elements which are difficult to evaluate using a theoretical methodology This evaluation is an experimental comparative analysis between an innovative element and a standard element. To carry out this analysis, two equal spaces, called experimental cells, have been designed. These cells have been monitored, obtaining consumption, temperature, luminance and relative humidity data. Measurement has been performed during nine months and results have been analyzed and compared, obtaining results of actual system behavior. To advance this optimization, windows have been studied from the point of view of energy performance and performance in relation to user comfort and health: thermal comfort, acoustic comfort, lighting comfort and air quality; proposing the development of a methodology for an integrated analysis including energy efficiency and indoor environment quality. After theoretical and experimental analysis and as a result of the need to integrate existing knowledge, a comprehensive evaluation procedure for windows is proposed. This evaluation procedure is developed according to the UNE 171330 "Indoor Environmental Quality", also incorporating energy efficiency and cost as factors to evaluate. From the first part of the research process, outstanding parameters are chosen and reference values of these parameters are set. Finally, based on the parameters obtained, an indicator is proposed as windows product indicator. The indicator integrates all factors analyzed and is developed according to ISO 21929-1:2011"Sustainability in building construction. Sustainability indicators. Part 1: Framework for the development of indicators and a core set of indicators for buildings".

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El objetivo del presente trabajo es determinar la localización óptima de una planta de producción de 30.000 m3/año de bioetanol a partir de tubérculos de pataca (Helianthus tuberosus L.) cultivada en regadío, en tierras de barbecho de la Cuenca Hidrográfica del Duero (CH Duero). Inicialmente se elaboró, a partir de datos bibliográficos, un modelo de producción de pataca en base a una ecuación de regresión que relaciona datos experimentales de rendimientos de variedades tardías con variables agroclimáticas. Así se obtuvo una función de producción basada en la cantidad de agua disponible (precipitación efectiva + dosis de riego) y en la radiación global acumulada en el periodo brotación‐senescencia del cultivo. A continuación se estima la superficie potencial de cultivo de pataca en la CH Duero a partir de la superficie arable en regadío cartografiada por el Sistema de Ocupación del Suelo (SIOSE), a la cual se le aplican, en base a los requerimientos del cultivo, unas restricciones climáticas, edafológicas, topográficas y logísticas mediante el uso de Sistemas de Información Geográfica (SIG). La proporción de superficie de regadío restringida se cuantifica a escala municipal con el fin de calcular la superficie de barbecho en regadío apta para el cultivo de pataca. A partir de las bases de datos georreferenciadas de precipitación, radiación global, y la dotación de agua para el riego de cultivos no específicos establecida en el Plan Hidrológico de la Cuenca del Duero a escala comarcal, se estimó la producción potencial de tubérculos de pataca sobre la superficie de barbecho de regadío según el modelo de producción elaborado. Así, en las 53.360 ha de barbecho en regadío aptas para el cultivo de pataca se podrían producir 3,8 Mt de tubérculos al año (80 % de humedad) (761.156 t ms/año) de los que se podría obtener 304.462 m3/año de bioetanol, considerando un rendimiento en la transformación de 12,5 kg mf/l de etanol. Se estiman los costes de las labores de cultivo de pataca así como los costes de la logística de suministro a una planta de transformación considerando una distancia media de transporte de 25 km, en base a las hojas de cálculo de utilización de aperos y maquinaria agrícola oficiales del Ministerio de Agricultura, Alimentación y Medio Ambiente (MAGRAMA). Considerando el balance de costes asociados a la producción de bioetanol (costes de transformación, distribución y transporte del producto, costes estructurales de la planta, ahorro de costes por la utilización de las vinazas generadas en el proceso como fertilizante y un beneficio industrial), se ha estimado que el coste de producción de bioetanol a partir de tubérculos de pataca asciende a 61,03 c€/l. Se calculan los beneficios fiscales para el Estado por el cultivo de 5.522 ha de pataca que suministren la materia prima necesaria para una planta de bioetanol de 30.000 m3/año, en concepto de cotizaciones a la Seguridad Social de los trabajadores, impuestos sobre el valor añadido de los productos consumidos, impuesto sobre sociedades y ahorro de las prestaciones por desempleo. Se obtuvieron unos beneficios fiscales de 10,25 c€ por litro de bioetanol producido. El coste de producción de bioetanol depende del rendimiento de tubérculos por hectárea y de la distancia de transporte desde las zonas de producción de la materia prima hasta la planta. Se calculó la distancia máxima de transporte para que el precio de coste del bioetanol producido sea competitivo con el precio de mercado del bioetanol. Como resultado se determinó que el precio del bioetanol (incluido un beneficio industrial del 15%) de la planta sería igual o inferior al precio de venta en el mercado (66,35 c€/l) con una distancia máxima de transporte de 25 km y un rendimiento mínimo del cultivo de 60,1 t mf/ha. Una vez conocido el área de influencia de la planta según la distancia de transporte máxima, se determinó la localización óptima de la planta de producción de bioetanol mediante un proceso de ubicación‐asignación realizado con SIG. Para ello se analizan los puntos candidatos a la ubicación de la planta según el cumplimiento de unos requerimientos técnicos establecidos (distancia a fuentes de suministro eléctrico y de recursos hídricos, distancia a estaciones de ferrocarril, distancia a núcleos urbanos y existencia de Espacios Naturales Protegidos) que minimizan la distancia de transporte maximizando la cantidad de biomasa disponible según la producción potencial estimada anteriormente. Por último, la superficie destinada al cultivo de pataca en el área de influencia de la planta se determina en base a un patrón de distribución del cultivo alrededor de una agroindustria. Dicho patrón se ha obtenido a partir del análisis del grado de ocupación del cultivo de la remolacha en función de la distancia de transporte a la planta azucarera de Miranda de Ebro (Burgos). El patrón resultante muestra que la relación entre el grado de ocupación del suelo por el cultivo y la distancia de transporte a la planta siguen una ecuación logística. La localización óptima que se ha obtenido mediante la metodología descrita se ubica en el municipio leonés de El Burgo Ranero, donde la producción potencial de tubérculos de pataca en la superficie de barbecho situada en un radio de acción de 25 km es de 375.665 t mf/año, superando las 375.000 t mf requeridas anualmente por la planta de bioetanol. ABSTRACT Jerusalem artichoke (Helianthus tuberosus L.) is a harsh crop with a high potential for biomass production. Its main use is related to bioethanol production from the carbohydrates, inulin mainly, accumulated in its tubers at the end of the crop cycle. The aerial biomass could be used as solid biofuel to provide energy to the bioethanol production process. Therefore, Jerusalem artichoke is a promising crop as feedstock for biofuel production in order to achieve the biofuels consumption objectives established by the Government of Spain (PER 2011‐2020 and RDL 4/2013) and the European Union (Directive 2009/28/EC). This work aims at the determination of the optimal location for a 30,000 m3/year bioethanol production plant from Jerusalem artichoke tubers in the Duero river basin. With this purpose, a crop production model was developed by means of a regression equation that relates experimental yield data of late Jerusalem artichoke varieties with pedo‐climatic parameters from a bibliographic data matrix. The resulting crop production model was based on the crop water availability (including effective rainfall and irrigation water supplied) and on global radiation accumulated in the crop emergence‐senescence period. The crop potential cultivation area for Jerusalem artichoke in the Duero basin was estimated using the georeferenced irrigated arable land from the “Sistema de Ocupación del Suelo” (SIOSE) of Spain. Climatic, soil, slope and logistic restrictions were considered by means of Geographic Information Systems (GIS). The limited potential growing area was then applied to a municipality scale in order to calculate the amount of fallow land suitable for Jerusalem artichoke production. Rainfall and global radiation georeferenced layers as well as data of irrigation water supply for crop production (established within the Duero Hydrologic Plan) were use to estimate the potential production of Jerusalem artichoke tubers in the suitable fallow land according to the crop production model. As a result of this estimation, there are 53,360 ha of fallow land suitable for Jerusalem artichoke production in the Duero basin, where 3.8 M t fm/year could be produced. Considering a bioethanol processing yield of 12.5 kg mf per liter of bioethanol, the above mentioned tuber potential production could be processed in 304,462 m3/year of bioethanol. The Jerusalem crop production costs and the logistic supply costs (considering an average transport distance of 25 km) were estimated according to official agricultural machinery cost calculation sheets of the Minister of Agriculture of Spain (MAGRAMA). The bioethanol production cost from Jerusalem artichoke tubers was calculated considering bioethanol processing, transport and structural costs, industrial profits as well as plant cost savings from the use of vinasses as fertilizer. The resulting bioetanol production cost from Jerusalem artichoke tubers was 61.03 c€/l. Additionally, revenues for the state coffers regarding Social Security contributions, added value taxes of consumed raw materials, corporation tax and unemployment benefit savings due to the cultivation of 5,522 ha of Jerusalem artichoke for the 30.000 m3/year bioethanol plant supply were calculated. The calculated revenues amounted to 10.25 c€/l. Bioethanol production cost and consequently the bioethanol plant economic viability are strongly related to the crop yield as well as to road transport distance from feedstock production areas to the processing plant. The previously estimated bioethanol production cost was compared to the bioethanol market price in order to determine the maximum supply transport distance and the minimum crop yield to reach the bioethanol plant economic viability. The results showed that the proposed plant would be economically viable at a maximum transport distance of 25 km and at a crop yield not less than 60.1 t fm/ha. By means of a GIS location‐allocation analysis, the optimal bioethanol plant location was determined. Suitable candidates were detected according to several plant technical requirements (distance to power and water supply sources, distance to freight station, and distance to urban areas and to Natural Protected Areas). The optimal bioethanol plant location must minimize the supply transport distance whereas it maximizes the amount of available biomass according to the previously estimated biomass potential production. Lastly, the agricultural area around the bioethanol plant finally dedicated to Jerusalem artichoke cultivation was planned according to a crop distribution model. The crop distribution model was established from the analysis of the relation between the sugar beet (Beta vulgaris L.) cropping area and the road transport distance from the sugar processing plant of Miranda de Ebro (Burgos, North of Spain). The optimal location was situated in the municipality of ‘El Burgo Ranero’ in the province of León. The potential production of Jerusalem artichoke tubers in the fallow land within 25 km distance from the plant location was 375,665 t fm/year, which exceeds the amount of biomass yearly required by the bioethanol plant.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La diabetes mellitus es el conjunto de alteraciones provocadas por un defecto en la cantidad de insulina secretada o por un aprovechamiento deficiente de la misma. Es causa directa de complicaciones a corto, medio y largo plazo que disminuyen la calidad y las expectativas de vida de las personas con diabetes. La diabetes mellitus es en la actualidad uno de los problemas más importantes de salud. Ha triplicado su prevalencia en los últimos 20 anos y para el año 2025 se espera que existan casi 300 millones de personas con diabetes. Este aumento de la prevalencia junto con la morbi-mortalidad asociada a sus complicaciones micro y macro-vasculares convierten la diabetes en una carga para los sistemas sanitarios, sus recursos económicos y sus profesionales, haciendo de la enfermedad un problema individual y de salud pública de enormes proporciones. De momento no existe cura a esta enfermedad, de modo que el objetivo terapéutico del tratamiento de la diabetes se centra en la normalización de la glucemia intentando minimizar los eventos de hiper e hipoglucemia y evitando la aparición o al menos retrasando la evolución de las complicaciones vasculares, que constituyen la principal causa de morbi-mortalidad de las personas con diabetes. Un adecuado control diabetológico implica un tratamiento individualizado que considere multitud de factores para cada paciente (edad, actividad física, hábitos alimentarios, presencia de complicaciones asociadas o no a la diabetes, factores culturales, etc.). Sin embargo, a corto plazo, las dos variables más influyentes que el paciente ha de manejar para intervenir sobre su nivel glucémico son la insulina administrada y la dieta. Ambas presentan un retardo entre el momento de su aplicación y el comienzo de su acción, asociado a la absorción de los mismos. Por este motivo la capacidad de predecir la evolución del perfil glucémico en un futuro cercano, ayudara al paciente a tomar las decisiones adecuadas para mantener un buen control de su enfermedad y evitar situaciones de riesgo. Este es el objetivo de la predicción en diabetes: adelantar la evolución del perfil glucémico en un futuro cercano para ayudar al paciente a adaptar su estilo de vida y sus acciones correctoras, con el propósito de que sus niveles de glucemia se aproximen a los de una persona sana, evitando así los síntomas y complicaciones de un mal control. La aparición reciente de los sistemas de monitorización continua de glucosa ha proporcionado nuevas alternativas. La disponibilidad de un registro exhaustivo de las variaciones del perfil glucémico, con un periodo de muestreo de entre uno y cinco minutos, ha favorecido el planteamiento de nuevos modelos que tratan de predecir la glucemia utilizando tan solo las medidas anteriores de glucemia o al menos reduciendo significativamente la información de entrada a los algoritmos. El hecho de requerir menor intervención por parte del paciente, abre nuevas posibilidades de aplicación de los predictores de glucemia, haciéndose viable su uso en tiempo real, como sistemas de ayuda a la decisión, como detectores de situaciones de riesgo o integrados en algoritmos automáticos de control. En esta tesis doctoral se proponen diferentes algoritmos de predicción de glucemia para pacientes con diabetes, basados en la información registrada por un sistema de monitorización continua de glucosa así como incorporando la información de la insulina administrada y la ingesta de carbohidratos. Los algoritmos propuestos han sido evaluados en simulación y utilizando datos de pacientes registrados en diferentes estudios clínicos. Para ello se ha desarrollado una amplia metodología, que trata de caracterizar las prestaciones de los modelos de predicción desde todos los puntos de vista: precisión, retardo, ruido y capacidad de detección de situaciones de riesgo. Se han desarrollado las herramientas de simulación necesarias y se han analizado y preparado las bases de datos de pacientes. También se ha probado uno de los algoritmos propuestos para comprobar la validez de la predicción en tiempo real en un escenario clínico. Se han desarrollado las herramientas que han permitido llevar a cabo el protocolo experimental definido, en el que el paciente consulta la predicción bajo demanda y tiene el control sobre las variables metabólicas. Este experimento ha permitido valorar el impacto sobre el control glucémico del uso de la predicción de glucosa. ABSTRACT Diabetes mellitus is the set of alterations caused by a defect in the amount of secreted insulin or a suboptimal use of insulin. It causes complications in the short, medium and long term that affect the quality of life and reduce the life expectancy of people with diabetes. Diabetes mellitus is currently one of the most important health problems. Prevalence has tripled in the past 20 years and estimations point out that it will affect almost 300 million people by 2025. Due to this increased prevalence, as well as to morbidity and mortality associated with micro- and macrovascular complications, diabetes has become a burden on health systems, their financial resources and their professionals, thus making the disease a major individual and a public health problem. There is currently no cure for this disease, so that the therapeutic goal of diabetes treatment focuses on normalizing blood glucose events. The aim is to minimize hyper- and hypoglycemia and to avoid, or at least to delay, the appearance and development of vascular complications, which are the main cause of morbidity and mortality among people with diabetes. A suitable, individualized and controlled treatment for diabetes involves many factors that need to be considered for each patient: age, physical activity, eating habits, presence of complications related or unrelated to diabetes, cultural factors, etc. However, in the short term, the two most influential variables that the patient has available in order to manage his/her glycemic levels are administered insulin doses and diet. Both suffer from a delay between their time of application and the onset of the action associated with their absorption. Therefore, the ability to predict the evolution of the glycemic profile in the near future could help the patient to make appropriate decisions on how to maintain good control of his/her disease and to avoid risky situations. Hence, the main goal of glucose prediction in diabetes consists of advancing the evolution of glycemic profiles in the near future. This would assist the patient in adapting his/her lifestyle and in taking corrective actions in a way that blood glucose levels approach those of a healthy person, consequently avoiding the symptoms and complications of a poor glucose control. The recent emergence of continuous glucose monitoring systems has provided new alternatives in this field. The availability of continuous records of changes in glycemic profiles (with a sampling period of one or five minutes) has enabled the design of new models which seek to predict blood glucose by using automatically read glucose measurements only (or at least, reducing significantly the data input manually to the algorithms). By requiring less intervention by the patient, new possibilities are open for the application of glucose predictors, making its use feasible in real-time applications, such as: decision support systems, hypo- and hyperglycemia detectors, integration into automated control algorithms, etc. In this thesis, different glucose prediction algorithms are proposed for patients with diabetes. These are based on information recorded by a continuous glucose monitoring system and incorporate information of the administered insulin and carbohydrate intakes. The proposed algorithms have been evaluated in-silico and using patients’ data recorded in different clinical trials. A complete methodology has been developed to characterize the performance of predictive models from all points of view: accuracy, delay, noise and ability to detect hypo- and hyperglycemia. In addition, simulation tools and patient databases have been deployed. One of the proposed algorithms has additionally been evaluated in terms of real-time prediction performance in a clinical scenario in which the patient checked his/her glucose predictions on demand and he/she had control on his/her metabolic variables. This has allowed assessing the impact of using glucose prediction on glycemic control. The tools to carry out the defined experimental protocols were also developed in this thesis.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Objetivo. Describir los cambios en la temperatura de la piel (Tp) durante el ejercicio registrado por medio de termografía infrarroja. Método. Se realizó una revisión sistemática de la literatura utilizando los términos ejercicio y termografía en las bases de datos de MEDLINE/PubMed, IEEEXplore y SciELO teniendo como principales factores de in- clusión, estudios con humanos sin ningún tipo de problema físico o metabólico. Resultados. Tras el proceso de exclusión, fueron seleccionados ocho artículos. La Tp tiende a disminuir al inicio del ejercicio, de manera que su magnitud depende de la duración e intensidad de la actividad pro- puesta. En ejercicios con carga progresiva se observa una continua reducción de la Tp en comparación con los valores de reposo. Sin embargo, en ejercicios prolongados, la Tp puede variar según la región corporal evaluada con reducción, mantenimiento o incluso un aumento térmico, como sucede en las principales re- giones musculares involucradas en el ejercicio. La Tp presenta respuestas específicas durante el ejercicio en función de la región corporal y la necesidad de pérdida de calor. Conclusión. La Tp disminuye en la fase inicial del ejercicio. La manera de realizar el ejercicio de perfil máxi- mo o submáximo determina la respuesta de la Tp. No existe una respuesta homogénea en la Tp entre las diferentes regiones corporales, demostrando así la extremada complejidad del proceso de control de la temperatura central. Consecuentemente, la termografía infrarroja puede ser un valioso instrumento para hacer un seguimiento tanto de la respuesta térmica local como de la general.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Durante los últimos años, el imparable crecimiento de fuentes de datos biomédicas, propiciado por el desarrollo de técnicas de generación de datos masivos (principalmente en el campo de la genómica) y la expansión de tecnologías para la comunicación y compartición de información ha propiciado que la investigación biomédica haya pasado a basarse de forma casi exclusiva en el análisis distribuido de información y en la búsqueda de relaciones entre diferentes fuentes de datos. Esto resulta una tarea compleja debido a la heterogeneidad entre las fuentes de datos empleadas (ya sea por el uso de diferentes formatos, tecnologías, o modelizaciones de dominios). Existen trabajos que tienen como objetivo la homogeneización de estas con el fin de conseguir que la información se muestre de forma integrada, como si fuera una única base de datos. Sin embargo no existe ningún trabajo que automatice de forma completa este proceso de integración semántica. Existen dos enfoques principales para dar solución al problema de integración de fuentes heterogéneas de datos: Centralizado y Distribuido. Ambos enfoques requieren de una traducción de datos de un modelo a otro. Para realizar esta tarea se emplean formalizaciones de las relaciones semánticas entre los modelos subyacentes y el modelo central. Estas formalizaciones se denominan comúnmente anotaciones. Las anotaciones de bases de datos, en el contexto de la integración semántica de la información, consisten en definir relaciones entre términos de igual significado, para posibilitar la traducción automática de la información. Dependiendo del problema en el que se esté trabajando, estas relaciones serán entre conceptos individuales o entre conjuntos enteros de conceptos (vistas). El trabajo aquí expuesto se centra en estas últimas. El proyecto europeo p-medicine (FP7-ICT-2009-270089) se basa en el enfoque centralizado y hace uso de anotaciones basadas en vistas y cuyas bases de datos están modeladas en RDF. Los datos extraídos de las diferentes fuentes son traducidos e integrados en un Data Warehouse. Dentro de la plataforma de p-medicine, el Grupo de Informática Biomédica (GIB) de la Universidad Politécnica de Madrid, en el cuál realicé mi trabajo, proporciona una herramienta para la generación de las necesarias anotaciones de las bases de datos RDF. Esta herramienta, denominada Ontology Annotator ofrece la posibilidad de generar de manera manual anotaciones basadas en vistas. Sin embargo, aunque esta herramienta muestra las fuentes de datos a anotar de manera gráfica, la gran mayoría de usuarios encuentran difícil el manejo de la herramienta , y pierden demasiado tiempo en el proceso de anotación. Es por ello que surge la necesidad de desarrollar una herramienta más avanzada, que sea capaz de asistir al usuario en el proceso de anotar bases de datos en p-medicine. El objetivo es automatizar los procesos más complejos de la anotación y presentar de forma natural y entendible la información relativa a las anotaciones de bases de datos RDF. Esta herramienta ha sido denominada Ontology Annotator Assistant, y el trabajo aquí expuesto describe el proceso de diseño y desarrollo, así como algunos algoritmos innovadores que han sido creados por el autor del trabajo para su correcto funcionamiento. Esta herramienta ofrece funcionalidades no existentes previamente en ninguna otra herramienta del área de la anotación automática e integración semántica de bases de datos. ---ABSTRACT---Over the last years, the unstoppable growth of biomedical data sources, mainly thanks to the development of massive data generation techniques (specially in the genomics field) and the rise of the communication and information sharing technologies, lead to the fact that biomedical research has come to rely almost exclusively on the analysis of distributed information and in finding relationships between different data sources. This is a complex task due to the heterogeneity of the sources used (either by the use of different formats, technologies or domain modeling). There are some research proyects that aim homogenization of these sources in order to retrieve information in an integrated way, as if it were a single database. However there is still now work to automate completely this process of semantic integration. There are two main approaches with the purpouse of integrating heterogeneous data sources: Centralized and Distributed. Both approches involve making translation from one model to another. To perform this task there is a need of using formalization of the semantic relationships between the underlying models and the main model. These formalizations are also calles annotations. In the context of semantic integration of the information, data base annotations consist on defining relations between concepts or words with the same meaning, so the automatic translation can be performed. Depending on the task, the ralationships can be between individuals or between whole sets of concepts (views). This paper focuses on the latter. The European project p-medicine (FP7-ICT-2009-270089) is based on the centralized approach. It uses view based annotations and RDF modeled databases. The data retireved from different data sources is translated and joined into a Data Warehouse. Within the p-medicine platform, the Biomedical Informatics Group (GIB) of the Polytechnic University of Madrid, in which I worked, provides a software to create annotations for the RDF sources. This tool, called Ontology Annotator, is used to create annotations manually. However, although Ontology Annotator displays the data sources graphically, most of the users find it difficult to use this software, thus they spend too much time to complete the task. For this reason there is a need to develop a more advanced tool, which would be able to help the user in the task of annotating p-medicine databases. The aim is automating the most complex processes of the annotation and display the information clearly and easy understanding. This software is called Ontology Annotater Assistant and this book describes the process of design and development of it. as well as some innovative algorithms that were designed by the author of the work. This tool provides features that no other software in the field of automatic annotation can provide.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este Proyecto Fin de Grado está enmarcado dentro de las actividades del GRyS (Grupo de Redes y Servicios de Próxima Generación) con las Smart Grids. En la investigación actual sobre Smart Grids se pretenden alcanzar los siguientes objetivos: . Integrar fuentes de energías renovables de manera efectiva. . Aumentar la eficiencia en la gestión de la demanda y suministro de forma dinámica. . Reducir las emisiones de CO2 dando prioridad a fuentes de energía verdes. . Concienciar del consumo de energía mediante la monitorización de dispositivos y servicios. . Estimular el desarrollo de un mercado vanguardista de tecnologías energéticamente eficientes con nuevos modelos de negocio. Dentro del contexto de las Smart Grids, el interés del GRyS se extiende básicamente a la creación de middlewares semánticos y tecnologías afines, como las ontologías de servicios y las bases de datos semánticas. El objetivo de este Proyecto Fin de Grado ha sido diseñar y desarrollar una aplicación para dispositivos con sistema operativo Android, que implementa una interfaz gráfica y los métodos necesarios para obtener y representar información de registro de servicios de una plataforma SOA (Service-Oriented Architecture). La aplicación permite: . Representar información relativa a los servicios y dispositivos registrados en una Smart Grid. . Guardar, cargar y compartir por correo electrónico ficheros HTML con la información anterior. . Representar en un mapa la ubicación de los dispositivos. . Representar medidas (voltaje, temperatura, etc.) en tiempo real. . Aplicar filtros por identificador de dispositivo, modelo o fabricante. . Realizar consultas SPARQL a bases de datos semánticas. . Guardar y cagar consultas SPARQL en ficheros de texto almacenados en la tarjeta SD. La aplicación, desarrollada en Java, es de código libre y hace uso de tecnologías estándar y abiertas como HTML, XML, SPARQL y servicios RESTful. Se ha tenido ocasión de probarla con la infraestructura del proyecto europeo e-Gotham (Sustainable-Smart Grid Open System for the Aggregated Control, Monitoring and Management of Energy), en el que participan 17 socios de 5 países: España, Italia, Estonia, Finlandia y Noruega. En esta memoria se detalla el estudio realizado sobre el Estado del arte y las tecnologías utilizadas en el desarrollo del proyecto, la implementación, diseño y arquitectura de la aplicación, así como las pruebas realizadas y los resultados obtenidos. ABSTRACT. This Final Degree Project is framed within the activities of the GRyS (Grupo de Redes y Servicios de Próxima Generación) with the Smart Grids. Current research on Smart Grids aims to achieve the following objectives: . To effectively integrate renewable energy sources. . To increase management efficiency by dynamically matching demand and supply. . To reduce carbon emissions by giving priority to green energy sources. . To raise energy consumption awareness by monitoring products and services. . To stimulate the development of a leading-edge market for energy-efficient technologies with new business models. Within the context of the Smart Grids, the interest of the GRyS basically extends to the creation of semantic middleware and related technologies, such as service ontologies and semantic data bases. The objective of this Final Degree Project has been to design and develop an application for devices with Android operating system, which implements a graphical interface and methods to obtain and represent services registry information in a Service-Oriented Architecture (SOA) platform. The application allows users to: . Represent information related to services and devices registered in a Smart Grid. . Save, load and share HTML files with the above information by email. . Represent the location of devices on a map. . Represent measures (voltage, temperature, etc.) in real time. . Apply filters by device id, model or manufacturer. . SPARQL query semantic database. . Save and load SPARQL queries in text files stored on the SD card. The application, developed in Java, is open source and uses open standards such as HTML, XML, SPARQL and RESTful services technologies. It has been tested in a real environment using the e-Gotham European project infrastructure (Sustainable-Smart Grid Open System for the Aggregated Control, Monitoring and Management of Energy), which is participated by 17 partners from 5 countries: Spain, Italy, Estonia, Finland and Norway. This report details the study on the State of the art and the technologies used in the development of the project, implementation, design and architecture of the application, as well as the tests performed and the results obtained.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Se ha realizado un estudio de la distribución de plantas vasculares en un territorio situado entre las provincias de Cuenca, Guadalajara, Madrid y Toledo (España). El territorio estudiado está en la Submeseta Sur de la península ibérica, al sur del Sistema Central, norte de los Montes de Toledo y oeste del Sistema Ibérico, en zonas sedimentarias con poco relieve y clima mediterráneo, con grandes contrastes de temperatura y precipitaciones muy irregulares. Coincide con las regiones naturales llamadas: “Alcarrias”, “Campiñas de Madrid y Guadalajara” y “Vegas de los ríos de la Cuenca del Tajo”. Es lo que he llamado Cuenca Media del Tajo. En una primera fase se ha estudiado la flora regional para adquirir conocimientos previos mediante las consultas bibliográficas y de herbarios, se ha contado con bases de datos disponibles para MA, MACB, MAF, JACA, AH, ABH, VAL, SALA y EMMA. Se han revisado las aportaciones propias que en los últimos años he realizado en el territorio en relación a los temas tratados en la tesis. El trabajo de campo ha consistido en la realización de inventarios de presencia de flora. Ha sido muy importante la tarea herborizadora para llegar a la correcta identificación de las especies colectadas en los inventarios. De esta forma el autor ha confeccionado un herbario propio JML que en el territorio muestreado ha reunido cerca de 15000 números en las cuatro provincias estudiadas. Se ha hecho un muestreo sistemático del territorio con unos 6000 listados de plantas. Se ha tomado como unidad de muestreo la cuadrícula de UTM de 1 km de lado incluida como una centésima parte de la cuadrícula de UTM de 10 km. Se han seguido criterios para uniformizar el muestreo. Se ha apuntado el tiempo empleado y la superficie muestreada estimada en cada toma de datos. El criterio mínimo que tienen que cumplir todas las cuadrículas en el área estudiada ha sido que para cada cuadrícula de UTM de 5 km se han realizado al menos 5 inventarios en 5 cuadrículas diferentes de UTM de 1 km y al menos en una hora de tiempo. La unidad de comparación ha sido la cuadrícula UTM de 5 km. Se han informatizado los inventarios de campo, para ello se ha creado la base de datos TESIS en Microsoft office –Access-. Las principales tablas son LOCALIDAD, en la que se anotan las características del lugar muestreado y ESPECIES, que lista las especies de flora consideradas en las cuatro provincias del estudio. Por medio de formularios se han rellenado las tablas; destaca la tabla ESPECIE INVENTARIO que relaciona las tablas ESPECIES y LOCALIDAD; esta tabla cuenta en este momento con unos 165.000 registros. En la tabla ESPECIES_FPVI se visualizan las especies recopiladas. Se ha creado un indicador llamado FPVI “Flora permanentemente visible identificable” que consiste en atribuir a cada especie unos índices que nos permiten saber si una determinada planta se puede detectar en cualquier época del año. Los resultados presentados son: Creación de la base de datos TESIS. El Catálogo Florístico de la Cuenca Media del Tajo, que es el catálogo de la flora de las cuatro provincias desde el principio de la sistemática hasta las Saxifragáceas. En total se han recopilado 1028 taxones distribuidos en 77 familias. Se ha calculado el índice FPVI, para las especies del catálogo. La finalidad para la que se ha diseñado este índice es para poder comparar territorios. Para el desarrollo de ambos resultados ha sido fundamental el desarrollo de la tabla ESPECIES_PVI de la base de datos TESIS. En la tabla ESPECIES_PVI se han apuntado las características ecológicas y se revisa la información bibliográfica disponible para cada especie; las principales fuentes de información consultadas han sido Flora iberica, el proyecto “Anthos” y las bases de datos de los herbarios. Se ha apuntado sí se ha visto, sí está protegida o sí en un endemismo. Otros resultados son: la localización de las cuadrículas de UTM de 10 km, con mayor número de endemismos o especies singulares, con mayor valor botánico. Se ha realizado un par de ejemplos de estudios de autoecología de especie, en concreto Teucrium pumilum y Clematis recta. Se han confeccionando salidas cartográficas de distribución de especies. Se ha elaborado el herbario JML. Se ha presentado una sencilla herramienta para incluir inventarios florísticos, citas corológicas, consultas de autoecología o etiquetado de pliegos de herbario. Como colofón, se ha colaborado para desarrollar una aplicación informática de visualización, análisis y estudio de la distribución de taxones vegetales, que ha utilizado como datos de partida un porcentaje importante de los obtenidos para esta tesis. ABSTRACT I have made a study of the distribution of vascular plants in a territory located between the provinces of Cuenca, Guadalajara, Madrid and Toledo (Spain). The studied area is in the “Submeseta” South of the Iberian Peninsula, south of the Central System, north of the Montes de Toledo and west of the Iberian System, in sedimentary areas with little relief and Mediterranean climate, with big temperature contrasts and irregular rainfall. Coincides with the natural regions called "Alcarrias", "countryside of Madrid and Guadalajara" and “Vegas River Tagus Basin”. This is what I have called Middle Tagus Basin. In a first step we have studied the regional flora to acquire prior knowledge through the literature and herbaria consultations, it has had available databases for MA, MACB, MAF, JACA, AH, ABH, VAL, SALA and EMMA herbaria. The contributions I have made in the last years in the territory in relation to the topics discussed in the thesis have been revised. The field work consisted of conducting inventories presence of flora. Botanize was a very important task to get to the correct identification of the species collected in inventories. In this way the author has made his own herbarium JML in the sampled area has met at least 15000 samples in the four studied provinces. There has been a systematic sampling of the territory with nearly 6,000 listings of plants. Was taken as the sampling unit grid UTM 1 km side included as a hundredth of the UTM grid of 10 km from side. Criteria have been taken to standardize the sampling. Data were taken of the time spent and the estimated sampled surface. The minimum criteria they have to meet all the grids in the study area has been that for each UTM grid of 5 km have been made at least 5 stocks in 5 different grids UTM 1 km and at least one hour of time. The unit of comparison was the UTM grid of 5 km. I have computerized inventories of field, for it was created a database in Access- Microsoft office -TESIS. The main tables are LOCALIDAD, with caracteristics of the sampled location and ESPECIES, which lists the plant species considered in the four provinces of the study, is. Through forms I filled in the tables; highlights ESPECIE INVENTARIO table that relates the tables ESPECIES and LOCALIDAD, this table is counted at the moment with about 165,000 records. The table ESPECIES FPVI visualizes all recollected species. We have created an indicator called FPVI "Flora permanently visible identifiable" that attributes to each species indices that allow us to know whether a given plant can be detected in any season. The results presented are: Creating data base TESIS. The Floristic Books Middle Tagus Basin, which is a catalog of the flora of the four provinces since the beginning of the systematic until Saxifragaceae. In total 1028 collected taxa in 77 families. We calculated FPVI index for species catalog. The purpose for which this index designed is, to compare territories. For the development of both results, it was essential to develop the table ESPECIES_PVI TESIS data base. Table ESPECIES_PVI has signed the ecological characteristics and bibliographic information available for each species is revised; the main sources of information has been Flora iberica, the Anthos project databases of herbaria. Targeted species has been recorded, when seen, protected or endemism. Have also been located UTM grids of 10 km, with the largest number of endemic or unique species and more botanical value. There have been a couple of species autecology studies, namely Teucrium pumilum and Clematis recta, as an example of this type of study. They have been putting together maps of species distribution. We made herbarium JML. I have presented a simple tool to include floristic inventories, chorological appointments, consultations or to tag autoecology herbarium specimens. To cap it has worked to develop a computer application for visualization, analysis and study of the distribution of plant taxa, which has used as input data a significant percentage of those obtained for this thesis.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La cuestión principal abordada en esta tesis doctoral es la mejora de los sistemas biométricos de reconocimiento de personas a partir de la voz, proponiendo el uso de una nueva parametrización, que hemos denominado parametrización biométrica extendida dependiente de género (GDEBP en sus siglas en inglés). No se propone una ruptura completa respecto a los parámetros clásicos sino una nueva forma de utilizarlos y complementarlos. En concreto, proponemos el uso de parámetros diferentes dependiendo del género del locutor, ya que como es bien sabido, la voz masculina y femenina presentan características diferentes que deberán modelarse, por tanto, de diferente manera. Además complementamos los parámetros clásicos utilizados (MFFC extraídos de la señal de voz), con un nuevo conjunto de parámetros extraídos a partir de la deconstrucción de la señal de voz en sus componentes de fuente glótica (más relacionada con el proceso y órganos de fonación y por tanto con características físicas del locutor) y de tracto vocal (más relacionada con la articulación acústica y por tanto con el mensaje emitido). Para verificar la validez de esta propuesta se plantean diversos escenarios, utilizando diferentes bases de datos, para validar que la GDEBP permite generar una descripción más precisa de los locutores que los parámetros MFCC clásicos independientes del género. En concreto se plantean diferentes escenarios de identificación sobre texto restringido y texto independiente utilizando las bases de datos de HESPERIA y ALBAYZIN. El trabajo también se completa con la participación en dos competiciones internacionales de reconocimiento de locutor, NIST SRE (2010 y 2012) y MOBIO 2013. En el primer caso debido a la naturaleza de las bases de datos utilizadas se obtuvieron resultados cercanos al estado del arte, mientras que en el segundo de los casos el sistema presentado obtuvo la mejor tasa de reconocimiento para locutores femeninos. A pesar de que el objetivo principal de esta tesis no es el estudio de sistemas de clasificación, sí ha sido necesario analizar el rendimiento de diferentes sistemas de clasificación, para ver el rendimiento de la parametrización propuesta. En concreto, se ha abordado el uso de sistemas de reconocimiento basados en el paradigma GMM-UBM, supervectores e i-vectors. Los resultados que se presentan confirman que la utilización de características que permitan describir los locutores de manera más precisa es en cierto modo más importante que la elección del sistema de clasificación utilizado por el sistema. En este sentido la parametrización propuesta supone un paso adelante en la mejora de los sistemas de reconocimiento biométrico de personas por la voz, ya que incluso con sistemas de clasificación relativamente simples se consiguen tasas de reconocimiento realmente competitivas. ABSTRACT The main question addressed in this thesis is the improvement of automatic speaker recognition systems, by the introduction of a new front-end module that we have called Gender Dependent Extended Biometric Parameterisation (GDEBP). This front-end do not constitute a complete break with respect to classical parameterisation techniques used in speaker recognition but a new way to obtain these parameters while introducing some complementary ones. Specifically, we propose a gender-dependent parameterisation, since as it is well known male and female voices have different characteristic, and therefore the use of different parameters to model these distinguishing characteristics should provide a better characterisation of speakers. Additionally, we propose the introduction of a new set of biometric parameters extracted from the components which result from the deconstruction of the voice into its glottal source estimate (close related to the phonation process and the involved organs, and therefore the physical characteristics of the speaker) and vocal tract estimate (close related to acoustic articulation and therefore to the spoken message). These biometric parameters constitute a complement to the classical MFCC extracted from the power spectral density of speech as a whole. In order to check the validity of this proposal we establish different practical scenarios, using different databases, so we can conclude that a GDEBP generates a more accurate description of speakers than classical approaches based on gender-independent MFCC. Specifically, we propose scenarios based on text-constrain and text-independent test using HESPERIA and ALBAYZIN databases. This work is also completed with the participation in two international speaker recognition evaluations: NIST SRE (2010 and 2012) and MOBIO 2013, with diverse results. In the first case, due to the nature of the NIST databases, we obtain results closed to state-of-the-art although confirming our hypothesis, whereas in the MOBIO SRE we obtain the best simple system performance for female speakers. Although the study of classification systems is beyond the scope of this thesis, we found it necessary to analise the performance of different classification systems, in order to verify the effect of them on the propose parameterisation. In particular, we have addressed the use of speaker recognition systems based on the GMM-UBM paradigm, supervectors and i-vectors. The presented results confirm that the selection of a set of parameters that allows for a more accurate description of the speakers is as important as the selection of the classification method used by the biometric system. In this sense, the proposed parameterisation constitutes a step forward in improving speaker recognition systems, since even when using relatively simple classification systems, really competitive recognition rates are achieved.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La heterogeneidad del medio geológico introduce en el proyecto de obra subterránea un alto grado de incertidumbre que debe ser debidamente gestionado a fin de reducir los riesgos asociados, que son fundamentalmente de tipo geotécnico. Entre los principales problemas a los que se enfrenta la Mecánica de Rocas moderna en el ámbito de la construcción subterránea, se encuentran la fluencia de roca en túneles (squeezing) y la rotura de pilares de carbón. Es ampliamente conocido que su aparición causa importantes perjuicios en el coste y la seguridad de los proyectos por lo que su estudio, ha estado tradicionalmente vinculado a la predicción de su ocurrencia. Entre las soluciones existentes para la determinación de estos problemas se encuentran las que se basan en métodos analíticos y numéricos. Estas metodologías son capaces de proporcionar un alto nivel de representatividad respecto del comportamiento geotécnico real, sin embargo, su utilización solo es posible cuando se dispone de una suficiente caracterización geotécnica y por tanto de una detallada definición de los parámetros que alimentan los complejos modelos constitutivos y criterios de rotura que los fenómenos estudiados requieren. Como es lógico, este nivel de definición solo es posible cuando se alcanzan etapas avanzadas de proyecto, incluso durante la propia construcción, a fin de calibrar adecuadamente los parámetros introducidos en los modelos, lo que supone una limitación de uso en etapas iniciales, cuando su predicción tiene verdadero sentido. Por su parte, los métodos empíricos permiten proporcionar soluciones a estos complejos problemas de un modo sencillo, con una baja parametrización y, dado su eminente enfoque observacional, de gran fiabilidad cuando se implementan sobre condiciones de contorno similares a las originales. La sencillez y escasez de los parámetros utilizados permiten a estas metodologías ser utilizadas desde las fases preliminares del proyecto, ya que estos constituyen en general, información habitual de fácil y económica adquisición. Este aspecto permite por tanto incorporar la predicción desde el principio del proceso de diseño, anticipando el riesgo en origen. En esta tesis doctoral, se presenta una nueva metodología empírica que sirve para proporcionar predicciones para la ocurrencia de squeezing y el fallo de pilares de carbón basada en una extensa recopilación de información de casos reales de túneles y minas en las que ambos fenómenos fueron evaluados. Esta información, recogida de referencias bibliográficas de prestigio, ha permitido recopilar una de las más extensas bases de datos existentes hasta la fecha relativa a estos fenómenos, lo que supone en sí mismo una importante contribución sobre el estado del arte. Con toda esta información, y con la ayuda de la teoría de clasificadores estadísticos, se ha implementado sobre las bases de datos un clasificador lineal de tipo regresión logística que permite hacer predicciones sobre la ocurrencia de ambos fenómenos en términos de probabilidad, y por tanto ponderar la incertidumbre asociada a la heterogeneidad incorporada por el medio geológico. Este aspecto del desarrollo es el verdadero valor añadido proporcionado por la tesis y la principal ventaja de la solución propuesta respecto de otras metodologías empíricas. Esta capacidad de ponderación probabilística permite al clasificador constituir una solución muy interesante como metodología para la evaluación de riesgo geotécnico y la toma de decisiones. De hecho, y como ejercicio de validación práctica, se ha implementado la solución desarrollada en un modelo coste-beneficio asociado a la optimización del diseño de pilares involucrados en una de mina “virtual” explotada por tajos largos. La capacidad del clasificador para cuantificar la probabilidad de fallo del diseño, junto con una adecuada cuantificación de las consecuencias de ese fallo, ha permitido definir una ley de riesgo que se ha incorporado al balance de costes y beneficios, que es capaz, a partir del redimensionamiento iterativo del sistema de pilares y de la propia configuración de la mina, maximizar el resultado económico del proyecto minero bajo unas condiciones de seguridad aceptables, fijadas de antemano. Geological media variability introduces to the subterranean project a high grade of uncertainty that should be properly managed with the aim to reduce the associated risks, which are mainly geotechnical. Among the major problems facing the modern Rock Mechanics in the field of underground construction are both, the rock squeezing while tunneling and the failure of coal pillars. Given their harmfulness to the cost and safety of the projects, their study has been traditionally linked to the determination of its occurrence. Among the existing solutions for the determination of these problems are those that are based on analytical and numerical methods. Those methodologies allow providing a high level of reliability of the geotechnical behavior, and therefore a detailed definition of the parameters that feed the complex constitutive models and failure criteria that require the studied phenomena. Obviously, this level of definition is only possible when advanced stages of the project are achieved and even during construction in order to properly calibrate the parameters entered in the models, which suppose a limited use in early stages, when the prediction has true sense. Meanwhile, empirical methods provide solutions to these complex problems in a simple way, with low parameterization and, given his observational scope, with highly reliability when implemented on similar conditions to the original context. The simplicity and scarcity of the parameters used allow these methodologies be applied in the early stages of the project, since that information should be commonly easy and cheaply to get. This aspect can therefore incorporate the prediction from the beginning of the design process, anticipating the risk beforehand. This thesis, based on the extensive data collection of case histories of tunnels and underground mines, presents a novel empirical approach used to provide predictions for the occurrence of both, squeezing and coal pillars failures. The information has been collected from prestigious references, providing one of the largest databases to date concerning phenomena, a fact which provides an important contribution to the state of the art. With all this information, and with the aid of the theory of statistical classifiers, it has been implemented on both databases, a type linear logistic regression classifier that allows predictions about the occurrence of these phenomena in terms of probability, and therefore weighting the uncertainty associated with geological variability. This aspect of the development is the real added value provided by the thesis and the main advantage of the proposed solution over other empirical methodologies. This probabilistic weighting capacity, allows being the classifier a very interesting methodology for the evaluation of geotechnical risk and decision making. In fact, in order to provide a practical validation, we have implemented the developed solution within a cost-benefit analysis associated with the optimization of the design of coal pillar systems involved in a "virtual" longwall mine. The ability of the classifier to quantify the probability of failure of the design along with proper quantification of the consequences of that failure, has allowed defining a risk law which is introduced into the cost-benefits model, which is able, from iterative resizing of the pillar system and the configuration of the mine, maximize the economic performance of the mining project under acceptable safety conditions established beforehand.