46 resultados para HIDROLOGÍA - PROCESAMIENTO DE DATOS
Resumo:
Proyecto de Fin de Carrera de Ingeniería Técnica en Informática de Sistemas de la Universidad del País Vasco. NavyWar: Capa de Negocio y Datos por Daniel Crego. Director: Germán Rigau. Proyecto conjunto: NavyWar, realizado en colaboración con Adrián Gil (NavyWar: Capa de presentación). Juego desarrollado para dispositivos Android basado en "Hundir la flota". Incluye modos de juego contra inteligencia artificial y para dos jugadores.
Resumo:
Esta guía es de gran utilidad tanto para alumnos de las licenciaturas actuales de Economía y Dirección y Administración de Empresas como para los nuevos grados: Grado en Administración y Dirección de Empresas, en Economía, en Finanzas y Seguros, en Marketing y Grado en Fiscalidad y Administración Pública, ya que en todas ellas hay asignaturas que tienen relación con este manual. Esta guía es de gran utilidad tanto para alumnos de las licenciaturas actuales de Economía y Dirección y Administración de Empresas como para los nuevos grados: Grado en Administración y Dirección de Empresas, en Economía, en Finanzas y Seguros, en Marketing y Grado en Fiscalidad y Administración Pública, ya que en todas ellas hay asignaturas que tienen relación con este manual. Esta guía es de gran utilidad tanto para alumnos de las licenciaturas actuales de Economía y Dirección y Administración de Empresas como para los nuevos grados: Grado en Administración y Dirección de Empresas, en Economía, en Finanzas y Seguros, en Marketing y Grado en Fiscalidad y Administración Pública, ya que en todas ellas hay asignaturas que tienen relación con este manual. La estructura de este manual sigue varios tipos de docencia con el objetivo de guiar al alumno a lo largo del estudio de la econometría tanto en los aspectos teóricos, como prácticos. Para ello cada capítulo consta de una parte magistral, con contenido más teórico, y una más aplicada con ejercicios a desarrollar en las prácticas de aula, prácticas de ordenador y talleres. Además, al final de cada tema se dispone de una guía de instrucciones para llevar a cabo las prácticas de ordenador en con el software econométrico Gretl. Los temas que cubre el manual son los siguientes: Mínimos Cuadrados Generalizados (Heterocedasticidad, Autocorrelación), Regresores Estocásticos y Modelos Dinámicos. Además se proporciona una guía para el desarrollo de un proyecto empírico
Resumo:
Hasta hace poco, enfermedades como el cáncer o el Alzheimer eran interpretadas solo como mutaciones genéticas, es decir, cambios en la secuencia genética. Sin embargo, son muchos los que últimamente se interesan por la epigenética y por la relación con las enfermedades. La epigenética va más allá que la genética, se basa en los cambios reversibles del ADN y de las proteínas que se unen en él. Esto hace que, sin necesidad de alterar su secuencia, un gen pueda ser expresado o por el contrario quede silenciado. Uno de estos cambios epigenéticos es la metilación del ADN que consiste en una modificación química en el dinucleotido CpG (citosina-fosfato-guanina, es decir, donde una citosina es seguida de una guanina). Existen métodos experimentales para poder detectar la metilación, como por ejemplo, los métodos basados en la modificación del ADN con bisulfito y posterior análisis con arrays de ADN. El objetivo de este proyecto es imitar, mediante la simulación computacional y el estudio de distintas bases de datos, el comportamiento del sistema biológico, a fin de generar datos similares a los reales. Esta simulación de los datos reales permitirá, entre otras cosas, generar escenarios controlados en los que evaluar los métodos de análisis. Adicionalmente, el proceso de diseño permitirá explorar el proceso biológico que da lugar a los datos.
Resumo:
En este proyecto se ha realizado el procesamiento de una imagen satelital multiespectral de México concretamente centrada en la región del Lago de Chapala. Este proceso tiene como objetivo la distinción de tierra y agua mediante un proceso semi-automático utilizando distintos software o herramientas informáticas. Dentro del proyecto podemos destacar ciertas fases u operaciones como el preprocesado realizado a la imagen satelital donde se han aplicado una serie de transformaciones, la aplicación de técnicas de clasificación supervisada mediante la realización de entrenamiento y testeo con regiones de interés extraídas de la imagen satelital para la obtención de clasificadores o la aplicación de estos clasificadores en la binarización de la imagen, obteniendo una imagen binaria donde un valor representa agua y otro tierra. También podemos destacar el empleo de índices de agua y vegetación como una herramienta fundamental en la detección y en el análisis de cuerpos de agua. Éstos han marcado la calidad de los resultados obtenidos en el proyecto.
Resumo:
El trabajo realizado en este proyecto se enmarca dentro del área de Procesamiento del Lenguaje Natural aplicado al ámbito de la medicina. Para este fin se han utilizado técnicas de minería de datos y aprendizaje automático. El objetivo principal de este proyecto es el desarrollo de un modelo capaz de automatizar la clasificación de textos clínicos según el estándar ICD-9- CM (codificación estándar utilizada por la red hospitalaria europea). Aunque existe una herramienta web (https://eciemaps.mspsi.es/ecieMaps/ browser/index_9_mc.html), que facilita la clasificación, este trabajo, hoy en día es realizado manualmente. Básicamente se trata de un diccionario online, de los términos del estándar. Basándonos en trabajos previos relacionados, se ha obtenido un baseline a partir del cual se ha construido el proyecto. En primer lugar, como en cualquier trabajo relacionado con los Sistemas de Apoyo a la Decisión (DSS) se ha estructurado el trabajo en dos módulos principales, el preproceso y la clasificación. En el módulo dedicado al preproceso, se tratan los datos para hacerlos comprensibles a los algoritmos de clasificación. En este primer módulo también se realiza una fase de adición de atributos que aporten información útil a la hora de la clasificación y una posterior selección de los mismos, por si alguno fuera redundante o irrelevante. En el segundo módulo dedicado a la clasificación, seleccionamos aquellos algoritmos que consideramos mejores, basándonos para ello, en otros trabajos previos que abordan un problema similar. Una vez seleccionados los algoritmos, se procede a realizar barridos de parámetros que optimicen su rendimiento. Finalmente, se ha realizado la experimentación con distintas técnicas de preprocesamiento de los datos y con los distintos algoritmos de clasificación automática. Esta última de experimentación tiene como objetivo, encontrar la combinación de métodos que optimice el rendimiento de ambos módulos, y por tanto de todo el sistema.
Resumo:
Revista con LCC: Reconocimiento – NoComercial – SinObraDerivada (by-nc-nd)
Resumo:
[ES] Los siguientes enlaces proporcionan información adicional sobre este texto:
Resumo:
[ES]Este proyecto tiene como objetivo el diseño e implementación de una herramienta para la integración de los datos de calidad de servicio (QoS) en Internet publicados por el regulador español. Se trata de una herramienta que pretende, por una parte, unificar los diferentes formatos en que se publican los datos de QoS y, por otra, facilitar la conservación de los datos favoreciendo la obtención de históricos, datos estadísticos e informes. En la página del regulador sólo se puede acceder a los datos de los 5 últimos trimestres y los datos anteriormente publicados no permanecen accesibles si no que son sustituidos por los más recientes por lo que, desde el punto de vista del usuario final, estos datos se pierden. La herramienta propuesta en este trabajo soluciona este problema además de unificar formatos y facilitar el acceso a los datos de interés. Para el diseño del sistema se han usado las últimas tecnologías en desarrollo de aplicaciones web con lo que la potencia y posibilidad de futuras ampliaciones son elevadas.
Resumo:
Este Trabajo de Fin de Grado se centra en la Protección de Datos en el ámbito tributario. Siendo en este marco, donde encuentra buen acomodo la protección que de dichos datos se lleva a cabo desde diferentes perspectivas: generalista, desde las Administraciones y, en particular, desde la Administración Tributaria que servirán de referente para desarrollar este trabajo.
Resumo:
[ES]En este proyecto se presenta un estudio sobre la estimación de la longitud efectiva de lluvia derivada de los escaneos de elevación obtenidos por el radar meteorológico de Kapildui, en Álava. Se estudia la altura y la longitud de la lluvia para distintos eventos: para lluvia estratiforme y para lluvia convectiva. Se analizará la variabilidad espacial y temporal para diferentes ángulos de elevación del radar. Finalmente, se presentará una versión del algoritmo implementado para el cálculo de longitudes efectivas de lluvia y se realizará un estudio estadístico de la variabilidad de ésta para diferentes direcciones y con diferentes eventos de lluvia.
Resumo:
Duración (en horas): Más de 50 horas Destinatario: Estudiante y Docente
Resumo:
El Banco de Datos de Lenguas Paleohispánicas Hesperia tiene como finalidad la catalogación y la difusión de los textos escritos en las antiguas lenguas locales de la Península Ibérica, con exclusión del fenicio, el griego y el latín. El presente volumen es la versión impresa –a fecha de 2015– de una de las bases de datos que integra dicho banco: la correspondiente a la epigrafía monetal. Recoge las leyendas monetales redactadas en una lengua paleohispánica (fundamentalmente ibérico y celtibérico) tanto de la Península Ibérica cuanto del sureste de las Galias, incluidas las redactadas en latín y griego en las emisiones bilingües. Dada la controvertida lectura y adscripción lingüística de los rótulos “libiofenicios”, estos no son tomados en consideración. Las fichas están ordenadas alfabéticamente y agrupan todos los rótulos monetales correspondientes a una misma ceca, designada convencionalmente mediante una o varias de las leyendas toponímicas más frecuente, independientemente de su morfología (p. ej.: untikesken, salduie, kalakorikos o turiazu). Cada ficha presenta cuatro apartados: “Generalidades”, “Leyendas”, “Lengua y escritura” y “Bibliografía”.
Resumo:
En este Trabajo de Fin de Grado desarrollado en la empresa On4U, se ha implementado un módulo para Magento, cuya función principal es la generación dinámica de parrillas de productos en base al análisis del tiempo meteorológico, teniendo en cuenta la localización del cliente. Además, el módulo guarda automáticamente las compras efectuadas, junto con la información externa, para un posible análisis posterior que relacione los hábitos de compra con el tiempo meteorológico. Aunque se haya centrado en este caso de uso, se ha desarrollado con un enfoque modular, de tal manera que fuese fácil de integrar en el módulo el uso de otra fuente abierta de información. Para poder realizar el proyecto, se ha tenido que profundizar en varios conceptos relacionados con la plataforma de eCommerce Magento, entre ellos, el patrón Modelo-Vista-Controlador y el ciclo de vida de una petición.
Resumo:
La herramienta pretende integrar datos de la UPV/EHU públicamente accesibles y establecer puentes entre distintos repositorios de información del ámbito académico. Para ello, aprovecharemos el Linked Data, "la forma que tiene la Web Semántica de vincular los distintos datos que están distribuidos en la Web", y los estándares que éste define. La herramienta pretende integrar datos de la UPV/EHU públicamente accesibles y establecer puentes entre distintos repositorios de información del ámbito académico. Para ello, aprovecharemos el Linked Data, "la forma que tiene la Web Semántica de vincular los distintos datos que están distribuidos en la Web", y los estándares que éste define. Los repositorios elegidos para este trabajo han sido el ADDI, Bilatu, las páginas de todos los centros de la UPV/EHU en el Campus de Gipuzkoa y la DBLP. La mayoría de las funcionalidades de esta aplicación son genéricas, por lo que podrían fácilmente aplicarse a repositorios de otras instituciones. El sistema es un prototipo que demuestra la factibilidad del objetivo de integración y que está abierto a la incorporación de más conjuntos de datos, siguiendo la misma metodología empleada en el desarrollo de este proyecto. La mayoría de las funcionalidades de esta aplicación son genéricas, por lo que podrían fácilmente aplicarse a repositorios de otras instituciones. El sistema es un prototipo que demuestra la factibilidad del objetivo de integración y que está abierto a la incorporación de más conjuntos de datos, siguiendo la misma metodología empleada en el desarrollo de este proyecto.
Resumo:
162 p.