991 resultados para BANCOS DE DATOS
Resumo:
Hasta hace poco, enfermedades como el cáncer o el Alzheimer eran interpretadas solo como mutaciones genéticas, es decir, cambios en la secuencia genética. Sin embargo, son muchos los que últimamente se interesan por la epigenética y por la relación con las enfermedades. La epigenética va más allá que la genética, se basa en los cambios reversibles del ADN y de las proteínas que se unen en él. Esto hace que, sin necesidad de alterar su secuencia, un gen pueda ser expresado o por el contrario quede silenciado. Uno de estos cambios epigenéticos es la metilación del ADN que consiste en una modificación química en el dinucleotido CpG (citosina-fosfato-guanina, es decir, donde una citosina es seguida de una guanina). Existen métodos experimentales para poder detectar la metilación, como por ejemplo, los métodos basados en la modificación del ADN con bisulfito y posterior análisis con arrays de ADN. El objetivo de este proyecto es imitar, mediante la simulación computacional y el estudio de distintas bases de datos, el comportamiento del sistema biológico, a fin de generar datos similares a los reales. Esta simulación de los datos reales permitirá, entre otras cosas, generar escenarios controlados en los que evaluar los métodos de análisis. Adicionalmente, el proceso de diseño permitirá explorar el proceso biológico que da lugar a los datos.
Resumo:
El seguimiento de distintas especies de animales contribuye en gran medida a su estudio y, por tanto, a su conservación y control. Los avances tecnológicos de los últimos años han facilitado las posibilidades de seguimiento con la creación de distintos dispositivos que permiten conocer los movimientos de la especie que se desea estudiar. Uno de los sistemas más utilizados consiste en la utilización de dispositivos GPS incorporados al espécimen sobre el que se realiza el seguimiento y cuya señal es recogida por satélites que se encargan de almacenar y posteriormente reenviar la información para su almacenamiento y procesamiento en el laboratorio. El principal problema de este sistema es su elevado coste. Existen alternativas que no presentan un coste tal alto, tales como el uso de módulos basados en telefonía móvil. Sin embargo, tienen limitaciones de cobertura, por lo que no es aplicable en todos los ámbitos. Este proyecto forma parte de una propuesta que ofrece realizar seguimiento de ejemplares de una especie de ave, la gaviota Patiamarilla, en Gipuzkoa mediante la utilización de una red de sensores y que tiene varias ventajas frente a las opciones presentadas anteriormente. En este proyecto en concreto se ha diseñado e implementado el módulo que permite recoger la información obtenida por el conjunto de sensores (cada ejemplar lleva incorporado un sensor que permite registrar su posición) y enviarla a un servidor centralizado para su posterior consulta y análisis. Adicionalmente, también se permite consultar el último estado registrado de cada dispositivo de seguimiento, además de contemplar la posibilidad de actualizar su software.
Resumo:
[ES] Los siguientes enlaces proporcionan información adicional sobre este texto:
Resumo:
[ES]Este proyecto tiene como objetivo el diseño e implementación de una herramienta para la integración de los datos de calidad de servicio (QoS) en Internet publicados por el regulador español. Se trata de una herramienta que pretende, por una parte, unificar los diferentes formatos en que se publican los datos de QoS y, por otra, facilitar la conservación de los datos favoreciendo la obtención de históricos, datos estadísticos e informes. En la página del regulador sólo se puede acceder a los datos de los 5 últimos trimestres y los datos anteriormente publicados no permanecen accesibles si no que son sustituidos por los más recientes por lo que, desde el punto de vista del usuario final, estos datos se pierden. La herramienta propuesta en este trabajo soluciona este problema además de unificar formatos y facilitar el acceso a los datos de interés. Para el diseño del sistema se han usado las últimas tecnologías en desarrollo de aplicaciones web con lo que la potencia y posibilidad de futuras ampliaciones son elevadas.
Resumo:
Este Trabajo de Fin de Grado se centra en la Protección de Datos en el ámbito tributario. Siendo en este marco, donde encuentra buen acomodo la protección que de dichos datos se lleva a cabo desde diferentes perspectivas: generalista, desde las Administraciones y, en particular, desde la Administración Tributaria que servirán de referente para desarrollar este trabajo.
Resumo:
[ES]En este proyecto se presenta un estudio sobre la estimación de la longitud efectiva de lluvia derivada de los escaneos de elevación obtenidos por el radar meteorológico de Kapildui, en Álava. Se estudia la altura y la longitud de la lluvia para distintos eventos: para lluvia estratiforme y para lluvia convectiva. Se analizará la variabilidad espacial y temporal para diferentes ángulos de elevación del radar. Finalmente, se presentará una versión del algoritmo implementado para el cálculo de longitudes efectivas de lluvia y se realizará un estudio estadístico de la variabilidad de ésta para diferentes direcciones y con diferentes eventos de lluvia.
Resumo:
Duración (en horas): Más de 50 horas Destinatario: Estudiante y Docente
Resumo:
El Banco de Datos de Lenguas Paleohispánicas Hesperia tiene como finalidad la catalogación y la difusión de los textos escritos en las antiguas lenguas locales de la Península Ibérica, con exclusión del fenicio, el griego y el latín. El presente volumen es la versión impresa –a fecha de 2015– de una de las bases de datos que integra dicho banco: la correspondiente a la epigrafía monetal. Recoge las leyendas monetales redactadas en una lengua paleohispánica (fundamentalmente ibérico y celtibérico) tanto de la Península Ibérica cuanto del sureste de las Galias, incluidas las redactadas en latín y griego en las emisiones bilingües. Dada la controvertida lectura y adscripción lingüística de los rótulos “libiofenicios”, estos no son tomados en consideración. Las fichas están ordenadas alfabéticamente y agrupan todos los rótulos monetales correspondientes a una misma ceca, designada convencionalmente mediante una o varias de las leyendas toponímicas más frecuente, independientemente de su morfología (p. ej.: untikesken, salduie, kalakorikos o turiazu). Cada ficha presenta cuatro apartados: “Generalidades”, “Leyendas”, “Lengua y escritura” y “Bibliografía”.
Resumo:
En este Trabajo de Fin de Grado desarrollado en la empresa On4U, se ha implementado un módulo para Magento, cuya función principal es la generación dinámica de parrillas de productos en base al análisis del tiempo meteorológico, teniendo en cuenta la localización del cliente. Además, el módulo guarda automáticamente las compras efectuadas, junto con la información externa, para un posible análisis posterior que relacione los hábitos de compra con el tiempo meteorológico. Aunque se haya centrado en este caso de uso, se ha desarrollado con un enfoque modular, de tal manera que fuese fácil de integrar en el módulo el uso de otra fuente abierta de información. Para poder realizar el proyecto, se ha tenido que profundizar en varios conceptos relacionados con la plataforma de eCommerce Magento, entre ellos, el patrón Modelo-Vista-Controlador y el ciclo de vida de una petición.
Resumo:
La herramienta pretende integrar datos de la UPV/EHU públicamente accesibles y establecer puentes entre distintos repositorios de información del ámbito académico. Para ello, aprovecharemos el Linked Data, "la forma que tiene la Web Semántica de vincular los distintos datos que están distribuidos en la Web", y los estándares que éste define. La herramienta pretende integrar datos de la UPV/EHU públicamente accesibles y establecer puentes entre distintos repositorios de información del ámbito académico. Para ello, aprovecharemos el Linked Data, "la forma que tiene la Web Semántica de vincular los distintos datos que están distribuidos en la Web", y los estándares que éste define. Los repositorios elegidos para este trabajo han sido el ADDI, Bilatu, las páginas de todos los centros de la UPV/EHU en el Campus de Gipuzkoa y la DBLP. La mayoría de las funcionalidades de esta aplicación son genéricas, por lo que podrían fácilmente aplicarse a repositorios de otras instituciones. El sistema es un prototipo que demuestra la factibilidad del objetivo de integración y que está abierto a la incorporación de más conjuntos de datos, siguiendo la misma metodología empleada en el desarrollo de este proyecto. La mayoría de las funcionalidades de esta aplicación son genéricas, por lo que podrían fácilmente aplicarse a repositorios de otras instituciones. El sistema es un prototipo que demuestra la factibilidad del objetivo de integración y que está abierto a la incorporación de más conjuntos de datos, siguiendo la misma metodología empleada en el desarrollo de este proyecto.
Resumo:
Sobre la base de los objetivos propuestos, el muestreo tiene que estar cuidadosamente planeado (diseño de protocolo de muestreo) para que se pueda realizar una comprobación estadística de los resultados. Las herramientas de análisis como son los cálculos numéricos y los análisis estadísticos están ligados al estudio en sí, ya que son los que nos permiten demostrar que los resultados de una investigación son el producto de procesos ecológicos y no del azar.
Resumo:
[ES]El objetivo de este proyecto es el desarrollo de un sistema de adquisición y tratamiento de señales analógicas para la medida experimental de la posición y aceleración. Por un lado, la adquisición de señales se llevará a cabo mediante una placa electrónica programable llamada “Arduino”. Por otro lado, haciendo uso de la plataforma LabVIEW, se creará un programa para analizar dichas señales. Se medirán señales analógicas provenientes de diferentes sensores (inclinómetros y acelerómetros).
Resumo:
Catch evolution, fish yield and specific composition of commercial catches as well as biomass reduction of the main species exploited were analysed and the stock assessments of horse and chub mackerels in the Sofala and Boa-Paz Banks were examined for the period 1986 to the first half of 1989.
Resumo:
[ES]Hoy en día la simulación de elementos de red y de redes completas supone una herramienta esencial para las telecomunicaciones, pudiendo ayudar en el dimensionado y el análisis de las mismas, así como en el estudio de problemáticas y escenarios que puedan darse. Uno de estos puntos de gran interés para el estudio es ARQ, y más concretamente, las técnicas de Stop & Wait y Go Back N. Así pues, nace dentro del grupo de investigación NQAS la necesidad de elaborar un conjunto de simulaciones sobre estas técnicas, con especial interés sobre la recolección de datos relacionados con el rendimiento de las mismas. Se pretende diseñar y simular una serie de escenarios de red partiendo de módulos simples con funciones de envío, conmutación y recepción de paquetes, escalándolo gradualmente para aumentar las funcionalidades de los mismos, hasta conseguir el diseño e implementación de redes basadas en dicha arquitectura cuyos enlaces estén bajo la cobertura de instancias de protocolo ARQ (Stop & Wait, Go Back N). Se tratará el resultado de las simulaciones mediante la recolección de estadísticas relacionadas con rendimiento y desempeño de las técnicas.
Resumo:
[ES]El objetivo de este proyecto es la implementación de un algoritmo de ocultación de datos para la señal de voz mediante el uso de su información de fase espectral. Cuando se trabaja con señales de voz lo más habitual es utilizar el módulo debido a su sencillez a la hora de manipularlo y porque está relacionado con la percepción. En este caso, se busca que la información oculta sea perceptualmente y estadísticamente indetectable y que a su vez degrade lo menos posible la calidad de la señal, por lo que modificar el módulo produciría efectos no deseados. Por lo tanto, el método más eficaz de conseguirlo es trabajando con la fase espectral, precisamente por el hecho de que el sistema auditivo humano es menos sensible ante modificaciones de fase. Esta característica es la que se aprovechará para introducir la información que se desea ocultar. Por último, se evaluará la técnica desarrollada de acuerdo a diferentes criterios. Mediante pruebas en las que se modificarán los valores de algunos parámetros se obtendrán resultados relacionados con la perceptibilidad, la robustez, el rendimiento o la capacidad entre otros, determinando así la configuración óptima del algoritmo.