12 resultados para base de datos, oracle, modelo relacional, Diseño e implementación bd

em Universidade Complutense de Madrid


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este trabajo surge como resultado de la experiencia en el campo de Atención Farmacéutica realizada en la Oficina de Farmacia y la necesidad de seguir avanzando en el servicio. El programa Consejero ha sido diseñado bajo las premisas de ser una herramienta útil, ágil y abierta para dar un servicio de Atención Farmacéutica de calidad. OBJETIVOS Los objetivos que centran el eje del desarrollo de este programa informático son: 1. Crear un programa que ayude de forma ágil, intuitiva y adaptable a todos los trabajadores de cada Oficina de Farmacia y al 100% de sus usuarios, independientemente de si estos son habituales u ocasionales de la Oficina de Farmacia. La protocolización del servicio de dispensación, dando un informe por escrito con información sobre el modo de empleo y consejo farmacéutico asociado al tratamiento de cada usuario. 2. Prevenir sobre Problemas relacionados con medicamentos, actuar sobre los Resultados negativos relacionados con los medicamentos y mejorar la efectividad y adherencia al tratamiento. En caso de realizar una indicación farmacéutica, sugerir productos relacionados con una situación o patología determinada. Pudiendo discriminar entre los que sean de venta libre (sin receta) o con receta médica...

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Las Redes Definidas por Software (Software Defined Networking) permiten la monitorización y el control centralizado de la red, de forma que los administradores pueden tener una visión real y completa de la misma. El análisis y visualización de los diferentes parámetros obtenidos representan la forma más viable y práctica de programar la red en función de las necesidades del usuario. Por este motivo, en este proyecto se desarrolla una arquitectura modular cuyo objetivo es presentar en tiempo real la información que se monitoriza en una red SDN. En primera instancia, las diferentes métricas monitorizadas (error, retardo y tasa de datos) son almacenadas en una base de datos, para que en una etapa posterior se realice el análisis de dichas métricas. Finalmente, los resultados obtenidos, tanto de métricas en tiempo real como de los datos estadísticos, son presentados en una aplicación web. La información es obtenida a través de la interfaz REST que expone el controlador Floodlight y para el análisis de la información se plantea una comparación entre los valores medios y máximos del conjunto de datos. Los resultados obtenidos muestran gráficamente de forma clara y precisa las diferentes métricas de monitorización. Además, debido al carácter modular de la arquitectura, se ofrece un valor añadido a los sistemas actuales de monitorización SDN.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Para entender nuestro proyecto, debemos comprender DEVS. Dentro de los formalismos más populares de representación de sistemas de eventos discretos se encuentra DES. En la década de los 70, el matemático Bernard Zeigler propuso un formalismo general para la representación de dichos sistemas. Este formalismo denominado DEVS (Discrete EVent System Specification) es el formalismo más general para el tratamiento de DES. DEVS permite representar todos aquellos sistemas cuyo comportamiento pueda describirse mediante una secuencia de eventos discretos. Estos eventos se caracterizan por un tiempo base en el que solo un número de eventos finitos puede ocurrir. DEVS Modelado y Simulación tiene múltiples implementaciones en varios lenguajes de programación como por ejemplo en Java, C# o C++. Pero surge la necesidad de implementar una plataforma distribuida estable para proporcionar la mecánica de interoperabilidad e integrar modelos DEVS diversificados. En este proyecto, se nos dará como código base el core de xDEVS en java, aplicado de forma secuencial y paralelizada. Nuestro trabajo será implementar el core de manera distribuida de tal forma que se pueda dividir un sistema DEVS en diversas máquinas. Para esto hemos utilizado sockets de java para hacer la transmisión de datos lo más eficiente posible. En un principio deberemos especificar el número de máquinas que se conectarán al servidor. Una vez estas se hayan conectado se les enviará el trabajo específico que deberán simular. Cabe destacar que hay dos formas de dividir un sistema DEVS las cuales están implementadas en nuestro proyecto. La primera es dividirlo en módulos atómicos los cuales son subsistemas indivisibles en un sistema DEVS. Y la segunda es dividir las funciones de todos los subsistemas en grupos y repartirlos entre las máquinas. En resumen el funcionamiento de nuestro sistema distribuido será comenzar ejecutando el trabajo asignado al primer cliente, una vez finalizado actualizará la información del servidor y este mandara la orden al siguiente y así sucesivamente.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La diabetes mellitus tipo 1 (DM1) es una enfermedad crónica caracterizada por la incapacidad del páncreas de producir insulina. Esta hormona regula la absorción de la glucosa del torrente sanguíneo por parte de las células. Debido a la ausencia de insulina en el cuerpo, la glucosa se acumula en el torrente sanguíneo provocando problemas a corto y largo plazo, como por ejemplo deterioro celular. Los pacientes con esta enfermedad necesitan controlar su glucemia (concentración de glucosa en sangre) midiendo la misma de forma regular e inyectándose insulina subcutánea de por vida. Para conocer la glucemia se pueden utilizar Monitores Continuos de Glucosa (MCG), que proporcionan el valor de la glucosa intersticial en un rango entre uno y cinco minutos. Los MCG actuales presentan los siguientes problemas: Por un lado, el sensor que lleva incorporado introduce ruidos asociados a la medición obtenida. Y, por otro lado, el sensor se degrada a lo largo de su vida útil, lo que dificulta la interpretación de los datos obtenidos. La solución propuesta en este trabajo consiste en la utilización de filtros de partículas. Este tipo de filtros consta de cuatro fases: inicialización, predicción, corrección y remuestreo. Son capaces de identificar los estados ocultos del sistema (glucosa en sangre y degeneración del sensor), a partir de medidas indirectas del mismo (como por ejemplo la glucosa intersticial) teniendo en cuenta el ruido de las mediciones del MCG. En este proyecto se va a aplicar un filtro de partículas de cuatro estados (glucosa, velocidad de variación de la glucosa, degeneración del sensor y velocidad de variación de la degeneración del sensor.). En primera instancia, se utilizará la herramienta Matlab para analizar el correcto funcionamiento de este algoritmo frente a los problemas mencionados anteriormente de los MCG. Y, en segundo lugar, se realizará una implementación hardware sobre una FPGA.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En esta memoria se presenta el diseño y desarrollo de una aplicación en la nube destinada a la compartición de objetos y servicios. El desarrollo de esta aplicación surge dentro del proyecto de I+D+i, SITAC: Social Internet of Things – Apps by and for the Crowd ITEA 2 11020, que trata de crear una arquitectura integradora y un “ecosistema” que incluya plataformas, herramientas y metodologías para facilitar la conexión y cooperación de entidades de distinto tipo conectadas a la red bien sean sistemas, máquinas, dispositivos o personas con dispositivos móviles personales como tabletas o teléfonos móviles. El proyecto innovará mediante la utilización de un modelo inspirado en las redes sociales para facilitar y unificar las interacciones tanto entre personas como entre personas y dispositivos. En este contexto surge la necesidad de desarrollar una aplicación destinada a la compartición de recursos en la nube que pueden ser tanto lógicos como físicos, y que esté orientada al big data. Ésta será la aplicación presentada en este trabajo, el “Resource Sharing Center”, que ofrece un servicio web para el intercambio y compartición de contenido, y un motor de recomendaciones basado en las preferencias de los usuarios. Con este objetivo, se han usado tecnologías de despliegue en la nube, como Elastic Beanstalk (el PaaS de Amazon Web Services), S3 (el sistema de almacenamiento de Amazon Web Services), SimpleDB (base de datos NoSQL) y HTML5 con JavaScript y Twitter Bootstrap para el desarrollo del front-end, siendo Python y Node.js las tecnologías usadas en el back end, y habiendo contribuido a la mejora de herramientas de clustering sobre big data. Por último, y de cara a realizar el estudio sobre las pruebas de carga de la aplicación se ha usado la herramienta ApacheJMeter.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La Metabolómica es una sub-área de la biología de sistemas que tiene como objetivo el estudio de las moléculas de pequeño tamaño (normalmente <1000 Da) llamadas metabolitos. Los metabolitos son el resultado de las reacciones químicas que concurren en una célula y que revelan información acerca del estado del organismo en el que se encuentran. La parte computacional de un análisis metabolómico comienza con la identifcación de los compuestos químicos (metabolitos) correspondientes con las masas obtenidas mediante espectrografía de masas, y se lleva a cabo mediante búsquedas manuales en múltiples bases de datos de metabolitos. El proceso de identificación requiere del análisis de cada una de las masas detectadas en el espectrómetro junto a datos que ofrece la espectrometría, como es la abundancia de cada una de las masas o los tiempos de retención. Este proceso es tedioso y consume una gran cantidad de tiempo del químico analítico, pues debe buscarse la información base de datos a base de datos e ir cruzando los datos de cada una de las búsquedas hasta obtener una lista de resultados formada por los metabolitos presentes en la muestra a analizar. El objetivo de este proyecto es desarrollar una herramienta web que simplifque y automatice la búsqueda e identifcación de metabolitos. Para ello se ha construido una herramienta capaz de integrar y buscar automáticamente información de los metabolitos en múltiples bases de datos metabolómicas. Esto ha requerido unifcar los compuestos entre las diferentes bases de datos cuando había sufciente información para asegurar que los compuestos provenientes de varias fuentes de datos eran realmente el mismo. Además, en este proceso de búsqueda se tiene en cuenta conocimiento sobre las reacciones químicas que pueden alterar la masa del metabolito registrada por el espectrómetro de masas, como la formación de aductos y multímeros.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El viaje mental en el tiempo (VMT) es la capacidad de proyectarse mentalmente hacia atrás o hacia adelante en el tiempo, con el fin de recordar eventos del pasado personal o imaginar eventos del futuro personal. Esta investigación se centra en el aspecto orientado hacia el futuro del VMT conocido como pensamiento episódico futuro (PEF). El PEF implica un proceso complejo y exigente ejecutivamente, que es necesario para la recombinación de detalles extraídos de la memoria en un evento nuevo y coherente. Consecuentemente y basándonos en una revisión analítica de la literatura, en este estudio conceptualizamos el PEF como un proceso de construcción asociativa autobiográfica, para el que serían necesarias operaciones autorreferenciales, de asociación o integración (binding), de recombinación y control atencional de la información. De esta forma, el PEF dependería de la recuperación de elementos discretos de la memoria de ítem, que serían integrados entre sí del modo binding inter-ítem y su asociación con información contextual espacio-temporal, extraída de la memoria fuente para formar bindings ítem-contexto. A lo que habría que añadir un tipo de binding semántico subyacente, que enlace esta información episódica con conocimiento semántico-conceptual para guiar la recombinación, el binding ítem-contexto episódico, y explique la novedad y la coherencia de los eventos futuros resultantes. Así, la hipótesis investigada en este estudio fue que el PEF dependería especialmente de un sistema de memoria autobiográfica jerárquicamente organizada, y unos procesos de control relacionados con la memora de trabajo, lo que posibilitaría un binding relacional jerárquico tanto de información semántica como episódica a través de distintas estructuras de información, que resumirían el conocimiento autobiográfico de forma poblacional en los niveles más altos de la jerarquía. Con el fin de estudiar el PEF, se desarrolló un nuevo marco metodológico, el paradigma experimental de integración prospectiva autobiográfica. Dicho marco consistió en un estudio piloto de dos fases, seguido de una secuencia experimental. Para el primer estudio piloto se desarrolló un cuestionario online, el cual se aplicó a una muestra de 112 adultos jóvenes sanos, a los que se pidió valorar Eventos autobiográficos pasados significativos en función de su frecuencia y vividez. Algunos de esos Eventos se utilizaron a continuación para realizar un segundo estudio piloto, para el que se desarrolló un nuevo cuestionario online, el cual se aplicó a una muestra nueva de 51 adultos jóvenes sanos, a los que se pidió que proporcionaran Detalles (Contexto Espacial, Contexto Temporal y Elementos) de los Eventos previamente identificados y que valorasen los Elementos según las mismas propiedades descritas anteriormente. Esta base de datos, que contiene la experiencia autobiográfica colectiva, se utilizó para desarrollar una nueva tarea de aplicación web que se utilizó en la secuencia experimental...

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En este proyecto se ha desarrollado una aplicación Web cuya finalidad es ofrecer al usuario datos provenientes del análisis de texto de las noticias que se encuentran en periódicos online. La aplicación permite al usuario realizar búsquedas personalizadas sobre temáticas específicas y configurar algunos tipos de análisis sobre la información recuperada. Entre los análisis que son llevados a cabo destaca el análisis del sentimiento. Para ello se ofrece la posibilidad de que el usuario utilice sus propios diccionarios de pares palabra-valor, utilizados para realizar este tipo de análisis. Para la codificación de la herramienta, se ha utilizado el lenguaje de programación Python y la framework web Django. El almacenamiento de la información de la aplicación se ha realizado sobre una base de datos NoSQL de tipo MongoDB.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Estamos acostumbrados a pagar en los supermercados y comercios con tarjeta de crédito. Para ello necesitamos una tarjeta bancaria y un documento identificativo. Hemos unido estos dos requisitos en uno de cara a hacer el pago más sencillo, rápido y cómodo. La solución que proponemos es registrar nuestra huella dactilar y asociarla a una cuenta bancaria, de forma que nuestro dedo sea suficiente para pagar. Para ello, hemos desarrollado varios programas, para implementar los distintos puntos del proceso: • Registro • Terminal de punto de venta • Verificación y tratamiento de huellas dactilares • Consultas en la base de datos. También hemos utilizado una base de datos en Dropbox™ para el almacenamiento de las imágenes de las huellas, todas ellas encriptadas, y otra relacional para los datos de los clientes. Para la intercomunicación dentro de la aplicación se han utilizado canales seguros SSH. Con este nuevo método de pago bastará poner tu dedo en el lector de huellas para que el pago se realice automáticamente.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El análisis de datos actual se enfrenta a problemas derivados de la combinación de datos procedentes de diversas fuentes de información. El valor de la información puede enriquecerse enormemente facilitando la integración de nuevas fuentes de datos y la industria es muy consciente de ello en la actualidad. Sin embargo, no solo el volumen sino también la gran diversidad de los datos constituye un problema previo al análisis. Una buena integración de los datos garantiza unos resultados fiables y por ello merece la pena detenerse en la mejora de procesos de especificación, recolección, limpieza e integración de los datos. Este trabajo está dedicado a la fase de limpieza e integración de datos analizando los procedimientos existentes y proponiendo una solución que se aplica a datos médicos, centrándose así en los proyectos de predicción (con finalidad de prevención) en ciencias de la salud. Además de la implementación de los procesos de limpieza, se desarrollan algoritmos de detección de outliers que permiten mejorar la calidad del conjunto de datos tras su eliminación. El trabajo también incluye la implementación de un proceso de predicción que sirva de ayuda a la toma de decisiones. Concretamente este trabajo realiza un análisis predictivo de los datos de pacientes drogodependientes de la Clínica Nuestra Señora de la Paz, con la finalidad de poder brindar un apoyo en la toma de decisiones del médico a cargo de admitir el internamiento de pacientes en dicha clínica. En la mayoría de los casos el estudio de los datos facilitados requiere un pre-procesado adecuado para que los resultados de los análisis estadísticos tradicionales sean fiables. En tal sentido en este trabajo se implementan varias formas de detectar los outliers: un algoritmo propio (Detección de Outliers con Cadenas No Monótonas), que utiliza las ventajas del algoritmo Knuth-Morris-Pratt para reconocimiento de patrones, y las librerías outliers y Rcmdr de R. La aplicación de procedimientos de cleaning e integración de datos, así como de eliminación de datos atípicos proporciona una base de datos limpia y fiable sobre la que se implementarán procedimientos de predicción de los datos con el algoritmo de clasificación Naive Bayes en R.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En la actualidad, el uso del Cloud Computing se está incrementando y existen muchos proveedores que ofrecen servicios que hacen uso de esta tecnología. Uno de ellos es Amazon Web Services, que a través de su servicio Amazon EC2, nos ofrece diferentes tipos de instancias que podemos utilizar según nuestras necesidades. El modelo de negocio de AWS se basa en el pago por uso, es decir, solo realizamos el pago por el tiempo que se utilicen las instancias. En este trabajo se implementa en Amazon EC2, una aplicación cuyo objetivo es extraer de diferentes fuentes de información, los datos de las ventas realizadas por las editoriales y librerías de España. Estos datos son procesados, cargados en una base de datos y con ellos se generan reportes estadísticos, que ayudarán a los clientes a tomar mejores decisiones. Debido a que la aplicación procesa una gran cantidad de datos, se propone el desarrollo y validación de un modelo, que nos permita obtener una ejecución óptima en Amazon EC2. En este modelo se tienen en cuenta el tiempo de ejecución, el coste por uso y una métrica de coste/rendimiento. Adicionalmente, se utilizará la tecnología de contenedores Docker para llevar a cabo un caso específico del despliegue de la aplicación.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En el presente artículo se exponen las bases para un nuevo proyecto de gestión del yacimiento arqueológico de Calatrava la Vieja (Carrión de Calatrava, Ciudad Real), en el que se plantea la implantación de una Infraestructura de Datos Espaciales (IDE) como sistema de gestión global, utilizando como herramienta los SIG, y su potencialidad como integrador de informaciones cartográficas a diferentes escalas, indispensables en la continua codificación gráfica de la información arqueológica, con informaciones documentales de diverso ámbito y entidad, presentadas en bases de datos. Se analizan en el artículo una serie de pautas fundamentales, a tener en cuenta en un proyecto de esta envergadura, que deben servir de referencia a lo largo del trabajo, de esta forma se presentan las cuestiones claves de interés que puede conllevar la aplicación de estas herramientas en la gestión de un yacimiento arqueológico, así como de su entorno tanteando las posibilidades de su proyección y utilidad. A partir de esta presunción, se presenta la compleja diacronía del complejo de Calatrava «la Vieja», desde su primera ocupación en la Edad del Bronce, hasta su abandono en el siglo XV, destacando su continuidad y la importancia de nuestras actuaciones que han de ser igualmente expuestas. Partiendo de este «palimpsesto» evolutivo presentado, se analizan las posibilidades que ofrecen los SIG a través de las diferentes relaciones que podamos obtener con las Bases de Datos y analizando la potencialidad de su aplicación en estudios inter-site. Además, se plantean las premisas que debería tener la Base de Datos, «caballo de batalla» fundamental para la correcta inserción digital de datos, para su interrelación con otros datos y con el posterior análisis y estudio de sus relaciones con las diferentes realidades del yacimiento. En último lugar exponemos las primeras pautas de trabajo que hemos realizado en la codificación digital del yacimiento y de su georreferenciación espacial, para su posterior inserción en el Sistema de Información Geográfico. Éste exige una correcta ubicación geo-espacial, y con ello un amplio trabajo de aplicaciones topográficas para crear una geometría espacial y una cartografía de calidad suficiente para insertar información real de las diferentes evidencias, que se pueden encontrar en un yacimiento de estas características.