6 resultados para base de datos relacional

em Universidade Complutense de Madrid


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este trabajo surge como resultado de la experiencia en el campo de Atención Farmacéutica realizada en la Oficina de Farmacia y la necesidad de seguir avanzando en el servicio. El programa Consejero ha sido diseñado bajo las premisas de ser una herramienta útil, ágil y abierta para dar un servicio de Atención Farmacéutica de calidad. OBJETIVOS Los objetivos que centran el eje del desarrollo de este programa informático son: 1. Crear un programa que ayude de forma ágil, intuitiva y adaptable a todos los trabajadores de cada Oficina de Farmacia y al 100% de sus usuarios, independientemente de si estos son habituales u ocasionales de la Oficina de Farmacia. La protocolización del servicio de dispensación, dando un informe por escrito con información sobre el modo de empleo y consejo farmacéutico asociado al tratamiento de cada usuario. 2. Prevenir sobre Problemas relacionados con medicamentos, actuar sobre los Resultados negativos relacionados con los medicamentos y mejorar la efectividad y adherencia al tratamiento. En caso de realizar una indicación farmacéutica, sugerir productos relacionados con una situación o patología determinada. Pudiendo discriminar entre los que sean de venta libre (sin receta) o con receta médica...

Relevância:

90.00% 90.00%

Publicador:

Resumo:

El viaje mental en el tiempo (VMT) es la capacidad de proyectarse mentalmente hacia atrás o hacia adelante en el tiempo, con el fin de recordar eventos del pasado personal o imaginar eventos del futuro personal. Esta investigación se centra en el aspecto orientado hacia el futuro del VMT conocido como pensamiento episódico futuro (PEF). El PEF implica un proceso complejo y exigente ejecutivamente, que es necesario para la recombinación de detalles extraídos de la memoria en un evento nuevo y coherente. Consecuentemente y basándonos en una revisión analítica de la literatura, en este estudio conceptualizamos el PEF como un proceso de construcción asociativa autobiográfica, para el que serían necesarias operaciones autorreferenciales, de asociación o integración (binding), de recombinación y control atencional de la información. De esta forma, el PEF dependería de la recuperación de elementos discretos de la memoria de ítem, que serían integrados entre sí del modo binding inter-ítem y su asociación con información contextual espacio-temporal, extraída de la memoria fuente para formar bindings ítem-contexto. A lo que habría que añadir un tipo de binding semántico subyacente, que enlace esta información episódica con conocimiento semántico-conceptual para guiar la recombinación, el binding ítem-contexto episódico, y explique la novedad y la coherencia de los eventos futuros resultantes. Así, la hipótesis investigada en este estudio fue que el PEF dependería especialmente de un sistema de memoria autobiográfica jerárquicamente organizada, y unos procesos de control relacionados con la memora de trabajo, lo que posibilitaría un binding relacional jerárquico tanto de información semántica como episódica a través de distintas estructuras de información, que resumirían el conocimiento autobiográfico de forma poblacional en los niveles más altos de la jerarquía. Con el fin de estudiar el PEF, se desarrolló un nuevo marco metodológico, el paradigma experimental de integración prospectiva autobiográfica. Dicho marco consistió en un estudio piloto de dos fases, seguido de una secuencia experimental. Para el primer estudio piloto se desarrolló un cuestionario online, el cual se aplicó a una muestra de 112 adultos jóvenes sanos, a los que se pidió valorar Eventos autobiográficos pasados significativos en función de su frecuencia y vividez. Algunos de esos Eventos se utilizaron a continuación para realizar un segundo estudio piloto, para el que se desarrolló un nuevo cuestionario online, el cual se aplicó a una muestra nueva de 51 adultos jóvenes sanos, a los que se pidió que proporcionaran Detalles (Contexto Espacial, Contexto Temporal y Elementos) de los Eventos previamente identificados y que valorasen los Elementos según las mismas propiedades descritas anteriormente. Esta base de datos, que contiene la experiencia autobiográfica colectiva, se utilizó para desarrollar una nueva tarea de aplicación web que se utilizó en la secuencia experimental...

Relevância:

90.00% 90.00%

Publicador:

Resumo:

En este proyecto se ha desarrollado una aplicación Web cuya finalidad es ofrecer al usuario datos provenientes del análisis de texto de las noticias que se encuentran en periódicos online. La aplicación permite al usuario realizar búsquedas personalizadas sobre temáticas específicas y configurar algunos tipos de análisis sobre la información recuperada. Entre los análisis que son llevados a cabo destaca el análisis del sentimiento. Para ello se ofrece la posibilidad de que el usuario utilice sus propios diccionarios de pares palabra-valor, utilizados para realizar este tipo de análisis. Para la codificación de la herramienta, se ha utilizado el lenguaje de programación Python y la framework web Django. El almacenamiento de la información de la aplicación se ha realizado sobre una base de datos NoSQL de tipo MongoDB.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Estamos acostumbrados a pagar en los supermercados y comercios con tarjeta de crédito. Para ello necesitamos una tarjeta bancaria y un documento identificativo. Hemos unido estos dos requisitos en uno de cara a hacer el pago más sencillo, rápido y cómodo. La solución que proponemos es registrar nuestra huella dactilar y asociarla a una cuenta bancaria, de forma que nuestro dedo sea suficiente para pagar. Para ello, hemos desarrollado varios programas, para implementar los distintos puntos del proceso: • Registro • Terminal de punto de venta • Verificación y tratamiento de huellas dactilares • Consultas en la base de datos. También hemos utilizado una base de datos en Dropbox™ para el almacenamiento de las imágenes de las huellas, todas ellas encriptadas, y otra relacional para los datos de los clientes. Para la intercomunicación dentro de la aplicación se han utilizado canales seguros SSH. Con este nuevo método de pago bastará poner tu dedo en el lector de huellas para que el pago se realice automáticamente.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

El análisis de datos actual se enfrenta a problemas derivados de la combinación de datos procedentes de diversas fuentes de información. El valor de la información puede enriquecerse enormemente facilitando la integración de nuevas fuentes de datos y la industria es muy consciente de ello en la actualidad. Sin embargo, no solo el volumen sino también la gran diversidad de los datos constituye un problema previo al análisis. Una buena integración de los datos garantiza unos resultados fiables y por ello merece la pena detenerse en la mejora de procesos de especificación, recolección, limpieza e integración de los datos. Este trabajo está dedicado a la fase de limpieza e integración de datos analizando los procedimientos existentes y proponiendo una solución que se aplica a datos médicos, centrándose así en los proyectos de predicción (con finalidad de prevención) en ciencias de la salud. Además de la implementación de los procesos de limpieza, se desarrollan algoritmos de detección de outliers que permiten mejorar la calidad del conjunto de datos tras su eliminación. El trabajo también incluye la implementación de un proceso de predicción que sirva de ayuda a la toma de decisiones. Concretamente este trabajo realiza un análisis predictivo de los datos de pacientes drogodependientes de la Clínica Nuestra Señora de la Paz, con la finalidad de poder brindar un apoyo en la toma de decisiones del médico a cargo de admitir el internamiento de pacientes en dicha clínica. En la mayoría de los casos el estudio de los datos facilitados requiere un pre-procesado adecuado para que los resultados de los análisis estadísticos tradicionales sean fiables. En tal sentido en este trabajo se implementan varias formas de detectar los outliers: un algoritmo propio (Detección de Outliers con Cadenas No Monótonas), que utiliza las ventajas del algoritmo Knuth-Morris-Pratt para reconocimiento de patrones, y las librerías outliers y Rcmdr de R. La aplicación de procedimientos de cleaning e integración de datos, así como de eliminación de datos atípicos proporciona una base de datos limpia y fiable sobre la que se implementarán procedimientos de predicción de los datos con el algoritmo de clasificación Naive Bayes en R.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

En el presente artículo se exponen las bases para un nuevo proyecto de gestión del yacimiento arqueológico de Calatrava la Vieja (Carrión de Calatrava, Ciudad Real), en el que se plantea la implantación de una Infraestructura de Datos Espaciales (IDE) como sistema de gestión global, utilizando como herramienta los SIG, y su potencialidad como integrador de informaciones cartográficas a diferentes escalas, indispensables en la continua codificación gráfica de la información arqueológica, con informaciones documentales de diverso ámbito y entidad, presentadas en bases de datos. Se analizan en el artículo una serie de pautas fundamentales, a tener en cuenta en un proyecto de esta envergadura, que deben servir de referencia a lo largo del trabajo, de esta forma se presentan las cuestiones claves de interés que puede conllevar la aplicación de estas herramientas en la gestión de un yacimiento arqueológico, así como de su entorno tanteando las posibilidades de su proyección y utilidad. A partir de esta presunción, se presenta la compleja diacronía del complejo de Calatrava «la Vieja», desde su primera ocupación en la Edad del Bronce, hasta su abandono en el siglo XV, destacando su continuidad y la importancia de nuestras actuaciones que han de ser igualmente expuestas. Partiendo de este «palimpsesto» evolutivo presentado, se analizan las posibilidades que ofrecen los SIG a través de las diferentes relaciones que podamos obtener con las Bases de Datos y analizando la potencialidad de su aplicación en estudios inter-site. Además, se plantean las premisas que debería tener la Base de Datos, «caballo de batalla» fundamental para la correcta inserción digital de datos, para su interrelación con otros datos y con el posterior análisis y estudio de sus relaciones con las diferentes realidades del yacimiento. En último lugar exponemos las primeras pautas de trabajo que hemos realizado en la codificación digital del yacimiento y de su georreferenciación espacial, para su posterior inserción en el Sistema de Información Geográfico. Éste exige una correcta ubicación geo-espacial, y con ello un amplio trabajo de aplicaciones topográficas para crear una geometría espacial y una cartografía de calidad suficiente para insertar información real de las diferentes evidencias, que se pueden encontrar en un yacimiento de estas características.