5 resultados para Población de base de datos

em Universidade Complutense de Madrid


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este trabajo surge como resultado de la experiencia en el campo de Atención Farmacéutica realizada en la Oficina de Farmacia y la necesidad de seguir avanzando en el servicio. El programa Consejero ha sido diseñado bajo las premisas de ser una herramienta útil, ágil y abierta para dar un servicio de Atención Farmacéutica de calidad. OBJETIVOS Los objetivos que centran el eje del desarrollo de este programa informático son: 1. Crear un programa que ayude de forma ágil, intuitiva y adaptable a todos los trabajadores de cada Oficina de Farmacia y al 100% de sus usuarios, independientemente de si estos son habituales u ocasionales de la Oficina de Farmacia. La protocolización del servicio de dispensación, dando un informe por escrito con información sobre el modo de empleo y consejo farmacéutico asociado al tratamiento de cada usuario. 2. Prevenir sobre Problemas relacionados con medicamentos, actuar sobre los Resultados negativos relacionados con los medicamentos y mejorar la efectividad y adherencia al tratamiento. En caso de realizar una indicación farmacéutica, sugerir productos relacionados con una situación o patología determinada. Pudiendo discriminar entre los que sean de venta libre (sin receta) o con receta médica...

Relevância:

90.00% 90.00%

Publicador:

Resumo:

En este proyecto se ha desarrollado una aplicación Web cuya finalidad es ofrecer al usuario datos provenientes del análisis de texto de las noticias que se encuentran en periódicos online. La aplicación permite al usuario realizar búsquedas personalizadas sobre temáticas específicas y configurar algunos tipos de análisis sobre la información recuperada. Entre los análisis que son llevados a cabo destaca el análisis del sentimiento. Para ello se ofrece la posibilidad de que el usuario utilice sus propios diccionarios de pares palabra-valor, utilizados para realizar este tipo de análisis. Para la codificación de la herramienta, se ha utilizado el lenguaje de programación Python y la framework web Django. El almacenamiento de la información de la aplicación se ha realizado sobre una base de datos NoSQL de tipo MongoDB.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

La Diabetes tipo 2, forma parte del clúster de componentes que integran el Síndrome metabólico, y constituye una enfermedad tremendamente prevalente en el mundo, con disfunciones metabólicas que incrementan la morbimortalidad. Objetivo. Con la finalidad de definir las características de una población amplia de pacientes diabéticos de la Comunidad de Madrid diagnosticados por el Hospital Infanta Leonor de Madrid, su contribución al síndrome metabólico, tipo de tratamiento, años de evolución y riesgo cardiovascular, se procedió a realizar un estudio transversal en una población de 735 diabéticos, seleccionados de una base de datos de 1135 diabéticos del Servicio de Endocrinología del Hospital de los que se disponían de datos sobre edad, género, parámetros antropométricos, glucosa, hemoglobina glicosilada, lípidos, lipoproteínas, consumo de tabaco, alcohol y actividad física. En muchos de ellos también se disponía de marcadores emergentes de afectaciones relacionadas con la diabetes y la enfermedad cardiovascular como PCR-us, microalbuminuria y fibrinógeno. Descripción de la muestra. La selección se realizó garantizando confidencialidad y que todos tuvieran datos de edad, sexo, y de los marcadores clásicos, y de la mayoría de los nuevos marcadores emergentes. Como quiera que contar absolutamente con todos los marcadores en el mismo individuo supondría perder en tal selección un número no despreciable de pacientes, se procedió a respetar la selección de 735 en donde 716 tenía información de la mayoría de los marcadores. A partir de los datos primarios se calcularon los cocientes colesterol/total /HDL-c, LDL-c/HDL-c que informan del riesgo cardiovascular, el cociente molar TG/HDL-c indicativo del tamaño de las LDL, y la relación de triglicérido- glucosa como marcador de resistencia a la insulina y riesgo de síndrome metabólico. Se procedió a calcular el riesgo cardiovascular según los algoritmos del estudio Framingham...

Relevância:

90.00% 90.00%

Publicador:

Resumo:

El análisis de datos actual se enfrenta a problemas derivados de la combinación de datos procedentes de diversas fuentes de información. El valor de la información puede enriquecerse enormemente facilitando la integración de nuevas fuentes de datos y la industria es muy consciente de ello en la actualidad. Sin embargo, no solo el volumen sino también la gran diversidad de los datos constituye un problema previo al análisis. Una buena integración de los datos garantiza unos resultados fiables y por ello merece la pena detenerse en la mejora de procesos de especificación, recolección, limpieza e integración de los datos. Este trabajo está dedicado a la fase de limpieza e integración de datos analizando los procedimientos existentes y proponiendo una solución que se aplica a datos médicos, centrándose así en los proyectos de predicción (con finalidad de prevención) en ciencias de la salud. Además de la implementación de los procesos de limpieza, se desarrollan algoritmos de detección de outliers que permiten mejorar la calidad del conjunto de datos tras su eliminación. El trabajo también incluye la implementación de un proceso de predicción que sirva de ayuda a la toma de decisiones. Concretamente este trabajo realiza un análisis predictivo de los datos de pacientes drogodependientes de la Clínica Nuestra Señora de la Paz, con la finalidad de poder brindar un apoyo en la toma de decisiones del médico a cargo de admitir el internamiento de pacientes en dicha clínica. En la mayoría de los casos el estudio de los datos facilitados requiere un pre-procesado adecuado para que los resultados de los análisis estadísticos tradicionales sean fiables. En tal sentido en este trabajo se implementan varias formas de detectar los outliers: un algoritmo propio (Detección de Outliers con Cadenas No Monótonas), que utiliza las ventajas del algoritmo Knuth-Morris-Pratt para reconocimiento de patrones, y las librerías outliers y Rcmdr de R. La aplicación de procedimientos de cleaning e integración de datos, así como de eliminación de datos atípicos proporciona una base de datos limpia y fiable sobre la que se implementarán procedimientos de predicción de los datos con el algoritmo de clasificación Naive Bayes en R.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

En el presente artículo se exponen las bases para un nuevo proyecto de gestión del yacimiento arqueológico de Calatrava la Vieja (Carrión de Calatrava, Ciudad Real), en el que se plantea la implantación de una Infraestructura de Datos Espaciales (IDE) como sistema de gestión global, utilizando como herramienta los SIG, y su potencialidad como integrador de informaciones cartográficas a diferentes escalas, indispensables en la continua codificación gráfica de la información arqueológica, con informaciones documentales de diverso ámbito y entidad, presentadas en bases de datos. Se analizan en el artículo una serie de pautas fundamentales, a tener en cuenta en un proyecto de esta envergadura, que deben servir de referencia a lo largo del trabajo, de esta forma se presentan las cuestiones claves de interés que puede conllevar la aplicación de estas herramientas en la gestión de un yacimiento arqueológico, así como de su entorno tanteando las posibilidades de su proyección y utilidad. A partir de esta presunción, se presenta la compleja diacronía del complejo de Calatrava «la Vieja», desde su primera ocupación en la Edad del Bronce, hasta su abandono en el siglo XV, destacando su continuidad y la importancia de nuestras actuaciones que han de ser igualmente expuestas. Partiendo de este «palimpsesto» evolutivo presentado, se analizan las posibilidades que ofrecen los SIG a través de las diferentes relaciones que podamos obtener con las Bases de Datos y analizando la potencialidad de su aplicación en estudios inter-site. Además, se plantean las premisas que debería tener la Base de Datos, «caballo de batalla» fundamental para la correcta inserción digital de datos, para su interrelación con otros datos y con el posterior análisis y estudio de sus relaciones con las diferentes realidades del yacimiento. En último lugar exponemos las primeras pautas de trabajo que hemos realizado en la codificación digital del yacimiento y de su georreferenciación espacial, para su posterior inserción en el Sistema de Información Geográfico. Éste exige una correcta ubicación geo-espacial, y con ello un amplio trabajo de aplicaciones topográficas para crear una geometría espacial y una cartografía de calidad suficiente para insertar información real de las diferentes evidencias, que se pueden encontrar en un yacimiento de estas características.