969 resultados para Bases de datos bibliográficas
Resumo:
Introduction: The nutritional registries are data bases through which we obtain the information to understand the nutrition of populations. Several main nutrition societies of the world have these types of registries, outstanding the NADYA (Home artificial and Ambulatory nutrition) group in Spain. The object of this study is to determine by means of a systematic review, the existent scientific production in the international data bases referred to nutritional support registries. Methods: Descriptive transversal study of the results of a critical bibliographic research done in the bioscience data bases: MEDLINE, EMBASE, The Cochrane Library, ISI (Web of Sciences), LILACS, CINHAL. Results: A total of 20 original articles related to nutritional registries were found and recovered. Eleven registries of eight countries were identified: Australia, Germany, Italy, Japan, Spain, Sweden, United Status and United Kingdom. The Price Index was of 65% and all the articles were published in the last 20 years. Conclusions: The Price Index highlights the innovativeness of this practice. The articles related to nutritional support are heterogeneous with respect to data and population, which exposes this as a limitation for a combined analysis.
Resumo:
El éxito en la búsqueda de conocimiento a partir de grandes cantidades de datos radica en la calidad de los mismos. Hasta ahora los aspectos de calidad de los datos se han enfocado principalmente a la limpieza de los datos: detección de duplicados, valores atípicos, perdidos, incompletos o conflictos en instancias, entre otros. En este trabajo se presenta un caso de estudio que nos ha permitido determinar ciertos aspectos de calidad que pueden mejorar la expectativa de éxito en el análisis evitando resultados erróneos, incorrectos o poco fiables. Este es un primer paso hacia la consideración de manera sistemática y estructurada de criterios de calidad específicos para minería de datos que ayude al minero de datos en sus objetivos.
Resumo:
Material en valencià de l’assignatura Fonaments de les Bases de Dades.
Resumo:
Introducción: El resumen es la parte de un artículo científico más consultada por los investigadores en las búsquedas bibliográficas. Puesto que la profesión enfermera se centra en la práctica basada en la evidencia, resulta de gran importancia que los resúmenes de los artículos publicados en revistas de enfermería cuenten con unas pautas de calidad para facilitar la selección de los artículos de interés cuando se realizan búsquedas bibliográficas. El establecimiento de unos requisitos de calidad exige un análisis previo que incluye el concepto y los tipos de resúmenes, las características de los mismos, las recomendaciones de Vancouver en cuanto al resumen y las herramientas para evaluar la calidad de los resúmenes propuestas por otros autores. Objetivos: Este estudio se centra en la evaluación de la calidad de los resúmenes de los artículos publicados en las revistas españolas de enfermería. Metodología: Protocolo para la realización de un estudio observacional retrospectivo para analizar los resúmenes de los artículos publicados en 2015 en las revistas de enfermería que se encuentren indexadas en, al menos, dos bases de datos nacionales y dos internacionales. Conclusión: La realización de este estudio supone un análisis a partir del cual se podría desarrollar una herramienta de estandarización de resúmenes científicos. Así, se mejoraría la calidad de la información recogida por los investigadores.
Resumo:
En la actualidad, muchos gobiernos están publicando (o tienen la intención de publicar en breve) miles de conjuntos de datos para que personas y organizaciones los puedan utilizar. Como consecuencia, la cantidad de aplicaciones basadas en Open Data está incrementándose. Sin embargo cada gobierno tiene sus propios procedimientos para publicar sus datos, y esto causa una variedad de formatos dado que no existe un estándar internacional para especificar los formatos de estos datos. El objetivo principal de este trabajo es un análisis comparativo de datos ambientales en bases de datos abiertas (Open Data) pertenecientes a distintos gobiernos. Debido a esta variedad de formatos, debemos construir un proceso de integración de datos que sea capaz de unir todos los tipos de formatos. El trabajo implica un pre-procesado, limpieza e integración de las diferentes fuentes de datos. Existen muchas aplicaciones desarrolladas para dar soporte en el proceso de integración por ejemplo Data Tamer, Data Wrangler como se explica en este documento. El problema con estas aplicaciones es que necesitan la interacción del usuario como parte fundamental del proceso de integración. En este trabajo tratamos de evitar la supervisión humana aprovechando las similitudes de los datasets procedentes de igual área que en nuestro caso se aplica al área de medioambiente. De esta forma los procesos pueden ser automatizados con una programación adecuada. Para conseguirlo, la idea principal de este trabajo es construir procesos ad hoc adaptados a las fuentes de cada gobierno para conseguir una integración automática. Concretamente este trabajo se enfoca en datos ambientales como lo son la temperatura, consumo de energía, calidad de aire, radiación solar, velocidad del viento, etc. Desde hace dos años el gobierno de Madrid está publicando sus datos relativos a indicadores ambientales en tiempo real. Del mismo modo, otros gobiernos han publicado conjuntos de datos Open Data relativos al medio ambiente (como Andalucía o Bilbao), pero todos estos datos tienen diferentes formatos. En este trabajo se presenta una solución capaz de integrar todas ellos que además permite al usuario visualizar y hacer análisis sobre los datos en tiempo real. Una vez que el proceso de integración está realizado, todos los datos de cada gobierno poseen el mismo formato y se pueden lanzar procesos de análisis de una manera más computacional. Este trabajo tiene tres partes fundamentales: 1. Estudio de los entornos Open Data y la literatura al respecto; 2. Desarrollo de un proceso de integración y 3. Desarrollo de una Interface Gráfica y Analítica. Aunque en una primera fase se implementaron los procesos de integración mediante Java y Oracle y la Interface Gráfica con Java (jsp), en una fase posterior se realizó toda la implementación con lenguaje R y la interface gráfica mediante sus librerías, principalmente con Shiny. El resultado es una aplicación que provee de un conjunto de Datos Ambientales Integrados en Tiempo Real respecto a dos gobiernos muy diferentes en España, disponible para cualquier desarrollador que desee construir sus propias aplicaciones.
Resumo:
Las comunidades colaborativas, donde grandes cantidades de personas colaboran para la producción de recursos compartidos (e.g. Github, Wikipedia, OpenStreetMap, Arduino, StackOverflow) están extendiéndose progresivamente a multitud de campos. No obstante, es complicado comprender cómo funcionan y evolucionan. ¿Qué tipos de usuarios son más activos en Wikia? ¿Cómo ha evolucionado el número de wikis activas en los últimos años? ¿Qué perfil de actividad presentan la mayor parte de colaboradores de Wikia? ¿Son más activos los hombres o las mujeres en la Wikipedia? En los proyectos de Github, ¿el esfuerzo de programación (y frecuencia de commits) se distribuye de forma homogénea a lo largo del tiempo o suele estar concentrado? Estas comunidades, típicamente online, dejan registrada su actividad en grandes bases de datos, muchas de ellas disponibles públicamente. Sin embargo, el ciudadano de a pie no tiene ni las herramientas ni el conocimiento necesario para sacar conclusiones de esos datos. En este TFG desarrollamos una herramienta de análisis exploratorio y visualización de datos de la plataforma Wikia, sitio web colaborativo que permite la creación, edición y modificación del contenido y estructura de miles de páginas web de tipo enciclopedia basadas en la tecnología wiki. Nuestro objetivo es que esta aplicación web sea usable por cualquiera y que no requiera que el usuario sea un experto en Big Data para poder visualizar las gráficas de evolución o distribuciones del comportamiento interno de la comunidad, pudiendo modificar algunos de sus parámetros y visualizando cómo cambian. Como resultado de este trabajo se ha desarrollado una primera versión de la aplicación disponible en GitHub1 y en http://chartsup.esy.es/
Resumo:
La segmentación del mercado y el conocer al cliente es aún más importante hoy en día para contrarrestar los efectos de la recesión y la poderosa competencia que se ha presentado por la apertura del mercado latinoamericano y simultáneamente aprovechar las tendencias hacia la fusión, la adquisición y la consolidación del mercado. Este artículo pretende promover Investigaciones de Mercado más sofisticadas, enfatizando la importancia del establecimiento y la manipulación de una base de datos. Por la discusión de un estudio del sector bancario se ve el uso de dos técnicas del análisis multivariado. A pesar de que el artículo enfoque sobre el sector bancario, los mismos conceptos son aplicables a cualquier sector, bien sea producto o servicio. Se divide el artículo en tres partes, en la primera se describe el porqué y los métodos para acumular y analizar información a partir de la base de datos, para disminuir riesgos en la segmentación y el lanzamiento de nuevos productos. La segunda parte nos muestra dos técnicas multivariadas, aplicadas en investigaciones de mercados al manipular los datos, bien conocidas por las agencias investigadoras: el análisis factorial (AF) y el análisis discriminador (AD). Finalmente, la tercera parte le presentará al gerente conclusiones y recomendaciones prácticas sobre la gestión de la relación con la agencia contratada para la presentación del análisis de los datos, para que sean más eficientes y precisos los esfuerzos del Departamento de Mercadeo en el procesode la segmentación del mercado.
Resumo:
Este documento describe brevemente el origen del Proyecto "Centro de Conocimiento sobre/de Grupos Étnicos Indígenas Centroamericanos" denominado "Proyecto GEIC". Expone su misión, sus objetivos y las actividades realizadas en la primera etapa en Costa Rica. Además, explica el proceso de creación de la Base de Datos CEGE y presenta algunas estadísticas elaboradas con la información contenida en la misma.
Resumo:
La normalización facilita la comunicación y permite el intercambio de información con cualquier institución nacional o internacional. Este objetivo es posible a través de los formatos de comunicación para intercambio de información automatizada como CEPAL, MARC., FCC.La Escuela de Bibliotecología, Documentación e Información de la Universidad Nacional utiliza el software MICROISIS en red para la enseñanza. Las bases de datos que se diseñan utilizan el formato MARC y para la descripción bibliográfica las RCAA2.Se presenta la experiencia con la base de datos “I&D” sobre desarrollo rural, presentando la Tabla de Definición de Campos, la hoja de trabajo, el formato de despliegue y Tabla de selección de Campos.
Resumo:
El objetivo del curso es brindar procedimientos que se utilizan para la creación y mantenimiento de bases de datos en bibliotecas y centros de documentación. Enfatizamos en los aspectos siguientes: estructura de la base de datos considerado: campos variables; longitud de cada campo; pertinencia de cada campo; mensajes de ayuda que debe incluir etiquetas; normalización de puntos de acceso y pertinencia de que los formatos de salida sean normalizados.
Resumo:
El análisis de datos actual se enfrenta a problemas derivados de la combinación de datos procedentes de diversas fuentes de información. El valor de la información puede enriquecerse enormemente facilitando la integración de nuevas fuentes de datos y la industria es muy consciente de ello en la actualidad. Sin embargo, no solo el volumen sino también la gran diversidad de los datos constituye un problema previo al análisis. Una buena integración de los datos garantiza unos resultados fiables y por ello merece la pena detenerse en la mejora de procesos de especificación, recolección, limpieza e integración de los datos. Este trabajo está dedicado a la fase de limpieza e integración de datos analizando los procedimientos existentes y proponiendo una solución que se aplica a datos médicos, centrándose así en los proyectos de predicción (con finalidad de prevención) en ciencias de la salud. Además de la implementación de los procesos de limpieza, se desarrollan algoritmos de detección de outliers que permiten mejorar la calidad del conjunto de datos tras su eliminación. El trabajo también incluye la implementación de un proceso de predicción que sirva de ayuda a la toma de decisiones. Concretamente este trabajo realiza un análisis predictivo de los datos de pacientes drogodependientes de la Clínica Nuestra Señora de la Paz, con la finalidad de poder brindar un apoyo en la toma de decisiones del médico a cargo de admitir el internamiento de pacientes en dicha clínica. En la mayoría de los casos el estudio de los datos facilitados requiere un pre-procesado adecuado para que los resultados de los análisis estadísticos tradicionales sean fiables. En tal sentido en este trabajo se implementan varias formas de detectar los outliers: un algoritmo propio (Detección de Outliers con Cadenas No Monótonas), que utiliza las ventajas del algoritmo Knuth-Morris-Pratt para reconocimiento de patrones, y las librerías outliers y Rcmdr de R. La aplicación de procedimientos de cleaning e integración de datos, así como de eliminación de datos atípicos proporciona una base de datos limpia y fiable sobre la que se implementarán procedimientos de predicción de los datos con el algoritmo de clasificación Naive Bayes en R.
Resumo:
Materials de teoria i pràctiques de l'assignatura Disseny de Bases de Dades per al curs 2013-2014 (materials en valencià).
Resumo:
En el presente artículo se exponen las bases para un nuevo proyecto de gestión del yacimiento arqueológico de Calatrava la Vieja (Carrión de Calatrava, Ciudad Real), en el que se plantea la implantación de una Infraestructura de Datos Espaciales (IDE) como sistema de gestión global, utilizando como herramienta los SIG, y su potencialidad como integrador de informaciones cartográficas a diferentes escalas, indispensables en la continua codificación gráfica de la información arqueológica, con informaciones documentales de diverso ámbito y entidad, presentadas en bases de datos. Se analizan en el artículo una serie de pautas fundamentales, a tener en cuenta en un proyecto de esta envergadura, que deben servir de referencia a lo largo del trabajo, de esta forma se presentan las cuestiones claves de interés que puede conllevar la aplicación de estas herramientas en la gestión de un yacimiento arqueológico, así como de su entorno tanteando las posibilidades de su proyección y utilidad. A partir de esta presunción, se presenta la compleja diacronía del complejo de Calatrava «la Vieja», desde su primera ocupación en la Edad del Bronce, hasta su abandono en el siglo XV, destacando su continuidad y la importancia de nuestras actuaciones que han de ser igualmente expuestas. Partiendo de este «palimpsesto» evolutivo presentado, se analizan las posibilidades que ofrecen los SIG a través de las diferentes relaciones que podamos obtener con las Bases de Datos y analizando la potencialidad de su aplicación en estudios inter-site. Además, se plantean las premisas que debería tener la Base de Datos, «caballo de batalla» fundamental para la correcta inserción digital de datos, para su interrelación con otros datos y con el posterior análisis y estudio de sus relaciones con las diferentes realidades del yacimiento. En último lugar exponemos las primeras pautas de trabajo que hemos realizado en la codificación digital del yacimiento y de su georreferenciación espacial, para su posterior inserción en el Sistema de Información Geográfico. Éste exige una correcta ubicación geo-espacial, y con ello un amplio trabajo de aplicaciones topográficas para crear una geometría espacial y una cartografía de calidad suficiente para insertar información real de las diferentes evidencias, que se pueden encontrar en un yacimiento de estas características.
Resumo:
Introducción: el salmorejo cordobés está tomando fama a nivel nacional y reconocimiento internacional. Sin embargo, son muy diversas las formas de elaborarlo y, por tanto, las propiedades organolépticas y nutricionales del plato. Material y métodos: con la intención de realizar una estandarización del salmorejo y forma de elaboración que permita una posterior protección de su identidad, así como su caracterización nutricional, se ha realizado una encuesta sobre el 83% de los establecimientos de restauración de Córdoba (excluidos barrios periféricos y zona industrial) para indagar su forma de elaborarlo, en cuanto a denominación, ingredientes, preparación, precio, etc., mediante una encuesta administrada personalmente con 55 preguntas en 6 apartados. Resultado: el resultado ha sido que sólo un 21% de los establecimientos utiliza la denominación "salmorejo cordobés". Los ingredientes usados de forma sistemática se ajustan estadísticamente a una propuesta previa de sistematización y valoración nutricional, basada en datos bibliográficos y difundida en más de 50 idiomas, que corresponde a: 1.000 g de tomate, 200 g de pan de telera, 100 g de aceite de oliva virgen extra, 5 g de ajo de Montalbán y 10 g de sal. Esto corresponde por 100 g de producto a 117,4 kcal, 1,8 g de proteínas, 8,1 g de lípidos, 9,9 g de carbohidratos, 1,2 g de fibra y 380,7 mg de sodio. Como ingredientes extra minoritariamente se usa el vinagre (18% de las encuestas) y como guarnición de forma mayoritaria, taquitos de jamón y huevo duro, en tanto que algo más de un 25% añade un chorro de aceite sobre el producto terminado. Se elabora principalmente mediante vaso batidor o Termomix, siendo la receta usada de forma mayoritaria de origen familiar. Si bien se ha considerado tradicionalmente un plato estival, un 78% de establecimientos lo tienen todo el año. El 94% de los establecimientos lo consideran entre los diez platos más consumidos, y para el 18% es el más consumido del establecimiento. No existe relación entre la cantidad de salmorejo servido con el precio del plato, siendo este último acorde a los demás precios de cada establecimiento. Conclusiones: con estos datos y los previos obtenidos por medios bibliográficos se está en condiciones de estandarizar el salmorejo cordobés, tanto para un posible amparo de denominación protegida como para establecer un valor nutricional que pueda ser recogido en bases de datos composicionales y software nutricional, para la evaluación de encuestas o elaboración de dietas.