1000 resultados para Procesamiento de la información
Resumo:
Incluye Bibliografía
Resumo:
Incluye Bibliografía
Resumo:
Contiene una descripción de objetivos y actividades en el área de población del Ministerio, información utilizada y generada, unidades de información bibliográfica, procesamiento de datos y banco de datos, sugerencias sobre cooperación interinstitucional y regional.
Resumo:
El documento presenta algunas ideas sobre la posible participación del CELADE en el área de información en población, sin excluir la colaboración en otras áreas de trabajo del Programa Latinoamericano de Poblacion (PROLAP). Las áreas definidas como prioritarias por el Centro son: a) mejorar el acceso a la información sobre población y ampliar la divulgación de los resultados de investigación; b) fortalecer la capacidad de los centros nacionales en el procesamiento de datos; c) incrementar la comunicación con otras regiones. Para cada una de estas áreas se detallan actividades y/u objetivos específicos para su implementación.
Resumo:
El Espacio Interdisciplinario (EI) fue creado en 2008 como un espacio físico y un entorno conceptual transversal a toda la estructura universitaria. Está conformado por estructuras interconectadas con identidad propia para facilitar, promover y legitimar abordajes innovadores a problemas complejos y multidimensionales. En este marco desarrolla algunas líneas para la promoción de la interdisciplina en la Universidad: convocatorias a Núcleos, Centros Interdisciplinarios, Redes Temáticas, publicaciones y eventos interdisciplinarios. En la actualidad funcionan cuatro Centros: Infancia y Pobreza (CIIP), Manejo Costero Integrado del Cono Sur (CMCISur), Nanotecnología y Física y Química de los Materiales (CINQUIFIMA) y Respuesta al Cambio y Variabilidad Climática (CIRCVC). El objetivo de este trabajo es abordar el fenómeno de la interdisciplina combinando metodologías de los Estudios Métricos de la Información (EMI) y el Análisis de Redes Sociales (ARS), utilizando diversas herramientas de procesamiento y visualización de la información (OpenRefine, Gephi, UCINET, NETDRAW). En esta etapa se trabaja con el centro CINQUIFIMA, dado que por su temática su producción está presente en la Web of Science (WOS), pero se pretende consolidar una metodología que permita abordar toda la producción del EI. Se describe la producción del centro, su colaboración nacional e internacional, líneas de investigación y evolución de las temáticas. Se propone una metodología aplicable a los centros del EI con visibilidad en WOS. Se discuten ventajas y desventajas de este tipo de enfoque para abordar grupos y/o instituciones de investigación que no encajan dentro de la tradicional división en especialidades y disciplinas.
Resumo:
El Espacio Interdisciplinario (EI) fue creado en 2008 como un espacio físico y un entorno conceptual transversal a toda la estructura universitaria. Está conformado por estructuras interconectadas con identidad propia para facilitar, promover y legitimar abordajes innovadores a problemas complejos y multidimensionales. En este marco desarrolla algunas líneas para la promoción de la interdisciplina en la Universidad: convocatorias a Núcleos, Centros Interdisciplinarios, Redes Temáticas, publicaciones y eventos interdisciplinarios. En la actualidad funcionan cuatro Centros: Infancia y Pobreza (CIIP), Manejo Costero Integrado del Cono Sur (CMCISur), Nanotecnología y Física y Química de los Materiales (CINQUIFIMA) y Respuesta al Cambio y Variabilidad Climática (CIRCVC). El objetivo de este trabajo es abordar el fenómeno de la interdisciplina combinando metodologías de los Estudios Métricos de la Información (EMI) y el Análisis de Redes Sociales (ARS), utilizando diversas herramientas de procesamiento y visualización de la información (OpenRefine, Gephi, UCINET, NETDRAW). En esta etapa se trabaja con el centro CINQUIFIMA, dado que por su temática su producción está presente en la Web of Science (WOS), pero se pretende consolidar una metodología que permita abordar toda la producción del EI. Se describe la producción del centro, su colaboración nacional e internacional, líneas de investigación y evolución de las temáticas. Se propone una metodología aplicable a los centros del EI con visibilidad en WOS. Se discuten ventajas y desventajas de este tipo de enfoque para abordar grupos y/o instituciones de investigación que no encajan dentro de la tradicional división en especialidades y disciplinas.
Resumo:
El Espacio Interdisciplinario (EI) fue creado en 2008 como un espacio físico y un entorno conceptual transversal a toda la estructura universitaria. Está conformado por estructuras interconectadas con identidad propia para facilitar, promover y legitimar abordajes innovadores a problemas complejos y multidimensionales. En este marco desarrolla algunas líneas para la promoción de la interdisciplina en la Universidad: convocatorias a Núcleos, Centros Interdisciplinarios, Redes Temáticas, publicaciones y eventos interdisciplinarios. En la actualidad funcionan cuatro Centros: Infancia y Pobreza (CIIP), Manejo Costero Integrado del Cono Sur (CMCISur), Nanotecnología y Física y Química de los Materiales (CINQUIFIMA) y Respuesta al Cambio y Variabilidad Climática (CIRCVC). El objetivo de este trabajo es abordar el fenómeno de la interdisciplina combinando metodologías de los Estudios Métricos de la Información (EMI) y el Análisis de Redes Sociales (ARS), utilizando diversas herramientas de procesamiento y visualización de la información (OpenRefine, Gephi, UCINET, NETDRAW). En esta etapa se trabaja con el centro CINQUIFIMA, dado que por su temática su producción está presente en la Web of Science (WOS), pero se pretende consolidar una metodología que permita abordar toda la producción del EI. Se describe la producción del centro, su colaboración nacional e internacional, líneas de investigación y evolución de las temáticas. Se propone una metodología aplicable a los centros del EI con visibilidad en WOS. Se discuten ventajas y desventajas de este tipo de enfoque para abordar grupos y/o instituciones de investigación que no encajan dentro de la tradicional división en especialidades y disciplinas.
Resumo:
Durante la última década la investigación en nanomedicina ha generado gran cantidad de datos, heterogéneos, distribuidos en múltiples fuentes de información. El uso de las Tecnologías de la Información y la Comunicación (TIC) puede facilitar la investigación médica a escala nanométrica, proporcionando mecanismos y herramientas que permitan gestionar todos esos datos de una manera inteligente. Mientras que la informática biomédica comprende el procesamiento y gestión de la información generada desde el nivel de salud pública y aplicación clínica hasta el nivel molecular, la nanoinformática extiende este ámbito para incluir el “nivel nano”, ocupándose de gestionar y analizar los resultados generados durante la investigación en nanomedicina y desarrollar nuevas líneas de trabajo en este espacio interdisciplinar. En esta nueva área científica, la nanoinformática (que podría consolidarse como una auténtica disciplina en los próximos años), elGrupo de Informática Biomédica (GIB) de la Universidad Politécnica de Madrid (UPM) participa en numerosas iniciativas, que se detallan a continuación.
Resumo:
La correcta validación y evaluación de cualquier algoritmo de registro incluido en la línea de procesamiento de cualquier aplicación clínica, es fundamental para asegurar la calidad y fiabilidad de los resultados obtenidos con ellas. Ambas características son imprescindibles, además, cuando dicha aplicación se encuentra en el área de la planificación quirúrgica, en la que las decisiones médicas influyen claramente en la invasividad sobre el paciente. El registro de imágenes es un proceso de alineamiento entre dos o más de éstas de forma que las características comunes se encuentren en el mismo punto del espacio. Este proceso, por tanto, se hace imprescindible en aquellas aplicaciones en las que existe la necesidad de combinar la información disponible en diferentes modalidades (fusión de imágenes) o bien la comparación de imágenes intra-modalidad tomadas de diferentes pacientes o en diferentes momentos. En el presente Trabajo Fin de Máster, se desarrolla un conjunto de herramientas para la evaluación de algoritmos de registro y se evalúan en la aplicación sobre imágenes multimodalidad a través de dos metodologías: 1) el uso de imágenes cuya alineación se conoce a priori a través de unos marcadores fiables (fiducial markers) eliminados de las imágenes antes del proceso de validación; y 2) el uso de imágenes sintetizadas con las propiedades de cierta modalidad de interés, generadas en base a otra modalidad objetivo y cuya des-alineación es controlada y conocida a priori. Para la primera de las metodologías, se hizo uso de un proyecto (RIRE – Retrospective Image Registration Evaluation Project) ampliamente conocido y que asegura la fiabilidad de la validación al realizarse por terceros. En la segunda, se propone la utilización de una metodología de simulación de imágenes SPECT (Single Photon Emission Computed Tomography) a partir de imágenes de Resonancia Magnética (que es la referencia anatómica). Finalmente, se realiza la modularización del algoritmo de registro validado en la herramienta FocusDET, para la localización del Foco Epileptógeno (FE) en Epilepsia parcial intratable, sustituyendo a la versión anterior en la que el proceso de registro se encontraba embebido en dicho software, dificultando enormemente cualquier tarea de revisión, validación o evaluación.
Resumo:
La gestión del conocimiento (KM) es el proceso de recolectar datos en bruto para su análisis y filtrado, con la finalidad de obtener conocimiento útil a partir de dichos datos. En este proyecto se pretende hacer un estudio sobre la gestión de la información en las redes de sensores inalámbricos como inicio para sentar las bases para la gestión del conocimiento en las mismas. Las redes de sensores inalámbricos (WSN) son redes compuestas por sensores (también conocidos como motas) distribuidos sobre un área, cuya misión es monitorizar una o varias condiciones físicas del entorno. Las redes de sensores inalámbricos se caracterizan por tener restricciones de consumo para los sensores que utilizan baterías, por su capacidad para adaptarse a cambios y ser escalables, y también por su habilidad para hacer frente a fallos en los sensores. En este proyecto se hace un estudio sobre la gestión de la información en redes de sensores inalámbricos. Se comienza introduciendo algunos conceptos básicos: arquitectura, pila de protocolos, topologías de red, etc.… Después de esto, se ha enfocado el estudio hacia TinyDB, el cual puede ser considerado como parte de las tecnologías más avanzadas en el estado del arte de la gestión de la información en redes de sensores inalámbricos. TinyDB es un sistema de procesamiento de consultas para extraer información de una red de sensores. Proporciona una interfaz similar a SQL y permite trabajar con consultas contra la red de sensores inalámbricos como si se tratara de una base de datos tradicional. Además, TinyDB implementa varias optimizaciones para manejar los datos eficientemente. En este proyecto se describe también la implementación de una sencilla aplicación basada en redes de sensores inalámbricos. Las motas en la aplicación son capaces de medir la corriente a través de un cable. El objetivo de esta aplicación es monitorizar el consumo de energía en diferentes zonas de un área industrial o doméstico, utilizando redes de sensores inalámbricas. Además, se han implementado las optimizaciones más importantes que se han aprendido en el análisis de la plataforma TinyDB. Para desarrollar esta aplicación se ha utilizado como sensores la plataforma open-source de creación de prototipos electrónicos Arduino, y el ordenador de placa reducida Raspberry Pi como coordinador. ABSTRACT. Knowledge management (KM) is the process of collecting raw data for analysis and filtering, to get a useful knowledge from this data. In this project the information management in wireless sensor networks is studied as starting point before knowledge management. Wireless sensor networks (WSN) are networks which consists of sensors (also known as motes) distributed over an area, to monitor some physical conditions of the environment. Wireless sensor networks are characterized by power consumption constrains for sensors which are using batteries, by the ability to be adaptable to changes and to be scalable, and by the ability to cope sensor failures. In this project it is studied information management in wireless sensor networks. The document starts introducing basic concepts: architecture, stack of protocols, network topology… After this, the study has been focused on TinyDB, which can be considered as part of the most advanced technologies in the state of the art of information management in wireless sensor networks. TinyDB is a query processing system for extracting information from a network of sensors. It provides a SQL-like interface and it lets us to work with queries against the wireless sensor network like if it was a traditional database. In addition, TinyDB implements a lot of optimizations to manage data efficiently. In this project, it is implemented a simple wireless sensor network application too. Application’s motes are able to measure amperage through a cable. The target of the application is, by using a wireless sensor network and these sensors, to monitor energy consumption in different areas of a house. Additionally, it is implemented the most important optimizations that we have learned from the analysis of TinyDB platform. To develop this application it is used Arduino open-source electronics prototyping platform as motes, and Raspberry Pi single-board computer as coordinator.
Resumo:
En virtud de que el proceso de diseñar una ciudad involucra el procesamiento de una intrincada trama de información, aquí proponemos, como consecuencia de la experiencia, un discurso no lineal que, por razón de estar organizado por niveles, tiene la capacidad de asumir y tratar múltiples datos desde diversas fuentes. Este ensayo ofrece, asimismo, dadas la complejidad de este manejo informativo y el alto consumo de recursos en la prospección de sus consecuencias, una alternativa para clasificar y cuantificar datos mediante un proceso holográfico. Con base en ello, y tomando como punto de partida algunas fachadas de la Gran Vía madrileña (gvm, España), replanteamos el debate acerca de la compleja organización de registros en la intervención de una ciudad consolidada, con la finalidad de cumplir tres objetivos: en primer lugar, poner en manifiesto la enorme influencia del vínculo contexto-diseño; en segundo término, exponer un ejercicio piloto sistematizado que considere y evalúe por medio de determinados parámetros los datos recopilados y, en tercer rubro, estimular a otros autores a reabrir la discusión sobre el diseño de un entorno urbano. En virtud de que el proceso de diseñar una ciudad involucra el procesamiento de una intrincada trama de información, aquí proponemos, como consecuencia de la experiencia, un discurso no lineal que, por razón de estar organizado por niveles, tiene la capacidad de asumir y tratar múltiples datos desde diversas fuentes. Este ensayo ofrece, asimismo, dadas la complejidad de este manejo informativo y el alto consumo de recursos en la prospección de sus consecuencias, una alternativa para clasificar y cuantificar datos mediante un proceso holográfico. Con base en ello, y tomando como punto de partida algunas fachadas de la Gran Vía madrileña (gvm, España), replanteamos el debate acerca de la compleja organización de registros en la intervención de una ciudad consolidada, con la finalidad de cumplir tres objetivos: en primer lugar, poner en manifiesto la enorme influencia del vínculo contexto-diseño; en segundo término, exponer un ejercicio piloto sistematizado que considere y evalúe por medio de determinados parámetros los datos recopilados y, en tercer rubro, estimular a otros autores a reabrir la discusión sobre el diseño de un entorno urbano.
Resumo:
Uno de los problemas actuales en el dominio de la salud es reutilizar y compartir la información clínica entre profesionales, ya que ésta se encuentra escrita usando terminologías específicas. Una posible solución es usar un recurso de conocimiento común sobre el que mapear la información existente. Nuestro objetivo es comprobar si la adición de conocimiento semántico superficial puede mejorar los mapeados establecidos. Para ello experimentamos con un conjunto de etiquetas de NANDA-I y con un conjunto de descripciones de SNOMED-CT en castellano. Los resultados obtenidos en los experimentos muestran que la inclusión de conocimiento semántico superficial mejora significativamente el mapeado léxico entre los dos recursos estudiados.
Resumo:
Proyecto emergente centrado en el tratamiento inteligente de información procedente de diversas fuentes tales como micro-blogs, blogs, foros, portales especializados, etc. La finalidad es generar conocimiento a partir de la información semántica recuperada. Como resultado se podrán determinar las necesidades de los usuarios o mejorar la reputación de diferentes organizaciones. En este artículo se describen los problemas abordados, la hipótesis de trabajo, las tareas a realizar y los objetivos parciales alcanzados.
Resumo:
La gran cantidad de información disponible en Internet está dificultando cada vez más que los usuarios puedan digerir toda esa información, siendo actualmente casi impensable sin la ayuda de herramientas basadas en las Tecnologías del Lenguaje Humano (TLH), como pueden ser los recuperadores de información o resumidores automáticos. El interés de este proyecto emergente (y por tanto, su objetivo principal) viene motivado precisamente por la necesidad de definir y crear un marco tecnológico basado en TLH, capaz de procesar y anotar semánticamente la información, así como permitir la generación de información de forma automática, flexibilizando el tipo de información a presentar y adaptándola a las necesidades de los usuarios. En este artículo se proporciona una visión general de este proyecto, centrándonos en la arquitectura propuesta y el estado actual del mismo.
Resumo:
Vivimos en sociedades en las que la producción, el flujo de información y la centralidad de ésta en las actividades humanas, alcanzan niveles ni siquiera soñados pocas décadas atrás. La razón de este salto cualitativo en el papel social de la información radica, fundamentalmente, en la utilización de tecnologías electrónicas e informáticas, sumamente eficaces y relativamente baratas, para el procesamiento, manejo y difusión de la información.Estas tecnologías han estado controladas por poderosos sectores sociales que actúan en el plano internacional y transnacional, los cuales las han modelado según sus propios intereses.Emplear estas tecnologías implica la posibilidad de moverse en un rango de enorme amplitud, en el que se acrecientan extraordinariamente los espacios de acción de los sujetos que allí se desenvuelven, lo mismo que su disponibilidad de recursos.