997 resultados para PROCESAMIENTO DE LA INFORMACIÓN


Relevância:

100.00% 100.00%

Publicador:

Resumo:

El documento presenta algunas ideas sobre la posible participación del CELADE en el área de información en población, sin excluir la colaboración en otras áreas de trabajo del Programa Latinoamericano de Poblacion (PROLAP). Las áreas definidas como prioritarias por el Centro son: a) mejorar el acceso a la información sobre población y ampliar la divulgación de los resultados de investigación; b) fortalecer la capacidad de los centros nacionales en el procesamiento de datos; c) incrementar la comunicación con otras regiones. Para cada una de estas áreas se detallan actividades y/u objetivos específicos para su implementación.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El Espacio Interdisciplinario (EI) fue creado en 2008 como un espacio físico y un entorno conceptual transversal a toda la estructura universitaria. Está conformado por estructuras interconectadas con identidad propia para facilitar, promover y legitimar abordajes innovadores a problemas complejos y multidimensionales. En este marco desarrolla algunas líneas para la promoción de la interdisciplina en la Universidad: convocatorias a Núcleos, Centros Interdisciplinarios, Redes Temáticas, publicaciones y eventos interdisciplinarios. En la actualidad funcionan cuatro Centros: Infancia y Pobreza (CIIP), Manejo Costero Integrado del Cono Sur (CMCISur), Nanotecnología y Física y Química de los Materiales (CINQUIFIMA) y Respuesta al Cambio y Variabilidad Climática (CIRCVC). El objetivo de este trabajo es abordar el fenómeno de la interdisciplina combinando metodologías de los Estudios Métricos de la Información (EMI) y el Análisis de Redes Sociales (ARS), utilizando diversas herramientas de procesamiento y visualización de la información (OpenRefine, Gephi, UCINET, NETDRAW). En esta etapa se trabaja con el centro CINQUIFIMA, dado que por su temática su producción está presente en la Web of Science (WOS), pero se pretende consolidar una metodología que permita abordar toda la producción del EI. Se describe la producción del centro, su colaboración nacional e internacional, líneas de investigación y evolución de las temáticas. Se propone una metodología aplicable a los centros del EI con visibilidad en WOS. Se discuten ventajas y desventajas de este tipo de enfoque para abordar grupos y/o instituciones de investigación que no encajan dentro de la tradicional división en especialidades y disciplinas.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El Espacio Interdisciplinario (EI) fue creado en 2008 como un espacio físico y un entorno conceptual transversal a toda la estructura universitaria. Está conformado por estructuras interconectadas con identidad propia para facilitar, promover y legitimar abordajes innovadores a problemas complejos y multidimensionales. En este marco desarrolla algunas líneas para la promoción de la interdisciplina en la Universidad: convocatorias a Núcleos, Centros Interdisciplinarios, Redes Temáticas, publicaciones y eventos interdisciplinarios. En la actualidad funcionan cuatro Centros: Infancia y Pobreza (CIIP), Manejo Costero Integrado del Cono Sur (CMCISur), Nanotecnología y Física y Química de los Materiales (CINQUIFIMA) y Respuesta al Cambio y Variabilidad Climática (CIRCVC). El objetivo de este trabajo es abordar el fenómeno de la interdisciplina combinando metodologías de los Estudios Métricos de la Información (EMI) y el Análisis de Redes Sociales (ARS), utilizando diversas herramientas de procesamiento y visualización de la información (OpenRefine, Gephi, UCINET, NETDRAW). En esta etapa se trabaja con el centro CINQUIFIMA, dado que por su temática su producción está presente en la Web of Science (WOS), pero se pretende consolidar una metodología que permita abordar toda la producción del EI. Se describe la producción del centro, su colaboración nacional e internacional, líneas de investigación y evolución de las temáticas. Se propone una metodología aplicable a los centros del EI con visibilidad en WOS. Se discuten ventajas y desventajas de este tipo de enfoque para abordar grupos y/o instituciones de investigación que no encajan dentro de la tradicional división en especialidades y disciplinas.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El Espacio Interdisciplinario (EI) fue creado en 2008 como un espacio físico y un entorno conceptual transversal a toda la estructura universitaria. Está conformado por estructuras interconectadas con identidad propia para facilitar, promover y legitimar abordajes innovadores a problemas complejos y multidimensionales. En este marco desarrolla algunas líneas para la promoción de la interdisciplina en la Universidad: convocatorias a Núcleos, Centros Interdisciplinarios, Redes Temáticas, publicaciones y eventos interdisciplinarios. En la actualidad funcionan cuatro Centros: Infancia y Pobreza (CIIP), Manejo Costero Integrado del Cono Sur (CMCISur), Nanotecnología y Física y Química de los Materiales (CINQUIFIMA) y Respuesta al Cambio y Variabilidad Climática (CIRCVC). El objetivo de este trabajo es abordar el fenómeno de la interdisciplina combinando metodologías de los Estudios Métricos de la Información (EMI) y el Análisis de Redes Sociales (ARS), utilizando diversas herramientas de procesamiento y visualización de la información (OpenRefine, Gephi, UCINET, NETDRAW). En esta etapa se trabaja con el centro CINQUIFIMA, dado que por su temática su producción está presente en la Web of Science (WOS), pero se pretende consolidar una metodología que permita abordar toda la producción del EI. Se describe la producción del centro, su colaboración nacional e internacional, líneas de investigación y evolución de las temáticas. Se propone una metodología aplicable a los centros del EI con visibilidad en WOS. Se discuten ventajas y desventajas de este tipo de enfoque para abordar grupos y/o instituciones de investigación que no encajan dentro de la tradicional división en especialidades y disciplinas.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Durante la última década la investigación en nanomedicina ha generado gran cantidad de datos, heterogéneos, distribuidos en múltiples fuentes de información. El uso de las Tecnologías de la Información y la Comunicación (TIC) puede facilitar la investigación médica a escala nanométrica, proporcionando mecanismos y herramientas que permitan gestionar todos esos datos de una manera inteligente. Mientras que la informática biomédica comprende el procesamiento y gestión de la información generada desde el nivel de salud pública y aplicación clínica hasta el nivel molecular, la nanoinformática extiende este ámbito para incluir el “nivel nano”, ocupándose de gestionar y analizar los resultados generados durante la investigación en nanomedicina y desarrollar nuevas líneas de trabajo en este espacio interdisciplinar. En esta nueva área científica, la nanoinformática (que podría consolidarse como una auténtica disciplina en los próximos años), elGrupo de Informática Biomédica (GIB) de la Universidad Politécnica de Madrid (UPM) participa en numerosas iniciativas, que se detallan a continuación.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La correcta validación y evaluación de cualquier algoritmo de registro incluido en la línea de procesamiento de cualquier aplicación clínica, es fundamental para asegurar la calidad y fiabilidad de los resultados obtenidos con ellas. Ambas características son imprescindibles, además, cuando dicha aplicación se encuentra en el área de la planificación quirúrgica, en la que las decisiones médicas influyen claramente en la invasividad sobre el paciente. El registro de imágenes es un proceso de alineamiento entre dos o más de éstas de forma que las características comunes se encuentren en el mismo punto del espacio. Este proceso, por tanto, se hace imprescindible en aquellas aplicaciones en las que existe la necesidad de combinar la información disponible en diferentes modalidades (fusión de imágenes) o bien la comparación de imágenes intra-modalidad tomadas de diferentes pacientes o en diferentes momentos. En el presente Trabajo Fin de Máster, se desarrolla un conjunto de herramientas para la evaluación de algoritmos de registro y se evalúan en la aplicación sobre imágenes multimodalidad a través de dos metodologías: 1) el uso de imágenes cuya alineación se conoce a priori a través de unos marcadores fiables (fiducial markers) eliminados de las imágenes antes del proceso de validación; y 2) el uso de imágenes sintetizadas con las propiedades de cierta modalidad de interés, generadas en base a otra modalidad objetivo y cuya des-alineación es controlada y conocida a priori. Para la primera de las metodologías, se hizo uso de un proyecto (RIRE – Retrospective Image Registration Evaluation Project) ampliamente conocido y que asegura la fiabilidad de la validación al realizarse por terceros. En la segunda, se propone la utilización de una metodología de simulación de imágenes SPECT (Single Photon Emission Computed Tomography) a partir de imágenes de Resonancia Magnética (que es la referencia anatómica). Finalmente, se realiza la modularización del algoritmo de registro validado en la herramienta FocusDET, para la localización del Foco Epileptógeno (FE) en Epilepsia parcial intratable, sustituyendo a la versión anterior en la que el proceso de registro se encontraba embebido en dicho software, dificultando enormemente cualquier tarea de revisión, validación o evaluación.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La gestión del conocimiento (KM) es el proceso de recolectar datos en bruto para su análisis y filtrado, con la finalidad de obtener conocimiento útil a partir de dichos datos. En este proyecto se pretende hacer un estudio sobre la gestión de la información en las redes de sensores inalámbricos como inicio para sentar las bases para la gestión del conocimiento en las mismas. Las redes de sensores inalámbricos (WSN) son redes compuestas por sensores (también conocidos como motas) distribuidos sobre un área, cuya misión es monitorizar una o varias condiciones físicas del entorno. Las redes de sensores inalámbricos se caracterizan por tener restricciones de consumo para los sensores que utilizan baterías, por su capacidad para adaptarse a cambios y ser escalables, y también por su habilidad para hacer frente a fallos en los sensores. En este proyecto se hace un estudio sobre la gestión de la información en redes de sensores inalámbricos. Se comienza introduciendo algunos conceptos básicos: arquitectura, pila de protocolos, topologías de red, etc.… Después de esto, se ha enfocado el estudio hacia TinyDB, el cual puede ser considerado como parte de las tecnologías más avanzadas en el estado del arte de la gestión de la información en redes de sensores inalámbricos. TinyDB es un sistema de procesamiento de consultas para extraer información de una red de sensores. Proporciona una interfaz similar a SQL y permite trabajar con consultas contra la red de sensores inalámbricos como si se tratara de una base de datos tradicional. Además, TinyDB implementa varias optimizaciones para manejar los datos eficientemente. En este proyecto se describe también la implementación de una sencilla aplicación basada en redes de sensores inalámbricos. Las motas en la aplicación son capaces de medir la corriente a través de un cable. El objetivo de esta aplicación es monitorizar el consumo de energía en diferentes zonas de un área industrial o doméstico, utilizando redes de sensores inalámbricas. Además, se han implementado las optimizaciones más importantes que se han aprendido en el análisis de la plataforma TinyDB. Para desarrollar esta aplicación se ha utilizado como sensores la plataforma open-source de creación de prototipos electrónicos Arduino, y el ordenador de placa reducida Raspberry Pi como coordinador. ABSTRACT. Knowledge management (KM) is the process of collecting raw data for analysis and filtering, to get a useful knowledge from this data. In this project the information management in wireless sensor networks is studied as starting point before knowledge management. Wireless sensor networks (WSN) are networks which consists of sensors (also known as motes) distributed over an area, to monitor some physical conditions of the environment. Wireless sensor networks are characterized by power consumption constrains for sensors which are using batteries, by the ability to be adaptable to changes and to be scalable, and by the ability to cope sensor failures. In this project it is studied information management in wireless sensor networks. The document starts introducing basic concepts: architecture, stack of protocols, network topology… After this, the study has been focused on TinyDB, which can be considered as part of the most advanced technologies in the state of the art of information management in wireless sensor networks. TinyDB is a query processing system for extracting information from a network of sensors. It provides a SQL-like interface and it lets us to work with queries against the wireless sensor network like if it was a traditional database. In addition, TinyDB implements a lot of optimizations to manage data efficiently. In this project, it is implemented a simple wireless sensor network application too. Application’s motes are able to measure amperage through a cable. The target of the application is, by using a wireless sensor network and these sensors, to monitor energy consumption in different areas of a house. Additionally, it is implemented the most important optimizations that we have learned from the analysis of TinyDB platform. To develop this application it is used Arduino open-source electronics prototyping platform as motes, and Raspberry Pi single-board computer as coordinator.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En virtud de que el proceso de diseñar una ciudad involucra el procesamiento de una intrincada trama de información, aquí proponemos, como consecuencia de la experiencia, un discurso no lineal que, por razón de estar organizado por niveles, tiene la capacidad de asumir y tratar múltiples datos desde diversas fuentes. Este ensayo ofrece, asimismo, dadas la complejidad de este manejo informativo y el alto consumo de recursos en la prospección de sus consecuencias, una alternativa para clasificar y cuantificar datos mediante un proceso holográfico. Con base en ello, y tomando como punto de partida algunas fachadas de la Gran Vía madrileña (gvm, España), replanteamos el debate acerca de la compleja organización de registros en la intervención de una ciudad consolidada, con la finalidad de cumplir tres objetivos: en primer lugar, poner en manifiesto la enorme influencia del vínculo contexto-diseño; en segundo término, exponer un ejercicio piloto sistematizado que considere y evalúe por medio de determinados parámetros los datos recopilados y, en tercer rubro, estimular a otros autores a reabrir la discusión sobre el diseño de un entorno urbano. En virtud de que el proceso de diseñar una ciudad involucra el procesamiento de una intrincada trama de información, aquí proponemos, como consecuencia de la experiencia, un discurso no lineal que, por razón de estar organizado por niveles, tiene la capacidad de asumir y tratar múltiples datos desde diversas fuentes. Este ensayo ofrece, asimismo, dadas la complejidad de este manejo informativo y el alto consumo de recursos en la prospección de sus consecuencias, una alternativa para clasificar y cuantificar datos mediante un proceso holográfico. Con base en ello, y tomando como punto de partida algunas fachadas de la Gran Vía madrileña (gvm, España), replanteamos el debate acerca de la compleja organización de registros en la intervención de una ciudad consolidada, con la finalidad de cumplir tres objetivos: en primer lugar, poner en manifiesto la enorme influencia del vínculo contexto-diseño; en segundo término, exponer un ejercicio piloto sistematizado que considere y evalúe por medio de determinados parámetros los datos recopilados y, en tercer rubro, estimular a otros autores a reabrir la discusión sobre el diseño de un entorno urbano.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Uno de los problemas actuales en el dominio de la salud es reutilizar y compartir la información clínica entre profesionales, ya que ésta se encuentra escrita usando terminologías específicas. Una posible solución es usar un recurso de conocimiento común sobre el que mapear la información existente. Nuestro objetivo es comprobar si la adición de conocimiento semántico superficial puede mejorar los mapeados establecidos. Para ello experimentamos con un conjunto de etiquetas de NANDA-I y con un conjunto de descripciones de SNOMED-CT en castellano. Los resultados obtenidos en los experimentos muestran que la inclusión de conocimiento semántico superficial mejora significativamente el mapeado léxico entre los dos recursos estudiados.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Proyecto emergente centrado en el tratamiento inteligente de información procedente de diversas fuentes tales como micro-blogs, blogs, foros, portales especializados, etc. La finalidad es generar conocimiento a partir de la información semántica recuperada. Como resultado se podrán determinar las necesidades de los usuarios o mejorar la reputación de diferentes organizaciones. En este artículo se describen los problemas abordados, la hipótesis de trabajo, las tareas a realizar y los objetivos parciales alcanzados.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La gran cantidad de información disponible en Internet está dificultando cada vez más que los usuarios puedan digerir toda esa información, siendo actualmente casi impensable sin la ayuda de herramientas basadas en las Tecnologías del Lenguaje Humano (TLH), como pueden ser los recuperadores de información o resumidores automáticos. El interés de este proyecto emergente (y por tanto, su objetivo principal) viene motivado precisamente por la necesidad de definir y crear un marco tecnológico basado en TLH, capaz de procesar y anotar semánticamente la información, así como permitir la generación de información de forma automática, flexibilizando el tipo de información a presentar y adaptándola a las necesidades de los usuarios. En este artículo se proporciona una visión general de este proyecto, centrándonos en la arquitectura propuesta y el estado actual del mismo.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Vivimos en sociedades en las que la producción, el flujo de información y la centralidad de ésta en las actividades humanas, alcanzan niveles ni siquiera soñados pocas décadas atrás. La razón de este salto cualitativo en el papel social de la información radica, fundamentalmente, en la utilización de tecnologías electrónicas e informáticas, sumamente eficaces y relativamente baratas, para el procesamiento, manejo y difusión de la información.Estas tecnologías han estado controladas por poderosos sectores sociales que actúan en el plano internacional y transnacional, los cuales las han modelado según sus propios intereses.Emplear estas tecnologías implica la posibilidad de moverse en un rango de enorme amplitud, en el que se acrecientan extraordinariamente los espacios de acción de los sujetos que allí se desenvuelven, lo mismo que su disponibilidad de recursos.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La evolución de las tecnologías de la información y comunicación, ha provocado que en el desarrollo de las labores de los profesionales sean incluidas herramientas tecnológicas que ayuden y faciliten a la consecución del trabajo de los mismos, así también que el buen desempeño de un profesional hoy en día no solo se mida por sus conocimientos teóricos sino también por su habilidad para el manejo de sistemas informáticos, también sobre cómo logran adatarlos a su trabajo para poder ser más eficientes en llevar a cabo sus responsabilidades. Es por ello que se vuelve indispensable contar con una herramienta tecnológica que facilite y automatice la mayor parte de los procesos en una profesión, ya que de no ser así significaría resistirse a los cambios y por lo tanto quedar en desventaja respecto a la competencia, debido a la evolución y globalización de la tecnología y por ende correr el riesgo de volverse obsoleto en el ámbito laboral por no hacer uso de las TIC en la formación y desarrollo de la profesión. Por tal razón se investigó la situación de las pequeñas firmas de auditoría en cuanto al uso e implementación de la tecnología en sus procesos, tal investigación confirmó que las mismas, tenían problemas en cuanto a la administración, registro y control de la cartera de clientes, así como también en la administración y registro de la información de los empleados, problemas en la agenda de las visitas, de los procedimientos a ejecutar, entre otros. Todo lo anterior porque la mayor parte de las firmas no implementan la tecnología en su trabajo debido al costo que implica adquirir un programa que automatice y facilite sus actividades; es por ello que como grupo de investigación se tomó a bien elaborar un software que se ajuste a las necesidades de las firmas con el objetivo de solventar la problemática identificada en las mismas. En tal sentido la propuesta para resolver la problemática identificada y comprobada, consistió en la elaboración de un software que fuera capaz de llevar un registro y control de la cartera de clientes y empleados; poder registrar los procedimientos a ejecutar en el desarrollo de una auditoría por cada cliente existente; de registrar y programar las visitas que se harán a los clientes; así como también hacer el registro y asignación de encargos a los empleados y poder registrar las capacitaciones que estos últimos reciben; que la aplicación pudiera hacer recordatorios de fechas claves concernientes a los encargos y contar con un buscador en donde se pueda consultar toda la información que en la misma se vacíe. Finalmente que esta sea capaz de generar reportes. Para el diseño y elaboración del intangible se utilizó bibliografía referente al diseño y programación de sistemas, así mismo se investigó referente a los diferentes tipos de entornos y lenguajes que más se adaptaban a nuestras necesidades; se siguió el ciclo de vida de los soportes lógicos con el fin de cumplir con las etapas del mismo y poder llevar a cabo la elaboración del sistema propuesto. El trabajo inició mediante el suministro de una encuesta a las unidades de análisis las cuales fueron firmas de auditoría, después de haber pasado el instrumento a todos los elementos que conformaron la muestra y haber obtenido los resultados, se procedió a hacer la tabulación y análisis para poder dar paso a la formulación del diagnóstico sobre la problemática en estudio, determinando la necesidad de un sistema computarizado diseñado conforme a los estándares manifestados por los auditores para su uso en el desarrollo de sus labores. Por lo demás se desarrolló la propuesta, la cual contempló el diseño y programación de la aplicación de acuerdo a los requerimientos planteados y a las especificaciones que se pudieron identificar previamente, así como también las identificadas después de la tabulación y análisis de los resultados; es decir de acuerdo a los requerimientos que los las unidades de análisis deseaban que también tuviese el software a parte de las que se les plantearon en la encuesta. Para esto se hizo un estudio sobre la factibilidad técnica, operativa y económica de este, describiendo el lenguaje de programación y las relaciones entre las tablas que incluye la base de datos. Asimismo se presenta cada formulario con sus respectivos botones de acción y barra de herramienta a tomar en cuenta y el esquema de los reportes que de forma indispensable debe generar como producto del procesamiento electrónico de los datos. Para finalizar se redactaron a criterio del grupo de investigación, algunas conclusiones del trabajo realizado acompañado de sus respectivas recomendaciones a considerar por las firmas auditoras.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Bogotá (Colombia) : Universidad de La Salle. Facultad de Ciencias Administrativas y Contables. Programa de Contaduría Pública

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La leña es la forma más simple de biomasa utilizada en los hogares del mundo. En Nicaragua, casi el cincuenta por ciento de los nicaragüenses cocinan con leña y carbón. Esta demanda de leña ha provocado sobre explotación del bosque seco del Pacifico de Nicaragua, ocasionando degradación progresiva del bosque. La información dendroenergética de los focos de producción de leña se encuentra dispersa y desorganizada, esto justifica la realización del presente estudio de sistematización, que servirá para establecer lineamientos básicos sobre las pautas a seguir al momento de la planificación, seguimiento y evaluación de proyectos y/o programas dendroenergéticos. La información se recolectó a través de entrevistas dirigidas a responsables administrativos o técnicos de cada entidad relevante del sector dendroenerg ético. Adicionalmente se recolectó información bibliográfica de documentos físicos y electrónicos. La información se organizó en cuatro tópicos: Leyes/políticas: se identificó la necesidad de la formulación y adición de leyes y/o políticas que promuevan y faciliten la inversión en proyectos de generación eléctrica renovable; Investigaciones/estudios/publicaciones: se observa buena cantidad de investigaciones y documentos educativos, sin embargo, están desactualizados y sin contenido ambiental completo; Organización, poca vinculación de las instancias gubernamentales del sector con los actores locales como las asociaciones, cooperativas y productores individuales; Producción/comercialización, limitada a actividades de plantación y producción de plántulas con fines energéticos. En conclusión, el sector dendroenergético en Nicaragua es poco atractivo a la inversión por los procedimientos administrativos, las normas jurídicas y la falta de mecanismos de incentivos y créditos. Las cooperativas y asociaciones no están bien vinculadas entre ellas, lo que no les permite incidir en políticas a favor del sector. Sin embargo, se detectan aspectos positivos, como La Estrategia de Leña y Carbón y la inserción en muchos hogares de las estufas mejoradas como mecanismo de ahorro dendroenergético.