989 resultados para Visualización de información
Resumo:
El Espacio Interdisciplinario (EI) fue creado en 2008 como un espacio físico y un entorno conceptual transversal a toda la estructura universitaria. Está conformado por estructuras interconectadas con identidad propia para facilitar, promover y legitimar abordajes innovadores a problemas complejos y multidimensionales. En este marco desarrolla algunas líneas para la promoción de la interdisciplina en la Universidad: convocatorias a Núcleos, Centros Interdisciplinarios, Redes Temáticas, publicaciones y eventos interdisciplinarios. En la actualidad funcionan cuatro Centros: Infancia y Pobreza (CIIP), Manejo Costero Integrado del Cono Sur (CMCISur), Nanotecnología y Física y Química de los Materiales (CINQUIFIMA) y Respuesta al Cambio y Variabilidad Climática (CIRCVC). El objetivo de este trabajo es abordar el fenómeno de la interdisciplina combinando metodologías de los Estudios Métricos de la Información (EMI) y el Análisis de Redes Sociales (ARS), utilizando diversas herramientas de procesamiento y visualización de la información (OpenRefine, Gephi, UCINET, NETDRAW). En esta etapa se trabaja con el centro CINQUIFIMA, dado que por su temática su producción está presente en la Web of Science (WOS), pero se pretende consolidar una metodología que permita abordar toda la producción del EI. Se describe la producción del centro, su colaboración nacional e internacional, líneas de investigación y evolución de las temáticas. Se propone una metodología aplicable a los centros del EI con visibilidad en WOS. Se discuten ventajas y desventajas de este tipo de enfoque para abordar grupos y/o instituciones de investigación que no encajan dentro de la tradicional división en especialidades y disciplinas.
Resumo:
Se muestra la pertinencia y utilidad del análisis de cocitación como metodología de investigación en Bibliotecología y Ciencia de la Información, a partir de un análisis bibliométrico y revisión del contenido de los principales trabajos publicados sobre esta temática. Se describen las principales aplicaciones y posibles usos que pueden tener los resultados de este tipo de análisis. Se mencionan los métodos y técnicas más utilizados para el análisis y visualización de las estructuras de conocimiento de dominios científicos, y se presentan algunos de los modelos de mapas propuestos. Finalmente, se mencionan las ventajas del análisis de cocitación y sus principales limitaciones
Resumo:
El Espacio Interdisciplinario (EI) fue creado en 2008 como un espacio físico y un entorno conceptual transversal a toda la estructura universitaria. Está conformado por estructuras interconectadas con identidad propia para facilitar, promover y legitimar abordajes innovadores a problemas complejos y multidimensionales. En este marco desarrolla algunas líneas para la promoción de la interdisciplina en la Universidad: convocatorias a Núcleos, Centros Interdisciplinarios, Redes Temáticas, publicaciones y eventos interdisciplinarios. En la actualidad funcionan cuatro Centros: Infancia y Pobreza (CIIP), Manejo Costero Integrado del Cono Sur (CMCISur), Nanotecnología y Física y Química de los Materiales (CINQUIFIMA) y Respuesta al Cambio y Variabilidad Climática (CIRCVC). El objetivo de este trabajo es abordar el fenómeno de la interdisciplina combinando metodologías de los Estudios Métricos de la Información (EMI) y el Análisis de Redes Sociales (ARS), utilizando diversas herramientas de procesamiento y visualización de la información (OpenRefine, Gephi, UCINET, NETDRAW). En esta etapa se trabaja con el centro CINQUIFIMA, dado que por su temática su producción está presente en la Web of Science (WOS), pero se pretende consolidar una metodología que permita abordar toda la producción del EI. Se describe la producción del centro, su colaboración nacional e internacional, líneas de investigación y evolución de las temáticas. Se propone una metodología aplicable a los centros del EI con visibilidad en WOS. Se discuten ventajas y desventajas de este tipo de enfoque para abordar grupos y/o instituciones de investigación que no encajan dentro de la tradicional división en especialidades y disciplinas.
Resumo:
Fil: Miguel, Sandra. Universidad Nacional de La Plata. Facultad de Humanidades y Ciencias de la Educación; Argentina.
Resumo:
El presente trabajo se centra en la investigación del modelo de crowdsourcing y su relación con la Información Geográfica Voluntaria y otras actividades participativas para la creación de conocimiento geográfico de forma colaborativa. Primero se expone una introducción al concepto y distintos ámbitos de aplicación y uso en la adquisición,visualización y análisis de datos geográficos, presentándose las herramientas, tecnologías web y móviles que han hecho posible su implementación. Después se hace una breve revisión de algunas plataformas de código abierto que faciliten la creación de contenido geolocalizado por el usuario y proporcionen funcionalidades para el análisis básico y manipulación de información mediante la implementación de estrategias de crowdsourcing. En los apartados siguientes, se hace un breve análisis de requisitos para el caso de uso específico de una aplicación móvil de crowdsourcing para el mantenimiento urbano, sirviendo este, como base en el desarrollo de una plataforma Web-móvil que facilite la gestión de este tipo de infraestructura. El diseño de la plataforma propuesta permite consultar y actualizar información por medio de etiquetas NFC (Near Field Communications o comunicación de campo cercano) utilizadas en el mobiliario urbano inventariado y empleando dispositivos inteligentes habilitados con la misma tecnología y conexión a Internet, para dar seguimiento y reportar el estado de la infraestructura. También, es posible generar reportes geolocalizados sobre problemas en instalaciones urbanas no inventariadas, así como crear eventos geolocalizados que convoquen a tareas participativas para la mejora de la ciudad. Además, integra entradas de conversación de redes sociales para contribuir a la participación activa de los ciudadanos en la vigilancia y mantenimiento urbano. Por último, el trabajo presenta algunas conclusiones y líneas futuras.
Resumo:
El tratamiento de datos masivos es una tendencia cada día más extendida. Una parte fundamental del proceso de análisis de estos datos es su modelado y posterior visualización. El objetivo de este trabajo de fin de Grado, es trabajar con las últimas tecnologías en estos dos campos y lograr tratar una cantidad masiva de datos, que permita analizar la información de una forma interactiva, sencilla e intuitiva. Para el modelado de datos se usará Neo4j, una herramienta de código libre que permite montar una base de datos basada en grafos. Finalmente, la información resultante se visualizará mediante la librería D3 de Javascript, ofertando una visión clara de los datos existente y permitiendo interactuar con ellos para obtener la información que se requiera.
Resumo:
El mundo actual es una fuente ilimitada de información. El manejo y análisis de estas enormes cantidades de información es casi imposible, pero también es difícil poder capturar y relacionar diferentes tipos de datos entre sí y, a partir de este análisis, sacar conclusiones que puedan conllevar a la realización, o no, de un conjunto de acciones. Esto hace necesario la implementación de sistemas que faciliten el acceso, visualización y manejo de estos datos; con el objetivo de poder relacionarlos, analizarlos, y permitir al usuario que, de la manera más sencilla posible, pueda sacar conclusiones de estos. De esta necesidad de manejar, visualizar y relacionar datos nació la plataforma Wirecloud. Wirecloud ha sido desarrollado en el laboratorio Computer Networks & Web Technologies Lab (CoNWeT Lab) del grupo CETTICO, ubicado en la Escuela Técnica Superior de Ingenieros Informáticos de la Universidad Politécnica de Madrid. Wirecloud es una plataforma de código abierto que permite, utilizando las últimas tecnologías web, recoger la información que se quiere analizar de diferentes fuentes en tiempo real e, interconectando entre sí una serie de componentes y operadores, realizar una mezcla y procesado de esta información para después usarla y mostrarla de la manera más usable posible al usuario. Un ejemplo de uso real de la plataforma podría ser: utilizar la lista de repartidores de una empresa de envío urgente para conocer cuáles son sus posiciones en tiempo real sobre un mapa utilizando el posicionamiento GPS de sus dispositivos móviles, y poder asignarles el destino y la ruta más óptima; todo esto desde la misma pantalla. El proyecto Wirecloud Mobile corresponde a la versión móvil de la plataforma Wirecloud, cuyo objetivos principales pretenden compatibilizar Wirecloud con el mayor número de sistemas operativos móviles que actualmente hay en el mercado, permitiendo su uso en cualquier parte del mundo; y poder enriquecer los componentes mencionados en el párrafo anterior con las características y propiedades nativas de los dispositivos móviles actuales, como por ejemplo el posicionamiento GPS, el acelerómetro, la cámara, el micrófono, los altavoces o tecnologías de comunicación como el Bluetooth o el NFC.---ABSTRACT---The current world is a limitless source of information. Use and analysis of this huge amount of information is nearly impossible; but it is also difficult being able to capture and relate different kinds of data to each other and, from this analysis, draw conclusions that can lead to the fulfilment or not of a set of relevant actions. This requires the implementation of systems to facilitate the access, visualization and management of this data easier; with the purpose of being capable of relate, analyse, and allow the user to draw conclusions from them. And out of this need to manage, visualize and relate data, the Wirecloud platform was born. Wirecloud has been developed at the Computer Networks & Web Technologies Lab (CoNWeT Lab) of CETTICO group, located at Escuela Técnica Superior de Ingenieros Informáticos of Universidad Politécnica de Madrid. Wirecloud is an open-source platform that allows, using the latest web technologies, to collect the information from different sources in real time and interlinking a set of widgets and operators, make a mixture and processing of this information, so then use it and show it in the most usable way. An example of the actual use of the platform could be: using the list of deliverymen from an express delivery company in order to know, using GPS positioning from their mobile devices, which are their current locations in a map; and be able to assign them the destination and optimum route; all of this from the same display/screen. Wirecloud Mobile Project is the mobile version of the Wirecloud platform, whose main objectives aim to make Wirecloud compatible with the largest amount of mobile operative systems that are currently available, allowing its use everywhere; and enriching and improving the previously mentioned components with the native specifications and properties of the present mobile devices, such as GPS positioning, accelerometer, camera, microphone, built-in speakers, or communication technologies such as Bluetooth or NFC (Near Field Communications).
Resumo:
Este proyecto fin de grado presenta dos herramientas, Papify y Papify-Viewer, para medir y visualizar, respectivamente, las prestaciones a bajo nivel de especificaciones RVC-CAL basándose en eventos hardware. RVC-CAL es un lenguaje de flujo de datos estandarizado por MPEG y utilizado para definir herramientas relacionadas con la codificación de vídeo. La estructura de los programas descritos en RVC-CAL se basa en unidades funcionales llamadas actores, que a su vez se subdividen en funciones o procedimientos llamados acciones. ORCC (Open RVC-CAL Compiler) es un compilador de código abierto que utiliza como entrada descripciones RVC-CAL y genera a partir de ellas código fuente en un lenguaje dado, como por ejemplo C. Internamente, el compilador ORCC se divide en tres etapas distinguibles: front-end, middle-end y back-end. La implementación de Papify consiste en modificar la etapa del back-end del compilador, encargada de la generación de código, de modo tal que los actores, al ser traducidos a lenguaje C, queden instrumentados con PAPI (Performance Application Programing Interface), una herramienta utilizada como interfaz a los registros contadores de rendimiento (PMC) de los procesadores. Además, también se modifica el front-end para permitir identificar cierto tipo de anotaciones en las descripciones RVC-CAL, utilizadas para que el diseñador pueda indicar qué actores o acciones en particular se desean analizar. Los actores instrumentados, además de conservar su funcionalidad original, generan una serie de ficheros que contienen datos sobre los distintos eventos hardware que suceden a lo largo de su ejecución. Los eventos incluidos en estos ficheros son configurables dentro de las anotaciones previamente mencionadas. La segunda herramienta, Papify-Viewer, utiliza los datos generados por Papify y los procesa, obteniendo una representación visual de la información a dos niveles: por un lado, representa cronológicamente la ejecución de la aplicación, distinguiendo cada uno de los actores a lo largo de la misma. Por otro lado, genera estadísticas sobre la cantidad de eventos disparados por acción, actor o núcleo de ejecución y las representa mediante gráficos de barra. Ambas herramientas pueden ser utilizadas en conjunto para verificar el funcionamiento del programa, balancear la carga de los actores o la distribución por núcleos de los mismos, mejorar el rendimiento y diagnosticar problemas. ABSTRACT. This diploma project presents two tools, Papify and Papify-Viewer, used to measure and visualize the low level performance of RVC-CAL specifications based on hardware events. RVC-CAL is a dataflow language standardized by MPEG which is used to define video codec tools. The structure of the applications described in RVC-CAL is based on functional units called actors, which are in turn divided into smaller procedures called actions. ORCC (Open RVC-CAL Compiler) is an open-source compiler capable of transforming RVC-CAL descriptions into source code in a given language, such as C. Internally, the compiler is divided into three distinguishable stages: front-end, middle-end and back-end. Papify’s implementation consists of modifying the compiler’s back-end stage, which is responsible for generating the final source code, so that translated actors in C code are now instrumented with PAPI (Performance Application Programming Interface), a tool that provides an interface to the microprocessor’s performance monitoring counters (PMC). In addition, the front-end is also modified in such a way that allows identification of a certain type of annotations in the RVC-CAL descriptions, allowing the designer to set the actors or actions to be included in the measurement. Besides preserving their initial behavior, the instrumented actors will also generate a set of files containing data about the different events triggered throughout the program’s execution. The events included in these files can be configured inside the previously mentioned annotations. The second tool, Papify-Viewer, makes use of the files generated by Papify to process them and provide a visual representation of the information in two different ways: on one hand, a chronological representation of the application’s execution where each actor has its own timeline. On the other hand, statistical information is generated about the amount of triggered events per action, actor or core. Both tools can be used together to assert the normal functioning of the program, balance the load between actors or cores, improve performance and identify problems.
Resumo:
Una de las características de la cartografía y SIG Participativos (SIGP) es incluir en sus métodos a la sociedad civil para aportar contenidos cualitativos a la información de sus territorios. Sin embargo no sólo se trata de datos, sino de los efectos que pueden tener estas prácticas sobre el territorio y su sociedad. El acceso a esa información se ve reducida en contraste con el incremento de información difundida a través de servicios de visualización, geoinformación y cartografía on-line. Todo esto hace que sea necesario el análisis del alcance real de las metodologías participativas en el uso de Información Geográfica (IG) y la comparación desde distintos contextos geográficos. También es importante conocer los beneficios e inconvenientes del acceso a la información para el planeamiento; desde la visibilidad de muchos pueblos desapercibidos en zonas rurales y periféricas, hasta la influencia en programas de gobierno sobre la gestión del territorio pasando por el conocimiento local espacial. El análisis se centró en los niveles de participación de la sociedad civil y sus grados de accesibilidad a la información (acceso y uso), dentro del estudio de los SIGP, Participatory Mapping, además se estudió de los TIG (Tecnologías de Información Geográfica), cartografías on-line (geoweb) y plataformas de geovisualización espacial, como recursos de Neocartografía. En este sentido, se realizó un trabajo de campo de cartografía participativa en Bolivia, se evaluaron distintos proyectos SIGP en países del norte y sur (comparativa de contextos en países en desarrollo) y se analizaron los resultados del cruce de las distintas variables.(validación, accesibilidad, verificación de datos, valor en la planificación e identidad) La tesis considera que ambos factores (niveles de participación y grado de accesibilidad) afectan a la (i) validación, verificación y calidad de los datos, la (ii) valor analítico en la planificación, y al (iii) modelo de identidad de un lugar, y que al ser tratados de forma integral, constituyen el valor añadido que los SIGP pueden aportar para lograr una planificación efectiva. Asimismo se comprueba, que la dimensión participativa en los SIGP varía según el contexto, la centralización de sus actores e intereses sectoriales. La información resultante de las prácticas SIGP tiende a estar restringida por la falta de legislaciones y por la ausencia de formatos estándar, que limitan la difusión e intercambio de la información. Todo esto repercute en la efectividad de una planificación estratégica y en la viabilidad de la implementación de cualquier proyecto sobre el territorio, y en consecuencia sobre los niveles de desarrollo de un país. Se confirma la hipótesis de que todos los elementos citados en los SIGP y mapeo participativo actuarán como herramientas válidas para el fortalecimiento y la eficacia en la planificación sólo si están interconectadas y vinculadas entre sí. Se plantea una propuesta metodológica ante las formas convencionales de planificación (nueva ruta del planeamiento; que incluye el intercambio de recursos y determinación participativa local antes de establecer la implementación), con ello, se logra incorporar los beneficios de las metodologías participativas en el manejo de la IG y los SIG (Sistemas de Información Geográfica) como instrumentos estratégicos para el desarrollo de la identidad local y la optimización en los procesos de planeamiento y estudios del territorio. Por último, se fomenta que en futuras líneas de trabajo los mapas de los SIGP y la cartografía participativa puedan llegar a ser instrumentos visuales representativos que transfieran valores identitarios del territorio y de su sociedad, y de esta manera, ayudar a alcanzar un mayor conocimiento, reconocimiento y valoración de los territorios para sus habitantes y sus planificadores. ABSTRACT A feature of participatory mapping and PGIS is to include the participation of the civil society, to provide qualitative information of their territories. However, focus is not only data, but also the effects that such practices themselves may have on the territory and their society. Access to this information is reduced in contrast to the increase of information disseminated through visualization services, geoinformation, and online cartography. Thus, the analysis of the real scope of participatory methodologies in the use of Geographic Information (GI) is necessary, including the comparison of different geographical contexts. It is also important to know the benefits and disadvantages of access to information needed for planning in different contexts, ranging from unnoticed rural areas and suburbs to influence on government programs on land management through local spatial knowledge. The analysis focused on the participation levels of civil society and the degrees of accessibility of the information (access and use) within the study of Participatory GIS (PGIS). In addition, this work studies GIT (Geographic Information Technologies), online cartographies (Geoweb) and platforms of spatial geovisualization, as resources of Neocartography. A participatory cartographic fieldwork was carried out in Bolivia. Several PGIS projects were evaluated in Northern and Southern countries (comparatively with the context of developing countries), and the results were analyzed for each these different variables. (validation, accessibility, verification,value, identity). The thesis considers that both factors (participation levels and degree of accessibility) affect the (i) validation, verification and quality of the data, (ii) analytical value for planning, and (iii) the identity of a place. The integrated management of all the above cited criteria constitutes an added value that PGISs can contribute to reach an effective planning. Also, it confirms the participatory dimension of PGISs varies according to the context, the centralization of its actors, and to sectorial interests. The resulting information from PGIS practices tends to be restricted by the lack of legislation and by the absence of standard formats, which limits in turn the diffusion and exchange of the information. All of this has repercussions in the effectiveness of a strategic planning and in the viability of the implementation of projects about the territory, and consequentially in the land development levels. The hypothesis is confirmed since all the described elements in PGISs and participatory mapping will act as valid tools in strengthening and improving the effectivity in planning only if they are interconnected and linked amongst themselves. This work, therefore, suggests a methodological proposal when faced with the conventional ways of planning: a new planning route which includes the resources exchange and local participatory determination before any plan is established -. With this, the benefits of participatory methodologies in the management of GI and GIS (Geographic Information Systems) is incorporated as a strategic instrument for development of local identity and optimization in planning processes and territory studies. Finally, the study outlines future work on PGIS maps and Participatory Mapping, such that these could eventually evolve into visual representative instruments that transfer identity values of the territory and its society. In this way, they would contribute to attain a better knowledge, recognition, and appraisement of the territories for their inhabitants and planners.
Resumo:
El desarrollo de las tecnologías de captura de contenido audiovisual, y la disminución del tamaño de sensores y cámaras, hace posible, a día de hoy, la captura de escenas desde múltiples puntos de vista simultáneamente, generando distintos formatos de vídeo 3D, cuyo elemento común es la inclusión de vídeo multivista. En cuanto a las tecnologías de presentación de vídeo 3D, actualmente existen diversas opciones tecnológicas, entre las cuales empiezan a tomar una gran importancia las gafas de realidad virtual, también conocidas como Head-Mounted Devices (HMD). Este tipo de gafas principalmente han sido utilizadas para la visualización de vídeo panorámico (o 360). Sin embargo, al permitir localizar al usuario (posición de la cabeza y orientación), habilitan también la posibilidad de desarrollar sistemas para la visualización de vídeo multivista, ofreciendo una funcionalidad similar a la de los monitores autoestereoscópicos. En este Trabajo Fin de Grado se ha desarrollado un prototipo de un sistema que permite visualizar vídeo 3D multicámara en las Oculus Rift, un dispositivo HMD. Este sistema toma como entrada una secuencia de vídeos multivista (real o generada por ordenador) y permite, a partir de la información proporcionada por los sensores de las Oculus Rift, variar el punto de vista adaptándolo a la posición del usuario. El sistema desarrollado simula la visualización de un monitor autoestereoscópico y es parametrizable. El sistema permite variar una serie de parámetros como la distancia interocular o la densidad de cámaras, y dispone de varios modos de funcionamiento. Esto permitirá que el sistema pueda utilizarse para distintas secuencias Super MultiView (SMV), volviéndolo a la vez útil para la realización de pruebas subjetivas de calidad de experiencia.
Resumo:
Se presenta una herramienta basada en hoja de cálculo para visualizar y supervisar las actividades presenciales y virtuales semanales de aprendizaje del estudiante para las asignaturas de los nuevos Grados, que se cruza a su vez con cada plan semanal de aprendizaje (presencial y virtual) de todas las asignaturas de cualquier tipo de periodo lectivo (cuatrimestre, etc). De esta forma, y aplicando los principios de inteligencia social de D. Goleman para el aprendizaje, se puede estimar, semana a semana, y por asignatura, si el estudiante medio se va a encontrar dentro o fuera de la zona de rendimiento cognitivo óptimo. Por tanto, creemos que esta herramienta de visualización y control puede ser muy útil para el seguimiento y la coordinación en los centros de la próxima implementación de las asignaturas de los nuevos títulos de Grado en esta universidad y el trabajo en equipo en las distintas áreas del saber así como en cualquier otra del ámbito nacional y europeo. Ligeras modificaciones sobre esta plantilla de hoja de cálculo permiten también estimar el tiempo de dedicación presencial y virtual del docente.
Resumo:
Las Redes Definidas por Software (Software Defined Networking) permiten la monitorización y el control centralizado de la red, de forma que los administradores pueden tener una visión real y completa de la misma. El análisis y visualización de los diferentes parámetros obtenidos representan la forma más viable y práctica de programar la red en función de las necesidades del usuario. Por este motivo, en este proyecto se desarrolla una arquitectura modular cuyo objetivo es presentar en tiempo real la información que se monitoriza en una red SDN. En primera instancia, las diferentes métricas monitorizadas (error, retardo y tasa de datos) son almacenadas en una base de datos, para que en una etapa posterior se realice el análisis de dichas métricas. Finalmente, los resultados obtenidos, tanto de métricas en tiempo real como de los datos estadísticos, son presentados en una aplicación web. La información es obtenida a través de la interfaz REST que expone el controlador Floodlight y para el análisis de la información se plantea una comparación entre los valores medios y máximos del conjunto de datos. Los resultados obtenidos muestran gráficamente de forma clara y precisa las diferentes métricas de monitorización. Además, debido al carácter modular de la arquitectura, se ofrece un valor añadido a los sistemas actuales de monitorización SDN.
Resumo:
Se presentan los resultados de la aplicación de una metodología integradora de auditoría de información y conocimiento, llevada a cabo en un Centro de Investigación del Ministerio de Ciencia, Tecnología y Medio Ambiente de la provincia de Holguín, Cuba, conformada por siete etapas con un enfoque híbrido dirigida a revisar la estrategia y la política de gestión de información y conocimiento, identificar e inventariar y mapear los recursos de I+C y sus flujos, y valorar los procesos asociados a su gestión. La alta dirección de este centro, sus especialistas e investigadores manifestaron la efectividad de la metodología aplicada cuyos resultados propiciaron reajustar la proyección estratégica en relación con la gestión de la I+C, rediseñar los flujos informativos de los procesos claves, disponer de un directorio de sus expertos por áreas y planificar el futuro aprendizaje y desarrollo profesional.
Resumo:
OBJETIVO: Evaluar las diferencias de información publicada por el Invima y otras Autoridades Reguladoras de Medicamentos en relación a un grupo de variables seleccionadas y analizar las diferencias aplicando estrategias de visualización de datos. METODOLOGÍA: Estudio descriptivo de corte transversal, en el cual se comparan las diferencias en la información de medicamentos publicada en las agencias reguladoras de medicamentos. Para la definición de los criterios de comparación, más relevantes se utilizó la técnica Delphi como metodología de consenso. Las visualizaciones fueron desarrolladas en Roassal, en el entorno de programación de Grafoscopio/Pharo. RESULTADOS Y CONCLUSIONES: De 24 variables en las que hubo acuerdo de considerarlas importantes y claves por el panel de expertos; el 96% se identificaron en la Aemps, MHRA e Infarmed; el 92% en Anmat, TGA, Anvisa, Health Canada y FDA; el 80% en Anamed. El grupo de agencias en las que se identificó una menor cantidad de información publicada fueron Cofepris, Invima, Dirección Nacional de Farmacias y Drogas de Panamá, Digemid, Arcsa y el Ministerio de Salud pública de Uruguay en las que se identificó el 67%, 58%, 46%, 46%, 38% y 4%, respectivamente. Las ausencias comunes de información en el grupo de agencias con menor cantidad de información se presentó en las variables relacionadas con usos fuera de indicación (off-label), gestión del riesgo, efectos adversos, restricciones especiales, precauciones y advertencias, prospecto, almacenamiento y resumen de las características del producto, es decir que mayor la limitación se presenta en la información relacionada con prescripción y uso.
Resumo:
La leña es la forma más simple de biomasa utilizada en los hogares del mundo. En Nicaragua, casi el cincuenta por ciento de los nicaragüenses cocinan con leña y carbón. Esta demanda de leña ha provocado sobre explotación del bosque seco del Pacifico de Nicaragua, ocasionando degradación progresiva del bosque. La información dendroenergética de los focos de producción de leña se encuentra dispersa y desorganizada, esto justifica la realización del presente estudio de sistematización, que servirá para establecer lineamientos básicos sobre las pautas a seguir al momento de la planificación, seguimiento y evaluación de proyectos y/o programas dendroenergéticos. La información se recolectó a través de entrevistas dirigidas a responsables administrativos o técnicos de cada entidad relevante del sector dendroenerg ético. Adicionalmente se recolectó información bibliográfica de documentos físicos y electrónicos. La información se organizó en cuatro tópicos: Leyes/políticas: se identificó la necesidad de la formulación y adición de leyes y/o políticas que promuevan y faciliten la inversión en proyectos de generación eléctrica renovable; Investigaciones/estudios/publicaciones: se observa buena cantidad de investigaciones y documentos educativos, sin embargo, están desactualizados y sin contenido ambiental completo; Organización, poca vinculación de las instancias gubernamentales del sector con los actores locales como las asociaciones, cooperativas y productores individuales; Producción/comercialización, limitada a actividades de plantación y producción de plántulas con fines energéticos. En conclusión, el sector dendroenergético en Nicaragua es poco atractivo a la inversión por los procedimientos administrativos, las normas jurídicas y la falta de mecanismos de incentivos y créditos. Las cooperativas y asociaciones no están bien vinculadas entre ellas, lo que no les permite incidir en políticas a favor del sector. Sin embargo, se detectan aspectos positivos, como La Estrategia de Leña y Carbón y la inserción en muchos hogares de las estufas mejoradas como mecanismo de ahorro dendroenergético.