859 resultados para 280000 Information, Computing and Communication Sciences


Relevância:

100.00% 100.00%

Publicador:

Resumo:

El municipio es considerado como un espacio donde sus habitantes comparten no sólo el territorio sino también los problemas y los recursos existentes. La institución municipal -como gobierno local- es el ámbito en el cual se toman decisiones sobre el territorio, que implican a sus habitantes. En cuanto a los actores, estos pueden ser funcionarios, empleados y la comunidad (individual y organizada en ongs), todos aportan sus conocimientos y valores, pero tienen diferentes intereses y diferentes tiempos. Vinculada a las decisiones, encontramos que la forma en que se gestiona la información territorial, es determinante si se pretende apuntar hacia acciones con impacto positivo, y sustentables en lo ambiental y en el tiempo. Este trabajo toma tres municipios: San Salvador de Jujuy, capital de la provincia localizada en los Valles Templados; San Pedro de Jujuy, principal municipio de la región de las Yungas y Tilcara en la Quebrada de Humahuaca. El aporte de la Inteligencia Territorial, a través del observatorio OIDTe, permite analizar los modos de gestión de la información, especialmente mediante el uso de las tecnologías de la información y comunicación (pagina web municipal, equipamiento informático en las oficinas, estrategias de comunicación y vinculación con la población) y mediante la organización de las estructuras administrativas (organigrama) por las cuales circula la información municipal. Además, con la participación enriquecedora de equipos multidisciplinarios en las diferentes etapas. Se busca, a partir de un diagnóstico, generar estrategias para la introducción de innovaciones con los propios actores municipales, a partir de las situaciones y modos culturales propios de cada lugar, incorporando los marcos conceptuales de la Inteligencia Territorial. En este sentido el OIDTe al promover el entendimiento entre los actores, institucionales y la sociedad, facilita la coordinación de diferentes intereses propiciando la toma de decisiones por acuerdos. Asimismo, el método Portulano, puede orientar la introducción de innovaciones en la coordinación de la información cartográfica, para que las diferentes oficinas puedan complementar sus aportes y la comunicación hacia fuera de la institución. En la fase de diagnóstico, se aplicaron entrevistas a informantes claves, se realizó un workshop con técnicos de planta permanente y funcionarios de áreas que manejan información territorial, y de planificación. También por la importancia de la capacidad instalada de recursos humanos, se analizó el nivel de instrucción y la capacitación con que cuenta el personal de planta permanente de cada área

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El municipio es considerado como un espacio donde sus habitantes comparten no sólo el territorio sino también los problemas y los recursos existentes. La institución municipal -como gobierno local- es el ámbito en el cual se toman decisiones sobre el territorio, que implican a sus habitantes. En cuanto a los actores, estos pueden ser funcionarios, empleados y la comunidad (individual y organizada en ongs), todos aportan sus conocimientos y valores, pero tienen diferentes intereses y diferentes tiempos. Vinculada a las decisiones, encontramos que la forma en que se gestiona la información territorial, es determinante si se pretende apuntar hacia acciones con impacto positivo, y sustentables en lo ambiental y en el tiempo. Este trabajo toma tres municipios: San Salvador de Jujuy, capital de la provincia localizada en los Valles Templados; San Pedro de Jujuy, principal municipio de la región de las Yungas y Tilcara en la Quebrada de Humahuaca. El aporte de la Inteligencia Territorial, a través del observatorio OIDTe, permite analizar los modos de gestión de la información, especialmente mediante el uso de las tecnologías de la información y comunicación (pagina web municipal, equipamiento informático en las oficinas, estrategias de comunicación y vinculación con la población) y mediante la organización de las estructuras administrativas (organigrama) por las cuales circula la información municipal. Además, con la participación enriquecedora de equipos multidisciplinarios en las diferentes etapas. Se busca, a partir de un diagnóstico, generar estrategias para la introducción de innovaciones con los propios actores municipales, a partir de las situaciones y modos culturales propios de cada lugar, incorporando los marcos conceptuales de la Inteligencia Territorial. En este sentido el OIDTe al promover el entendimiento entre los actores, institucionales y la sociedad, facilita la coordinación de diferentes intereses propiciando la toma de decisiones por acuerdos. Asimismo, el método Portulano, puede orientar la introducción de innovaciones en la coordinación de la información cartográfica, para que las diferentes oficinas puedan complementar sus aportes y la comunicación hacia fuera de la institución. En la fase de diagnóstico, se aplicaron entrevistas a informantes claves, se realizó un workshop con técnicos de planta permanente y funcionarios de áreas que manejan información territorial, y de planificación. También por la importancia de la capacidad instalada de recursos humanos, se analizó el nivel de instrucción y la capacitación con que cuenta el personal de planta permanente de cada área

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El municipio es considerado como un espacio donde sus habitantes comparten no sólo el territorio sino también los problemas y los recursos existentes. La institución municipal -como gobierno local- es el ámbito en el cual se toman decisiones sobre el territorio, que implican a sus habitantes. En cuanto a los actores, estos pueden ser funcionarios, empleados y la comunidad (individual y organizada en ongs), todos aportan sus conocimientos y valores, pero tienen diferentes intereses y diferentes tiempos. Vinculada a las decisiones, encontramos que la forma en que se gestiona la información territorial, es determinante si se pretende apuntar hacia acciones con impacto positivo, y sustentables en lo ambiental y en el tiempo. Este trabajo toma tres municipios: San Salvador de Jujuy, capital de la provincia localizada en los Valles Templados; San Pedro de Jujuy, principal municipio de la región de las Yungas y Tilcara en la Quebrada de Humahuaca. El aporte de la Inteligencia Territorial, a través del observatorio OIDTe, permite analizar los modos de gestión de la información, especialmente mediante el uso de las tecnologías de la información y comunicación (pagina web municipal, equipamiento informático en las oficinas, estrategias de comunicación y vinculación con la población) y mediante la organización de las estructuras administrativas (organigrama) por las cuales circula la información municipal. Además, con la participación enriquecedora de equipos multidisciplinarios en las diferentes etapas. Se busca, a partir de un diagnóstico, generar estrategias para la introducción de innovaciones con los propios actores municipales, a partir de las situaciones y modos culturales propios de cada lugar, incorporando los marcos conceptuales de la Inteligencia Territorial. En este sentido el OIDTe al promover el entendimiento entre los actores, institucionales y la sociedad, facilita la coordinación de diferentes intereses propiciando la toma de decisiones por acuerdos. Asimismo, el método Portulano, puede orientar la introducción de innovaciones en la coordinación de la información cartográfica, para que las diferentes oficinas puedan complementar sus aportes y la comunicación hacia fuera de la institución. En la fase de diagnóstico, se aplicaron entrevistas a informantes claves, se realizó un workshop con técnicos de planta permanente y funcionarios de áreas que manejan información territorial, y de planificación. También por la importancia de la capacidad instalada de recursos humanos, se analizó el nivel de instrucción y la capacitación con que cuenta el personal de planta permanente de cada área

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Cultural content on the Web is available in various domains (cultural objects, datasets, geospatial data, moving images, scholarly texts and visual resources), concerns various topics, is written in different languages, targeted to both laymen and experts, and provided by different communities (libraries, archives museums and information industry) and individuals (Figure 1). The integration of information technologies and cultural heritage content on the Web is expected to have an impact on everyday life from the point of view of institutions, communities and individuals. In particular, collaborative environment scan recreate 3D navigable worlds that can offer new insights into our cultural heritage (Chan 2007). However, the main barrier is to find and relate cultural heritage information by end-users of cultural contents, as well as by organisations and communities managing and producing them. In this paper, we explore several visualisation techniques for supporting cultural interfaces, where the role of metadata is essential for supporting the search and communication among end-users (Figure 2). A conceptual framework was developed to integrate the data, purpose, technology, impact, and form components of a collaborative environment, Our preliminary results show that collaborative environments can help with cultural heritage information sharing and communication tasks because of the way in which they provide a visual context to end-users. They can be regarded as distributed virtual reality systems that offer graphically realised, potentially infinite, digital information landscapes. Moreover, collaborative environments also provide a new way of interaction between an end-user and a cultural heritage data set. Finally, the visualisation of metadata of a dataset plays an important role in helping end-users in their search for heritage contents on the Web.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The paper proposes a model for estimation of perceived video quality in IPTV, taking as input both video coding and network Quality of Service parameters. It includes some fitting parameters that depend mainly on the information contents of the video sequences. A method to derive them from the Spatial and Temporal Information contents of the sequences is proposed. The model may be used for near real-time monitoring of IPTV video quality.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Multiuser multiple-input multiple-output (MIMO) downlink (DL) transmission schemes experience both multiuser interference as well as inter-antenna interference. The singular value decomposition provides an appropriate mean to process channel information and allows us to take the individual user’s channel characteristics into account rather than treating all users channels jointly as in zero-forcing (ZF) multiuser transmission techniques. However, uncorrelated MIMO channels has attracted a lot of attention and reached a state of maturity. By contrast, the performance analysis in the presence of antenna fading correlation, which decreases the channel capacity, requires substantial further research. The joint optimization of the number of activated MIMO layers and the number of bits per symbol along with the appropriate allocation of the transmit power shows that not necessarily all user-specific MIMO layers has to be activated in order to minimize the overall BER under the constraint of a given fixed data throughput.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Experimental software engineering includes several processes, the most representative being run experiments, run replications and synthesize the results of multiple replications. Of these processes, only the first is relatively well established in software engineering. Problems of information management and communication among researchers are one of the obstacles to progress in the replication and synthesis processes. Software engineering experimentation has expanded considerably over the last few years. This has brought with it the invention of experimental process support proposals. However, few of these proposals provide integral support, including replication and synthesis processes. Most of the proposals focus on experiment execution. This paper proposes an infrastructure providing integral support for the experimental research process, specializing in the replication and synthesis of a family of experiments. The research has been divided into stages or phases, whose transition milestones are marked by the attainment of their goals. Each goal exactly matches an artifact or product. Within each stage, we will adopt cycles of successive approximations (generateand- test cycles), where each approximation includes a diferent viewpoint or input. Each cycle will end with the product approval.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

This paper analyses the relationship between productive efficiency and online-social-networks (OSN) in Spanish telecommunications firms. A data-envelopment-analysis (DEA) is used and several indicators of business ?social Media? activities are incorporated. A super-efficiency analysis and bootstrapping techniques are performed to increase the model?s robustness and accuracy. Then, a logistic regression model is applied to characterise factors and drivers of good performance in OSN. Results reveal the company?s ability to absorb and utilise OSNs as a key factor in improving the productive efficiency. This paper presents a model for assessing the strategic performance of the presence and activity in OSN.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La nanotecnología es un área de investigación de reciente creación que trata con la manipulación y el control de la materia con dimensiones comprendidas entre 1 y 100 nanómetros. A escala nanométrica, los materiales exhiben fenómenos físicos, químicos y biológicos singulares, muy distintos a los que manifiestan a escala convencional. En medicina, los compuestos miniaturizados a nanoescala y los materiales nanoestructurados ofrecen una mayor eficacia con respecto a las formulaciones químicas tradicionales, así como una mejora en la focalización del medicamento hacia la diana terapéutica, revelando así nuevas propiedades diagnósticas y terapéuticas. A su vez, la complejidad de la información a nivel nano es mucho mayor que en los niveles biológicos convencionales (desde el nivel de población hasta el nivel de célula) y, por tanto, cualquier flujo de trabajo en nanomedicina requiere, de forma inherente, estrategias de gestión de información avanzadas. Desafortunadamente, la informática biomédica todavía no ha proporcionado el marco de trabajo que permita lidiar con estos retos de la información a nivel nano, ni ha adaptado sus métodos y herramientas a este nuevo campo de investigación. En este contexto, la nueva área de la nanoinformática pretende detectar y establecer los vínculos existentes entre la medicina, la nanotecnología y la informática, fomentando así la aplicación de métodos computacionales para resolver las cuestiones y problemas que surgen con la información en la amplia intersección entre la biomedicina y la nanotecnología. Las observaciones expuestas previamente determinan el contexto de esta tesis doctoral, la cual se centra en analizar el dominio de la nanomedicina en profundidad, así como en el desarrollo de estrategias y herramientas para establecer correspondencias entre las distintas disciplinas, fuentes de datos, recursos computacionales y técnicas orientadas a la extracción de información y la minería de textos, con el objetivo final de hacer uso de los datos nanomédicos disponibles. El autor analiza, a través de casos reales, alguna de las tareas de investigación en nanomedicina que requieren o que pueden beneficiarse del uso de métodos y herramientas nanoinformáticas, ilustrando de esta forma los inconvenientes y limitaciones actuales de los enfoques de informática biomédica a la hora de tratar con datos pertenecientes al dominio nanomédico. Se discuten tres escenarios diferentes como ejemplos de actividades que los investigadores realizan mientras llevan a cabo su investigación, comparando los contextos biomédico y nanomédico: i) búsqueda en la Web de fuentes de datos y recursos computacionales que den soporte a su investigación; ii) búsqueda en la literatura científica de resultados experimentales y publicaciones relacionadas con su investigación; iii) búsqueda en registros de ensayos clínicos de resultados clínicos relacionados con su investigación. El desarrollo de estas actividades requiere el uso de herramientas y servicios informáticos, como exploradores Web, bases de datos de referencias bibliográficas indexando la literatura biomédica y registros online de ensayos clínicos, respectivamente. Para cada escenario, este documento proporciona un análisis detallado de los posibles obstáculos que pueden dificultar el desarrollo y el resultado de las diferentes tareas de investigación en cada uno de los dos campos citados (biomedicina y nanomedicina), poniendo especial énfasis en los retos existentes en la investigación nanomédica, campo en el que se han detectado las mayores dificultades. El autor ilustra cómo la aplicación de metodologías provenientes de la informática biomédica a estos escenarios resulta efectiva en el dominio biomédico, mientras que dichas metodologías presentan serias limitaciones cuando son aplicadas al contexto nanomédico. Para abordar dichas limitaciones, el autor propone un enfoque nanoinformático, original, diseñado específicamente para tratar con las características especiales que la información presenta a nivel nano. El enfoque consiste en un análisis en profundidad de la literatura científica y de los registros de ensayos clínicos disponibles para extraer información relevante sobre experimentos y resultados en nanomedicina —patrones textuales, vocabulario en común, descriptores de experimentos, parámetros de caracterización, etc.—, seguido del desarrollo de mecanismos para estructurar y analizar dicha información automáticamente. Este análisis concluye con la generación de un modelo de datos de referencia (gold standard) —un conjunto de datos de entrenamiento y de test anotados manualmente—, el cual ha sido aplicado a la clasificación de registros de ensayos clínicos, permitiendo distinguir automáticamente los estudios centrados en nanodrogas y nanodispositivos de aquellos enfocados a testear productos farmacéuticos tradicionales. El presente trabajo pretende proporcionar los métodos necesarios para organizar, depurar, filtrar y validar parte de los datos nanomédicos existentes en la actualidad a una escala adecuada para la toma de decisiones. Análisis similares para otras tareas de investigación en nanomedicina ayudarían a detectar qué recursos nanoinformáticos se requieren para cumplir los objetivos actuales en el área, así como a generar conjunto de datos de referencia, estructurados y densos en información, a partir de literatura y otros fuentes no estructuradas para poder aplicar nuevos algoritmos e inferir nueva información de valor para la investigación en nanomedicina. ABSTRACT Nanotechnology is a research area of recent development that deals with the manipulation and control of matter with dimensions ranging from 1 to 100 nanometers. At the nanoscale, materials exhibit singular physical, chemical and biological phenomena, very different from those manifested at the conventional scale. In medicine, nanosized compounds and nanostructured materials offer improved drug targeting and efficacy with respect to traditional formulations, and reveal novel diagnostic and therapeutic properties. Nevertheless, the complexity of information at the nano level is much higher than the complexity at the conventional biological levels (from populations to the cell). Thus, any nanomedical research workflow inherently demands advanced information management. Unfortunately, Biomedical Informatics (BMI) has not yet provided the necessary framework to deal with such information challenges, nor adapted its methods and tools to the new research field. In this context, the novel area of nanoinformatics aims to build new bridges between medicine, nanotechnology and informatics, allowing the application of computational methods to solve informational issues at the wide intersection between biomedicine and nanotechnology. The above observations determine the context of this doctoral dissertation, which is focused on analyzing the nanomedical domain in-depth, and developing nanoinformatics strategies and tools to map across disciplines, data sources, computational resources, and information extraction and text mining techniques, for leveraging available nanomedical data. The author analyzes, through real-life case studies, some research tasks in nanomedicine that would require or could benefit from the use of nanoinformatics methods and tools, illustrating present drawbacks and limitations of BMI approaches to deal with data belonging to the nanomedical domain. Three different scenarios, comparing both the biomedical and nanomedical contexts, are discussed as examples of activities that researchers would perform while conducting their research: i) searching over the Web for data sources and computational resources supporting their research; ii) searching the literature for experimental results and publications related to their research, and iii) searching clinical trial registries for clinical results related to their research. The development of these activities will depend on the use of informatics tools and services, such as web browsers, databases of citations and abstracts indexing the biomedical literature, and web-based clinical trial registries, respectively. For each scenario, this document provides a detailed analysis of the potential information barriers that could hamper the successful development of the different research tasks in both fields (biomedicine and nanomedicine), emphasizing the existing challenges for nanomedical research —where the major barriers have been found. The author illustrates how the application of BMI methodologies to these scenarios can be proven successful in the biomedical domain, whilst these methodologies present severe limitations when applied to the nanomedical context. To address such limitations, the author proposes an original nanoinformatics approach specifically designed to deal with the special characteristics of information at the nano level. This approach consists of an in-depth analysis of the scientific literature and available clinical trial registries to extract relevant information about experiments and results in nanomedicine —textual patterns, common vocabulary, experiment descriptors, characterization parameters, etc.—, followed by the development of mechanisms to automatically structure and analyze this information. This analysis resulted in the generation of a gold standard —a manually annotated training or reference set—, which was applied to the automatic classification of clinical trial summaries, distinguishing studies focused on nanodrugs and nanodevices from those aimed at testing traditional pharmaceuticals. The present work aims to provide the necessary methods for organizing, curating and validating existing nanomedical data on a scale suitable for decision-making. Similar analysis for different nanomedical research tasks would help to detect which nanoinformatics resources are required to meet current goals in the field, as well as to generate densely populated and machine-interpretable reference datasets from the literature and other unstructured sources for further testing novel algorithms and inferring new valuable information for nanomedicine.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In this contribution a novel iterative bit- and power allocation (IBPA) approach has been developed when transmitting a given bit/s/Hz data rate over a correlated frequency non-selective (4× 4) Multiple-Input MultipleOutput (MIMO) channel. The iterative resources allocation algorithm developed in this investigation is aimed at the achievement of the minimum bit-error rate (BER) in a correlated MIMO communication system. In order to achieve this goal, the available bits are iteratively allocated in the MIMO active layers which present the minimum transmit power requirement per time slot.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

During the last three decades, FPGA technology has quickly evolved to become a major subject of research in computer and electrical engineering as it has been identified as a powerful alternative for creating highly efficient computing systems. FPGA devices offer substantial performance improvements when compared against traditional processing architectures via custom design and reconfiguration capabilities.