957 resultados para External Knowledge Source


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Global challenges, complexity and continuous uncertainty demand development of leadership approaches, employees and multi-organisation constellations. Current leadership theories do not sufficiently address the needs of complex business environments. First of all, before successful leadership models can be applied in practice, leadership needs to shift from the industrial age to the knowledge era. Many leadership models still view leadership solely through the perspective of linear process thinking. In addition, there is not enough knowledge or experience in applying these newer models in practice. Leadership theories continue to be based on the assumption that leaders possess or have access to all the relevant knowledge and capabilities to decide future directions without external advice. In many companies, however, the workforce consists of skilled professionals whose work and related interfaces are so challenging that the leaders cannot grasp all the linked viewpoints and cross-impacts alone. One of the main objectives of this study is to understand how to support participants in organisations and their stakeholders to, through practice-based innovation processes, confront various environments. Another aim is to find effective ways of recognising and reacting to diverse contexts, so companies and other stakeholders are better able to link to knowledge flows and shared value creation processes in advancing joint value to their customers. The main research question of this dissertation is, then, to seek understanding of how to enhance leadership in complex environments. The dissertation can, on the whole, be characterised as a qualitative multiple-case study. The research questions and objectives were investigated through six studies published in international scientific journals. The main methods applied were interviews, action research and a survey. The empirical focus was on Finnish companies, and the research questions were examined in various organisations at the top levels (leaders and managers) and bottom levels (employees) in the context of collaboration between organisations and cooperation between case companies and their client organisations. However, the emphasis of the analysis is the internal and external aspects of organisations, which are conducted in practice-based innovation processes. The results of this study suggest that the Cynefin framework, complexity leadership theory and transformational leadership represent theoretical models applicable to developing leadership through practice-based innovation. In and of themselves, they all support confronting contemporary challenges, but an implementable method for organisations may be constructed by assimilating them into practice-based innovation processes. Recognition of diverse environments, their various contexts and roles in the activities and collaboration of organisations and their interest groups is ever-more important to achieving better interaction in which a strategic or formal status may be bypassed. In innovation processes, it is not necessarily the leader who is in possession of the essential knowledge; thus, it is the role of leadership to offer methods and arenas where different actors may generate advances. Enabling and supporting continuous interaction and integrated knowledge flows is of crucial importance, to achieve emergence of innovations in the activities of organisations and various forms of collaboration. The main contribution of this dissertation relates to applying these new conceptual models in practice. Empirical evidence on the relevance of different leadership roles in practice-based innovation processes in Finnish companies is another valuable contribution. Finally, the dissertation sheds light on the significance of combining complexity science with leadership and innovation theories in research.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

This study discusses the importance of diasporas’ knowledge with regard to the national competitive advantage of Finland. The purpose of this study is to suggest an interaction framework, which illustrates how diasporas can benefit the host country via intentional knowledge spillovers, with two sub-objectives: to seek which features are crucial for productive interaction between a host government and diasporas, and to scrutinize the modes of interaction currently effective in Finland. The theoretical background of the study consists of literature relating to the concepts of diaspora and knowledge. The empirical research conducted for this study is based on expert interviews. The interview data was collected between September and November 2013. Eight interviews were made; five with representatives of expert organizations, and three with immigrants. Thematic analysis was used to categorize and interpret the interview data. In addition, thematic networks were built to act as a basis of analysis. This study finds that knowledge, especially new combinations of knowledge, is a significant input in innovation. Innovation is found to be the basis of national competitive advantage. Thus the means through which knowledge is transferred are of key importance. Diasporas are found a good source of new knowledge, and thus may aid the innovative process. Host country stance and policy are found to have a major impact on the ability of the host country to benefit from diasporas’ knowledge. As a host country, this study finds Finland to have a very fragmented strategy field and a prejudiced attitude, which currently make it difficult to utilize the potential of diasporas. The interaction framework based on these findings suggests ways in which Finland can improve its national competitive advantage through acquiring the innovative potential of diasporas. Strategy revision and increased promotion are discussed as means towards improved interaction. In addition, the importance of learning is emphasized. The findings of this study enhance understanding of the relationship between the concepts of diaspora and knowledge. In addition, this study ties the relationship to economic benefit. Future research is, however, necessary in order to fully understand the meaning of the relationship, as well as to increase understanding of the generalizability of the interaction framework.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Presentation at Open Repositories 2014, Helsinki, Finland, June 9-13, 2014

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The objective of this work was to develop a recommendation for the chemical peeling of pequi fruit and characterize the flour obtained from the external mesocarp of "Pequizeiro", pequi tree (Caryocar brasiliense Camb.). The technology applied to obtain the external mesocarp pequi flour included the epicarp removal with NaOH solution. The Response Surface Method was used to optimize the chemical peeling process by applying the Central Composite Rotatable Design, with eleven trials including three replicates at the central point, varying the NaOH aqueous solution concentration and fruit immersion time. The mass loss was evaluated through the analysis of variance and using bi and three dimensional graphs. The chemical characteristics of the external mesocarp pequi flour evaluated were: moisture content, ashes, proteins, lipids, total carbohydrates, dietary fiber, and some minerals. The best combination for an efficient removal of the fruit peel with the lowest mass loss was reached with 7.05 minutes of immersion in a 5.08 g.L-1 NaOH aqueous solution. This study indicated that the external mesocarp pequi flour is a food source rich in dietary fiber, carbohydrates, ashes, magnesium, calcium, manganese, and copper, but it is poor in lipids, zinc, and iron.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The purpose of this research was to examine the most optimal way to arrange meetings and events management and source to pay –process in a global company. The research is a qualitative multi-method case study and is a commission from a global company. The theoretical framework of this research structures around two approaches. First approach focus on a purchasing strategy and management that shows the current role of procure-ment and introduce different ways to organize purchasing functions. Second approach focus on purchasing process management and improvement methods. Annual spend analyze, external and internal interviews and internal survey were done to gain compre-hensive knowledge about the current state of operations and possible solutions. Gathered data were then combined to theoretical framework in order to create optimal solution for the case company. Based on the research a source to pay –process and global policy for meeting and event category was created. The solution includes all relevant matters that are needed in order to secure efficient and profitable operations. The results show that optimal way to arrange meetings and events structures around standardized source to pay –processes, central-ized procurement, preferred supplier and clearly defined roles and responsibilities be-tween different stakeholders.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

This document could not have been completed without the hard work of a number of individuals. First and foremost, my supervisor, Dr. David Gabriel deserves the utmost recognition for the immense effort and time spent guiding the production of this document through the various stages of completion. Also, aiding in the data collection, technical support, and general thought processing were Lab Technician Greig Inglis and fellow members of the Electromyographic Kinesiology Laboratory Jon Howard, Sean Lenhardt, Lara Robbins, and Corrine Davies-Schinkel. The input of Drs. Ted Clancy, Phil Sullivan and external examiner Dr. Anita Christie, all members ofthe assessment committee, was incredibly important and vital to the completion of this work. Their expertise provided a strong source of knowledge and went to ensure that this project was completed at exemplary level. There were a number of other individuals who were an immense help in getting this project off the ground and completed. The donation of their time and efforts was very generous and much needed in order to fulfill the requirements needed for completion of this study. Finally, I cannot exclude the contributions of my family throughout this project especially that of my parents whose support never wavers.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’accident thromboembolique veineux, tel que la thrombose veineuse profonde (TVP) ou thrombophlébite des membres inférieurs, est une pathologie vasculaire caractérisée par la formation d’un caillot sanguin causant une obstruction partielle ou totale de la lumière sanguine. Les embolies pulmonaires sont une complication mortelle des TVP qui surviennent lorsque le caillot se détache, circule dans le sang et produit une obstruction de la ramification artérielle irriguant les poumons. La combinaison d’outils et de techniques d’imagerie cliniques tels que les règles de prédiction cliniques (signes et symptômes) et les tests sanguins (D-dimères) complémentés par un examen ultrasonographique veineux (test de compression, écho-Doppler), permet de diagnostiquer les premiers épisodes de TVP. Cependant, la performance de ces outils diagnostiques reste très faible pour la détection de TVP récurrentes. Afin de diriger le patient vers une thérapie optimale, la problématique n’est plus basée sur la détection de la thrombose mais plutôt sur l’évaluation de la maturité et de l’âge du thrombus, paramètres qui sont directement corrélées à ses propriétés mécaniques (e.g. élasticité, viscosité). L’élastographie dynamique (ED) a récemment été proposée comme une nouvelle modalité d’imagerie non-invasive capable de caractériser quantitativement les propriétés mécaniques de tissus. L’ED est basée sur l’analyse des paramètres acoustiques (i.e. vitesse, atténuation, pattern de distribution) d’ondes de cisaillement basses fréquences (10-7000 Hz) se propageant dans le milieu sondé. Ces ondes de cisaillement générées par vibration externe, ou par source interne à l’aide de la focalisation de faisceaux ultrasonores (force de radiation), sont mesurées par imagerie ultrasonore ultra-rapide ou par résonance magnétique. Une méthode basée sur l’ED adaptée à la caractérisation mécanique de thromboses veineuses permettrait de quantifier la sévérité de cette pathologie à des fins d’amélioration diagnostique. Cette thèse présente un ensemble de travaux reliés au développement et à la validation complète et rigoureuse d’une nouvelle technique d’imagerie non-invasive élastographique pour la mesure quantitative des propriétés mécaniques de thromboses veineuses. L’atteinte de cet objectif principal nécessite une première étape visant à améliorer les connaissances sur le comportement mécanique du caillot sanguin (sang coagulé) soumis à une sollicitation dynamique telle qu’en ED. Les modules de conservation (comportement élastique, G’) et de perte (comportement visqueux, G’’) en cisaillement de caillots sanguins porcins sont mesurés par ED lors de la cascade de coagulation (à 70 Hz), et après coagulation complète (entre 50 Hz et 160 Hz). Ces résultats constituent les toutes premières mesures du comportement dynamique de caillots sanguins dans une gamme fréquentielle aussi étendue. L’étape subséquente consiste à mettre en place un instrument innovant de référence (« gold standard »), appelé RheoSpectris, dédié à la mesure de la viscoélasticité hyper-fréquence (entre 10 Hz et 1000 Hz) des matériaux et biomatériaux. Cet outil est indispensable pour valider et calibrer toute nouvelle technique d’élastographie dynamique. Une étude comparative entre RheoSpectris et la rhéométrie classique est réalisée afin de valider des mesures faites sur différents matériaux (silicone, thermoplastique, biomatériaux, gel). L’excellente concordance entre les deux technologies permet de conclure que RheoSpectris est un instrument fiable pour la mesure mécanique à des fréquences difficilement accessibles par les outils actuels. Les bases théoriques d’une nouvelle modalité d’imagerie élastographique, nommée SWIRE (« shear wave induced resonance dynamic elastography »), sont présentées et validées sur des fantômes vasculaires. Cette approche permet de caractériser les propriétés mécaniques d’une inclusion confinée (e.g. caillot sanguin) à partir de sa résonance (amplification du déplacement) produite par la propagation d’ondes de cisaillement judicieusement orientées. SWIRE a également l’avantage d’amplifier l’amplitude de vibration à l’intérieur de l’hétérogénéité afin de faciliter sa détection et sa segmentation. Finalement, la méthode DVT-SWIRE (« Deep venous thrombosis – SWIRE ») est adaptée à la caractérisation de l’élasticité quantitative de thromboses veineuses pour une utilisation en clinique. Cette méthode exploite la première fréquence de résonance mesurée dans la thrombose lors de la propagation d’ondes de cisaillement planes (vibration d’une plaque externe) ou cylindriques (simulation de la force de radiation par génération supersonique). DVT-SWIRE est appliquée sur des fantômes simulant une TVP et les résultats sont comparés à ceux donnés par l’instrument de référence RheoSpectris. Cette méthode est également utilisée avec succès dans une étude ex vivo pour l’évaluation de l’élasticité de thromboses porcines explantées après avoir été induites in vivo par chirurgie.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Les incorporations des mémoires épisodiques dans les rêves apparaissent en formes fragmentées et suivent un modèle temporel distinct qui suit une courbe sinusoïdale. Ce modèle est caractérisé par les incorporations immédiates, qui apparaissent 1-2 jours après l’événement (effet de résidus diurnes), et les incorporations tardives, qui apparaissent 5-7 jours après l’événement (effet de délai). Ces deux effets sont considérés comme des liens entre les processus de consolidation de la mémoire et la formation du rêve. Cette courbe temporelle a été observée pour une variété de stimuli expérimentaux. Cependant, aucune étude à date n’a démontré que le contenu des rêves réagit aux événements diurnes d’une manière plus générale et non-spécifique. Le but de notre étude était d’examiner si deux événements qualitativement distincts, un séjour nocturne au laboratoire (LAB), considéré comme un événement interpersonnel, et une tâche de réalité virtuelle (RV), considérée comme un événement non-interpersonnel, sont intégrés de façon différente dans le contenu onirique. Selon nos hypothèses, 1) les éléments spécifiques liés au LAB et à RV seraient incorporés dans les rêves avec des patrons tendances temporels différents, et 2) les incorporations spécifiques seraient associées à des changements plus généraux dans le locus de contrôle (LoC) du rêve. Vingt-six participants ont passé une nuit dans le laboratoire, ont été exposé à une tâche de RV, et ont rempli un journal de rêve pendant 10 jours. Les rapports de rêve ont été cotés pour les éléments spécifiques portant sur LAB et sur RV, et pour l'évolution générale de LoC du rêve. Nos deux hypothèses ont été confirmées: 1) les incorporations de LAB et RV sont négativement corrélées et apparaissent dans le rêve selon des modèles temporels différents. Les incorporations du LAB ont suivi une courbe sinusoïdale en forme de U, avec un effet de résidu diurne et un effet de délai. Les incorporations de RV ont suivi un patron différent, et ont eu un maximum d’incorporations au jour 4. 2) les scores du LoC du rêve étaient plus externes pour le jour 1 (max incorporations du LAB) et plus internes pour le jour 4 (max incorporations de RV). Ces modèles d'incorporation distincts peuvent refléter des différences dans la façon dont les deux événements ont été traités par les processus de consolidation de la mémoire. Dans ce cas, une expérience interpersonnelle (LAB) était incorporée plus tôt dans le temps. Les résultats suggèrent que LoC du rêve reflète les processus de mémoire plus généraux, qui affectent le contenu du rêve entier, et qui sont partiellement indépendants des incorporations spécifiques.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Dans la présente recherche, nous nous sommes penchés sur le processus du transfert intra-organisationnel de connaissances au sein d’entreprises multinationales (EM). Partant du triple constat suivant : les connaissances organisationnelles constituent un avantage stratégique (Barney, 1991 ; Bartlett et Ghoshal, 1998), les transferts intra-organisationnels constituent la raison d’être des EM (Gupta et Govindarajan, 2000), lesquelles ont accès à un vaste bassin de connaissances disséminées à travers le monde par le biais de leurs filiales et les mécanismes organisationnels internes sont plus efficaces que ceux du marché (Williamson, 1987 ; Casson, 1976) pour transférer des connaissances entre unités organisationnelles; nous nous sommes intéressés aux facteurs pouvant affecter l’efficacité de ce processus de transfert. Ayant identifié, lors de notre revue des écrits théoriques, une multitude d’approches permettant d’appréhender ce phénomène, nous proposons, dans notre recherche, un modèle théorique intégrant les trois étapes propres au processus de transfert, soit : la détermination des connaissances à transférer, la sélection des mécanismes de transfert appropriés et, finalement, l’évaluation, d’une part, de l’efficacité des transferts et, d’autre part, de l’ensemble des facteurs contextuels ayant un impact sur l’efficacité de ce processus. Sur le plan théorique, cette recherche oppose deux courants dominant ce champ disciplinaire. L’approche stratégique, exprimée par la théorie des ressources, met l’accent sur l’importance prépondérante des facteurs organisationnels internes sur l’efficacité de toute action organisationnelle (Bartlett et Ghoshal, 1998 ; Barney, 1991). Cette approche s’oppose au courant institutionnel, lequel considère plutôt que les choix et les actions organisationnels sont surtout conditionnés par les contraintes de l’environnement externe (Ferner, 1997; Kostova, 1999; Scott, 1991). Les résultats de notre recherche démontrent que, malgré l’existence de contraintes de nature institutionnelle et culturelle, l’efficacité du processus de transfert des connaissances associées à la gestion des ressources humaines relève davantage des conditions organisationnelles internes et, plus particulièrement, de l’implication de la haute direction, du rôle accordé à la fonction RH et de l’alignement entre la stratégie corporative, la stratégie RH et la culture organisationnelle. Sur le plan méthodologique, il s’agit d’une recherche exploratoire qualitative menée auprès de trois EM (2 canadiennes et 1 française) oeuvrant dans les secteurs de la métallurgie et des télécommunications. Les données empiriques proviennent de 17 entrevues approfondies que nous ont accordées, au Canada, en France, en Allemagne et en Suisse des cadres responsables de la gestion des ressources humaines, affectés au siège social des EM en question ou œuvrant au sein de leurs filiales, et de sources documentaires secondaires.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Les logiciels sont en constante évolution, nécessitant une maintenance et un développement continus. Ils subissent des changements tout au long de leur vie, que ce soit pendant l'ajout de nouvelles fonctionnalités ou la correction de bogues dans le code. Lorsque ces logiciels évoluent, leurs architectures ont tendance à se dégrader avec le temps et deviennent moins adaptables aux nouvelles spécifications des utilisateurs. Elles deviennent plus complexes et plus difficiles à maintenir. Dans certains cas, les développeurs préfèrent refaire la conception de ces architectures à partir du zéro plutôt que de prolonger la durée de leurs vies, ce qui engendre une augmentation importante des coûts de développement et de maintenance. Par conséquent, les développeurs doivent comprendre les facteurs qui conduisent à la dégradation des architectures, pour prendre des mesures proactives qui facilitent les futurs changements et ralentissent leur dégradation. La dégradation des architectures se produit lorsque des développeurs qui ne comprennent pas la conception originale du logiciel apportent des changements au logiciel. D'une part, faire des changements sans comprendre leurs impacts peut conduire à l'introduction de bogues et à la retraite prématurée du logiciel. D'autre part, les développeurs qui manquent de connaissances et–ou d'expérience dans la résolution d'un problème de conception peuvent introduire des défauts de conception. Ces défauts ont pour conséquence de rendre les logiciels plus difficiles à maintenir et évoluer. Par conséquent, les développeurs ont besoin de mécanismes pour comprendre l'impact d'un changement sur le reste du logiciel et d'outils pour détecter les défauts de conception afin de les corriger. Dans le cadre de cette thèse, nous proposons trois principales contributions. La première contribution concerne l'évaluation de la dégradation des architectures logicielles. Cette évaluation consiste à utiliser une technique d’appariement de diagrammes, tels que les diagrammes de classes, pour identifier les changements structurels entre plusieurs versions d'une architecture logicielle. Cette étape nécessite l'identification des renommages de classes. Par conséquent, la première étape de notre approche consiste à identifier les renommages de classes durant l'évolution de l'architecture logicielle. Ensuite, la deuxième étape consiste à faire l'appariement de plusieurs versions d'une architecture pour identifier ses parties stables et celles qui sont en dégradation. Nous proposons des algorithmes de bit-vecteur et de clustering pour analyser la correspondance entre plusieurs versions d'une architecture. La troisième étape consiste à mesurer la dégradation de l'architecture durant l'évolution du logiciel. Nous proposons un ensemble de m´etriques sur les parties stables du logiciel, pour évaluer cette dégradation. La deuxième contribution est liée à l'analyse de l'impact des changements dans un logiciel. Dans ce contexte, nous présentons une nouvelle métaphore inspirée de la séismologie pour identifier l'impact des changements. Notre approche considère un changement à une classe comme un tremblement de terre qui se propage dans le logiciel à travers une longue chaîne de classes intermédiaires. Notre approche combine l'analyse de dépendances structurelles des classes et l'analyse de leur historique (les relations de co-changement) afin de mesurer l'ampleur de la propagation du changement dans le logiciel, i.e., comment un changement se propage à partir de la classe modifiée è d'autres classes du logiciel. La troisième contribution concerne la détection des défauts de conception. Nous proposons une métaphore inspirée du système immunitaire naturel. Comme toute créature vivante, la conception de systèmes est exposée aux maladies, qui sont des défauts de conception. Les approches de détection sont des mécanismes de défense pour les conception des systèmes. Un système immunitaire naturel peut détecter des pathogènes similaires avec une bonne précision. Cette bonne précision a inspiré une famille d'algorithmes de classification, appelés systèmes immunitaires artificiels (AIS), que nous utilisions pour détecter les défauts de conception. Les différentes contributions ont été évaluées sur des logiciels libres orientés objets et les résultats obtenus nous permettent de formuler les conclusions suivantes: • Les métriques Tunnel Triplets Metric (TTM) et Common Triplets Metric (CTM), fournissent aux développeurs de bons indices sur la dégradation de l'architecture. La d´ecroissance de TTM indique que la conception originale de l'architecture s’est dégradée. La stabilité de TTM indique la stabilité de la conception originale, ce qui signifie que le système est adapté aux nouvelles spécifications des utilisateurs. • La séismologie est une métaphore intéressante pour l'analyse de l'impact des changements. En effet, les changements se propagent dans les systèmes comme les tremblements de terre. L'impact d'un changement est plus important autour de la classe qui change et diminue progressivement avec la distance à cette classe. Notre approche aide les développeurs à identifier l'impact d'un changement. • Le système immunitaire est une métaphore intéressante pour la détection des défauts de conception. Les résultats des expériences ont montré que la précision et le rappel de notre approche sont comparables ou supérieurs à ceux des approches existantes.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Les systèmes logiciels sont devenus de plus en plus répondus et importants dans notre société. Ainsi, il y a un besoin constant de logiciels de haute qualité. Pour améliorer la qualité de logiciels, l’une des techniques les plus utilisées est le refactoring qui sert à améliorer la structure d'un programme tout en préservant son comportement externe. Le refactoring promet, s'il est appliqué convenablement, à améliorer la compréhensibilité, la maintenabilité et l'extensibilité du logiciel tout en améliorant la productivité des programmeurs. En général, le refactoring pourra s’appliquer au niveau de spécification, conception ou code. Cette thèse porte sur l'automatisation de processus de recommandation de refactoring, au niveau code, s’appliquant en deux étapes principales: 1) la détection des fragments de code qui devraient être améliorés (e.g., les défauts de conception), et 2) l'identification des solutions de refactoring à appliquer. Pour la première étape, nous traduisons des régularités qui peuvent être trouvés dans des exemples de défauts de conception. Nous utilisons un algorithme génétique pour générer automatiquement des règles de détection à partir des exemples de défauts. Pour la deuxième étape, nous introduisons une approche se basant sur une recherche heuristique. Le processus consiste à trouver la séquence optimale d'opérations de refactoring permettant d'améliorer la qualité du logiciel en minimisant le nombre de défauts tout en priorisant les instances les plus critiques. De plus, nous explorons d'autres objectifs à optimiser: le nombre de changements requis pour appliquer la solution de refactoring, la préservation de la sémantique, et la consistance avec l’historique de changements. Ainsi, réduire le nombre de changements permets de garder autant que possible avec la conception initiale. La préservation de la sémantique assure que le programme restructuré est sémantiquement cohérent. De plus, nous utilisons l'historique de changement pour suggérer de nouveaux refactorings dans des contextes similaires. En outre, nous introduisons une approche multi-objective pour améliorer les attributs de qualité du logiciel (la flexibilité, la maintenabilité, etc.), fixer les « mauvaises » pratiques de conception (défauts de conception), tout en introduisant les « bonnes » pratiques de conception (patrons de conception).

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Open access iiiovemerit and open source software movement plays an important role in creation of knowledge, knowledge management and knowledge dissemination. Scholarly communication and publishing are increasingly taking place in the electronic environment. With a growing proportion of the scholarly record now existing only in digital format, serious issues regarding access and preservation are being raised that are central to future scholarship. Institutional Repositories provide access to past. present and future scholarly literature and research documentation; ensures its preservation; assists users in discovery and use; and offers educational programs to enable users to develop lifelong literacy. This paper explores these aspects on how IR of Cochin University of Science & Technology supports scientific community for knowledge creation. knowledge Management, and knowledge dissemination.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Free/Open Source Software (FOSS) concept is very important in the academic community. The open philosophy of FOSS is consistent with academic freedom and the open dissemination of knowledge and information in academia. FOSS can lower the barriers to access of ICTs by reducing the cost of the software. This article discusses the success story of CUSAT's adoption of Free/Open Source Software

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A GIS has been designed with limited Functionalities; but with a novel approach in Aits design. The spatial data model adopted in the design of KBGIS is the unlinked vector model. Each map entity is encoded separately in vector fonn, without referencing any of its neighbouring entities. Spatial relations, in other words, are not encoded. This approach is adequate for routine analysis of geographic data represented on a planar map, and their display (Pages 105-106). Even though spatial relations are not encoded explicitly, they can be extracted through the specially designed queries. This work was undertaken as an experiment to study the feasibility of developing a GIS using a knowledge base in place of a relational database. The source of input spatial data was accurate sheet maps that were manually digitised. Each identifiable geographic primitive was represented as a distinct object, with its spatial properties and attributes defined. Composite spatial objects, made up of primitive objects, were formulated, based on production rules defining such compositions. The facts and rules were then organised into a production system, using OPS5

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The assessment of maturity of software is an important area in the general software sector. The field of OSS also applies various models to measure software maturity. However, measuring maturity of OSS being used for several applications in libraries is an area left with no research so far. This study has attempted to fill the research gap. Measuring maturity of software contributes knowledge on its sustainability over the long term. Maturity of software is one of the factors that positively influence adoption. The investigator measured the maturity of DSpace software using Woods and Guliani‟s Open Source Maturity Model-2005. The present study is significant as it addresses the aspects of maturity of OSS for libraries and fills the research gap on the area. In this sense the study opens new avenues to the field of library and information science by providing an additional tool for librarians in the selection and adoption of OSS. Measuring maturity brings in-depth knowledge on an OSS which will contribute towards the perceived usefulness and perceived ease of use as explained in the Technology Acceptance Model theory.