924 resultados para Learning-Content-System
Resumo:
The purpose of this paper is to describe the collaboration between librarians and scholars, from a virtual university, in order to facilitate collaborative learning on how to manage information resources. The personal information behaviour of e-learning students when managing information resources for academic, professional and daily life purposes was studied from 24 semi-structured face-to-face interviews. The results of the content analysis of the interview' transcriptions, highlighted that in the workplace and daily life contexts, competent information behaviour is always linked to a proactive attitude, that is to say, that participants seek for information without some extrinsic reward or avoiding punishment. In the academic context, it was observed a low level of information literacy and it seems to be related with a prevalent uninvolved attitude.
Resumo:
In this paper we describe a proposal for defining the relationships between resources, users and services in a digital repository. Nowadays, virtual learning environments are widely used but digital repositories are not fully integrated yet into the learning process. Our final goal is to provide final users with recommendation systems and reputation schemes that help them to build a true learning community around the institutional repository, taking into account their educational context (i.e. the courses they are enrolled into) and their activity (i.e. system usage by their classmates and teachers). In order to do so, we extend the basic resource concept in a traditional digital repository by adding all the educational context and other elements from end-users' profiles, thus bridging users, resources and services, and shifting from a library-centered paradigm to a learning-centered one.
Resumo:
The aim of this thesis was to examine emotions in a web-based learning environment (WBLE). Theoretically, the thesis was grounded on the dimensional model of emotions. Four empirical studies were conducted. Study I focused on students’ anxiety and their self-efficacy in computer-using situations. Studies II and III examined the influence of experienced emotions on students’ collaborative visible and non-collaborative invisible activities and lurking in a WBLE. Study II also focused on the antecedents of the emotions students experience in a web-based learning environment. Study IV concentrated on clarifying the differences between emotions experienced in face-to-face and web-based collaborative learning. The results of these studies are reported in four original research articles published in scientific journals. The present studies demonstrate that emotions are important determinants of student behaviour in a web-based learning, and justify the conclusion that interactions on the web can and do have an emotional content. Based on the results of these empirical studies, it can be concluded that the emotions students experience during the web-based learning result mostly from the social interactions rather than from the technological context. The studies indicate that the technology itself is not the only antecedent of students’ emotional reactions in the collaborative web-based learning situations. However, the technology itself also exerted an influence on students’ behaviour. It was found that students’ computer anxiety was associated with their negative expectations of the consequences of using technology-based learning environments in their studies. Moreover, the results also indicated that student behaviours in a WBLE can be divided into three partially overlapping classes: i) collaborative visible ii) non-collaborative invisible activities, and iii) lurking. What is more, students’ emotions experienced during the web-based learning affected how actively they participated in such activities in the environment. Especially lurkers, i.e. students who seldom participated in discussions but frequently visited the online environment, experienced more negatively valenced emotions during the courses than did the other students. This result indicates that such negatively toned emotional experiences can make the lurking individuals less eager to participate in other WBLE courses in the future. Therefore, future research should also focus more precisely on the reasons that cause individuals to lurk in online learning groups, and the development of learning tasks that do not encourage or permit lurking or inactivity. Finally, the results from the study comparing emotional reactions in web-based and face-to-face collaborative learning indicated that the learning by means of web-based communication resulted in more affective reactivity when compared to learning in a face-to-face situation. The results imply that the students in the web-based learning group experienced more intense emotions than the students in the face-to-face learning group.The interpretations of this result are that the lack of means for expressing emotional reactions and perceiving others’ emotions increased the affectivity in the web-based learning groups. Such increased affective reactivity could, for example, debilitate individual’s learning performance, especially in complex learning tasks. Therefore, it is recommended that in the future more studies should be focused on the possibilities to express emotions in a text-based web environment to ensure better means for communicating emotions, and subsequently, possibly decrease the high level of affectivity. However, we do not yet know whether the use of means for communicating emotional expressions via the web (for example, “smileys” or “emoticons”) would be beneficial or disadvantageous in formal learning situations. Therefore, future studies should also focus on assessing how the use of such symbols as a means for expressing emotions in a text-based web environment would affect students’ and teachers’ behaviour and emotional state in web-based learning environments.
Resumo:
Learning is predicted to affect manifold ecological and evolutionary processes, but the extent to which animals rely on learning in nature remains poorly known, especially for short-lived non-social invertebrates. This is in particular the case for Drosophila, a favourite laboratory system to study molecular mechanisms of learning. Here we tested whether Drosophila melanogaster use learned information to choose food while free-flying in a large greenhouse emulating the natural environment. In a series of experiments flies were first given an opportunity to learn which of two food odours was associated with good versus unpalatable taste; subsequently, their preference for the two odours was assessed with olfactory traps set up in the greenhouse. Flies that had experienced palatable apple-flavoured food and unpalatable orange-flavoured food were more likely to be attracted to the odour of apple than flies with the opposite experience. This was true both when the flies first learned in the laboratory and were then released and recaptured in the greenhouse, and when the learning occurred under free-flying conditions in the greenhouse. Furthermore, flies retained the memory of their experience while exploring the greenhouse overnight in the absence of focal odours, pointing to the involvement of consolidated memory. These results support the notion that even small, short lived insects which are not central-place foragers make use of learned cues in their natural environments.
Resumo:
Neuropsychological and neuroimaging data suggest that the self-memory system can be fractionated into three functionally independent systems processing personal information at several levels of abstraction, including episodic memories of one's life (episodic autobiographical memory, EAM), semantic knowledge of facts about one's life (semantic autobiographical memory, SAM), and semantic knowledge of one's personality [conceptual self, (CS)]. Through the study of two developmental amnesic patients suffering of neonatal brain injuries, we explored how the different facets of the self-memory system develop when growing up with bilateral hippocampal atrophy. Neuropsychological evaluations showed that both of them suffered from dramatic episodic learning disability with no sense of recollection (Remember/Know procedure), whereas their semantic abilities differed, being completely preserved (Valentine) or not (Jocelyn). Magnetic resonance imaging, including quantitative volumetric measurements of the hippocampus and adjacent (entorhinal, perirhinal, and temporopolar) cortex, showed severe bilateral atrophy of the hippocampus in both patients, with additional atrophy of adjacent cortex in Jocelyn. Exploration of EAM and SAM according to lifetime periods covering the entire lifespan (TEMPAu task, Piolino et al., 2009) showed that both patients had marked impairments in EAM, as they lacked specificity, details and sense of recollection, whereas SAM was completely normal in Valentine, but impaired in Jocelyn. Finally, measures of patients' CS (Tennessee Self-Concept Scale, Fitts and Warren, 1996), checked by their mothers, were generally within normal range, but both patients showed a more positive self-concept than healthy controls. These two new cases support a modular account of the medial-temporal lobe with episodic memory and recollection depending on the hippocampus, and semantic memory and familiarity on adjacent cortices. Furthermore, they highlight developmental episodic and semantic functional independence within the self-memory system suggesting that SAM and CS may be acquired without episodic memories.
Resumo:
Un système efficace de sismique tridimensionnelle (3-D) haute-résolution adapté à des cibles lacustres de petite échelle a été développé. Dans le Lac Léman, près de la ville de Lausanne, en Suisse, des investigations récentes en deux dimension (2-D) ont mis en évidence une zone de faille complexe qui a été choisie pour tester notre système. Les structures observées incluent une couche mince (<40 m) de sédiments quaternaires sub-horizontaux, discordants sur des couches tertiaires de molasse pentées vers le sud-est. On observe aussi la zone de faille de « La Paudèze » qui sépare les unités de la Molasse du Plateau de la Molasse Subalpine. Deux campagnes 3-D complètes, d?environ d?un kilomètre carré, ont été réalisées sur ce site de test. La campagne pilote (campagne I), effectuée en 1999 pendant 8 jours, a couvert 80 profils en utilisant une seule flûte. Pendant la campagne II (9 jours en 2001), le nouveau système trois-flûtes, bien paramétrés pour notre objectif, a permis l?acquisition de données de très haute qualité sur 180 lignes CMP. Les améliorations principales incluent un système de navigation et de déclenchement de tirs grâce à un nouveau logiciel. Celui-ci comprend un contrôle qualité de la navigation du bateau en temps réel utilisant un GPS différentiel (dGPS) à bord et une station de référence près du bord du lac. De cette façon, les tirs peuvent être déclenchés tous les 5 mètres avec une erreur maximale non-cumulative de 25 centimètres. Tandis que pour la campagne I la position des récepteurs de la flûte 48-traces a dû être déduite à partir des positions du bateau, pour la campagne II elle ont pu être calculées précisément (erreur <20 cm) grâce aux trois antennes dGPS supplémentaires placées sur des flotteurs attachés à l?extrémité de chaque flûte 24-traces. Il est maintenant possible de déterminer la dérive éventuelle de l?extrémité des flûtes (75 m) causée par des courants latéraux ou de petites variations de trajet du bateau. De plus, la construction de deux bras télescopiques maintenant les trois flûtes à une distance de 7.5 m les uns des autres, qui est la même distance que celle entre les lignes naviguées de la campagne II. En combinaison avec un espacement de récepteurs de 2.5 m, la dimension de chaque «bin» de données 3-D de la campagne II est de 1.25 m en ligne et 3.75 m latéralement. L?espacement plus grand en direction « in-line » par rapport à la direction «cross-line» est justifié par l?orientation structurale de la zone de faille perpendiculaire à la direction «in-line». L?incertitude sur la navigation et le positionnement pendant la campagne I et le «binning» imprécis qui en résulte, se retrouve dans les données sous forme d?une certaine discontinuité des réflecteurs. L?utilisation d?un canon à air à doublechambre (qui permet d?atténuer l?effet bulle) a pu réduire l?aliasing observé dans les sections migrées en 3-D. Celui-ci était dû à la combinaison du contenu relativement haute fréquence (<2000 Hz) du canon à eau (utilisé à 140 bars et à 0.3 m de profondeur) et d?un pas d?échantillonnage latéral insuffisant. Le Mini G.I 15/15 a été utilisé à 80 bars et à 1 m de profondeur, est mieux adapté à la complexité de la cible, une zone faillée ayant des réflecteurs pentés jusqu?à 30°. Bien que ses fréquences ne dépassent pas les 650 Hz, cette source combine une pénétration du signal non-aliasé jusqu?à 300 m dans le sol (par rapport au 145 m pour le canon à eau) pour une résolution verticale maximale de 1.1 m. Tandis que la campagne I a été acquise par groupes de plusieurs lignes de directions alternées, l?optimisation du temps d?acquisition du nouveau système à trois flûtes permet l?acquisition en géométrie parallèle, ce qui est préférable lorsqu?on utilise une configuration asymétrique (une source et un dispositif de récepteurs). Si on ne procède pas ainsi, les stacks sont différents selon la direction. Toutefois, la configuration de flûtes, plus courtes que pour la compagne I, a réduit la couverture nominale, la ramenant de 12 à 6. Une séquence classique de traitement 3-D a été adaptée à l?échantillonnage à haute fréquence et elle a été complétée par deux programmes qui transforment le format non-conventionnel de nos données de navigation en un format standard de l?industrie. Dans l?ordre, le traitement comprend l?incorporation de la géométrie, suivi de l?édition des traces, de l?harmonisation des «bins» (pour compenser l?inhomogénéité de la couverture due à la dérive du bateau et de la flûte), de la correction de la divergence sphérique, du filtrage passe-bande, de l?analyse de vitesse, de la correction DMO en 3-D, du stack et enfin de la migration 3-D en temps. D?analyses de vitesse détaillées ont été effectuées sur les données de couverture 12, une ligne sur deux et tous les 50 CMP, soit un nombre total de 600 spectres de semblance. Selon cette analyse, les vitesses d?intervalles varient de 1450-1650 m/s dans les sédiments non-consolidés et de 1650-3000 m/s dans les sédiments consolidés. Le fait que l?on puisse interpréter plusieurs horizons et surfaces de faille dans le cube, montre le potentiel de cette technique pour une interprétation tectonique et géologique à petite échelle en trois dimensions. On distingue cinq faciès sismiques principaux et leurs géométries 3-D détaillées sur des sections verticales et horizontales: les sédiments lacustres (Holocène), les sédiments glacio-lacustres (Pléistocène), la Molasse du Plateau, la Molasse Subalpine de la zone de faille (chevauchement) et la Molasse Subalpine au sud de cette zone. Les couches de la Molasse du Plateau et de la Molasse Subalpine ont respectivement un pendage de ~8° et ~20°. La zone de faille comprend de nombreuses structures très déformées de pendage d?environ 30°. Des tests préliminaires avec un algorithme de migration 3-D en profondeur avant sommation et à amplitudes préservées démontrent que la qualité excellente des données de la campagne II permet l?application de telles techniques à des campagnes haute-résolution. La méthode de sismique marine 3-D était utilisée jusqu?à présent quasi-exclusivement par l?industrie pétrolière. Son adaptation à une échelle plus petite géographiquement mais aussi financièrement a ouvert la voie d?appliquer cette technique à des objectifs d?environnement et du génie civil.<br/><br/>An efficient high-resolution three-dimensional (3-D) seismic reflection system for small-scale targets in lacustrine settings was developed. In Lake Geneva, near the city of Lausanne, Switzerland, past high-resolution two-dimensional (2-D) investigations revealed a complex fault zone (the Paudèze thrust zone), which was subsequently chosen for testing our system. Observed structures include a thin (<40 m) layer of subhorizontal Quaternary sediments that unconformably overlie southeast-dipping Tertiary Molasse beds and the Paudèze thrust zone, which separates Plateau and Subalpine Molasse units. Two complete 3-D surveys have been conducted over this same test site, covering an area of about 1 km2. In 1999, a pilot survey (Survey I), comprising 80 profiles, was carried out in 8 days with a single-streamer configuration. In 2001, a second survey (Survey II) used a newly developed three-streamer system with optimized design parameters, which provided an exceptionally high-quality data set of 180 common midpoint (CMP) lines in 9 days. The main improvements include a navigation and shot-triggering system with in-house navigation software that automatically fires the gun in combination with real-time control on navigation quality using differential GPS (dGPS) onboard and a reference base near the lake shore. Shots were triggered at 5-m intervals with a maximum non-cumulative error of 25 cm. Whereas the single 48-channel streamer system of Survey I requires extrapolation of receiver positions from the boat position, for Survey II they could be accurately calculated (error <20 cm) with the aid of three additional dGPS antennas mounted on rafts attached to the end of each of the 24- channel streamers. Towed at a distance of 75 m behind the vessel, they allow the determination of feathering due to cross-line currents or small course variations. Furthermore, two retractable booms hold the three streamers at a distance of 7.5 m from each other, which is the same distance as the sail line interval for Survey I. With a receiver spacing of 2.5 m, the bin dimension of the 3-D data of Survey II is 1.25 m in in-line direction and 3.75 m in cross-line direction. The greater cross-line versus in-line spacing is justified by the known structural trend of the fault zone perpendicular to the in-line direction. The data from Survey I showed some reflection discontinuity as a result of insufficiently accurate navigation and positioning and subsequent binning errors. Observed aliasing in the 3-D migration was due to insufficient lateral sampling combined with the relatively high frequency (<2000 Hz) content of the water gun source (operated at 140 bars and 0.3 m depth). These results motivated the use of a double-chamber bubble-canceling air gun for Survey II. A 15 / 15 Mini G.I air gun operated at 80 bars and 1 m depth, proved to be better adapted for imaging the complexly faulted target area, which has reflectors dipping up to 30°. Although its frequencies do not exceed 650 Hz, this air gun combines a penetration of non-aliased signal to depths of 300 m below the water bottom (versus 145 m for the water gun) with a maximum vertical resolution of 1.1 m. While Survey I was shot in patches of alternating directions, the optimized surveying time of the new threestreamer system allowed acquisition in parallel geometry, which is preferable when using an asymmetric configuration (single source and receiver array). Otherwise, resulting stacks are different for the opposite directions. However, the shorter streamer configuration of Survey II reduced the nominal fold from 12 to 6. A 3-D conventional processing flow was adapted to the high sampling rates and was complemented by two computer programs that format the unconventional navigation data to industry standards. Processing included trace editing, geometry assignment, bin harmonization (to compensate for uneven fold due to boat/streamer drift), spherical divergence correction, bandpass filtering, velocity analysis, 3-D DMO correction, stack and 3-D time migration. A detailed semblance velocity analysis was performed on the 12-fold data set for every second in-line and every 50th CMP, i.e. on a total of 600 spectra. According to this velocity analysis, interval velocities range from 1450-1650 m/s for the unconsolidated sediments and from 1650-3000 m/s for the consolidated sediments. Delineation of several horizons and fault surfaces reveal the potential for small-scale geologic and tectonic interpretation in three dimensions. Five major seismic facies and their detailed 3-D geometries can be distinguished in vertical and horizontal sections: lacustrine sediments (Holocene) , glaciolacustrine sediments (Pleistocene), Plateau Molasse, Subalpine Molasse and its thrust fault zone. Dips of beds within Plateau and Subalpine Molasse are ~8° and ~20°, respectively. Within the fault zone, many highly deformed structures with dips around 30° are visible. Preliminary tests with 3-D preserved-amplitude prestack depth migration demonstrate that the excellent data quality of Survey II allows application of such sophisticated techniques even to high-resolution seismic surveys. In general, the adaptation of the 3-D marine seismic reflection method, which to date has almost exclusively been used by the oil exploration industry, to a smaller geographical as well as financial scale has helped pave the way for applying this technique to environmental and engineering purposes.<br/><br/>La sismique réflexion est une méthode d?investigation du sous-sol avec un très grand pouvoir de résolution. Elle consiste à envoyer des vibrations dans le sol et à recueillir les ondes qui se réfléchissent sur les discontinuités géologiques à différentes profondeurs et remontent ensuite à la surface où elles sont enregistrées. Les signaux ainsi recueillis donnent non seulement des informations sur la nature des couches en présence et leur géométrie, mais ils permettent aussi de faire une interprétation géologique du sous-sol. Par exemple, dans le cas de roches sédimentaires, les profils de sismique réflexion permettent de déterminer leur mode de dépôt, leurs éventuelles déformations ou cassures et donc leur histoire tectonique. La sismique réflexion est la méthode principale de l?exploration pétrolière. Pendant longtemps on a réalisé des profils de sismique réflexion le long de profils qui fournissent une image du sous-sol en deux dimensions. Les images ainsi obtenues ne sont que partiellement exactes, puisqu?elles ne tiennent pas compte de l?aspect tridimensionnel des structures géologiques. Depuis quelques dizaines d?années, la sismique en trois dimensions (3-D) a apporté un souffle nouveau à l?étude du sous-sol. Si elle est aujourd?hui parfaitement maîtrisée pour l?imagerie des grandes structures géologiques tant dans le domaine terrestre que le domaine océanique, son adaptation à l?échelle lacustre ou fluviale n?a encore fait l?objet que de rares études. Ce travail de thèse a consisté à développer un système d?acquisition sismique similaire à celui utilisé pour la prospection pétrolière en mer, mais adapté aux lacs. Il est donc de dimension moindre, de mise en oeuvre plus légère et surtout d?une résolution des images finales beaucoup plus élevée. Alors que l?industrie pétrolière se limite souvent à une résolution de l?ordre de la dizaine de mètres, l?instrument qui a été mis au point dans le cadre de ce travail permet de voir des détails de l?ordre du mètre. Le nouveau système repose sur la possibilité d?enregistrer simultanément les réflexions sismiques sur trois câbles sismiques (ou flûtes) de 24 traces chacun. Pour obtenir des données 3-D, il est essentiel de positionner les instruments sur l?eau (source et récepteurs des ondes sismiques) avec une grande précision. Un logiciel a été spécialement développé pour le contrôle de la navigation et le déclenchement des tirs de la source sismique en utilisant des récepteurs GPS différentiel (dGPS) sur le bateau et à l?extrémité de chaque flûte. Ceci permet de positionner les instruments avec une précision de l?ordre de 20 cm. Pour tester notre système, nous avons choisi une zone sur le Lac Léman, près de la ville de Lausanne, où passe la faille de « La Paudèze » qui sépare les unités de la Molasse du Plateau et de la Molasse Subalpine. Deux campagnes de mesures de sismique 3-D y ont été réalisées sur une zone d?environ 1 km2. Les enregistrements sismiques ont ensuite été traités pour les transformer en images interprétables. Nous avons appliqué une séquence de traitement 3-D spécialement adaptée à nos données, notamment en ce qui concerne le positionnement. Après traitement, les données font apparaître différents faciès sismiques principaux correspondant notamment aux sédiments lacustres (Holocène), aux sédiments glacio-lacustres (Pléistocène), à la Molasse du Plateau, à la Molasse Subalpine de la zone de faille et la Molasse Subalpine au sud de cette zone. La géométrie 3-D détaillée des failles est visible sur les sections sismiques verticales et horizontales. L?excellente qualité des données et l?interprétation de plusieurs horizons et surfaces de faille montrent le potentiel de cette technique pour les investigations à petite échelle en trois dimensions ce qui ouvre des voies à son application dans les domaines de l?environnement et du génie civil.
Resumo:
Awareness is required for supporting all forms of cooperation. In Computer Supported Collaborative Learning (CSCL), awareness can be used for enhancing collaborative opportunities across physical distances and in computer-mediated environments. Shared Knowledge Awareness (SKA) intends to increase the perception about the shared knowledge, students have in a collaborative learning scenario and also concerns the understanding that this group has about it. However, it is very difficult to produce accurate awareness indicators based on informal message exchange among the participants. Therefore, we propose a semantic system for cooperation that makes use of formal methods for knowledge representation based on semantic web technologies. From these semantics-enhanced repository and messages, it could be easier to compute more accurate awareness.
Resumo:
To what extent hypoxia alters the adenosine (ADO) system and impacts on cardiac function during embryogenesis is not known. Ectonucleoside triphosphate diphosphohydrolase (CD39), ecto-5'-nucleotidase (CD73), adenosine kinase (AdK), adenosine deaminase (ADA), equilibrative (ENT1,3,4), and concentrative (CNT3) transporters and ADO receptors A1, A2A, A2B, and A3 constitute the adenosinergic system. During the first 4 days of development chick embryos were exposed in ovo to normoxia followed or not followed by 6 h hypoxia. ADO and glycogen content and mRNA expression of the genes were determined in the atria, ventricle, and outflow tract of the normoxic (N) and hypoxic (H) hearts. Electrocardiogram and ventricular shortening of the N and H hearts were recorded ex vivo throughout anoxia/reoxygenation ± ADO. Under basal conditions, CD39, CD73, ADK, ADA, ENT1,3,4, CNT3, and ADO receptors were differentially expressed in the atria, ventricle, and outflow tract. In H hearts ADO level doubled, glycogen decreased, and mRNA expression of all the investigated genes was downregulated by hypoxia, except for A2A and A3 receptors. The most rapid and marked downregulation was found for ADA in atria. H hearts were arrhythmic and more vulnerable to anoxia-reoxygenation than N hearts. Despite downregulation of the genes, exposure of isolated hearts to ADO 1) preserved glycogen through activation of A1 receptor and Akt-GSK3β-GS pathway, 2) prolonged activity and improved conduction under anoxia, and 3) restored QT interval in H hearts. Thus hypoxia-induced downregulation of the adenosinergic system can be regarded as a coping response, limiting the detrimental accumulation of ADO without interfering with ADO signaling.
Resumo:
The aim of this study was to examine the development of the metacognitive knowledge of a group of higher education students who participated actively in an experiment based on a Computer Supported Collaborative Learning environment called KnowCat. Eighteen university students participated in a 12-month learning project during which the KnowCat learning environment was used to support scaffolding process among equals during problem-solving tasks. After using KnowCat, the students were interviewed over their work in this shared workspace. Qualitative analysis revealed that the educational application of KnowCat can favour and improve the development of metacognitive knowledge.
Resumo:
Työssä tutkittiin tehokasta tietojohtamista globaalin metsäteollisuusyrityksen tutkimus ja kehitys verkostossa. Työn tavoitteena oli rakentaa kuvaus tutkimus ja kehitys sisällön hallintaan kohdeyrityksen käyttämän tietojohtamisohjelmiston avulla. Ensin selvitettiin käsitteitä tietämys ja tietojohtaminen kirjallisuuden avulla. Selvityksen perusteella esitettiin prosessimalli, jolla tietämystä voidaan tehokkaasti hallita yrityksessä. Seuraavaksi analysoitiin tietojohtamisen asettamia vaatimuksia informaatioteknologialle ja informaatioteknologian roolia prosessimallissa. Verkoston vaatimukset tietojohtamista kohtaan selvitettiin haastattelemalla yrityksen avainhenkilöitä. Haastatteluiden perusteella järjestelmän tuli tehokkaasti tukea virtuaalisten projektiryhmien työskentelyä, mahdollistaa tehtaiden välinen tietämyksen jakaminen ja tukea järjestelmään syötetyn sisällön hallintaa. Ensiksi järjestelmän käyttöliittymän rakenne ja salaukset muokattiin vastaamaan verkoston tarpeita. Rakenne tarjoaa työalueen työryhmille ja alueet tehtaiden väliseen tietämyksen jakamiseen. Sisällönhallintaa varten järjestelmään kehitettiin kategoria, profiloitu portaali ja valmiiksi määriteltyjä hakuja. Kehitetty malli tehostaa projektiryhmien työskentelyä, mahdollistaa olemassa olevan tietämyksen hyväksikäytön tehdastasolla sekä helpottaa tutkimus ja kehitys aktiviteettien seurantaa. Toimenpide-ehdotuksina esitetään järjestelmän integrointia tehtaiden operatiivisiin ohjausjärjestelmiin ja ohjelmiston käyttöönottoa tehdastason projektinhallinta työkaluksi.Ehdotusten tavoitteena on varmistaa sekä tehokas tietämyksen jakaminen tehtaiden välillä että tehokas tietojohtaminen tehdastasolla.
Resumo:
Les traités scientifiques ne font que depuis peu d'années l'objet d'études en histoire des sciences. Pourtant, ces traités ont énormément à apporter car ils renseignent sur la manière de raisonner des auteurs, ainsi que sur le développement d'une discipline. Dans ce travail de doctorat, différents traités des maladies du système nerveux ont été dépouillés, notamment le traité de Sémiologie des affections du système nerveux (1914) de Jules Dejerine (1849-1917). Ce traité a été analysé de trois manières différentes. Il a tout d'abord été comparé à une édition précédente publiée sous forme de chapitre (1901), révélant un large remodelage du contenu du traité, suggérant une évolution rapide de la discipline neurologique en l'espace de quelques années. Deuxièmement, l'analyse de la Sémiologie a permis de recréer un réseau de professionnels avec qui Jules Dejerine était en contact et, en parcourant les livres publiés par ces auteurs, il a été possible de décrire de quelle manière ces auteurs se citent mutuellement. Finalement, ces livres contiennent de nombreuses illustrations, qui sont associées à la notion de « preuve » : les auteurs utilisent des images sous forme de dessins, de photographies ou de schémas qui illustrent des patients ou des pièces anatomiques pour « montrer » la maladie ou la lésion. Chaque illustration a un rôle à jouer pour décrire la lésion, montrer la progression de la maladie et elle aide le médecin à poser le diagnostic. Grâce à ces trois axes de recherche, un traité devient un outil de travail dynamique, qui évolue au fil des rééditions, influencé par les critiques et commentaires retrouvés dans d'autres traités et articles, et par les progrès accomplis dans la discipline traitée. Des, passages et certaines images de l'ouvrage circulent également de traité en traité et véhiculent l'autorité de l'auteur de ces passages et images qui en viennent à représenter la maladie. Ce transfert d'images joue également un rôle dans la standardisation du diagnostic et dans l'unification de la neurologie à travers le monde occidental au début du XXe siècle, une période charnière pour l'histoire de la médecine. -- Au début du XXe siècle, la neurologie est une jeune spécialité médicale qui se développe rapidement. Les différents médecins publient des traités, communiquent entre eux et échangent leurs données. Un traité scientifique est un outil de travail dynamique qui évolue avec les rééditions et le développement d'une discipline. Ces ouvrages recèlent toutes sortes d'informations et leur analyse ne fait que depuis peu de temps l'objet d'études en histoire des sciences. Ces traités regorgent notamment d'illustrations qui sont associées à la notion de « preuve » : les auteurs utilisent des images sous forme de dessins, de photographies ou de schémas qui représentent des patients ou des pièces anatomiques afin de « montrer » la maladie ou la lésion. Chaque illustration a un rôle à jouer pour décrire la pathologie, montrer la progression de la maladie et elle aide le médecin à poser le diagnostic. Les auteurs des traités, qui viennent d'Europe et d'Amérique du Nord, se citent mutuellement, permettant au lecteur de recréer leur réseau de professionnels au niveau international. De plus, comme ces auteurs réutilisent les observations et les illustrations des autres, celles-ci circulent de traité en traité et en viennent à représenter la maladie. Ce transfert d'images joue également un rôle dans la standardisation du diagnostic et dans l'unification de la neurologie à travers le monde occidental au début du XXe siècle, une période charnière pour l'histoire de la médecine. -- Until recently, the study of textbooks has been neglected in the history of the sciences. However, textbooks can provide fruitful sources of information regarding the way authors work and the development of a particular discipline. This dissertation reviews editions of a single textbook, the Sémiologie des affections du système nerveux (1914) by Jules Dejerine (1849-1917). This textbook enabled the description of three axes of research. Firstly, by comparing the book to a first edition published as a chapter, one can acknowledge an extensive remodeling of the content of the book, suggesting a vast increase in knowledge over time. Secondly, by looking at the authors that Dejerine quotes repeatedly, it becomes possible to recreate his professional network, to review the works of these authors and to determine how they cross-reference each other. Thirdly, these textbooks contain numerous medical illustrations, which are linked with the concept of "proof;" the authors demonstrate a willingness to "show" the lesion or the pathology by publishing an image. Drawings, schematic representations, radiographies, or photographs of patients or of anatomical preparations all have their own purpose in describing the lesion and the progression of the disease. They assist in the diagnosis of the pathology. By looking at all of these aspects, it is therefore possible to conclude that a neurological textbook is a dynamic object that evolves through re-editions, comments and references found in other textbooks and by the circulations of parts of these books, such as the images. The illustrations also carry the author's authority, since their ongoing use claims that the work by the owner of the image has been endorsed by others. At the same time, it validates the borrowers' arguments. By using medical illustrations from different authors worldwide, the authors are also making a claim to a common language, to a similar way of examining patients, and about how much they depend on medical imagery to prove their points. In that sense, by focusing upon these textbooks, one can affirm that neurology already existed as a worldwide specialty at the turn of the twentieth century. Much more than mere accompaniments to the text, images were of paramount importance to the unification of neurology.
Resumo:
Tämän projektin tarkoituksena oli kehittää paperinvalmistuslinjan multimediapohjaista tietotukijärjestelmää. Kirjallisuusosassa on todettu, että nykyisessä työympäristössä tarvitaan entistä enemmän tietotaitoa työkyvyn ylläpitämiseksi. Työntekijöiden osaaminen on avainasemassa kilpailukyvyn säilyttämisessä. Esille nousee myös suurten ikäluokkien eläköityminen ja osaavan työvoiman riittäminen. Näistä syistä erilaiset koulutukset ovat tällä hetkellä erityisen tärkeitä. Verkko-opetusvälineet ovat taloudellisesti kannattavia erityisesti suurille kohderyhmille ja sopivat hyvin paperiteollisuuden käyttöön. Parhaimmillaan ne ovat myös hyvin tehokkaita opetusvälineitä. Kokeellisessa osan alussa nähtiin tärkeäksi järjestelmän käytettävyyden ja kiinnostavuuden parantaminen ja siksi siihen päätettiin tehdä kokonaan uusi käyttöliittymä ja selkeämpi rakenne. Järjestelmän sisältö rakennettiin uudelleen hyväksikäyttäen vanhaa materiaalia soveltuvin osin. Järjestelmään laadittiin perussisältösivujen lisäksi useita johdantoja, joista saa nopeasti käsityksen tietystä prosessin osasta. Järjestelmään lisättiin myös useita multimediaelementtejä, kuten uusia kuvia, animaatioita ja videoita. Järjestelmään lisättiin myös hakutoiminto, sanasto ja käyttöohje. Näillä uudistuksilla pyrittiin parantamaan järjestelmän käytettävyyttä erityisesti prosessityöntekijöiden perehdytyksen ja työnopastuksen apuvälineenä.
Resumo:
Hyvällä sisällönhallinnalla on mahdollista vaikuttaa myönteisesti liiketoiminnalliseen tulokseen, jos sisällönhallinnan eri vaikutusmahdollisuudet tunnistetaan. Kun organisaatiossa syntyvä tieto on vapaasti saatavilla, ja sitä voidaan tulkita ja hyödyntää erilaisiin tarpeisiin, tietojärjestelmän avulla voidaan vauhdittaa kehitystä ja uuden tiedon löytämistä. Tiedon keskeisin tehtävä on kehittää ja parantaa organisaation osaamista, jolloin pitää olla tietoa siitä, mitä, miksi ja kuinka tietoa on käytetty organisaatiossa. Kaiken liiketoimintaprosesseissa tuotetun tiedon kohdalla pitäisi miettiä kolmea tiedonhallinnan osa-aluetta: tiedon luontia, hallintaa ja hyödyntämistä. Tavoitteena on saavuttaa yrityksen määrämuotoisen tietopääoman paras mahdollinen hallinta.Työssä kuvataan sitä, mitä sisällönhallinta on, sen eri tasoja, sen käsitteellistä sijoittumista tietämyksenhallintaan, sisällönhallinnan järjestelmiä ja niiden merkitystä liiketoimintaprosesseissa. Lisäksi tarkastellaan niitä syitä, joiden vuoksi yritykset kiinnostuvat organisaatiossa olevan määrämuotoisen tiedon sisällönhallinnasta. Lopuksi analysoidaan, millaisia voivat olla liiketoiminnalliset, kilpailulliset tai rahalliset tavoitteet, joita asetetaan sisällönhallinnan tietojärjestelmäprojektille. Työn tueksi on haastateltu neljän suomalaisen suuryrityksen sisällönhallinnan tietojärjestelmäprojektin asiantuntijoita. Heidän kommenttejaan on analysoitu ja niiden perusteella on tehty johtopäätöksiä niistä syistä, joiden vuoksi yritykset yleensä sijoittavat resurssejaan sisällönhallintaan.