18 resultados para Combined Web crippling and Flange Crushing
em Université de Montréal, Canada
Resumo:
Introduction: Coordination through CVHL/BVCS gives Canadian health libraries access to information technology they could not offer individually, thereby enhancing the library services offered to Canadian health professionals. An example is the portal being developed. Portal best practices are of increasing interest (usability.gov; Wikipedia portals; JISC subject portal project; Stanford clinical portals) but conclusive research is not yet available. This paper will identify best practices for a portal bringing together knowledge for Canadian health professionals supported through a network of libraries. Description: The portal for Canadian health professionals will include capabilities such as: • Authentication • Question referral • Specialist “branch libraries” • Integration of commercial resources, web resources and health systems data • Cross-resource search engine • Infrastructure to enable links from EHR and decision support systems • Knowledge translation tools, such as highlighting of best evidence Best practices will be determined by studying the capabilities of existing portals, including consortia/networks and individual institutions, and through a literature review. Outcomes: Best practices in portals will be reviewed. The collaboratively developed Virtual Library, currently the heart of cvhl.ca, is a unique database collecting high quality, free web documents and sites relevant to Canadian health care. The evident strengths of the Virtual Library will be discussed in light of best practices. Discussion: Identification of best practices will support cost-benefit analysis of options and provide direction for CVHL/BVCS. Open discussion with stakeholders (libraries and professionals) informed by this review will lead to adoption of the best technical solutions supporting Canadian health libraries and their users.
Resumo:
Objectives: An email information literacy program has been effective for over a decade at Université de Montréal’s Health Library. Students periodically receive messages highlighting the content of guides on the library’s website. We wish to evaluate, using Google Analytics, the effects of the program on specific webpage statistics. Using the data collected, we may pinpoint popular guides as well as others that need improvement. Methods: In the program, first and second-year medical (MD) or dental (DMD) students receive eight bi-monthly email messages. The DMD mailing list also includes graduate students and professors. Enrollment to the program is optional for MDs, but mandatory for DMDs. Google Analytics (GA) profiles have been configured for the libraries websites to collect visitor statistics since June 2009. The GA Links Builder was used to design unique links specifically associated with the originating emails. This approach allowed us to gather information on guide usage, such as the visitor’s program of study, duration of page viewing, number of pages viewed per visit, as well as browsing data. We also followed the evolution of clicks on GA unique links over time, as we believed that users may keep the library's emails and refer to them to access specific information. Results: The proportion of students who actually clicked the email links was, on average, less than 5%. MD and DMD students behaved differently regarding guide views, number of pages visited and length of time on the site. The CINAHL guide was the most visited for DMD students whereas MD students consulted the Pharmaceutical information guide most often. We noted that some students visited referred guides several weeks after receiving messages, thus keeping them for future reference; browsing to additional pages on the library website was also frequent. Conclusion: The mitigated success of the program prompted us to directly survey students on the format, frequency and usefulness of messages. The information gathered from GA links as well as from the survey will allow us to redesign our web content and modify our email information literacy program so that messages are more attractive, timely and useful for students.
Resumo:
Le Web représente actuellement un espace privilégié d’expression et d’activité pour plusieurs communautés, où pratiques communicationnelles et pratiques documentaires s’enrichissent mutuellement. Dans sa dimension visible ou invisible, le Web constitue aussi un réservoir documentaire planétaire caractérisé non seulement par l’abondance de l’information qui y circule, mais aussi par sa diversité, sa complexité et son caractère éphémère. Les projets d’archivage du Web en cours abordent pour beaucoup cette question du point de vue de la préservation des publications en ligne sans la considérer dans une perspective archivistique. Seuls quelques projets d’archivage du Web visent la préservation du Web organisationnel ou gouvernemental. La valeur archivistique du Web, notamment du Web organisationnel, ne semble pas être reconnue malgré un effort soutenu de certaines archives nationales à diffuser des politiques d’archivage du Web organisationnel. La présente thèse a pour but de développer une meilleure compréhension de la nature des archives Web et de documenter les pratiques actuelles d’archivage du Web organisationnel. Plus précisément, cette recherche vise à répondre aux trois questions suivantes : (1) Que recommandent en général les politiques d’archivage du Web organisationnel? (2) Quelles sont les principales caractéristiques des archives Web? (3) Quelles pratiques d’archivage du Web organisationnel sont mises en place dans des organisations au Québec? Pour répondre à ces questions, cette recherche exploratoire et descriptive a adopté une approche qualitative basée sur trois modes de collecte des données, à savoir : l’analyse d’un corpus de 55 politiques et documents complémentaires relatifs à l’archivage du Web organisationnel; l’observation de 11 sites Web publics d’organismes au Québec de même que l’observation d’un échantillon de 737 documents produits par ces systèmes Web; et, enfin, des entrevues avec 21 participants impliqués dans la gestion et l’archivage de ces sites Web. Les résultats de recherche démontrent que les sites Web étudiés sont le produit de la conduite des activités en ligne d’une organisation et documentent, en même temps, les objectifs et les manifestations de sa présence sur le Web. De nouveaux types de documents propres au Web organisationnel ont pu être identifiés. Les documents qui ont migré sur le Web ont acquis un autre contexte d’usage et de nouvelles caractéristiques. Les méthodes de gestion actuelles doivent prendre en considération les propriétés des documents dans un environnement Web. Alors que certains sites d’étude n’archivent pas leur site Web public, d’autres s’y investissent. Toutefois les choix établis ne correspondent pas toujours aux recommandations proposées dans les politiques d’archivage du Web analysées et ne garantissent pas la pérennité des archives Web ni leur exploitabilité à long terme. Ce constat nous a amenée à proposer une politique type adaptée aux caractéristiques des archives Web. Ce modèle décrit les composantes essentielles d’une politique pour l’archivage des sites Web ainsi qu’un éventail des mesures que pourrait mettre en place l’organisation en fonction des résultats d’une analyse des risques associés à l’usage de son site Web public dans la conduite de ses affaires.
Resumo:
La protection des renseignements personnels est au cœur des préoccupations de tous les acteurs du Web, commerçants ou internautes. Si pour les uns trop de règles en la matière pourraient freiner le développement du commerce électronique, pour les autres un encadrement des pratiques est essentiel à la protection de leur vie privée. Même si les motivations de chacun sont divergentes, le règlement de cette question apparaît comme une étape essentielle dans le développement du réseau. Le Platform for Privacy Preference (P3P) propose de contribuer à ce règlement par un protocole technique permettant la négociation automatique, entre l’ordinateur de l’internaute et celui du site qu’il visite, d’une entente qui encadrera les échanges de renseignements. Son application pose de nombreuses questions, dont celle de sa capacité à apporter une solution acceptable à tous et surtout, celle du respect des lois existantes. La longue et difficile élaboration du protocole, ses dilutions successives et sa mise en vigueur partielle témoignent de la difficulté de la tâche à accomplir et des résistances qu’il rencontre. La première phase du projet se limite ainsi à l’encodage des politiques de vie privée des sites et à leur traduction en termes accessibles par les systèmes des usagers. Dans une deuxième phase, P3P devrait prendre en charge la négociation et la conclusion d’ententes devant lier juridiquement les parties. Cette tâche s’avère plus ardue, tant sous l’angle juridique que sous celui de son adaptation aux us et coutumes du Web. La consolidation des fonctions mises en place dans la première version apparaît fournir une solution moins risquée et plus profitable en écartant la possible conclusion d’ententes incertaines fondées sur une technique encore imparfaite. Mieux éclairer le consentement des internautes à la transmission de leurs données personnelles par la normalisation des politiques de vie privée pourrait être en effet une solution plus simple et efficace à court terme.
Resumo:
Les conflits entre les noms de domaine et les marques de commerce surgissent essentiellement par manque de coordination entre le système d'enregistrement des noms de domaine et celui des marques. Les marques sont enregistrées par des autorités publiques gouvernementales et les droits qui en découlent ne peuvent s'exercer que sur le territoire du pays d'origine. Le système d'enregistrement des noms de domaine, basé sur la règle "du premier arrivé, premier servi", ne connaît pas de limites géographiques et ignore le principe de spécialité propre aux marques de commerce. L'absence de lien entre ces deux systèmes a permis, l'enregistrement comme noms de domaine par des tiers, de marques de commerce de renom suscitant la confusion quant aux origines des sites. Le nom de domaine constitue un nouveau signe distinctif se situant à la frontière de la régulation technique et du contenu et représente le cadre idéal pour étudier les fondements légitimes de l'intervention du droit dans le cyberespace. En effet, le système des noms de domaine se construit autour de choix et de contraintes techniques dont les concepteurs n'imaginaient pas qu'ils deviendraient la source d'un important contentieux. Les noms de domaine, portes d'accès au réseau, font l'objet d'une tentative de régulation qui concilie les forces contraires de l' ''aterritorialité'' des noms de domaine, avec la "territorialité" des marques de commerce. Cette régulation repose sur la synergie entre l'architecture technique, les normes sociales, l'autoréglementation, le marché et la loi et se présente comme un laboratoire d'idées pour une définition de la régulation de l'Internet. La problématique des noms de domaine et des marques de commerce, constitue une application pratique de cette "corégulation" et amorce ainsi une évolution juridique, facteur de construction du droit sur l'Internet.
Resumo:
Les émotions jouent un rôle primordial dans les processus cognitifs et plus particulièrement dans les tâches d’apprentissage. D’ailleurs, plusieurs recherches neurologiques ont montré l’interrelation qui existe entre la cognition et les émotions. Elles ont aussi déterminé plusieurs formes d’intelligence humaine autre que l’intelligence rationnelle parmi lesquelles nous distinguons la forme ayant comme dimension émotionnelle, à savoir l’intelligence émotionnelle, vu son impact sur les processus d’apprentissage. L’intelligence émotionnelle est alors un facteur significatif de réussite scolaire et professionnelle. Sous la lumière de ces constatations présentées, les informaticiens à leur tour, vont alors tenter de consentir de plus en plus de place au facteur émotionnel dans les systèmes informatiques et plus particulièrement dans ceux dédiés à l’apprentissage. L’intégration de l’intelligence émotionnelle dans ces systèmes et plus précisément, dans les Systèmes Tutoriels Intelligents (STI), va leur permettre de gérer les émotions de l’apprenant et par la suite améliorer ses performances. Dans ce mémoire, notre objectif principal est d’élaborer une stratégie d’apprentissage visant à favoriser et accentuer la mémorisation chez les enfants. Pour atteindre cet objectif, nous avons développé un cours d’anglais en ligne ainsi qu’un tuteur virtuel utilisant des ressources multimédia tels que le ton de la voix, la musique, les images et les gestes afin de susciter des émotions chez l’apprenant. Nous avons conduit une expérience pour tester l’efficacité de quelques stratégies émotionnelles ainsi qu’évaluer l’impact des émotions suscitées sur la capacité de mémorisation des connaissances à acquérir par l’apprenant. Les résultats de cette étude expérimentale ont prouvé que l’induction implicite des émotions chez ce dernier a une influence significative sur ses performances. Ils ont également montré qu’il n’existe pas une stratégie efficace pour tous les apprenants à la fois, cependant l’efficacité d’une telle stratégie par rapport à une autre dépend essentiellement du profil comportemental de l’apprenant déterminé à partir de son tempérament.
Resumo:
La littérature montre que plusieurs aspects du travail d’universitaire sont influencés tant par la discipline et l’organisation, que par les caractéristiques individuelles des professeurs. Cette recherche vise à explorer l’impact de ces deux premiers facteurs sur l’utilisation des technologies de l’information et des communications (TIC) par les professeurs d’une université de recherche. Les données, recueillies par sondage, ont été analysées à l’aide d’un modèle hiérarchique comprenant deux niveaux, dans lequel 350 professeurs sont nichés dans 42 départements. Le statut professoral, le profil d’adoption des innovations technologiques et la perception de la compétence technologique ont été placés au niveau 1 (individus), alors que le secteur disciplinaire et quatre facteurs organisationnels liés à l’enseignement et à la recherche, ont été placés au niveau 2 (départements). Les résultats montrent que ces variables indépendantes n’influencent pas de la même façon l’utilisation des différentes technologies. Une plus grande partie des différences d’utilisation se situe entre les départements lorsqu’on considère l’utilisation du projecteur en salle de classe. L’utilisation d’équipements en salle de classe relève davantage de facteurs organisationnels que celle des environnements numériques d’apprentissage (ENA). Les résultats montrent par ailleurs que la perception de la compétence technologique et le profil d’adoption des innovations technologiques mesurent des choses différentes. Alors que le profil d’adoption influence dans une plus ou moins grande mesure toutes les utilisations, la perception de la compétence n’a d’impact que sur l’utilisation plus poussée des ressources, soit l’utilisation d’une page web personnelle ou d’une plateforme autre que WebCT. Un clivage entre disciplines molles pures et disciplines dures pures existe, mais seulement lorsqu’on considère l’utilisation des ENA et de la page web personnelle. La plateforme WebCT est associée au secteur des sciences humaines alors que l’utilisation de la page web ou d’ENA autre que WebCT est liée au secteur des sciences pures. Dans les deux cas, l’utilisation des ENA est liée à l’enseignement de premier cycle, c’est à dire à un enseignement de masse.
Resumo:
L'ensemble de mon travail a été réalisé grâce a l'utilisation de logiciel libre.
Resumo:
Thèse réalisée en cotutelle avec l'Université Pierre et Marie Curie, Paris 6(UPMC, Paris, France).
Resumo:
Étude de cas / Case study
Resumo:
Cette thèse analyse les incidences des avancées d’une rationalité technoscientifique sur les définitions classiques de l’humain. Elle discerne, dans sa présentation de ce phénomène, le lien entre la technoscience, la cybernétique et le posthumanisme qui en découle. Elle souligne les mutations et projets de remodèlement de l’humain qui traversent cette rationalité technoscientifique et son paradigme informationnel cybernéticien. Cette rationalité technoscientifique, polémique aux ontologies dites conservatrices, soutenant une vision amorale de la RDTS (Recherche & Développement technoscientifique), accouche d’un posthumanisme – en rapport difficile avec le corps – qui bouscule les définitions classiques de l’humain judéo-chrétien, dont l’anthropologie théologique évangélique. Traitant, dans une première grande section de trois chapitres, de la rationalité technoscientifique et de ses visions de l’humain, la thèse permet la mise en exergue des enjeux principaux se dégageant des nouveaux questionnements des anthropologies classiques soumises aux pressions de la RDTS. Dans la deuxième partie, encore de trois chapitres, qui porte sur l’anthropologie évangélique, la thèse situe les Évangéliques historiquement et doctrinalement, pour mieux relever les éléments identitaires du mouvement et les grandes déterminations théologiques à l’intérieur desquels se déploie cette anthropologie. La présentation de cette dernière se décline à partir des différentes compréhensions du motif anthropologique évangélique par excellence, l’imago Dei et le concept de l’unicité de l’humain dont les fondements semblent de plus en plus fragiles à la lumière des conclusions des recherches en paléontologie et en cognition animale. Si plusieurs défis importants sont posés à l’anthropologie évangélique, la thèse, se limitant à une critique évangélique de la rationalité technoscientifique et des réponses évangéliques à cette dernière, analyse une question essentielle pour la pensée évangélique, celle de l’humain homo ii faber et l’anthropotechnie, versus le remodèlement de l’humain autour des interrogations posthumanistes sur le corps et la question du salut. Cette thèse apporte une contribution 1) sur le plan de la synthèse qu’elle présente de l’anthropologie évangélique, 2) de la compréhension de l’identité évangélique, sa singularité et sa diversité, et 3) des manières dont une théologie évangélique peut entrer en dialogue avec la raison technoscientifique. Elle lève le voile sur l’utilisation tous azimuts du concept de l’imago Dei et de son insuffisance, à lui seul, pour apprécier les véritables enjeux du débat avec la rationalité technoscientique. Elle insinue que ce motif doit être analysé en conjonction avec la christologie dans l’approfondissement du Logos incarné, pour en mieux apprécier l'étendue. Ce n'est que dans ce lien qu’ont pu être trouvés des éléments capables d'articuler ce qui est en germe dans l'imago Dei et suggérer une définition de l’humain capable de prendre en considération les défis d’une rationalité technoscientifique et de son posthumanisme.
Resumo:
Le web et les images qui y foisonnent font désormais partie de notre quotidien et ils façonnent notre manière de penser le monde. Certaines œuvres d’art permettent, semble-t-il, de réfléchir à la fois sur l’image, les technologies web, les relations qu’elles entretiennent et les enjeux sociopolitiques qui les sous-tendent. C’est dans cette perspective que ce mémoire s’intéresse aux travaux de la série des Googlegrams (2004-2006) de Joan Fontcuberta, particulièrement à deux œuvres qui reprennent les photographies de torture de la prison d’Abu Ghraib devenues iconiques. Ce sont des photomosaïques utilisant ces images comme matrices dans lesquelles viennent s’insérer des milliers de petites images qui ont été trouvées dans le web grâce au moteur de recherche d’images de Google, selon certains mots-clés choisis par l’artiste de façon à faire écho à ces photographies-matrices. Ces œuvres sont ici considérées en tant qu’outils d’études actifs nous permettant de déployer les assemblages d’images et de technologies qu’elles font interagir. Il s’agit de suivre les acteurs et les réseaux qui se superposent et s’entremêlent dans les Googlegrams : d’abord les photographies d’Abu Ghraib et leur iconisation ; ensuite le moteur de recherche et sa relation aux images ; finalement les effets de la photomosaïque. Cette étude s’effectue donc à partir des interactions entre ces différents éléments qui constituent les œuvres afin de réfléchir sur leurs rôles dans le façonnement de la représentation de l’information.