22 resultados para graphical authentication

em Université de Montréal, Canada


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les auteurs présentent un survol des logiciels de portails de bibliothèque. La notion de portail de bibliothèque est d’abord définie, puis les principales fonctionnalités de ce type de produit (métarecherche, personnalisation, authentification) sont présentées et expliquées. Un aperçu du marché des logiciels de portail est ensuite donné. Des questions reliées à la fiabilité des résultats et à la formation des utilisateurs sont également soulevées. // The authors present a brief review of software for library portals. The concept of library portals is defined and their main functionalities subsequently presented and explained (meta search engines, personalization, authentication). A general survey of the market for portal software is given before addressing certain questions about the reliability of their results and user training.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Affiliation: Département de Biochimie, Université de Montréal

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In this paper, we present graphical and quantitative evidence on the important role played by changes in labor market institutions on the rise in wage inequality in the United States during the 1980s. We show that the decline in the real value of the minimium wage and in the rate of unionization explains over a third of the rise in inequality among men.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

[français] L’objectif de cette recherche est d’analyser l’organisation interne d’une firme de sondage sous l’angle des sphères du milieu de travail telles qu’identifiées par Bélanger, Giles et Murray (2004), soient : la gestion de la production, l’organisation du travail et la relation à l’emploi. Plus spécifiquement, nous chercherons à savoir comment se comporte la firme enquêtée face à la gestion de la flexibilité organisationnelle et quel est l’impact de celle-ci sur les trois sphères du travail. L’analyse utilise la méthodologie de l’étude de cas et fait appel à divers types de matériaux : des observations ponctuelles, des entrevues informelles et les bases de données administratives ainsi que les rapports d’évaluation des entrevues téléphoniques effectuées par les intervieweurs. De même, l’analyse des résultats utilise à la fois des méthodes plus classiques telles que les corrélations ainsi que des représentations graphiques et des analyses qualitatives. L’analyse permet de repérer une logique de fonctionnement à l’œuvre dans les différentes sphères de l’emploi : l’importante standardisation des processus de travail (dans le champ de la gestion de la production), la réduction des marges de manœuvre (dans le champ de l’organisation du travail) et la non reconnaissance de l’expertise des intervieweurs (dans le champ de la relation à l’emploi). Les contradictions repérées dans l’analyse, entre les sphères de l’emploi et les objectifs de flexibilité, montrent que les structures mises en place bloquent, dans une certaine mesure, la capacité d’initiative et d’adaptation que la flexibilité exige. La recherche a montré que ce qu’on demande aux intervieweurs est à la fois le reflet des exigences de la flexibilité, tel que constaté dans ce mémoire, mais aussi, des exigences sociales face à la méthodologie de sondage. Tout porte à déduire que celles-ci peuvent engendrer un plafonnement de la performance des employés. Mots-clés : centres d’appels, intervieweurs, firmes de sondage, flexibilité organisationnelle, gestion de la production, organisation du travail, relation à l’emploi, travail émotionnel.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En salle d’opération, les tâches de l’anesthésiste sont nombreuses. Alors que l’utilisation de nouveaux outils technologiques l’informe plus fidèlement sur ce qui se passe pour son patient, ces outils font que ses tâches deviennent plus exigeantes. En vue de diminuer cette charge de travail, nous avons considérer l’administration automatique d’agents anesthésiques en se servant de contrôle en boucle fermée. À cette fin, nous avons développé un système d’administration d’un agent anesthésique (le propofol) visant à maintenir à un niveau optimal la perte de conscience du patient pendant toute la durée d’une chirurgie. Le système comprend un ordinateur, un moniteur d’anesthésie et une pompe de perfusion. L’ordinateur est doté d’un algorithme de contrôle qui, à partir d’un indice (Bispectral IndexTM ou BIS) fournit par le moniteur d’anesthésie détermine le taux d’infusion de l’agent anesthésiant. Au départ, l’anesthésiste choisit une valeur cible pour la variable de contrôle BIS et l’algorithme, basé sur système expert, calcule les doses de perfusion de propofol de sorte que la valeur mesurée de BIS se rapproche le plus possible de la valeur cible établie. Comme interface-utilisateur pour un nouveau moniteur d’anesthésie, quatre sortes d’affichage ont été considérés: purement numérique, purement graphique, un mélange entre graphique et numérique et un affichage graphique intégré (soit bidimensionnel). À partir de 20 scenarios différents où des paramètres normaux et anormaux en anesthésie étaient présentés à des anesthésistes et des résidents, l’étude des temps de réaction, de l’exactitude des réponses et de la convivialité (évaluée par le NASA-TLX) a montré qu’un affichage qui combine des éléments graphiques et numériques était le meilleur choix comme interface du système. Une étude clinique a été réalisée pour comparer le comportement du système d’administration de propofol en boucle fermée comparativement à une anesthésie contrôlée de façon manuelle et conventionnelle où le BIS était aussi utilisé. Suite à l’approbation du comité d’éthique et le consentement de personnes ayant à subir des chirurgies générales et orthopédiques, 40 patients ont été distribués également et aléatoirement soit dans le Groupe contrôle, soit dans le Groupe boucle fermée. Après l’induction manuelle de propofol (1.5 mg/kg), le contrôle en boucle fermée a été déclenché pour maintenir l’anesthésie à une cible de BIS fixée à 45. Dans l’autre groupe, le propofol a été administré à l’aide d’une pompe de perfusion et l’anesthésiste avait aussi à garder manuellement l’indice BIS le plus proche possible de 45. En fonction du BIS mesuré, la performance du contrôle exercé a été définie comme excellente pendant les moments où la valeur du BIS mesurée se situait à ±10% de la valeur cible, bonne si comprise de ±10% à ±20%, faible si comprise de ±20% à ±30% ou inadéquate lorsque >±30%. Dans le Groupe boucle fermée, le système a montré un contrôle excellent durant 55% du temps total de l’intervention, un bon contrôle durant 29% du temps et faible que pendant 9% du temps. Le temps depuis l’arrêt de la perfusion jusqu’à l’extubation est de 9 ± 3.7 min. Dans le Groupe contrôle, un contrôle excellent, bon, et faible a été enregistré durant 33%, 33% et 15% du temps respectivement et les doses ont été changées manuellement par l’anesthésiste en moyenne 9.5±4 fois par h. L’extubation a été accomplie après 11.9 ± 3.3 min de l’arrêt de la perfusion. Dans le Groupe boucle fermée, un contrôle excellent a été obtenu plus longtemps au cours des interventions (P<0.0001) et un contrôle inadéquat moins longtemps (P=0.001) que dans le Groupe contrôle. Le système en boucle fermée d’administration de propofol permet donc de maintenir plus facilement l’anesthésie au voisinage d’une cible choisie que l’administration manuelle.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse porte sur l’évaluation de la cohérence du réseau conceptuel démontré par des étudiants de niveau collégial inscrits en sciences de la nature. L’évaluation de cette cohérence s’est basée sur l’analyse des tableaux de Burt issus des réponses à des questionnaires à choix multiples, sur l’étude détaillée des indices de discrimination spécifique qui seront décrits plus en détail dans le corps de l’ouvrage et sur l’analyse de séquences vidéos d’étudiants effectuant une expérimentation en contexte réel. Au terme de ce projet, quatre grands axes de recherche ont été exploré. 1) Quelle est la cohérence conceptuelle démontrée en physique newtonienne ? 2) Est-ce que la maîtrise du calcul d’incertitude est corrélée au développement de la pensée logique ou à la maîtrise des mathématiques ? 3) Quelle est la cohérence conceptuelle démontrée dans la quantification de l’incertitude expérimentale ? 4) Quelles sont les procédures concrètement mise en place par des étudiants pour quantifier l’incertitude expérimentale dans un contexte de laboratoire semi-dirigé ? Les principales conclusions qui ressortent pour chacun des axes peuvent se formuler ainsi. 1) Les conceptions erronées les plus répandues ne sont pas solidement ancrées dans un réseau conceptuel rigide. Par exemple, un étudiant réussissant une question sur la troisième loi de Newton (sujet le moins bien réussi du Force Concept Inventory) montre une probabilité à peine supérieure de réussir une autre question sur ce même sujet que les autres participants. De nombreux couples de questions révèlent un indice de discrimination spécifique négatif indiquant une faible cohérence conceptuelle en prétest et une cohérence conceptuelle légèrement améliorée en post-test. 2) Si une petite proportion des étudiants ont montré des carences marquées pour les questions reliées au contrôle des variables et à celles traitant de la relation entre la forme graphique de données expérimentales et un modèle mathématique, la majorité des étudiants peuvent être considérés comme maîtrisant adéquatement ces deux sujets. Toutefois, presque tous les étudiants démontrent une absence de maîtrise des principes sous-jacent à la quantification de l’incertitude expérimentale et de la propagation des incertitudes (ci-après appelé métrologie). Aucune corrélation statistiquement significative n’a été observée entre ces trois domaines, laissant entendre qu’il s’agit d’habiletés cognitives largement indépendantes. Le tableau de Burt a pu mettre en lumière une plus grande cohérence conceptuelle entre les questions de contrôle des variables que n’aurait pu le laisser supposer la matrice des coefficients de corrélation de Pearson. En métrologie, des questions équivalentes n’ont pas fait ressortir une cohérence conceptuelle clairement démontrée. 3) L’analyse d’un questionnaire entièrement dédié à la métrologie laisse entrevoir des conceptions erronées issues des apprentissages effectués dans les cours antérieurs (obstacles didactiques), des conceptions erronées basées sur des modèles intuitifs et une absence de compréhension globale des concepts métrologiques bien que certains concepts paraissent en voie d’acquisition. 4) Lorsque les étudiants sont laissés à eux-mêmes, les mêmes difficultés identifiées par l’analyse du questionnaire du point 3) reviennent ce qui corrobore les résultats obtenus. Cependant, nous avons pu observer d’autres comportements reliés à la mesure en laboratoire qui n’auraient pas pu être évalués par le questionnaire à choix multiples. Des entretiens d’explicitations tenus immédiatement après chaque séance ont permis aux participants de détailler certains aspects de leur méthodologie métrologique, notamment, l’emploi de procédures de répétitions de mesures expérimentales, leurs stratégies pour quantifier l’incertitude et les raisons sous-tendant l’estimation numérique des incertitudes de lecture. L’emploi des algorithmes de propagation des incertitudes a été adéquat dans l’ensemble. De nombreuses conceptions erronées en métrologie semblent résister fortement à l’apprentissage. Notons, entre autres, l’assignation de la résolution d’un appareil de mesure à affichage numérique comme valeur de l’incertitude et l’absence de procédures d’empilement pour diminuer l’incertitude. La conception que la précision d’une valeur numérique ne peut être inférieure à la tolérance d’un appareil semble fermement ancrée.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La scoliose idiopathique (SI) est une déformation tridimensionnelle (3D) de la colonne vertébrale et de la cage thoracique à potentiel évolutif pendant la croissance. Cette déformation 3D entraîne des asymétries de la posture. La correction de la posture est un des objectifs du traitement en physiothérapie chez les jeunes atteints d’une SI afin d’éviter la progression de la scoliose, de réduire les déformations morphologiques et leurs impacts sur la qualité de vie. Les outils cliniques actuels ne permettent pas de quantifier globalement les changements de la posture attribuables à la progression de la scoliose ou à l’efficacité des interventions thérapeutiques. L’objectif de cette thèse consiste donc au développement et à la validation d’un nouvel outil clinique permettant l’analyse quantitative de la posture auprès de personnes atteintes d’une SI. Ce projet vise plus spécifiquement à déterminer la fidélité et la validité des indices de posture (IP) de ce nouvel outil clinique et à vérifier leur capacité à détecter des changements entre les positions debout et assise. Suite à une recension de la littérature, 34 IP représentant l’alignement frontal et sagittal des différents segments corporels ont été sélectionnés. L’outil quantitatif clinique d’évaluation de la posture (outil 2D) construit dans ce projet consiste en un logiciel qui permet de calculer les différents IP (mesures angulaires et linéaires). L’interface graphique de cet outil est conviviale et permet de sélectionner interactivement des marqueurs sur les photographies digitales. Afin de vérifier la fidélité et la validité des IP de cet outil, la posture debout de 70 participants âgés entre 10 et 20 ans atteints d'une SI (angle de Cobb: 15º à 60º) a été évaluée à deux occasions par deux physiothérapeutes. Des marqueurs placés sur plusieurs repères anatomiques, ainsi que des points de référence anatomique (yeux, lobes des oreilles, etc.), ont permis de mesurer les IP 2D en utilisant des photographies. Ces mêmes marqueurs et points de référence ont également servi au calcul d’IP 3D obtenus par des reconstructions du tronc avec un système de topographie de surface. Les angles de Cobb frontaux et sagittaux et le déjettement C7-S1 ont été mesurés sur des radiographies. La théorie de la généralisabilité a été utilisée pour déterminer la fidélité et l’erreur standard de la mesure (ESM) des IP de l’outil 2D. Des coefficients de Pearson ont servi à déterminer la validité concomitante des IP du tronc de l’outil 2D avec les IP 3D et les mesures radiographiques correspondantes. Cinquante participants ont été également évalués en position assise « membres inférieurs allongés » pour l’étude comparative de la posture debout et assise. Des tests de t pour échantillons appariés ont été utilisés pour détecter les différences entre les positions debout et assise. Nos résultats indiquent un bon niveau de fidélité pour la majorité des IP de l’outil 2D. La corrélation entre les IP 2D et 3D est bonne pour les épaules, les omoplates, le déjettement C7-S1, les angles de taille, la scoliose thoracique et le bassin. Elle est faible à modérée pour la cyphose thoracique, la lordose lombaire et la scoliose thoraco-lombaire ou lombaire. La corrélation entre les IP 2D et les mesures radiographiques est bonne pour le déjettement C7-S1, la scoliose et la cyphose thoracique. L’outil est suffisamment discriminant pour détecter des différences entre la posture debout et assise pour dix des treize IP. Certaines recommandations spécifiques résultents de ce projet : la hauteur de la caméra devrait être ajustée en fonction de la taille des personnes; la formation des juges est importante pour maximiser la précision de la pose des marqueurs; et des marqueurs montés sur des tiges devraient faciliter l’évaluation des courbures vertébrales sagittales. En conclusion, l’outil développé dans le cadre de cette thèse possède de bonnes propriétés psychométriques et permet une évaluation globale de la posture. Cet outil devrait contribuer à l’amélioration de la pratique clinique en facilitant l’analyse de la posture debout et assise. Cet outil s’avère une alternative clinique pour suivre l’évolution de la scoliose thoracique et diminuer la fréquence des radiographies au cours du suivi de jeunes atteints d’une SI thoracique. Cet outil pourrait aussi être utile pour vérifier l’efficacité des interventions thérapeutiques sur la posture.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This paper reports graphical and statistical evidence that the inflation targeting regimes in Canada and the UK - but not in Australia, New Zealand, or Sweden - actually resemble price-level targeting. In particular, the price level closely tracks the path implied by the inflation target, and the time-series predictions of the "bygones-are-bygones" version of inflation targeting are rejected by the data in favor of those implied by price-level targeting. These results indicate heterogeneity in the actual application of inflation targeting across countries and, for Canada and the UK, imply that the characterization of inflation targeting as a policy where shocks are accommodated is at odds with the data. Moreover, up to extent that their current policies already resemble price-level targeting, the welfare gains of replacing inflation with (explicit) price-level targeting are likely to be small.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Par cette recherche, nous voulons évaluer de manière exhaustive les bénéfices qu’apporte l’ExAO (Expérimentation Assistée par Ordinateur) dans les laboratoires scolaires de sciences et technologie au Liban. Nous aimerions aussi qu’elle contribue d’une manière tangible aux recherches du laboratoire de Robotique Pédagogique de l’Université de Montréal, notamment dans le développement du µlaboratoire ExAO. Nous avons voulu tester les capacités de l’ExAO, son utilisation en situation de classe comme : 1. Substitut d’un laboratoire traditionnel dans l’utilisation de la méthode expérimentale; 2. Outil d’investigation scientifique; 3. Outil d’intégration des sciences expérimentales et des mathématiques; 4. Outil d’intégration des sciences expérimentales, des mathématiques et de la technologie dans un apprentissage technoscientifique; Pour ce faire, nous avons mobilisé 13 groupe-classes de niveaux complémentaire et secondaire, provenant de 10 écoles libanaises. Nous avons désigné leurs enseignants pour expérimenter eux-mêmes avec leurs étudiants afin d’évaluer, de manière plus réaliste les avantages d’implanter ce micro laboratoire informatisé à l’école. Les différentes mise à l’essai, évaluées à l’aide des résultats des activités d’apprentissage réalisées par les étudiants, de leurs réponses à un questionnaire et des commentaires des enseignants, nous montrent que : 1. La substitution d’un laboratoire traditionnel par un µlaboratoire ExAO ne semble pas poser de problème; dix minutes ont suffi aux étudiants pour se familiariser avec cet environnement, mentionnant que la rapidité avec laquelle les données étaient représentées sous forme graphique était plus productive. 2. Pour l’investigation d’un phénomène physique, la convivialité du didacticiel associée à la capacité d’amplifier le phénomène avant de le représenter graphiquement a permis aux étudiants de concevoir et de mettre en œuvre rapidement et de manière autonome, une expérimentation permettant de vérifier leur prédiction. 3. L’intégration des mathématiques dans une démarche expérimentale permet d’appréhender plus rapidement le phénomène. De plus, elle donne un sens aux représentations graphiques et algébriques, à l’avis des enseignants, permettant d’utiliser celle-ci comme outil cognitif pour interpréter le phénomène. 4. La démarche réalisée par les étudiants pour concevoir et construire un objet technologique, nous a montré que cette activité a été réalisée facilement par l’utilisation des capteurs universels et des amplificateurs à décalage de l’outil de modélisation graphique ainsi que la capacité du didacticiel à transformer toute variable mesurée par une autre variable (par exemple la variation de résistance en variation de température, …). Cette activité didactique nous montre que les étudiants n’ont eu aucune difficulté à intégrer dans une même activité d’apprentissage les mathématiques, les sciences expérimentales et la technologie, afin de concevoir et réaliser un objet technologique fonctionnel. µlaboratoire ExAO, en offrant de nouvelles possibilités didactiques, comme la capacité de concevoir, réaliser et valider un objet technologique, de disposer pour ce faire, des capacités nouvelles pour amplifier les mesures, modéliser les phénomènes physiques, créer de nouveaux capteurs, est un ajout important aux expériences actuellement réalisées en ExAO.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’un des aspects les plus percutants des avancées de la technologie des quinze dernières années a trait à la communication médiée par ordinateur : clavardage, messagerie instantanée, courrier électronique, forums de discussion, blogues, sites de réseautage social, etc. En plus d’avoir eu un impact significatif sur la société contemporaine, ces outils de communication ont largement modifié les pratiques d’écriture. Notre objet d’étude est le clavardage en groupe qui offre la possibilité aux scripteurs de communiquer simultanément entre eux. Cet outil de communication présente deux caractéristiques importantes aux plans discursif et communicationnel. Premièrement, on admet de façon générale que le clavardage est une forme de communication hybride : le code utilisé est l’écrit, mais les échanges de messages entrent dans une structure de dialogue qui rappelle l’oral. Deuxièmement, le caractère spontané du clavardage impose la rapidité, tant pour l’encodage que pour le décodage des messages. Dans le cadre d’une étude comparative réalisée sur les pratiques scripturales des clavardeurs francophones (Tatossian et Dagenais 2008), nous avons établi quatre catégories générales pour rendre compte de toutes les variantes scripturales de notre corpus : procédés abréviatifs, substitutions de graphèmes, neutralisations en finale absolue et procédés expressifs. Nous voulons maintenant tester la solidité de notre typologie pour des langues dont le degré de correspondance phonético-graphique diffère. En vertu de l’hypothèse de la profondeur de l’orthographe (orthographic depth hypothesis [ODH]; Katz et Frost 1992) selon laquelle un système orthographique transparent (comme l’italien, l’espagnol ou le serbo-croate) transpose les phonèmes directement dans l’orthographe, nous vérifierons si nos résultats pour le français peuvent être généralisés à des langues dont l’orthographe est dite « transparente » (l’espagnol) comparativement à des langues dont l’orthographe est dite « opaque » (le français et l’anglais). Pour chacune des langues, nous avons voulu répondre à deux question, soit : 1. De quelle manière peut-on classifier les usages scripturaux attestés ? 2. Ces usages graphiques sont-ils les mêmes chez les adolescents et les adultes aux plans qualitatif et quantitatif ? Les phénomènes scripturaux du clavardage impliquent également l’identité générationnelle. L’adolescence est une période caractérisée par la quête d’identité. L’étude de Sebba (2003) sur l’anglais démontre qu’il existe un rapport entre le « détournement de l’orthographe » et la construction identitaire chez les adolescents (par ex. les graffitis, la CMO). De plus, dans ces espaces communicationnels, nous assistons à la formation de communautés d’usagers fondée sur des intérêts communs (Crystal 2006), comme l’est la communauté des adolescents. Pour la collecte des corpus, nous recourrons à des échanges effectués au moyen du protocole Internet Relay Chat (IRC). Aux fins de notre étude, nous délimitons dans chacune des langues deux sous-corpus sociolinguistiquement distincts : le premier constitué à partir de forums de clavardage destinés aux adolescents, le second à partir de forums pour adultes. Pour chacune des langues, nous avons analysé 4 520 énoncés extraits de divers canaux IRC pour adolescents et pour adultes. Nous dressons d’abord un inventaire quantifié des différents phénomènes scripturaux recensés et procédons ensuite à la comparaison des résultats.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les cartes sur ce document ont été toutes conçues par l'auteur avec la logiciel ARCGIS version 9.3.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The central hypothesis to be tested is the relevance of gold in the determination of the value of the US dollar as an international reserve currency after 1971. In the first section the market value of the US dollar is analysed by looking at new forms of value (financial derivative products), the dollar as a safe haven, the choice of a standard of value and the role of SDRs in reforming the international monetary system. Based on dimensional analysis, the second section analyses the definition and meaning of a numéraire for international currency and the justification for a variable standard of value based on a commodity (gold). The second section is the theoretical foundation for the empirical and econometric analysis in the third and fourth sections. The third section is devoted to the specification of an econometric model and a graphical analysis of the data. It is clear that an inverse relation exists between the value of the US dollar and the price of gold. The fourth section shows the estimations of the different specifications of the model including linear regression and cointegration analysis. The most important econometric result is that the null hypothesis is rejected in favour of a significant link between the price of gold and the value of the US dollar. There is also a positive relationship between gold price and inflation. An inverse statistically significant relation between gold price and monetary policy is shown by applying a dynamic model of cointegration with lags.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introduction: Coordination through CVHL/BVCS gives Canadian health libraries access to information technology they could not offer individually, thereby enhancing the library services offered to Canadian health professionals. An example is the portal being developed. Portal best practices are of increasing interest (usability.gov; Wikipedia portals; JISC subject portal project; Stanford clinical portals) but conclusive research is not yet available. This paper will identify best practices for a portal bringing together knowledge for Canadian health professionals supported through a network of libraries. Description: The portal for Canadian health professionals will include capabilities such as: • Authentication • Question referral • Specialist “branch libraries” • Integration of commercial resources, web resources and health systems data • Cross-resource search engine • Infrastructure to enable links from EHR and decision support systems • Knowledge translation tools, such as highlighting of best evidence Best practices will be determined by studying the capabilities of existing portals, including consortia/networks and individual institutions, and through a literature review. Outcomes: Best practices in portals will be reviewed. The collaboratively developed Virtual Library, currently the heart of cvhl.ca, is a unique database collecting high quality, free web documents and sites relevant to Canadian health care. The evident strengths of the Virtual Library will be discussed in light of best practices. Discussion: Identification of best practices will support cost-benefit analysis of options and provide direction for CVHL/BVCS. Open discussion with stakeholders (libraries and professionals) informed by this review will lead to adoption of the best technical solutions supporting Canadian health libraries and their users.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les institutions juridiques ont été bâties autour des réalités connues depuis des millénaires, que nous appelons de nos jours des phénomènes du monde réel. Ces phénomènes retrouvent présentement un nouveau théâtre – le cyberespace, et les règles du droit font face au défi de s’approprier ce nouvel environnement. Entre autres, les technologies du cyberespace ont mis au monde divers moyens qui nous permettent de nous identifier et de manifester notre attitude envers les actes juridiques – des finalités qui ont été assurées de longue date par la signature manuscrite. Bien que ces nouveaux moyens aient mérité un nom similaire à leur contrepartie traditionnelle – l’appellation de signature électronique, ils restent des phénomènes dont la proximité avec la signature manuscrite est discutable. Force est de constater que le seul point commun entre les moyens classiques et électroniques de signer réside dans les fonctions qu’ils remplissent. C’est en se basant sur ces fonctions communes que le droit a adopté une attitude identique envers les moyens d’authentification traditionnels et électroniques et a accueilli ces derniers sous l’emprise de ses institutions. Cependant, ceci ne signifie pas que ces institutions se soient avérées appropriées et qu’elles ne demandent aucun ajustement. Un des buts de notre étude sera de mettre en relief les moyens d’adaptation qu’offre le droit pour réconcilier ces deux environnements. Ainsi, pour ajuster l’institution de la signature aux phénomènes électroniques, le droit s’est tourné vers le standard de fiabilité de la signature électronique. Le standard de fiabilité est un complément de l’institution juridique de signature qui ne se rapporte qu’à la signature électronique et dont cette étude démontrera les applications. Les composantes du standard de fiabilité qui occuperont un deuxième volet de notre étude représentent un ensemble de règles techniques liées à la signature électronique. Ainsi, comme le standard de fiabilité puise sa substance dans les propriétés de l’architecture du cyberespace, l’attitude du droit envers la signature électronique s’avère tributaire de la morphologie du cyberespace. Étant donné que les possibilités qui nous sont offertes par la technologie continue à déterminer la réglementation juridique, il est légitime de conclure que l’examen des tendances dans l’évolution du cyberespace nous fournira un point de vue prospectif sur l’évolution des règles du droit.