472 resultados para Réseau d’air
Resumo:
Cette thèse porte sur les phénomènes critiques survenant dans les modèles bidimensionnels sur réseau. Les résultats sont l'objet de deux articles : le premier porte sur la mesure d'exposants critiques décrivant des objets géométriques du réseau et, le second, sur la construction d'idempotents projetant sur des modules indécomposables de l'algèbre de Temperley-Lieb pour la chaîne de spins XXZ. Le premier article présente des expériences numériques Monte Carlo effectuées pour une famille de modèles de boucles en phase diluée. Baptisés "dilute loop models (DLM)", ceux-ci sont inspirés du modèle O(n) introduit par Nienhuis (1990). La famille est étiquetée par les entiers relativement premiers p et p' ainsi que par un paramètre d'anisotropie. Dans la limite thermodynamique, il est pressenti que le modèle DLM(p,p') soit décrit par une théorie logarithmique des champs conformes de charge centrale c(\kappa)=13-6(\kappa+1/\kappa), où \kappa=p/p' est lié à la fugacité du gaz de boucles \beta=-2\cos\pi/\kappa, pour toute valeur du paramètre d'anisotropie. Les mesures portent sur les exposants critiques représentant la loi d'échelle des objets géométriques suivants : l'interface, le périmètre externe et les liens rouges. L'algorithme Metropolis-Hastings employé, pour lequel nous avons introduit de nombreuses améliorations spécifiques aux modèles dilués, est détaillé. Un traitement statistique rigoureux des données permet des extrapolations coïncidant avec les prédictions théoriques à trois ou quatre chiffres significatifs, malgré des courbes d'extrapolation aux pentes abruptes. Le deuxième article porte sur la décomposition de l'espace de Hilbert \otimes^nC^2 sur lequel la chaîne XXZ de n spins 1/2 agit. La version étudiée ici (Pasquier et Saleur (1990)) est décrite par un hamiltonien H_{XXZ}(q) dépendant d'un paramètre q\in C^\times et s'exprimant comme une somme d'éléments de l'algèbre de Temperley-Lieb TL_n(q). Comme pour les modèles dilués, le spectre de la limite continue de H_{XXZ}(q) semble relié aux théories des champs conformes, le paramètre q déterminant la charge centrale. Les idempotents primitifs de End_{TL_n}\otimes^nC^2 sont obtenus, pour tout q, en termes d'éléments de l'algèbre quantique U_qsl_2 (ou d'une extension) par la dualité de Schur-Weyl quantique. Ces idempotents permettent de construire explicitement les TL_n-modules indécomposables de \otimes^nC^2. Ceux-ci sont tous irréductibles, sauf si q est une racine de l'unité. Cette exception est traitée séparément du cas où q est générique. Les problèmes résolus par ces articles nécessitent une grande variété de résultats et d'outils. Pour cette raison, la thèse comporte plusieurs chapitres préparatoires. Sa structure est la suivante. Le premier chapitre introduit certains concepts communs aux deux articles, notamment une description des phénomènes critiques et de la théorie des champs conformes. Le deuxième chapitre aborde brièvement la question des champs logarithmiques, l'évolution de Schramm-Loewner ainsi que l'algorithme de Metropolis-Hastings. Ces sujets sont nécessaires à la lecture de l'article "Geometric Exponents of Dilute Loop Models" au chapitre 3. Le quatrième chapitre présente les outils algébriques utilisés dans le deuxième article, "The idempotents of the TL_n-module \otimes^nC^2 in terms of elements of U_qsl_2", constituant le chapitre 5. La thèse conclut par un résumé des résultats importants et la proposition d'avenues de recherche qui en découlent.
Resumo:
La structure du cartilage articulaire adulte est caractérisée par la présence de couches créées par l’orientation des fibres de collagène (Benninghoff, 1925). Avant de présenter la structure adulte classique en arcades “de Benninghoff”, le cartilage subit une série de changements au cours de sa maturation (Julkunen et al., 2010; Lecocq et al., 2008). Toutefois, un faible nombre d’études s’est intéressé à la structure du collagène du cartilage articulaire in utero. Notre objectif était d’étudier la maturation de la surface articulaire de l’épiphyse fémorale distale chez le cheval, en employant à la fois l’imagerie par résonance magnétique (IRM) et la microscopie en lumière polarisée après coloration au rouge picrosirius, au niveau de sites utilisés dans les études de réparation tissulaire et de sites prédisposés à l’ostéochondrose (OC). Le but était de décrire le développement normal du réseau de collagène et la relation entre les images IRM et la structure histologique. Des sections provenant de cinq sites de l’épiphyse fémorale distale de 14 fœtus et 10 poulains et adultes ont été colorées au rouge picrosirius, après que le grasset ait été imagé par IRM, dans l’optique de visualiser l’agencement des fibres de collagène de type II. Les deux modalités utilisées, IRM et microscopie en lumière polarisée, ont démontré la mise en place progressive d’une structure en couches du réseau de collagène, avant la naissance et la mise en charge de l’articulation.
Resumo:
La variabilité génétique actuelle est influencée par une combinaison complexe de variables historiques et contemporaines. Dès lors, une interprétation juste de l’impact des processus actuels nécessite une compréhension profonde des processus historiques ayant influencé la variabilité génétique. En se basant sur la prémisse que des populations proches devraient partager une histoire commune récente, nombreuses études, effectuées à petite échelle spatiale, ne prennent pas en considération l’effet potentiel des processus historiques. Cette thèse avait pour but de vérifier la validité de cette prémisse en estimant l’effet de la dispersion historique à grande et à petite échelle spatiale. Le premier volet de cette thèse avait pour but d’évaluer l’impact de la dispersion historique sur la répartition des organismes à grande échelle spatiale. Pour ce faire, les moules d’eau douce du genre flotteurs (Pyganodon spp.) ont servies de modèle biologique. Les moules d'eau douce se dispersent principalement au stade larvaire en tant que parasites des poissons. Une série de modèles nuls ont été développés pour évaluer la co-occurrence entre des parasites et leurs hôtes potenitels. Les associations distinctes du flotteur de Terre-Neuve (P. fragilis) avec des espèces de poissons euryhalins permettent d’expliquer sa répartition. Ces associations distinctes ont également pu favoriser la différenciation entre le flotteur de Terre-Neuve et son taxon soeur : le flotteur de l’Est (P. cataracta). Cette étude a démontré les effets des associations biologiques historiques sur les répartitions à grande échelle spatiale. Le second volet de cette thèse avait pour but d’évaluer l’impact de la dispersion historique sur la variabilité génétique, à petite échelle spatiale. Cette fois, différentes populations de crapet de roche (Ambloplites rupestris) et de crapet soleil (Lepomis gibbosus), dans des drainages adjacents ont servies de modèle biologique. Les différences frappantes observées entre les deux espèces suggèrent des patrons de colonisation opposés. La faible diversité génétique observée en amont des drainages et la forte différenciation observée entre les drainages pour les populations de crapet de roche suggèrent que cette espèce aurait colonisé les drainages à partir d'une source en aval. Au contraire, la faible différenciation et la forte diversité génétique observées en amont des drainages pour les populations de crapet soleil suggèrent une colonisation depuis l’amont, induisant du même coup un faux signal de flux génique entre les drainages. La présente étude a démontré que la dispersion historique peut entraver la capacité d'estimer la connectivité actuelle, à petite échelle spatiale, invalidant ainsi la prémisse testée dans cette thèse. Les impacts des processus historiques sur la variabilité génétique ne sont pas faciles à démontrer. Le troisième volet de cette thèse avait pour but de développer une méthode permettant de les détecter. La méthode proposée est très souple et favorise la comparaison entre la variabilité génétique et plusieurs hypothèses de dispersion. La méthode pourrait donc être utilisée pour comparer des hypothèses de dispersion basées sur le paysage historique et sur le paysage actuel et ainsi permettre l’évaluation des impacts historiques et contemporains sur la variabilité génétique. Les performances de la méthode sont présentées pour plusieurs scénarios de simulations, d’une complexité croissante. Malgré un impact de la différentiation globale, du nombre d’individus ou du nombre de loci échantillonné, la méthode apparaît hautement efficace. Afin d’illustrer le potentiel de la méthode, deux jeux de données empiriques très contrastés, publiés précédemment, ont été ré analysés. Cette thèse a démontré les impacts de la dispersion historique sur la variabilité génétique à différentes échelles spatiales. Les effets historiques potentiels doivent être pris en considération avant d’évaluer les impacts des processus écologiques sur la variabilité génétique. Bref, il faut intégrer l’évolution à l’écologie.
Resumo:
Réalisé en cotutelle avec l'Université Paris 1 Panthéon-Sorbonne.
Resumo:
La dopamine (DA) est un neurotransmetteur impliqué dans la modulation de fonctions essentielles du cerveau telles que le contrôle des mouvements volontaires, le système de récompense et certains aspects de la cognition. Depuis sa découverte, la DA a attiré énormément d'attention scientifique en partie à cause des pathologies majeures associées aux dysfonctions du système DAergique, comme la maladie de Parkinson, la schizophrénie et la toxicomanie. On retrouve la majorité des neurones qui synthétisent la DA au niveau du mésencéphale ventral, dans les noyaux de la substance noire compacte (SNc) et de l'aire tegmentaire ventrale (ATV). Ces neurones projettent leurs axones dans un très dense réseau de fibres qui s'organisent en trois voies DAergiques classiques: la voie nigrostriée, la voie mésolimbique et la voie mésocorticale. La transmission DAergique s'effectue par l'activation de récepteurs de la DA qui font partie de la grande famille des récepteurs couplés aux protéines G (RCPGs). Les récepteurs de la DA sont abondamment exprimés aussi bien par les neurones DAergiques que par les neurones des régions cibles, ce qui implique que la compréhension de la signalisation et des fonctions particulières des récepteurs de la DA pré- et postsynaptiques représente un enjeu crucial dans l'étude du système DAergique. Cette thèse de doctorat se sépare donc en deux volets distincts: le premier s'intéresse à la régulation du récepteur D2 présynaptique par la neurotensine (NT), un neuropeptide intimement lié à la modulation du système DAergique; le deuxième s'intéresse au côté postsynaptique du système DAergique, plus particulièrement à la ségrégation de l'expression des récepteurs de la DA dans le striatum et aux fonctions de ces récepteurs dans l'établissement des circuits neuronaux excitateurs prenant place dans cette région. Dans la première partie de cette thèse, nous démontrons que l'activation du récepteur à haute affinité de la NT, le NTR1, provoque une internalisation hétérologue du récepteur D2, avec une amplitude et une cinétique différente selon l'isoforme D2 observé. Cette internalisation hétérologue dépend de la protéine kinase C (PKC), et nous montrons que la surexpression d'un récepteur D2 muté sur des sites de phosphorylation par la PKC ii ainsi que l'inhibition de l'expression de β-arrestine1 par ARNs interférents dans des neurones DAergiques bloquent complètement l'interaction fonctionnelle entre le NTR1 et le D2. Dans la deuxième partie de cette thèse, nous démontrons d'abord que la ségrégation de l'expression des récepteurs D1 et D2 dans le striatum est déjà bien établie dès le 18e jour embryonnaire, bien qu'elle progresse encore significativement aux jours 0 et 14 postnataux. Nos résultats témoignent aussi d'un maintien complet de cette ségrégation lorsque les neurones striataux sont mis en culture aussi bien en présence ou en absence de neurones corticaux et/ou mésencéphaliques. Ensuite, nous montrons que la présence de neurones mésencéphaliques stimule la formation d’épines et de synapses excitatrices sur les neurones striataux épineux exprimant le récepteur D2 (MSN-D2). Le co-phénotype glutamatergique des neurones dopaminergiques semble nécessaire à une grande partie de cet effet. Par ailleurs, le nombre total de terminaisons excitatrices formées sur les MSN-D2 par les neurones corticaux et mésencéphaliques apparaît être régit par un équilibre dynamique. Finalement, nous démontrons que le blocage de la signalisation des récepteurs D1 et D2 de la DA n'est pas nécessaire pour la formation des synapses excitatrices des MSN-D2, alors que l'antagonisme des récepteurs glutamatergiques ionotropes diminue la densité d'épines dendritiques et contrôle de façon opposée le nombre de terminaisons excitatrices corticales et mésencéphaliques. Globalement, ce travail représente une contribution significative pour une meilleure compréhension du fonctionnement normal du système DAergique. Ces découvertes sont susceptibles d’être utiles pour mieux comprendre les dysfonctions de ce système dans le cadre de pathologies du cerveau comme la maladie de Parkinson.
Resumo:
Étude de cas / Case study
Resumo:
L’angiogenèse est la formation de nouveaux vaisseaux sanguins à partir d’un réseau vasculaire existant. C’est un phénomène essentiel pour des processus physiologiques et pathologiques. L’activation des cellules endothéliales est contrôlée par plusieurs facteurs de croissance. Le VEGF et son récepteur le VEGFR-2 ont été prouvés comme étant spécifiques et critiques pour la formation des vaisseaux sanguins alors que Tie2, le récepteur auquel se lie l’Ang-1, est requis aussi bien dans le développement vasculaire que dans l’angiogenèse tumorale. Il est connu que l’activation de Tie2 est nécessaire à la stabilisation finale de la vascularisation en inhibant la perméabilité vasculaire induite par le VEGFR-2. Nous avons premièrement découvert que le facteur de croissance pro-angiogénique, l’Ang-1 contrecarre les effets de perméabilité cellulaire induits par le VEGF en inhibant la production de NO dans les cellules endothéliales. Cet effet inhibiteur de Tie2 intervient directement au niveau de l’activité de l’enzyme eNOS. Suite à l’activation de Tie2 par l’Ang-1, eNOS devient fortement phosphorylé sur la Thr497 après la phosphorylation et l’activation de la PKCζ. Nos résultats suggèrent que l’inhibition, par Tie2, de la perméabilité vasculaire durant l’angiogenèse serait due, en partie, à l’inhibition de la production de NO. Deuxièmement nous avons pu distinguer entre deux modes de migration cellulaire endothéliale induits par l’Ang-1 et le VEGF. À l’opposé du VEGF qui promeut une migration individuelle aléatoire, l’Ang-1 induit une migration collective directionnelle. Dans cette étude, nous avons identifié la β-caténine comme un nouveau partenaire moléculaire de la PKCζ. Cette association de la PKCζ à la β-caténine amène le complexe de polarité Par6-aPKC et le complexe des jonctions d’adhérences cellulaires à interagir ensemble à deux localisations différentes au niveau de la cellule endothéliale. Au niveau des contacts intercellulaires, le complexe PKCζ/β-caténine maintien la cohésion et l’adhésion cellulaire nécessaire pour le processus migratoire collectif. Ce complexe se retrouve aussi au niveau du front migratoire des cellules endothéliales afin d’assurer la directionalité et la persistance de la migration endothéliale en réponse à l’Ang-1. D’une manière intéressante, lors de l’inhibition de la PKCζ ou de la β-caténine on assiste à un changement du mode de migration en réponse à l’Ang-1 qui passe d’une migration directionnelle collective à une migration individuelle aléatoire. Ce dernier mode de migration est similaire à celui observé chez des cellules endothéliales exposées au VEGF. Ces résultats ont été corroborés in vivo par une polarité et une adhésion défectueuses au cours de la vasculogenèse chez le poisson zèbre déficient en PKCζ. En résumé, Ang-1/Tie2 module la signalisation et les réponses biologiques endothéliales déclenchées par le VEGF/VEGFR-2. L’identification des mécanismes moléculaires en aval de ces deux récepteurs, Tie2 et VEGFR-2, et la compréhension des différentes voies de signalisation activées par ces complexes moléculaires nous permettra de mettre la lumière sur des nouvelles cibles thérapeutiques pour le traitement des maladies angiogéniques.
Resumo:
«Construire hors limite: collisions fantastiques entre corps et machines dans la littérature fin-de-siècle française et anglaise» explore un ensemble de textes qui ont surgi à la fin du dix-neuvième siècle en réponse et en réaction à la fulgurante évolution de l’environnement scientifique et technologique, et qui considèrent la relation entre l’homme et la machine en fantasmant sur la zone grise où ils s’intersectent. Les principaux textes étudiés comprennent L’Ève future de Villiers de l’Isle-Adam, Le Surmâle d’Alfred Jarry, Trilby de George Du Maurier, Le Château des Carpathes de Jules Verne, ainsi qu’une sélection de contes dont nous pouvons qualifier de «contes à appareils», notamment «La Machine à parler» de Marcel Schwob. Utilisant la théorie des systèmes comme base méthodologique, cette dissertation cherche à réinterpréter les textes de la fin du dix-neuvième siècle qui naviguent les limites de l’humain et du mécanique et les surfaces sensibles où ils se touchent et interagissent en les réinscrivant dans un projet plus vaste de construction d’identité qui défie le temps chronologique et les échelles mathématiques. Le lien entre la théorie des systèmes et l’architecture – comme méthode d’organisation d’espace blanc en espace habitable – est exploré dans le but de comprendre la manière dont nous façonnons et interprétons le néant à l’origine de l’identité individuelle, et par association collective, en pratiquant littéralement la schématisation et la construction du corps. Des auteurs tels Villiers et Jarry imaginent la construction du corps comme une entreprise scientifique nécessairement fondée et réalisée avec les matériaux et les technologies disponibles, pour ensuite démanteler cette proposition en condamnant le corps technologique à la destruction. La construction d’une identité amplifiée par la technologie prend donc des proportions prométhéennes perpétuellement redessinées dans des actes cycliques de rasage (destruction) et d’érection (édification), et reflétées dans l’écriture palimpsestique du texte. L’intégrité du corps organique étant mis en question, le noyau même de ce que signifie l’être (dans son sens de verbe infinitif) humain pourrait bien s’avérer, si l’on considère la correspondance entre perte de voix et état pathologique dans les textes de Du Maurier, Verne et Schwob, être une structure des plus précaires, distinctement hors sens (unsound).
Resumo:
Cette étude exploratoire a pour but d’identifier les facteurs pouvant influencer l’implantation des adjoints au médecin dans le système de santé québécois, selon les perceptions de médecins omnipraticiens et de médecins spécialistes. La collecte de données pour cette étude qualitative s’est effectuée à l’aide d’entrevues semi-structurées effectuées auprès de 13 omnipraticiens et spécialistes provenant d’hôpitaux de Montréal et de la clinique médicale des Forces canadiennes de St-Jean (Québec). L’étude a démontré que des obstacles perçus, tels que le corporatisme et le manque d’information sur la profession, pourraient interférer avec l’intégration des adjoints au médecin au Québec. Cependant, les participants s’entendent pour dire que ces obstacles ne seraient pas insurmontables et ont, par la même occasion, identifié de nombreux éléments pouvant faciliter cette intégration. Les adjoints au médecin ont des compétences uniques et travaillent déjà dans d’autres provinces canadiennes qui ont un réseau de santé similaire au nôtre. Cette étude permet donc d’approfondir les connaissances à l’égard de cette profession, en plein essor au pays, dans l’éventualité d’une intégration de ce groupe professionnel au Québec.
Resumo:
Le réseau Internet s’avère être un outil important pour les juristes. Il rend possible la constitution d’une base de données juridiques, la création de revues de droit, la mise sur pied de forums de discussion sur les questions de droit, la diffusion d’ouvrages, etc. Le réseau Internet facilite les recherches en droit, car grâce aux bases des données, les juristes peuvent facilement accéder notamment aux textes légaux et réglementaires, à la jurisprudence et aux textes de doctrine. Cependant, Internet peut également servir à résoudre les conflits qui surviennent dans les rapports entre les internautes ou entre les internautes et les opérateurs du réseau Internet. La cyberjustice existe déjà, à petite échelle. L’on peut se permettre de mentionner le Centre de médiation et d’arbitrage de l’OMPI, le Virtual Magistrate, l’Online Ombuds Office, le CyberTribunal et le Règlement Uniforme de l’ICANN. S’il faut saluer les efforts qui ont abouti à l’existence de ces instances de cyberjustice, il convient pourtant de reconnaître leurs limites. En effet, ces diverses formes de cyberjustice ont un caractère privé et demeurent incapables d’assurer la répression des infractions. Ensuite, elles ne tiennent pas compte du déséquilibre des rapports entre télétravailleurs et employeurs, puisqu’elles reconnaissent à ces deux groupes des droits équivalents quant au choix de la juridiction et des règles applicables. Enfin, en l’état actuel de la cyberjustice, le sens de la justice est sacrifié à la célérité. Certains droits reconnus aux parties — celui de jouir d’un double degré de juridiction en particulier — sont ignorés. Ces faits montrent bien la nécessité de concevoir des modèles d’institutions plus appropriés en vue de l’instauration d’un certain ordre dans le réseau Internet. C’est dans cette optique que la présente étude offre quelques modèles de juridictions virtuelles, dont une juridiction virtuelle répressive.
Resumo:
Dans son texte, l’auteur tente de répondre à quatre grandes questions : le cadre juridique actuel qui régi la gestion des renseignements personnels dans le réseau de la santé et des services sociaux protège–t–il adéquatement ces données sensibles ? Peut–on tenter d’améliorer cette protection ? Quels facteurs contribuent à l’émergence des nouvelles normes ? Quel rôle les exigences techniques, les intérêts économiques et les considérations politiques jouent–ils dans l’émergence de ces nouvelles normes ? À l’égard de ces interrogations, l’auteur montre que le régime actuel, qui se distingue particulièrement par sa complexité et son opacité, ne protège pas adéquatement les renseignements personnels appelés à circuler dans l’univers numérique en émergence. Il examine donc les facteurs qui contribuent À l’émergence des nouvelles normes alors que les règles juridiques actuelles se trouvent en porte–à–faux par rapport aux développements technologiques. Par la suite, il tente de situer ou de mesurer l’influence des intérêts économiques, des considérations politiques et des impératifs techniques dans l’émergence de ces nouvelles normes. Finalement, il met de l’avant un concept nouveau, celui des aires de partage, qu’il présente comme un moyen de mieux protéger les renseignements personnels et confidentiels dans l’ère de l’information.
Resumo:
La création du droit, phénomène « mal connu » des sciences juridiques semble désormais entretenir une intimité problématique très forte avec le réseau Internet. Elle serait même au cœur du « grand bougé internétique » vers l’ère postmoderne. Ce nouvel espace juridique apparaît ainsi pour la création du droit un accélérateur réseautique, néanmoins respectueux du pluriel. Or, ce changement initié par Internet en entraîne un autre d’une ampleur tout aussi considérable : il force en effet les ordres juridiques à faire globalement évoluer leurs structures internes et les jette dans un univers où leur pertinence d’action est singulièrement réduite. Seul l’ordre juridique européen, en tant que première esquisse de l’Etat-réseau, y conserverait une certaine efficacité d’action faisant alors de lui un guide structurel à l’usage de ses congénères mis en difficulté.
Resumo:
La relation entre un médecin et son patient a grandement évolué. Aujourd’hui le médecin, loin de jouer le rôle paternaliste d’autrefois, se voit obligé d’établir un dialogue avec son patient. Des informations sont transmises de l’un à l’autre et de l’autre à l’un, le tout dans une optique de cogestion de la santé du patient. D’un côté le patient doit fournir au médecin les informations suffisantes pour que celui-ci établisse un diagnostic. D’un autre côté le médecin doit informer le patient de son état de santé et des mesures qu’il compte prendre. Dans la foulée du développement des nouvelles technologies, les modes de transmission de telles informations présentent de nouvelles problématiques. L’auteur propose ici une étude de la relation patient/médecin lorsqu’il s’agit de la transmission de données relatives à l’état de santé par Internet ou un réseau privé et du rôle de chacune des parties dans ce réseau en regard de la Directive 95/46/CE. Il ressort de cette étude que le médecin se voit imposer certaines responsabilités à titre de responsable du traitement, notamment en ce qui concerne le traitement des données personnelles de son patient. Ce dernier, en tant que personne concernée au sens de la Directive, se voit donc octroyer des droits fondamentaux en matière de confidentialité. De plus il détermine, en collaboration avec le médecin, les finalités du traitement de ces données personnelles.
Resumo:
Le réseau Internet a probablement causé un tourbillon économique et social sans équivalent dans l’histoire du monde moderne. De tels bouleversements ont amené plusieurs personnes à s’interroger sur la puissance de cet outil, sa liberté et son impact sur l’humanité. Nombreux sont ceux qui ont ainsi voulu attribuer à l’Internet un rôle primordial dans l’ensemble des maux de notre siècle, notamment en l’accusant de favoriser la propagation des messages de haine, la perversion des mœurs et le contournement de la loi. L’auteur se propose ici de prendre le contre-pied de ce courant pessimiste, et de faire la démonstration des avancées considérables que cet outil merveilleux a permises dans le domaine des droits économiques et sociaux. En s’appuyant sur les textes internationaux ayant donné naissance à ces droits voulus pragmatiques, l’auteur précise d’abord le contenu de prérogatives qui concernent directement le quotidien de chacun, sans pour autant faire l’objet d’une réelle application. Il met ensuite en parallèle l’objectif initial recherché par le législateur international et les avancées concrètes permises par le réseau dans des domaines aussi variés que la liberté d’expression, l’accès au droit, et la participation de tous à la vie culturelle et politique de la société. Cet article est une tentative de redonner au réseau ses lettres de noblesse, et d’encourager les lecteurs à utiliser mieux encore ses fantastiques ressources.
Resumo:
Dans un contexte où les virus informatiques présentent un risque sérieux pour les réseaux à travers le globe, il est impératif de retenir la responsabilité des compagnies qui n’y maintiennent pas une sécurité adéquate. À ce jour, les tribunaux québécois n’ont pas encore été saisis d’affaires en responsabilité pour des virus informatiques. Cet article brosse un portrait général de la responsabilité entourant les virus informatiques en fonction des principes généraux de responsabilité civile en vigueur au Québec. L’auteur propose des solutions pour interpréter les trois critères traditionnels la faute, le dommage et le lien causal en mettant l’accent sur l’obligation de précaution qui repose sur les épaules de l’administrateur de réseau. Ce joueur clé pourrait bénéficier de l’adoption de dispositions générales afin de limiter sa responsabilité. De plus, les manufacturiers et les distributeurs peuvent également partager une partie de la responsabilité en proportion de la gravité de leur faute. Les entreprises ont un devoir légal de s’assurer que leurs systèmes sont sécuritaires afin de protéger les intérêts de leurs clients et des tiers.