231 resultados para Principe des possibilités alternatives
Resumo:
Étude de cas / Case study
Resumo:
Réalisé en majeure partie sous la tutelle de feu le Professeur Paul Arminjon. Après sa disparition, le Docteur Aziz Madrane a pris la relève de la direction de mes travaux.
Resumo:
Cette étude a pour objet de démontrer qu’un des effets, peut être le plus insoupçonné, de la reconnaissance constitutionnelle des droits ancestraux des peuples autochtones est de mettre à mal l’hégémonie du territoire dans notre manière de penser la gouvernance autochtone contemporaine. Il s’agit ici de faire valoir que le régime des droits ancestraux mis en place par la Cour suprême en s’appuyant sur l’article 35 de la Loi constitutionnelle de 19821 fait apparaître les prémices d’un véritable ordre autonome autochtone fondé en grande partie sur le principe de personnalité – c’est-à-dire sur le rattachement personnel des individus au groupe – plutôt que sur le principe de territorialité qui, depuis l’avènement de l’État, fonde la puissance publique sur le contrôle d’un espace linéairement circonscrit.
Resumo:
Comme le déplorent les critiques de l’activisme judiciaire, la Constitution canadienne (y compris sa Charte) donne aux juges le pouvoir d’intervenir en matière de politique publique, un pouvoir qu’ils semblent avoir réussi à élargir de divers moyens. Ils sont donc capables de corriger les défauts d’une politique qui enfreint les droits des requérants et de réparer les torts qu’ils ont encourus. Cet exercice présente cependant plusieurs écueils, souvent graves, du point de vue des requérants et de celui des juges. L’examen des arrêts Wynberg concernant la politique ontarienne de l’IEIP envers les enfants ayant des troubles du spectre autistique illustre certaines de ces difficultés. Ces décisions et celle d’Auton de la Cour suprême du Canada suggèrent que les politiques publiques défectueuses d’une nature complexe et scientifique et dont la responsabilité institutionnelle n’est pas clairement définie n’ont aucune assurance d’être redressées par un recours aux tribunaux.
Resumo:
"L’auteure Lucie Guibault aborde la question des ""logiciels libres"" dans le cadre des droits d’auteurs et des brevets. Ces logiciels sont des programmes informatiques qui sont gratuitement distribués au public, dont la modification et la redistribution sont fortement encouragées, mais dont la vente ou la commercialisation est découragée ou même carrément prohibée. Ces caractéristiques particulières distinguent les logiciels libres des ""programmes propriétés"" traditionnels, qui se basent sur le principe que le créateur d’un programme en possède les droits de propriété et qu’il est le seul autorisé à le modifier ou le vendre, sous réserve de sa capacité à faire cession de ces droits. Les logiciels libres sont fondés sur une idéologie de coopération, qui promeut la propagation des idées et des connaissances et qui favorise ainsi la création de meilleurs logiciels. L’auteure présente les grandes caractéristiques des trois principales licences de logiciels libres, soit la ""General Public License"", la licence ""Berkeley Software Distribution"" et la ""Mozilla Public License"". Elle soutient que ces logiciels libres et les régimes normatifs qui les encadrent sont à l’origine d’un changement de paradigme au sein des régimes européens et hollandais de protection des droits d’auteurs et des brevets. La première partie de l’article analyse les régimes des droits d’auteur des trois licences de logiciels libres. L’auteure souligne que ces régimes ont été établis en se basant sur la prémisse qu’il n’y a pas de distinction significative entre les créateurs et les utilisateurs de logiciels libres. Les régimes normatifs reflètent cette situation en prévoyant un ensemble de droits et d’obligations pour les utilisateurs dans le cadre de l’utilisation, de la reproduction, de la modification et de la redistribution gratuite des logiciels libres. L’auteur explique comment ces régimes normatifs s’intègrent au sein de la législation européenne et hollandaise, entre autre au niveau du droit de propriété, du droit commercial, du droit des communications et du droit des obligations. L’auteur démontre que, de façon générale, ces régimes normatifs législatifs semblent s’être adéquatement adaptés aux nouvelles réalités posées par les règles de droits d’auteurs des logiciels libres. La seconde partie aborde la problématique du droit des brevets, tel que défini par la législation européenne et hollandaise. La plupart des utilisateurs et créateurs de logiciels libres s’opposent aux régimes de brevets traditionnels, qui limitent l’innovation et les possibilités de développement techniques. L’auteur décrit les différents régimes alternatifs de brevets offerts par les trois licences de logiciels libres. De plus, l’auteur présente l’encadrement légal pour ces nouveaux brevets, tel que défini par les législations européennes et hollandaises. Elle soutient que cet encadrement légal est inadéquat et qu’il n’est pas adapté aux besoins des utilisateurs de logiciels libres."
Resumo:
"L'intersection entre la sécurité de l'État et corollairement celle de ses ressortissants d’un côté, et la protection des droits des personnes qui se trouvent sur son territoire de l’autre, génère une situation antagonique : les prérogatives régaliennes et wébériennes d'utilisation de la force au nom de la sécurité nationale entrent en collision avec le respect des dispositions juridiques, telles que prescrites dans de nombreux instruments du droit international. Terre d’immigration, les États-Unis sont le reflet de ce paradoxe qui existe entre une vision qui place l’individu et ses libertés au centre de ses préoccupations, versus une conceptualisation étato-centrique de la sécurité. Mais le renvoi de l’immigration dans le registre sécuritaire ne relève pas forcément d’une réalité objective. L’analyse critique des manifestations d’(in)sécurité considère en effet ce concept comme n’étant plus exclusivement stato-centrée, élargissement conceptuel auquel s'associe une autre mutation conceptuelle : la securitization, qui postule que la menace n'est pas uniquement objective mais également subjective. Considérant cette ""évolution"" théorique, l’auteur analyse dans cet article l’immigration aux États-Unis au travers d’un processus de périodisation des mythes fondateurs aux mesures prises dans la foulée du 11 septembre 2001- pour démontrer que la gestion des flux migratoires en direction des États-Unis a toujours été considérée comme une question de sécurité nationale. Retenant à titre illustratif trois groupes de personnes, les Périls Jaune, puis Rouge et aujourd’hui Vert, vont permettre d’illustrer que les mesures restrictives règlementant l’immigration prisent au nom de la sacro-sainte sécurité nationale- constituent de facto, si ce n’est de jure, des atteintes au principe de non-discrimination. Mais tout en soulignant la pérennité du lien qui est effectué entre immigration et sécurité nationale, l’instrumentalisation de ce lien contribue à un renforcement des pratiques régulatrices et à la criminalisation accrue des mouvements transfrontaliers, qui risquent bien d’être contreproductifs par rapport à l’objectif de sécurité recherché !"
Resumo:
Malgré l’incertitude quant à leur sécurité à l’égard des personnes et de l’environnement, les cultures génétiquement modifiées (GM) ont été largement diffusées à travers le monde. En outre, dans de nombreux pays la coexistence des cultures GM avec les systèmes conventionnels de production et les systèmes de production biologique est habituelle. Dans l’Union européenne (UE), cependant, l’utilisation de cette technologie a soulevé d’importantes questions. Ces réserves sont reflétées dans le développement d’un cadre réglementaire particulièrement restrictif articulé autour d’une procédure unique d’approbation de ces cultures. De la même manière, le débat sur la coexistence des cultures GM avec la production agricole conventionnelle et la production biologique a été particulièrement animé dans l’UE. La première section de ce travail est consacrée à examiner comment, du fait de la complexité des nouvelles technologies, il est nécessaire, du point de vue régulateur, de faire face à des situations dans lesquelles les scientifiques ne peuvent encore fournir aucune réponse précise. Dans ce contexte, le principe de précaution est invoqué afin de limiter les dangers potentiels, mais ceci est sans préjudice des questions qui restent encore ouvertes sur la portée et la nature de ce principe. En tant que manifestations précises de ce principe de précaution, deux aspects sont abordés dans les secondes et troisièmes parties de ce travail. Nous analysons, d’abord, la procédure d’autorisation des produits GM dans l’UE, procédure spécifique basée sur le principe de précaution dans laquelle soit les institutions communautaires soit les autorités des États membres jouent un rôle important. Par rapport à ce cadre très réglementé de l’UE, la troisième partie examine le degré d’intervention des États membres. Ceci se manifeste principalement dans la possibilité d’adopter certaines clauses de sauvegarde pour limiter l’expansion des cultures GM ainsi que dans la réglementation de la coexistence des cultures GM avec les cultures conventionnelles et la possibilité d’exclure de la culture des OGM certaines zones. Finalement, quelques conclusions sont données dans la quatrième partie.
Resumo:
La notion de dignité humaine déroute et attire les juristes. La décision récente de la Cour suprême du Canada dans l'affaire R. c. Kapp d'abolir le critère de l'atteinte à la dignité dans le cadre de l'analyse du droit à l'égalité a rappelé les périls qui guettent une analyse s'appuyant sur la dignité humaine. La richesse de ses significations est difficile à traduire dans une analyse qui ne soit pas purement subjective. La dignité humaine constitue pourtant la fondation sur laquelle sont érigés les droits et libertés de la personne ainsi qu'un guide indispensable dans leur interprétation. Prenant appui sur une typologie émergente de la dignité humaine, cet article vise l'élaboration d'un modèle d'analyse qui intégrerait les trois exigences de la dignité humaine : la reconnaissance, le respect et la sollicitude. Ces exigences reflètent les significations universelle et individuelle de même que les dimensions morale et corporelle de la dignité humaine. La considération simultanée des différentes exigences et significations de la dignité humaine rejoint l'approche préconisée par Emmanuel Kant et empêche d'avoir à choisir entre reconnaissance et redistribution. Une vision large et intégrée de la dignité humaine traduit la diversité des applications juridiques de la dignité humaine comme principe et comme droit et leur nécessaire imbrication. La combinaison des exigences de respect et de sollicitude requiert une attention aux réelles conditions sociales et économiques des êtres humains et une évaluation non condescendante des politiques sur les personnes vulnérables. L'attention à la réalité telle que vécue par la personne qui invoque une atteinte à sa dignité est nécessaire pour contrer à la fois la myopie d'une analyse formaliste ainsi que les écueils d'un concours de vulnérabilités auquel certains peuvent être tentés de se livrer.
Resumo:
Bien que la souveraineté apparaisse aujourd'hui comme un concept juridique autonome, cela ne fut pas toujours le cas. Comme le souligne l’auteur de ce texte, notre société est passée d'une souveraineté mystique, celle de l'Église, à une souveraineté laïque, celle de l'État, pour aboutir, aujourd'hui, à une souveraineté plurielle ou composite. L'avènement d'un réseau de masse, comme l'Internet, vient encore une fois changer la donne. Ainsi, le concept de souveraineté informationnelle, discuté à la fin des années 70, semble aujourd’hui suranné, voire obsolète, à la lumière des nouveaux environnements électroniques. Conscient de cette évolution et de ses conséquence, l’auteur propose une réflexion historique et conceptuelle du principe de souveraineté afin de réévaluer les critères de territorialité et d'espace physique en tant que pivots autour desquels s'articule le concept de souveraineté nationale. L'État d'aujourd'hui ne pouvant aspirer seul à réglementer les transactions économiques transnationales, cet article nous pousse à nous questionner sur le sens que doit prendre le terme « souveraineté » à l’aube de l’ère numérique.
Resumo:
La notion de vie privée, et plus précisément le droit à la protection des renseignements personnels, est reconnue aussi bien dans les textes provinciaux, régionaux, nationaux et internationaux, que dans les politiques mises en place par les sites Web. Il est admis que toutes informations identifiant ou permettant d’identifier une personne peut porter atteinte à sa vie privée, à savoir son nom, prénom, numéro de téléphone, de carte bancaire, de sécurité sociale, ou encore ses adresses électronique et Internet. Cette protection, admise dans le monde réel, doit aussi exister sur les inforoutes, étant entendu que « l ’informatique (…) ne doit porter atteinte ni à l ’identité humaine, ni aux droits de l ’homme, ni à la vie privée, ni aux libertés individuelles ou publiques » (art. 1er de la Loi française dite « Informatique et Libertés » du 6 janvier 1978). Ce principe étant admis, il est pertinent de s’interroger sur les moyens envisagés pour parvenir à le réaliser. Faut-il avoir recours à la réglementation étatique, à l’autoréglementation ou à la corégulation ? Cette dernière notion « n’est pas à proprement parler une nouvelle forme de régulation », mais elle préconise une collaboration entre les acteurs du secteur public et privé. L’idée de partenariat semble retenir l’attention du gouvernement français dans sa mission d’adaptation du cadre législatif à la société de l’information, comme nous le montre le rapport Du droit et des libertés sur l’Internet remis dernièrement au Premier ministre. Par conséquent, cet article a pour objectif de dresser un tableau de la législation française, et de ses multiples rapports, applicables à la protection de la vie privée et, plus particulièrement, aux données personnelles sur le réseau des réseaux. En prenant en considération les solutions étatiques et non étatiques retenues depuis ces deux dernières décennies, nous envisagerons une étude de l’avant-projet de loi du Gouvernement visant à transposer en droit interne la Directive européenne du 24 octobre 1995 relative à la protection des données personnelles.
Resumo:
Les institutions juridiques ont été bâties autour des réalités connues depuis des millénaires, que nous appelons de nos jours des phénomènes du monde réel. Ces phénomènes retrouvent présentement un nouveau théâtre – le cyberespace, et les règles du droit font face au défi de s’approprier ce nouvel environnement. Entre autres, les technologies du cyberespace ont mis au monde divers moyens qui nous permettent de nous identifier et de manifester notre attitude envers les actes juridiques – des finalités qui ont été assurées de longue date par la signature manuscrite. Bien que ces nouveaux moyens aient mérité un nom similaire à leur contrepartie traditionnelle – l’appellation de signature électronique, ils restent des phénomènes dont la proximité avec la signature manuscrite est discutable. Force est de constater que le seul point commun entre les moyens classiques et électroniques de signer réside dans les fonctions qu’ils remplissent. C’est en se basant sur ces fonctions communes que le droit a adopté une attitude identique envers les moyens d’authentification traditionnels et électroniques et a accueilli ces derniers sous l’emprise de ses institutions. Cependant, ceci ne signifie pas que ces institutions se soient avérées appropriées et qu’elles ne demandent aucun ajustement. Un des buts de notre étude sera de mettre en relief les moyens d’adaptation qu’offre le droit pour réconcilier ces deux environnements. Ainsi, pour ajuster l’institution de la signature aux phénomènes électroniques, le droit s’est tourné vers le standard de fiabilité de la signature électronique. Le standard de fiabilité est un complément de l’institution juridique de signature qui ne se rapporte qu’à la signature électronique et dont cette étude démontrera les applications. Les composantes du standard de fiabilité qui occuperont un deuxième volet de notre étude représentent un ensemble de règles techniques liées à la signature électronique. Ainsi, comme le standard de fiabilité puise sa substance dans les propriétés de l’architecture du cyberespace, l’attitude du droit envers la signature électronique s’avère tributaire de la morphologie du cyberespace. Étant donné que les possibilités qui nous sont offertes par la technologie continue à déterminer la réglementation juridique, il est légitime de conclure que l’examen des tendances dans l’évolution du cyberespace nous fournira un point de vue prospectif sur l’évolution des règles du droit.
Resumo:
Dans le cadre d’une sociologie des organisations portant sur les liens entre organisations télévisuelles et environnement, la présente thèse a pour objectif de cerner les modalités du développement récent de la télévision au Québec en le comparant à celui de la Belgique francophone et de la Suisse. Une telle comparaison repose sur un principe méthodologique simple: on cerne d’autant mieux la réalité que l’on étudie si on peut la comparer à une réalité équivalente d’autres sociétés. En s’appuyant sur des théories de développement organisationnel reliées au courant néo-fonctionnaliste et en adaptant des « histoires de cas » d’études organisationnelles à la réalité télévisuelle des années 90 et 2000, le chercheur a mis au point une grille de classification des données permettant d’étudier les composantes du développement de la télévision dans trois « petites » sociétés industrialisées. Dans un premier temps, il a pu constater une augmentation très importante du nombre de chaînes de télévision par rapport à ce qu’il était dans les années 50 à 70, le tout encadré par les autorités réglementaires en place. Par la suite, dans chacune de ces trois sociétés et sur une période de vingt-cinq ans, il a pu préciser les interactions et échanges entre organisations télévisuelles et environnement lesquels ont été, selon les cas, harmonieux, difficiles, voire même conflictuels. Après avoir comparé les modalités d’une telle augmentation entre les trois sociétés, le chercheur a pu constater une convergence de surface. On note bien quelques similitudes entre les trois sociétés, mais, surtout, chacune d’entre elles est restée sur son quant-à-soi. En Suisse, l’importance accordée au consensus social a favorisé un développement équilibré de l’augmentation des chaines. En Belgique, pays aux divisions profondes constamment réaffirmées, les oppositions ont permis, malgré tout, l’édification d’un ensemble audiovisuel relativement stable. Au Québec, avec une augmentation exponentielle du nombre de chaines, on a assisté à un véritable surdéveloppement de la télévision encouragé et planifié par les autorités gouvernementales canadiennes en réaction à un supposé envahissement culturel américain. Le CRTC, la régie des ondes canadiennes, a pesé de tout son poids pour favoriser l’augmentation du contenu canadien et de la production locale. Par ailleurs, cette augmentation s’est faite avec des ressources limitées. On en fait trop avec trop peu. C’est ce qui permettrait d’expliquer la baisse de qualité de la télévision québécoise contemporaine. Comme élément de solution aux problèmes que la télévision québécoise connait présentement, il faudrait considérer cette dernière pour ce qu’elle est véritablement: une petite télévision dans un univers industriellement hautement développé. Si une telle conception est très bien acceptée aussi bien en Belgique qu’en Suisse, elle ne l’est pas au Québec
Resumo:
Ce mémoire porte sur l’efficacité des campagnes sociales sur Internet afin d’encourager les jeunes adultes à voter. La constatation du déclin de la participation électorale des jeunes adultes nous a poussés à vouloir comprendre quels sont les enjeux qui touchent à cette problématique et comment les campagnes sociales incitatives au vote peuvent répondre à un certain besoin. La campagne électorale des élections générales canadiennes du 2 mai 2011, durant laquelle plusieurs outils Internet ont été développés pour inciter la population à voter, le plus connu étant la Boussole électorale, a constitué un contexte clé pour nous permettre d’explorer le sujet. À l’aide des théories sur l’influence des médias et de celles de la persuasion, nous allons mieux comprendre les possibilités qu’offre le Web pour la mobilisation sociale. Deux cueillettes de données ont été faites, soit une première quantitative par questionnaire pour voir le niveau de pénétration de ces outils Internet ainsi que leur appréciation, soit une deuxième qualitative par groupe de discussion afin d’approfondir la problématique de la désaffection politique et d’analyser la pertinence des campagnes sociales incitatives au vote. La mise en commun des résultats nous a permis de comprendre, entre autres, que les campagnes sociales sur Internet peuvent constituer un outil de conscientisation politique dans certaines circonstances et qu’elles peuvent bénéficier des réseaux sociaux comme Facebook et Twitter. Toutefois, le besoin d’éducation civique demeure une solution récurrente lorsqu’on parle d’encourager les jeunes adultes à voter.
Resumo:
Des études récentes ont montré que le noyau caudé interagissait avec le cortex préfrontal et qu’il pourrait être impliqué dans les fonctions exécutives. Le but de cette thèse était d’étudier la contribution du noyau caudé dans les fonctions exécutives, plus précisément dans des tâches de monitoring et de changement de règle, et d’observer comment ces régions fronto-striatales interagissent avec le réseau par défaut (RPD). Dans un premier temps, nous avons étudié le rôle du noyau caudé dans les deux types de monitoring : le monitoring d’origine interne, consistant à effectuer un suivi sur l’état de l’information en mémoire de travail afin de pouvoir faire un choix subséquent, et dans le monitoring d’origine externe où le suivi sur l’état des items est effectué par l’individu, mais la sélection est exécutée par une source externe. Il a été montré que le cortex préfrontal dorsolatéral (CPFDL) est impliqué dans les deux types de monitoring. À l’aide de l’imagerie par résonance magnétique fonctionnelle (IRMf), nos résultats ont montré une augmentation significative du signal BOLD au niveau du CPFDL dans les contrastes des conditions de monitoring d’origine interne et monitoring d’origine externe par rapport à la condition contrôle. De manière plus importante, une augmentation significative de l’activité a été observée dans le noyau caudé seulement dans les soustractions impliquant le monitoring d’origine interne par rapport à la condition contrôle, et par rapport à la condition de monitoring d’origine externe. En deuxième lieu, des études ont montré une contribution spécifique des régions fronto-striatales dans l’exécution d’un changement de règle. Toutefois, l’effet d’un changement de règle sur l’activité cérébrale n’a jamais été étudié sur les essais subséquents. À l’aide de l’IRMf, le cortex préfrontal ventrolatéral (CPFVL) et le noyau caudé ont montré une augmentation significative de leur activité lors des changements de règle continus et lors des changements de règles sporadiques par rapport à la condition contrôle, et aussi lors des essais où le maintien d’une même règle devait être effectué pour une courte durée par opposition au contrôle. Cependant, aucune activité fronto-striatale n’a été observée lorsqu’une même règle devait être appliquée pour une plus longue période. De plus, une diminution significative de l’activité du noyau caudé a été observée lors de la répétition de l’exécution d’une même règle suggérant une meilleure intégration de cette dernière. Finalement, plusieurs études ont montré une déactivation du RPD lors de l’exécution de tâches. À l’aide de l’IRMf, nous avons posé l’hypothèse que le RPD serait corrélé négativement avec les régions fronto-striatales lors de l’exécution d’une tâche de changement de règle. Nos résultats montrent une augmentation significative de l’activité des régions fronto-striatales lors d’une augmentation du nombre d’essais de changement de règle consécutif, pendant que le RPD montre une déactivation continue. De façon intéressante, pendant que les régions fronto-striatales montrent une diminution de leur activité lors de l’exécution d’une même règle pour une longue période, le RPD augmente son activité de façon significative. On conclut donc que le noyau caudé joue un rôle important dans la planification d’une nouvelle action lorsque plusieurs possibilités doivent être considérées en mémoire de travail, et ce en même temps. Finalement, le RPD montre une corrélation négative avec les régions fronto-striatales suggérant sa participation dans l’intégration d’une tâche devenant de plus en plus familière.
Resumo:
Le but de ce projet est d’étudier l’effet des défauts cristallins sur les propriétés optoélectroniques de photodétecteurs fabriqué à partir de « silicium noir », c’est-à-dire du silicium dopé et microstructuré par impulsions laser femtoseconde, ce qui lui donne une apparence noire mate caractéristique. Des échantillons de silicium noir ont été recuits puis implantés avec des ions ayant une énergie de 300 keV (Si+), 1500 keV (Si+) ou 2000 keV (H+). Trois fluences pour chaque énergie d’implantation ont été utilisées (1E11, 1E12, ou 1E13 ions/cm2) ce qui modifie le matériau en ajoutant des défauts cristallins à des profondeurs et concentrations variées. Neuf photodétecteurs ont été réalisés à partir de ces échantillons implantés, en plus d’un détecteur-contrôle (non-implanté). La courbe de courant-tension, la sensibilité spectrale et la réponse en fréquence ont été mesurées pour chaque détecteur afin de les comparer. Les détecteurs ont une relation de courant-tension presque ohmique, mais ceux implantés à plus haute fluence montrent une meilleure rectification. Les implantations ont eu pour effet, en général, d’augmenter la sensibilité des détecteurs. Par exemple, l’efficacité quantique externe passe de (0,069±0,001) % à 900 nm pour le détecteur-contrôle à (26,0±0,5) % pour le détecteur ayant reçu une fluence de 1E12 cm-2 d’ions de silicium de 1500 keV. Avec une tension appliquée de -0,50 V, la sensibilité est améliorée et certains détecteurs montrent un facteur de gain de photocourant supérieur à l’unité, ce qui implique un mécanisme de multiplication (avalanche ou photoconductivité). De même, la fréquence de coupure a été augmentée par l’implantation. Une technique purement optique a été mise à l’essai pour mesurer sans contacts la durée de vie effective des porteurs, dans le but d’observer une réduction de la durée de vie causée par les défauts. Utilisant le principe de la réflexion photo-induite résolue en fréquence, le montage n’a pas réuni toutes les conditions expérimentales nécessaires à la détection du signal.