991 resultados para Éléments de Coxeter
Resumo:
La construction modulaire est une stratégie émergente qui permet la fabrication de matériaux ordonnés à l’échelle atomique. Elle consiste en l’association programmée de sous-unités moléculaires via des sites réactifs judicieusement sélectionnés. L’application de cette stratégie a d’ores et déjà produit des matériaux aux propriétés remarquables, notamment les réseaux organiques covalents, dans lesquels des atomes de carbone et d’autres éléments légers sont liés de manière covalente. Bien que des matériaux assemblés par des interactions non-covalentes puissent être préparés sous la forme de monocristaux macroscopiques de cette façon, ceci n’était pas possible dans le cas des réseaux organiques covalents. Afin de pallier cette lacune, nous avons choisi d’étudier des réactions de polymérisation réversibles ayant lieu par un mécanisme d’addition. En effet, l’hypothèse de départ de cette thèse suppose qu’un tel processus émule le phénomène de cristallisation classique – régi par des interactions non-covalentes – et favorise la formation de monocristaux de dimensions importantes. Pour tester la validité de cette hypothèse, nous avons choisi d’étudier la polymérisation des composés polynitroso aromatiques puisque la dimérisation des nitrosoarènes est réversible et procède par addition. Dans un premier temps, nous avons revu en profondeur la littérature portant sur la dimérisation des nitrosoarènes. À partir des données alors recueillies, nous avons conçu, dans un deuxième temps, une série de composés polynitroso ayant le potentiel de former des réseaux organiques covalents bi- et tridimensionnels. Les paramètres thermodynamiques propres à leur polymérisation ont pu être estimés grâce à l’étude de composés mononitroso modèles. Dans un troisième temps, nous avons synthétisé les divers composés polynitroso visés par notre étude. Pour y parvenir, nous avons eu à développer une nouvelle méthodologie de synthèse des poly(N-arylhydroxylamines) – les précurseurs directs aux composés polynitroso. Dans un quatrième temps, nous avons étudié la polymérisation des composés polynitroso. En dépit de difficultés d’ordre pratique causées par la polymérisation spontanée de ces composés, nous avons pu identifier les conditions propices à leur polymérisation en réseaux organiques covalents hautement cristallins. Plusieurs nouveaux réseaux covalents tridimensionnels ont ainsi été produits sous la forme de monocristaux de dimensions variant entre 30 µm et 500 µm, confirmant la validité de notre hypothèse de départ. Il a par conséquent été possible de résoudre la structure de ces cristaux par diffraction de rayons X sur monocristal, ce qui n’avait jamais été possible dans le passé pour ce genre de matériau. Ces cristaux sont remarquablement uniformes et les polymères qui les composent ont des masses moléculaires extrêmement élevées (1014-1017 g/mol). Toutefois, la polymérisation de la majorité des composés polynitroso étudiés a plutôt conduit à des solides amorphes ou à des solides cristallins constitués de la forme monomérique de ces composés. D’autres composés nitroso modèles ont alors été préparés afin d’expliquer ce comportement, et des hypothèses ont été émises à partir des données alors recueillies. Enfin, les structures de plusieurs composés polynitroso ayant cristallisés sous une forme monomérique ont été analysés en détails par diffraction des rayons X. Notre stratégie, qui consiste en l’utilisation de monomères ayant la capacité de polymériser spontanément par un processus d’addition réversible, semble donc prometteuse pour obtenir de nouveaux réseaux covalents monocristallins à partir de composés polynitroso ou d’autres monomères de nature similaire. De plus, les résultats présentés au cours de cette thèse établissent un lien entre la science des polymères et la chimie supramoléculaire, en illustrant comment des structures ordonnées, covalentes ou non covalentes, peuvent toutes deux être construites de façon prévisible.
Resumo:
Mise en garde : Ce mémoire a été réalisé grâce au soutien financier du Fonds d’éducation et de saine gouvernance de l'Autorité des marchés financiers. Les informations, opinions et avis exprimés n'engagent que la responsabilité de Marie-Annick Laurendeau.
Resumo:
Une étude récente auprès de 302 mathématiciens canadiens révèle un écart intriguant : tandis que 43% des sondés utilisent la programmation informatique dans leur recherche, seulement 18% indiquent qu'ils emploient cette technologie dans leur enseignement (Buteau et coll., 2014). La première donnée reflète le potentiel énorme qu'a la programmation pour faire et apprendre des mathématiques. La deuxième donnée a inspiré ce mémoire : pourquoi existe-t-il un tel écart ? Pour répondre à cette question, nous avons mené une étude exploratoire qui cherche à mieux comprendre la place de la programmation dans la recherche et la formation en mathématiques au niveau universitaire. Des entrevues semi-dirigées ont été conduites avec 14 mathématiciens travaillant dans des domaines variés et à différentes universités à travers le pays. Notre analyse qualitative nous permet de décrire les façons dont ces mathématiciens construisent des programmes informatiques afin d'accomplir plusieurs tâches (p.e., simuler des phénomènes réels, faire des mathématiques « expérimentales », développer de nouveaux outils puissants). Elle nous permet également d'identifier des moments où les mathématiciens exposent leurs étudiants à certains éléments de ces pratiques en recherche. Nous notons toutefois que les étudiants sont rarement invités à concevoir et à écrire leurs propres programmes. Enfin, nos participants évoquent plusieurs contraintes institutionnelles : le curriculum, la culture départementale, les ressources humaines, les traditions en mathématiques, etc. Quelques-unes de ces contraintes, qui semblent limiter l'expérience mathématique des étudiants de premier cycle, pourraient être revues.
Resumo:
La multiplication dans le corps de Galois à 2^m éléments (i.e. GF(2^m)) est une opérations très importante pour les applications de la théorie des correcteurs et de la cryptographie. Dans ce mémoire, nous nous intéressons aux réalisations parallèles de multiplicateurs dans GF(2^m) lorsque ce dernier est généré par des trinômes irréductibles. Notre point de départ est le multiplicateur de Montgomery qui calcule A(x)B(x)x^(-u) efficacement, étant donné A(x), B(x) in GF(2^m) pour u choisi judicieusement. Nous étudions ensuite l'algorithme diviser pour régner PCHS qui permet de partitionner les multiplicandes d'un produit dans GF(2^m) lorsque m est impair. Nous l'appliquons pour la partitionnement de A(x) et de B(x) dans la multiplication de Montgomery A(x)B(x)x^(-u) pour GF(2^m) même si m est pair. Basé sur cette nouvelle approche, nous construisons un multiplicateur dans GF(2^m) généré par des trinôme irréductibles. Une nouvelle astuce de réutilisation des résultats intermédiaires nous permet d'éliminer plusieurs portes XOR redondantes. Les complexités de temps (i.e. le délais) et d'espace (i.e. le nombre de portes logiques) du nouveau multiplicateur sont ensuite analysées: 1. Le nouveau multiplicateur demande environ 25% moins de portes logiques que les multiplicateurs de Montgomery et de Mastrovito lorsque GF(2^m) est généré par des trinômes irréductible et m est suffisamment grand. Le nombre de portes du nouveau multiplicateur est presque identique à celui du multiplicateur de Karatsuba proposé par Elia. 2. Le délai de calcul du nouveau multiplicateur excède celui des meilleurs multiplicateurs d'au plus deux évaluations de portes XOR. 3. Nous determinons le délai et le nombre de portes logiques du nouveau multiplicateur sur les deux corps de Galois recommandés par le National Institute of Standards and Technology (NIST). Nous montrons que notre multiplicateurs contient 15% moins de portes logiques que les multiplicateurs de Montgomery et de Mastrovito au coût d'un délai d'au plus une porte XOR supplémentaire. De plus, notre multiplicateur a un délai d'une porte XOR moindre que celui du multiplicateur d'Elia au coût d'une augmentation de moins de 1% du nombre total de portes logiques.
Resumo:
Le droit de propriété, théoriquement absolu, est restreint dans le cadre de la copropriété divise étant donné le contexte individuel et collectif dans lequel il s’exerce. En fait, l’intérêt collectif peut lui imposer des restrictions, mais à certaines conditions. L’une d’entre elles, essentielle, est le respect de la destination de l’immeuble. Or, la notion de destination de l'immeuble ne fait l'objet d'aucune disposition législative permettant de la définir. Afin de préciser cette notion, deux conceptions ont été développées. La première est à l’effet qu’on doit tenir compte, dans la recherche de la destination de l'immeuble, de ses caractères et de sa situation. La deuxième prévoit plutôt qu'il faut distinguer ces trois éléments. Même si la première thèse est majoritairement admise en jurisprudence, nous croyons que les tribunaux interprètent trop largement cette notion, qui devrait être mieux circonscrite. Après une revue de la littérature et une analyse jurisprudentielle, nous développerons notre propre conception de la notion de destination, qui sera une voie mitoyenne entre les deux conceptions établies, et proposerons des améliorations quant à la rédaction de cette clause dans la déclaration de copropriété.
Resumo:
Les champignons mycorhiziens à arbuscules (CMA) sont des organismes microscopiques du sol qui jouent un rôle crucial dans les écosystèmes naturels et que l’on retrouve dans tous les habitats de la planète. Ils vivent en relation symbiotique avec la vaste majorité des plantes terrestres. Ils sont des biotrophes obligatoires, c'est-à-dire qu'ils ne peuvent croître qu'en présence d'une plante hôte. Cette symbiose permet entre autres à la plante d'acquérir des nutriments supplémentaires, en particulier du phosphore et du nitrate. Malgré le fait que cette symbiose apporte des services importants aux écosystèmes, la richesse des espèces, la structure des communautés, ainsi que la diversité fonctionnelle des CMA sont mal connues et l'approfondissement des connaissances dans ces domaines dépend d’outils de diagnostic moléculaire. Cependant, la présence de polymorphisme nucléaire intra-isolat combiné à un manque de données génomiques dans différents groupes phylogénétique de ces champignons complique le développement de marqueurs moléculaires et la détermination de l'affiliation évolutive à hauts niveaux de résolution (c.a.d. entre espèces génétiquement similaires et/ou isolats de la même espèce). . Pour ces raisons, il semble une bonne alternative d’utiliser un système génétique différent en ciblant le génome mitochondrial, qui a été démontré homogène au sein d'un même isolat de CMA. Cependant, étant donné le mode de vie particulier de ces organismes, une meilleure compréhension des processus évolutifs mitochondriaux est nécessaire afin de valoriser l'utilisation de tels marqueurs dans des études de diversité et en génétique des populations. En ce sens, mon projet de doctorat consistait à investiguerétudier: i) les vecteurs de divergences inter-isolats et -espèces génétiquement rapprochéesphylogénétiquement apparentées, ii) la plasticité des génomes mitochondriaux, iii) l'héritabilité mitochondriale et les mécanismes potentiels de ségrégation, ainsi que iv) la diversité mitochondriale intra-isolat in situ. À l'aide de la génomique mitochondriale comparative, en utilisant le séquençage nouvelle génération, on a démontré la présence de variation génétique substantielle inter-isolats et -espèces, engendrées par l'invasion d'éléments mobiles dans les génomes mitochondriaux des CMA, donnant lieu à une évolution moléculaire rapide des régions intergéniques. Cette variation permettait de développer des marqueurs spécifiques à des isolats de la même espèce. Ensuite, à l'aide d'une approche analytique par réseaux de gènes sur des éléments mobiles, on a été en mesure de démontrer des évènements de recombinaisons homologues entre des haplotypes mitochondriaux distincts, menant à des réarrangements génomiques. Cela a permis d'ouvrir les perspectives sur la dynamique mitochondriale et l'hétéroplasmie dans un même isolatsuggère une coexistence de différents haplotypes mitochondriaux dans les populations naturelles et que les cultures monosporales pourraient induirent une sous-estimation de la diversité allélique mitochondriale. Cette apparente contradiction avec l'homogénéité mitochondriale intra-isolat généralement observée, a amené à investiguer étudier les échanges génétiques à l'aide de croisements d'isolats génétiquement distincts. Malgré l'observation de quelques spores filles hétéroplasmiques, l'homoplasmie était le statut par défaut dans toutes les cultures monosporales, avec un biais en faveur de l'un des haplotypes parentaux. Ces résultats suggèrent que la ségrégation opère durant la formation de la spore et/ou le développement de la coloniedu mycélium. De plus, ils supportent la présence d'une machinerie protéique de ségrégation mitochondriale chez les CMAAMF, où l'ensemble des gènes impliqués dans ce mécanisme ont été retrouvé et sont orthologues aux autres champignons. Finalement, on est revenue aux sources avecon a étudié le polymorphisme mitochondrial intra-isolat à l'aide d'une approche conventionnelle de PCR en utilisant une Taq polymérase de haute fidélité, suivie de clonage et de séquençage Sanger, sur deux isolats de R. irregularis. Cela a permis l'observation d'hétéroplasmie in situ, ainsi que la co-expression de variantes de variantes de protéines'ARNm dans une souche in vitro. Les résultats suggèrent que d'autres études basées sur le séquençage nouvelle génération aurait potentiellement ignorée cette variation, offrant ainsi plusieurs nouveaux arguments permettant de considérer les CMA comme des organismes possédant une population de génomes mitochondriaux et nucléaires distincts.
Resumo:
Les solvants industriels, utilisés dans un grand nombre de secteurs économiques, constituent une préoccupation majeure pour les responsables de la santé et de la sécurité du travail. Leurs propriétés irritantes, leurs effets toxiques sur le système nerveux et les appareils d’épuration (reins, foie), leur rôle dans la pollution ou leur risque d’explosion ou d’incendie sont bien connus. Cet ouvrage fait le point sur la prévention des risques professionnels associés aux solvants, notamment avec l’introduction des méthodes de substitution, solvants de remplacement et procédés de rechange. Après un rappel des effets sanitaires et environnementaux des grandes familles de solvants, de leurs utilisations et de leurs caractéristiques physicochimiques, les auteurs exposent et analysent les nouveaux outils envisageables en matière de sûreté d’utilisation des produits solvants, et de substitution en général, pour se concentrer ensuite sur les procédés de ventilation, la protection des personnes exposées et la prévention des risques d’inflammabilité des solvants en milieu de travail. Enfin, plusieurs éléments pratiques complètent cet ouvrage, portant sur les fiches de données de sécurité et autres sources d’information pour l’entreprise. Par son apport d’informations théoriques et pratiques ainsi que ses analyses méthodiques, cet ouvrage représente un texte de référence parfaitement adapté aux attentes des médecins du travail, hygiénistes et de tout professionnel impliqué dans la prévention des accidents et la protection de l’environnement.
Resumo:
Le cancer du sein est le cancer le plus fréquent chez la femme. Il demeure la cause de mortalité la plus importante chez les femmes âgées entre 35 et 55 ans. Au Canada, plus de 20 000 nouveaux cas sont diagnostiqués chaque année. Les études scientifiques démontrent que l'espérance de vie est étroitement liée à la précocité du diagnostic. Les moyens de diagnostic actuels comme la mammographie, l'échographie et la biopsie comportent certaines limitations. Par exemple, la mammographie permet de diagnostiquer la présence d’une masse suspecte dans le sein, mais ne peut en déterminer la nature (bénigne ou maligne). Les techniques d’imagerie complémentaires comme l'échographie ou l'imagerie par résonance magnétique (IRM) sont alors utilisées en complément, mais elles sont limitées quant à la sensibilité et la spécificité de leur diagnostic, principalement chez les jeunes femmes (< 50 ans) ou celles ayant un parenchyme dense. Par conséquent, nombreuses sont celles qui doivent subir une biopsie alors que leur lésions sont bénignes. Quelques voies de recherche sont privilégiées depuis peu pour réduire l`incertitude du diagnostic par imagerie ultrasonore. Dans ce contexte, l’élastographie dynamique est prometteuse. Cette technique est inspirée du geste médical de palpation et est basée sur la détermination de la rigidité des tissus, sachant que les lésions en général sont plus rigides que le tissu sain environnant. Le principe de cette technique est de générer des ondes de cisaillement et d'en étudier la propagation de ces ondes afin de remonter aux propriétés mécaniques du milieu via un problème inverse préétabli. Cette thèse vise le développement d'une nouvelle méthode d'élastographie dynamique pour le dépistage précoce des lésions mammaires. L'un des principaux problèmes des techniques d'élastographie dynamiques en utilisant la force de radiation est la forte atténuation des ondes de cisaillement. Après quelques longueurs d'onde de propagation, les amplitudes de déplacement diminuent considérablement et leur suivi devient difficile voir impossible. Ce problème affecte grandement la caractérisation des tissus biologiques. En outre, ces techniques ne donnent que l'information sur l'élasticité tandis que des études récentes montrent que certaines lésions bénignes ont les mêmes élasticités que des lésions malignes ce qui affecte la spécificité de ces techniques et motive la quantification de d'autres paramètres mécaniques (e.g.la viscosité). Le premier objectif de cette thèse consiste à optimiser la pression de radiation acoustique afin de rehausser l'amplitude des déplacements générés. Pour ce faire, un modèle analytique de prédiction de la fréquence de génération de la force de radiation a été développé. Une fois validé in vitro, ce modèle a servi pour la prédiction des fréquences optimales pour la génération de la force de radiation dans d'autres expérimentations in vitro et ex vivo sur des échantillons de tissu mammaire obtenus après mastectomie totale. Dans la continuité de ces travaux, un prototype de sonde ultrasonore conçu pour la génération d'un type spécifique d'ondes de cisaillement appelé ''onde de torsion'' a été développé. Le but est d'utiliser la force de radiation optimisée afin de générer des ondes de cisaillement adaptatives, et de monter leur utilité dans l'amélioration de l'amplitude des déplacements. Contrairement aux techniques élastographiques classiques, ce prototype permet la génération des ondes de cisaillement selon des parcours adaptatifs (e.g. circulaire, elliptique,…etc.) dépendamment de la forme de la lésion. L’optimisation des dépôts énergétiques induit une meilleure réponse mécanique du tissu et améliore le rapport signal sur bruit pour une meilleure quantification des paramètres viscoélastiques. Il est aussi question de consolider davantage les travaux de recherches antérieurs par un appui expérimental, et de prouver que ce type particulier d'onde de torsion peut mettre en résonance des structures. Ce phénomène de résonance des structures permet de rehausser davantage le contraste de déplacement entre les masses suspectes et le milieu environnant pour une meilleure détection. Enfin, dans le cadre de la quantification des paramètres viscoélastiques des tissus, la dernière étape consiste à développer un modèle inverse basé sur la propagation des ondes de cisaillement adaptatives pour l'estimation des paramètres viscoélastiques. L'estimation des paramètres viscoélastiques se fait via la résolution d'un problème inverse intégré dans un modèle numérique éléments finis. La robustesse de ce modèle a été étudiée afin de déterminer ces limites d'utilisation. Les résultats obtenus par ce modèle sont comparés à d'autres résultats (mêmes échantillons) obtenus par des méthodes de référence (e.g. Rheospectris) afin d'estimer la précision de la méthode développée. La quantification des paramètres mécaniques des lésions permet d'améliorer la sensibilité et la spécificité du diagnostic. La caractérisation tissulaire permet aussi une meilleure identification du type de lésion (malin ou bénin) ainsi que son évolution. Cette technique aide grandement les cliniciens dans le choix et la planification d'une prise en charge adaptée.
Resumo:
Les médias renforcent l’image négative de l’émergence de zones criminelles dans certaines banlieues, mettant en avant l’impuissance des interventions policières et de la stratégie étatique. Les citoyens vivant au quotidien dans ces quartiers expriment un sentiment d’insécurité. L’impression d’un cercle vicieux entre insécurité réelle et sentiment d’insécurité persiste alors au travers de tels discours et perdure au travers des époques et des lieux, que ce soit en France, aux États-Unis ou même au Canada. Bon nombre d’études ont déjà posé la question à savoir si ces discours se fondent sur une réelle situation d’insécurité ou sur le sentiment d’insécurité des citoyens mais peu ont pris l’axe d’approfondir la réflexion et l’étude sur ces nouveaux phénomènes de désordres urbains et d’incivilités émergents dans les banlieues du Québec. Cette recherche a pour but d’approfondir cette réflexion en prenant un exemple d’un quartier de Laval au Québec. Il s’agit d’établir s’il y a réelle problématique d’incivilités et de désordres urbains ou s’il s’agit davantage d’un sentiment d’insécurité, le but étant ainsi de pouvoir établir un guide de résolutions de problèmes dans les banlieues et d’apporter une réflexion sur les interventions potentielles dans des zones sensibles. Se basant sur une méthodologique mixte, reliant une comparaison des statistiques de criminalité par quartiers à la perception d’acteurs clés de terrain de Laval, cette recherche apporte un nouveau regard sur ces résolutions de problèmes. Les résultats apportent une analyse intéressante sur cette interaction en soulignant l’importance du quartier et des caractéristiques sociodémographiques, du contrôle social informel, du tissu social mais aussi de la nécessité du cadre de l’autorité institutionnelle telle que la police, l’école ou encore le tissu associatif. Ces premiers éléments permettent d’ouvrir la discussion sur un plan partenarial d’interventions établissant une stratégie de lutte contre l’insécurité et le sentiment d’insécurité, cassant ainsi ce cercle vicieux par la mise en place d’une nouvelle gouvernance locale de sécurité et de bien-vivre ensemble.
Resumo:
Au Canada, les Commissions d'Examen des Troubles Mentaux de chaque province ont la responsabilité de déterminer les conditions de prise en charge des personnes déclarées Non Criminellement Responsables pour cause de Troubles Mentaux (NCRTM) et de rendre, sur une base annuelle une des trois décisions suivantes: a) détention dans un hôpital, b) libération conditionnelle, ou c) libération absolue. Pour favoriser la réinsertion sociale, la libération conditionnelle peut être ordonnée avec la condition de vivre dans une ressource d’hébergement dans la communauté. Parmi les personnes vivant avec une maladie mentale, l’accès aux ressources d’hébergement a été associé à une plus grande stabilité résidentielle, une réduction de nombre et de la durée de séjours d'hospitalisation ainsi qu’une réduction des contacts avec le système judiciaire. Toutefois, l’accès aux ressources d’hébergement pour les personnes trouvées NCRTM est limité, en partie lié à la stigmatisation qui entoure cette population. Il existe peu d’études qui traitent du placement en ressources d’hébergement en psychiatrie légale. Pour répondre à cette question, cette thèse comporte trois volets qui seront présentés dans le cadre de deux manuscrits: 1) évaluer le rôle du placement en ressources d’hébergement sur la réhospitalisation et la récidive chez les personnes trouvées NCRTM; 2) décrire les trajectoires de disposition et de placement en ressources d’hébergement, et 3) mieux comprendre les facteurs associés à ces trajectoires. Les données de la province du Québec du Projet National de Trajectoires d’individus trouvés NCRTM ont été utilisées. Un total de 934 personnes trouvées NCRTM entre le 1er mai 2000 et le 30 avril 2005 compose cet échantillon. Dans le premier manuscrit, l’analyse de survie démontre que les individus placés dans un logement indépendant suite à une libération conditionnelle de la Commission d’Examen sont plus susceptibles de commettre une nouvelle infraction et d’être ré-hospitalisés que les personnes en ressources d’hébergement. Dans le deuxième article, l'analyse de données séquentielle a généré quatre modèles statistiquement stables de trajectoires de disposition et de placement résidentiel pour les 36 mois suivant un verdict de NCRTM: 1) libération conditionnelle dans une ressource d’hébergement (11%), 2) libération conditionnelle dans un logement autonome (32%), 3) détention (43%), et 4) libération absolue (14%). Une régression logistique multinomiale révèle que la probabilité d'un placement en ressource supervisée comparé au maintien en détention est significativement réduite pour les personnes traitées dans un hôpital spécialisé en psychiatrie légale, ainsi que pour ceux ayant commis un délit sévère. D'autre part, la probabilité d’être soumis à des dispositions moins restrictives (soit le logement indépendant et la libération absolue) est fortement associée à des facteurs cliniques tels qu’un nombre réduit d'hospitalisations psychiatriques antérieures, un diagnostic de trouble de l'humeur et une absence de diagnostic de trouble de la personnalité. Les résultats de ce projet doctoral soulignent la valeur protectrice des ressources en hébergement pour les personnes trouvées NCRTM, en plus d’apporter des arguments solides pour une gestion de risque chez les personnes trouvées NCRTM qui incorpore des éléments contextuels de prévention du risque, tel que l’accès à des ressources d’hébergement.
Resumo:
L’objectif de cette thèse est double. Premièrement, il s’agira de comprendre l’impact que l’internet peut avoir sur la démocratie, c’est-à-dire de montrer ce que cette technologie change à la démocratie, en développant un cadre conceptuel précis et en m’appuyant sur un corpus empirique important. Il s’agira ensuite de développer un projet normatif, afin de montrer ce qu’il est nécessaire de faire afin de garantir que l’impact de l’internet sur la démocratie sera positif. Pour mener à bien ces objectifs, il me faudra d’abord disposer d’une conception claire de la démocratie. C’est pourquoi je proposerai dans une première partie de la comprendre à partir du concept d’autonomie politique dont je proposerai une analyse conceptuelle au premier chapitre. J’analyserai ensuite deux éléments centraux de ce concept, à savoir la vie privée et l’espace public. Je proposerai dans une deuxième partie une analyse à la fois précise et empiriquement fondée de l’impact de l’internet sur ces deux éléments, afin de présenter un argument qui ne sera pas simplement a priori ou spéculatif. Les conclusions que je présenterai ne vaudront, cependant, que pour l’internet tel qu’il est aujourd’hui, car il est certain qu’il peut évoluer. Il est alors tout à fait possible que ses propriétés cessent de permettre l’augmentation de l’autonomie politique que je décris au cours de ma deuxième partie. Il est donc important de mener à bien une réflexion normative afin d’identifier dans quelle mesure il pourrait être nécessaire de faire quelque chose afin de garantir l’impact positif de l’internet sur l’autonomie politique. Je montrerai donc dans une dernière partie qu’il est nécessaire d’assurer à l’internet une architecture non-discriminante, mais qu’il n’est pas nécessaire de protéger outre mesure la générativité de son écosystème. Je conclurai en montrant l’importance d’offrir à tous des éléments d’une littératie numérique, si l’on souhaite que tous puissent bénéficier des opportunités offertes par le réseau des réseaux.
Resumo:
Les immunités législatives pour bonne foi sont une composante importante des règles spécifiques s’appliquant à la responsabilité civile des administrations publiques. Apparues dans les années 1940 au Québec, elles visent à insuffler à la responsabilité civile les considérations propres à l’action étatique (difficulté des tâches, pouvoir discrétionnaire, liberté d’action, etc.). Or, la notion principale de ces immunités, la bonne foi, est d’une nature fragile. Tiraillée entre une vision subjective et objective, elle souffre de nombreuses lacunes. Originalement fondée sur l’évaluation de l’état d’esprit d’une personne, la bonne foi reproduit dorénavant le concept de faute lourde présent en responsabilité civile. Il en résulte un système qui crée de la confusion sur l’état mental nécessaire pour entrainer la responsabilité d’une administration publique. Au surplus, le régime de la bonne foi est variable et change selon les fonctions exercées par les administrations publiques. Ces attributs mettent en exergue le peu d’utilité de cette notion : la bonne foi dédouble plusieurs éléments déjà présents en responsabilité civile québécoise et partant de là, affaiblit sa place comme règle particulière applicable aux administrations publiques. Bref, par son caractère adaptable, la bonne foi est un calque de la responsabilité civile québécoise et son faible apport embrouille le régime de cette dernière.
Resumo:
L’enseignement fait l’objet de nombreux débats au Québec et à travers le monde, pratiquement depuis qu’il existe. L’implantation du nouveau programme de formation au Québec durant les années 2000 a donné lieu à des débats particulièrement vigoureux. En effet, ceux-ci ont mené à la révision des programmes d’histoire du Québec au secondaire moins de dix ans après leur mise en application. Au cœur de ces discussions se trouvait la place de la nation et de la mémoire collective. Pour plusieurs, le nouveau curriculum négligeait de transmettre aux élèves les principales connaissances historiques liées aux origines et à l’évolution de la nation québécoise. Notre recherche tente de mieux comprendre le rôle que joue l’identification à la nation dans l’enseignement de l’histoire et l’impact que peut avoir le programme de formation sur cet aspect de la pratique enseignante. Pour apporter des éléments de réponse à cette question, nous avons mis en place deux dispositifs méthodologiques : un qualitatif et un quantitatif. Nous visions ainsi à cerner les représentations sociales des enseignants à propos des finalités de l’enseignement de l’histoire et de la place que doit y tenir l’identification à la nation. Pour ce faire, nous avons situé les réponses des participants à l’aide des finalités de l’enseignement de l’histoire évoquées par Audigier (1995): patrimoniales et civiques, intellectuelles et critiques ainsi que pratiques. La phase qualitative de notre étude consiste en des entrevues avec huit enseignants d’histoire du Québec au secondaire. Fondées sur les écrits à propos des représentations sociales, les entrevues présentent le profil de huit enseignants qui intègrent, à leur façon, la nation dans leur enseignement. Les données recueillies lors de cette phase de la recherche nous ont permis de créer un sondage à l'aide duquel nous avons recueilli des données pour la phase quantitative de la recherche. Ce sondage, mené auprès de 36 enseignants d’histoire du Québec au secondaire, montre que les finalités patrimoniales iii et civiques de l’enseignement de l’histoire sont toujours bien présentes dans les représentations sociales des enseignants, malgré le changement de programme.
Resumo:
Les réclamations pour dommages punitifs en vertu de la Charte des droits et libertés de la personne se multiplient depuis plusieurs années devant les tribunaux. Pour être accueillie, cette réclamation implique la démonstration d’une atteinte illicite et intentionnelle à un droit ou une liberté protégé par cette charte. Les recours en responsabilité peuvent faire l’objet d’une couverture d’assurance. Or, le Code civil du Québec prévoit spécifiquement que l’assureur n’est pas tenu de couvrir la faute intentionnelle de l’assuré. Est-ce à dire que l’assureur n’a pas d’obligation envers son assuré lorsque des dommages punitifs sont réclamés? Il s’agit donc de déterminer si le concept de faute intentionnelle et celui d’atteinte illicite et intentionnelle sont des concepts qui s’équivalent ou qu’il est nécessaire de distinguer. Pour cette analyse, ces deux concepts seront abordés en profondeur. Il sera question de l’origine de ces deux notions, de leurs fondements et de leur interprétation pour finalement définir ces termes le plus précisément possible. Ces définitions permettront d’opposer ces deux notions et de déterminer au final qu’il existe plusieurs éléments qui différencient ces concepts, notamment à l’égard de l’intention requise, faisant en sorte qu’ils ne peuvent être assimilés. Cette conclusion aura un impact certain sur les obligations de l’assureur de défendre l’assuré et d’indemniser la victime pour ses dommages compensatoires lorsqu’il existe une réclamation en dommages punitifs et, par conséquent, l’assureur ne pourra faire reposer son refus de défendre ou d’indemniser sur la seule base de la preuve d’une atteinte illicite et intentionnelle.
Resumo:
La question de l’existence d’une société civile mondiale est autant le fait des politologues en mal de thématiques de recherche attrayantes, que des décideurs internationaux qui vilipendent les troubles créés par « ces empêcheurs de tourner en rond » ou, à l’inverse, qui louent les mérites démocratiques d’une société civile active sur le plan mondial. Autrement dit, comme beaucoup de questions de recherche en science politique, celle que nous avons posée comporte une dimension normative importante. L’objectif de ce chapitre est de tenter d’y répondre en adoptant un point de vue analytique. Nous nous y efforcerons en précisant les sens des mots utilisés, puis en retraçant les éléments qui ont suscité l’engouement pour cette société civile mondiale. Finalement, nous verrons que cette celle-ci correspond davantage à un artefact, une vue de l’esprit, qu’à un phénomène social directement observable.