961 resultados para Kierkegaard, Kommunikationsanalyse, Sozialkritik, Existenzphilosophie, Masse, Nivellierung
Resumo:
L’Amérique centrale, théâtre des dernières batailles rangées de la guerre froide, est aujourd’hui la région la plus violente au monde, selon les Nations unies. Notre étude s’intéresse à la forme de guerre irrégulière livrée par l’État guatémaltèque contre sa propre population pendant la deuxième moitié du vingtième siècle. À la lumière de rares témoignages d’exécutants et d’archives militaires et policières, nous examinons un mécanisme clandestin de répression dont les trois principales composantes – les enlèvements, la torture et les exécutions sommaires – pouvaient s’abattre sur toute personne soupçonnée, à tort ou à raison, de conspirer contre un statu quo d’exclusion. Au moment de leur articulation, ces moyens répressifs ont constitué un dispositif qui, à partir de 1966, s’est avéré d’une redoutable efficacité. Arme de prédilection des adeptes de la guerre antisubversive pendant plus de vingt ans, le dispositif permettait, telle une chaîne de production, l’accumulation des renseignements jugés indispensables à cette forme de guerre, ainsi que les cadavres dont l’absence éternelle ou la présence outrageuse sur la place publique servaient d’avertissement funeste à l’ensemble du corps social. Où chercher les origines d’un tel dispositif? À partir des ouvrages de référence cités dans le manuel de guerre contre-subversive de l’armée guatémaltèque, la réponse à cette question nous fera découvrir des parachutistes français pour qui la défaite militaire en Indochine et en Algérie pendant les années 1950 n’était pas une option et pour qui la victoire justifiait absolument tous les moyens. Le penchant de ces pionniers de la guerre hors-norme pour les cours magistraux, les entrevues et les articles, nous a permis d’étudier les méthodes qu’ils préconisaient et de repérer leurs traces au Guatemala. Alors que la guerre qui avait servi de prétexte au maintien du dispositif est terminée, sa très réputée efficacité assure encore aujourd’hui sa pérennité auprès de ceux qui peuvent s’offrir le service. En ce sens, la contre-insurrection se poursuit, et ce, malgré l’absence depuis une quinzaine d’années d’un conflit armé. Cette thèse aborde l’histoire de la guerre irrégulière et son déroulement au Guatemala. Les archives et les témoignages à notre disposition contredisent le déni des crimes commis dans les villes et les campagnes guatémaltèques, dont le génocide de 1982. Finalement, certains signes avant-coureurs indiquent que la violence et l’impunité actuelles au pays pourraient mener à la répétition de tels crimes à l’avenir.
Resumo:
Depuis quelques années, l'évolution moléculaire cherche à caractériser les variations et l'intensité de la sélection grâce au rapport entre taux de substitution synonyme et taux de substitution non-synonyme (dN/dS). Cette mesure, dN/dS, a permis d'étudier l'histoire de la variation de l'intensité de la sélection au cours du temps ou de détecter des épisodes de la sélection positive. Les liens entre sélection et variation de taille efficace interfèrent cependant dans ces mesures. Les méthodes comparatives, quant a elle, permettent de mesurer les corrélations entre caractères quantitatifs le long d'une phylogénie. Elles sont également utilisées pour tester des hypothèses sur l'évolution corrélée des traits d'histoire de vie, mais pour être employées pour étudier les corrélations entre traits d'histoire de vie, masse, taux de substitution ou dN/dS. Nous proposons ici une approche combinant une méthode comparative basée sur le principe des contrastes indépendants et un modèle d'évolution moléculaire, dans un cadre probabiliste Bayésien. Intégrant, le long d'une phylogénie, sur les reconstructions ancestrales des traits et et de dN/dS nous estimons les covariances entre traits ainsi qu'entre traits et paramètres du modèle d'évolution moléculaire. Un modèle hiérarchique, a été implémenté dans le cadre du logiciel coevol, publié au cours de cette maitrise. Ce modèle permet l'analyse simultané de plusieurs gènes sans perdre la puissance donnée par l'ensemble de séquences. Un travail deparallélisation des calculs donne la liberté d'augmenter la taille du modèle jusqu'à l'échelle du génome. Nous étudions ici les placentaires, pour lesquels beaucoup de génomes complets et de mesures phénotypiques sont disponibles. À la lumière des théories sur les traits d'histoire de vie, notre méthode devrait permettre de caractériser l'implication de groupes de gènes dans les processus biologique liés aux phénotypes étudiés.
Resumo:
La régulation post-transcriptionnelle joue un rôle de premier plan dans le contrôle fin de l’expression génique en permettant une modulation de la synthèse de protéines dans le temps et l’espace, en fonction des besoins de la cellule. Ainsi, des protéines reconnaissant des éléments d’ARN présents sur des transcrits peuvent influencer toutes les étapes de leur existence, soit leur épissage, leur export nucléaire, leur localisation subcellulaire, leur traduction et leur dégradation. Staufen1 (Stau1) est un membre de la famille des protéines liant l’ARN double-brin qui contribue à la régulation post-transcriptionnelle par son implication dans des mécanismes qui vont promouvoir l’épissage alternatif, le transport, la dé-répression de la traduction et l’induction de la dégradation d’ARN messagers (ARNm) spécifiques. L’identité des cibles potentielles de Stau1 est maintenant connue puisqu’une étude à l’échelle du génome a montré que la protéine s’associe à près de 7% du transcriptome des cellules HEK293T. Ces ARNm se classent dans un large éventail de catégories fonctionnelles, mais il est tout de même intéressant de noter qu’une grande proportion d’entre eux code pour des protéines reliées au métabolisme cellulaire et à la régulation de processus cellulaires. En considérant toutes ces informations, nous avons émis l’hypothèse que les différentes activités de Stau1 puissent être modulées afin de contrôler adéquatement l’expression des transcrits liés par la protéine. Dans la mesure où certains ARNm faisant partie des complexes définis par la présence de Stau1 codent pour des régulateurs clés de la prolifération cellulaire, nous avons voulu examiner si l’expression de la protéine varie au cours du cycle de division cellulaire. Nous avons montré que l’abondance de Stau1 est maximale en début de mitose et qu’elle diminue ensuite lorsque les cellules complètent la division cellulaire. Nous avons ensuite découvert que cette baisse d’expression de Stau1 en sortie de mitose dépend du complexe promoteur d’anaphase/cyclosome (APC/C). En soutien à l’idée que Stau1 soit une cible de cette ubiquitine ligase de type E3, nous avons de plus démontré que Stau1 est ubiquitiné et dégradé par le protéasome. Ce contrôle des niveaux de Stau1 semble important puisque la surexpression de la protéine retarde la sortie de mitose et entraîne une diminution importante de la prolifération cellulaire. Par ailleurs, nous avons supposé que les différentes fonctions de Stau1 puissent également être sujettes à une régulation. Compte tenu que les activités de nombreuses protéines liant l’ARN peuvent être contrôlées par des modifications post-traductionnelles telles que la phosphorylation, nous avons voulu tester la possibilité que Stau1 soit phosphorylé. L’immunopurification de Stau1 et son analyse par spectrométrie de masse nous a permis d’identifier trois phosphosites dans la protéine. L’évaluation du rôle de ces événements de phosphorylation à l’aide de mutants phoshomimétiques ou non-phoshorylables a révélé que la modification de Stau1 pourrait compromettre son association à la protéine UPF1. Comme cette interaction est nécessaire pour déstabiliser les transcrits liés par Stau1, nos résultats suggèrent fortement que la fonction de Stau1 dans la dégradation d’ARNm est régulée négativement par sa phosphorylation. Toutes ces données mettent en lumière l’importance des modifications post-traductionnelles telles que l’ubiquitination et la phosphorylation dans la modulation de l’expression et des fonctions de Stau 1. Somme toute, il est vraisemblable que ces mécanismes de contrôle puissent avoir un impact significatif sur le destin des ARNm liés par Stau1, particulièrement dans un contexte de progression dans le cycle cellulaire.
Resumo:
L’obésité est définie comme un surplus de masse adipeuse. Cette condition représente un problème de santé publique devenu pandémique dans les pays industrialisés. Elle prédispose à des maladies potentiellement mortelles comme le diabète de type 2, les maladies cardiovasculaires et la stéatose hépatique non-alcoolique. L’accumulation du tissu adipeux intra-abdominal, formé d’adipocytes, est corrélée avec la résistance à l’insuline. L’augmentation de la masse adipeuse se fait par l’hyperplasie des préadipocytes, la différenciation des préadipocytes en adipocytes et l’hypertrophie des adipocytes. La différenciation des préadipocytes se fait selon l’adipogenèse qui est régulée par une multitude de facteurs, mais qui est inhibée pas les stimuli inflammatoires qui sont aussi responsables de la résistance à l’insuline et de l’apparition des problèmes de santé liés à l’obésité. Nous avons identifié un nouveau système de régulation autocrine/paracrine de l’adipogenèse dans les cellules du tissu adipeux. Le pyroglutamylated RF-amide peptide (QRFP), qui était connu pour son rôle dans la régulation de l’appétit, est un activateur de l’adipogenèse par l’activation de son récepteur, le G protein-coupled receptor 103 (GPR103). Le QRFP est exprimé dans les macrophages et les adipocytes alors que le GPR103 de sous-type b est exprimé dans les adipocytes seulement. Un traitement des adipocytes avec le QRFP augmente le captage des acides gras, l’accumulation de lipides ainsi que l’expression et l’activité de l’enzyme LPL. Le QRFP augmente aussi l’expression des gènes des transporteurs d’acides gras CD36 et FATP1, de l’enzyme activatrice d’acides gras ACSL1 et des facteurs de transcription PPAR-γ et C/EBP-α, qui sont tous impliqués dans l’adipogenèse. En plus de ses effets sur l’adipogenèse, le QRFP possède aussi un effet inhibiteur sur l’activité lipolytique induite par les catécholamines. Nous avons montré que l’expression du QRFP est diminuée dans le tissu adipeux des souris obèses. Selon nos résultats, cette diminution pourrait être expliquée par une augmentation des endotoxines circulantes chez les obèses, appelée endotoxémie métabolique, qui agirait, entre autres, par l’induction des interférons dans les macrophages. Les voies de signalisation de ces effets ont aussi été identifiées. Nous avons montré un autre exemple de stimulus inflammatoire qui régule les signaux adipogènes à la baisse.
Resumo:
La stimulation du récepteur de la rénine/prorénine [(P) RR], un membre récemment découvert du système rénine-angiotensine (SRA), augmente l'activité du SRA et des voies de signalisation angiotensine II-indépendante. Pour étudier l'impact potentiel du (P)RR dans le développement de l`obésité, nous avons émis l'hypothèse que les souris déficientes en (P)RR uniquement dans le tissus adipeux (KO) auront une diminution du poids corporel en ciblant le métabolisme du tissu adipeux, l'activité locomoteur et/ou la prise alimentaire. Ainsi, des souris KO ont été générées en utilisant la technologie Cre/Lox. Le gain de poids et la prise alimentaire ont été évalués hebdomadairement dans les mâles et femelles KO et de type sauvage (WT) pendant 4 semaines alors qu’ils étaient maintenu sur une diète normal. De plus, un groupe de femelles a été placé pour 6 semaines sur une diète riche en gras et en glucides (HF/HC). La composition corporelle et l'activité ambulatoire ont été évaluées par l’EchoMRI et à l’aide de cages Physioscan, respectivement. Les tissus adipeux ont été prélevés et pesés. De plus, les gras péri-gonadaux ont été utilisés pour le microarray. Finalement, le niveaux d'expression d'ARNm du (P)RR ont été évalués. Comme le gène du (P)RR est situé sur le chromosome X, les mâles étaient des KOs complets et les femelles étaient des KOs partielles. Les souris KO avaient un poids corporel significativement plus petit par rapport à WT, les différences étant plus prononcées chez les mâles. De plus, les femelles KOs étaient résistantes à l'obésité lorsqu'elles ont été placées sur la diète HF/HC et donc elles avaient significativement moins de masse grasse par rapport aux WTs. L’analyse histologique des gras péri-gonadaux des KOs nous ont dévoilés qu’il avait une réduction du nombre d'adipocytes mais de plus grande taille. Bien qu'il n'y ait eu aucun changement dans la consommation alimentaire, une augmentation de près de 3 fois de l'activité ambulatoire a été détectée chez les mâles. De plus, nous avons observé que leurs tibias étaient de longueur réduite ce qui suggère fortement l'affection de leur développement. Les gras péri-gonadaux des souris KO avaient une expression réduite de l`ABLIM2 (Actin binding LIM protein family, member 2) qui est associé avec le diabète de type II chez l'humain. Ainsi, les données recueillies suggèrent fortement que le (P)RR est impliquée dans la régulation du poids corporelle.
Resumo:
Les collisions proton-proton produites par le LHC imposent un environnement radiatif hostile au détecteur ATLAS. Afin de quantifier les effets de cet environnement sur la performance du détecteur et la sécurité du personnel, plusieurs simulations Monte Carlo ont été réalisées. Toutefois, la mesure directe est indispensable pour suivre les taux de radiation dans ATLAS et aussi pour vérifier les prédictions des simulations. À cette fin, seize détecteurs ATLAS-MPX ont été installés à différents endroits dans les zones expérimentale et technique d'ATLAS. Ils sont composés d'un détecteur au silicium à pixels appelé MPX dont la surface active est partiellement recouverte de convertisseurs de neutrons thermiques, lents et rapides. Les détecteurs ATLAS-MPX mesurent en temps réel les champs de radiation en enregistrant les traces des particules détectées sous forme d'images matricielles. L'analyse des images acquises permet d'identifier les types des particules détectées à partir des formes de leurs traces. Dans ce but, un logiciel de reconnaissance de formes appelé MAFalda a été conçu. Étant donné que les traces des particules fortement ionisantes sont influencées par le partage de charge entre pixels adjacents, un modèle semi-empirique décrivant cet effet a été développé. Grâce à ce modèle, l'énergie des particules fortement ionisantes peut être estimée à partir de la taille de leurs traces. Les convertisseurs de neutrons qui couvrent chaque détecteur ATLAS-MPX forment six régions différentes. L'efficacité de chaque région à détecter les neutrons thermiques, lents et rapides a été déterminée par des mesures d'étalonnage avec des sources connues. L'étude de la réponse des détecteurs ATLAS-MPX à la radiation produite par les collisions frontales de protons à 7TeV dans le centre de masse a montré que le nombre de traces enregistrées est proportionnel à la luminosité du LHC. Ce résultat permet d'utiliser les détecteurs ATLAS-MPX comme moniteurs de luminosité. La méthode proposée pour mesurer et étalonner la luminosité absolue avec ces détecteurs est celle de van der Meer qui est basée sur les paramètres des faisceaux du LHC. Vu la corrélation entre la réponse des détecteurs ATLAS-MPX et la luminosité, les taux de radiation mesurés sont exprimés en termes de fluences de différents types de particules par unité de luminosité intégrée. Un écart significatif a été obtenu en comparant ces fluences avec celles prédites par GCALOR qui est l'une des simulations Monte Carlo du détecteur ATLAS. Par ailleurs, les mesures effectuées après l'arrêt des collisions proton-proton ont montré que les détecteurs ATLAS-MPX permettent d'observer la désintégration des isotopes radioactifs générés au cours des collisions. L'activation résiduelle des matériaux d'ATLAS peut être mesurée avec ces détecteurs grâce à un étalonnage en équivalent de dose ambiant.
Resumo:
Les biofilms sont des communautés de microorganismes incorporés dans une matrice exo-polymérique complexe. Ils sont reconnus pour jouer un rôle important comme barrière de diffusion dans les systèmes environnementaux et la santé humaine, donnant lieu à une résistance accrue aux antibiotiques et aux désinfectants. Comme le transfert de masse dans un biofilm est principalement dû à la diffusion moléculaire, il est primordial de comprendre les principaux paramètres influençant les flux de diffusion. Dans ce travail, nous avons étudié un biofilm de Pseudomonas fluorescens et deux hydrogels modèles (agarose et alginate) pour lesquels l’autodiffusion (mouvement Brownien) et les coefficients de diffusion mutuels ont été quantifiés. La spectroscopie par corrélation de fluorescence a été utilisée pour mesurer les coefficients d'autodiffusion dans une volume confocal de ca. 1 m3 dans les gels ou les biofilms, tandis que les mesures de diffusion mutuelle ont été faites par cellule de diffusion. En outre, la voltamétrie sur microélectrode a été utilisée pour évaluer le potentiel de Donnan des gels afin de déterminer son impact sur la diffusion. Pour l'hydrogel d'agarose, les observations combinées d'une diminution du coefficient d’autodiffusion et de l’augmentation de la diffusion mutuelle pour une force ionique décroissante ont été attribuées au potentiel de Donnan du gel. Des mesures de l'effet Donnan (différence de -30 mV entre des forces ioniques de 10-4 et 10-1 M) et l'accumulation correspondante d’ions dans l'hydrogel (augmentation d’un facteur de 13 par rapport à la solution) ont indiqué que les interactions électrostatiques peuvent fortement influencer le flux de diffusion de cations, même dans un hydrogel faiblement chargé tel que l'agarose. Curieusement, pour un gel plus chargé comme l'alginate de calcium, la variation de la force ionique et du pH n'a donné lieu qu'à de légères variations de la diffusion de sondes chargées dans l'hydrogel. Ces résultats suggèrent qu’en influençant la diffusion du soluté, l'effet direct des cations sur la structure du gel (compression et/ou gonflement induits) était beaucoup plus efficace que l'effet Donnan. De même, pour un biofilm bactérien, les coefficients d'autodiffusion étaient pratiquement constants sur toute une gamme de force ionique (10-4-10-1 M), aussi bien pour des petits solutés chargés négativement ou positivement (le rapport du coefficient d’autodiffusion dans biofilm sur celui dans la solution, Db/Dw ≈ 85 %) que pour des nanoparticules (Db/Dw≈ 50 %), suggérant que l'effet d'obstruction des biofilms l’emporte sur l'effet de charge. Les résultats de cette étude ont montré que parmi les divers facteurs majeurs qui affectent la diffusion dans un biofilm environnemental oligotrophe (exclusion stérique, interactions électrostatiques et hydrophobes), les effets d'obstruction semblent être les plus importants lorsque l'on tente de comprendre la diffusion du soluté. Alors que les effets de charge ne semblaient pas être importants pour l'autodiffusion de substrats chargés dans l'hydrogel d'alginate ou dans le biofilm bactérien, ils ont joué un rôle clé dans la compréhension de la diffusion à travers l’agarose. L’ensemble de ces résultats devraient être très utiles pour l'évaluation de la biodisponibilité des contaminants traces et des nanoparticules dans l'environnement.
Resumo:
La transglutaminase microbienne (Microbial transglutaminase : MTG) est fortement exploitée dans l’industrie textile et alimentaire afin de modifier l’apparence et la texture de divers produits. Elle catalyse la formation de liaisons iso-peptidiques entre des protéines par l’entremise d’une réaction de transfert d’acyle entre le groupement γ-carboxamide d’une glutamine provenant d’un substrat donneur d’acyle, et le groupement ε-amino d’une lysine provenant d’un substrat accepteur d’acyle. La MTG est tolérante à un large éventail de conditions réactionnelles, ce qui rend propice le développement de cette enzyme en tant que biocatalyseur. Ayant pour but le développement de la MTG en tant qu’alternative plus soutenable à la synthèse d’amides, nous avons étudié la réactivité d’une gamme de substrats donneurs et accepteurs non-naturels. Des composés chimiquement diversifiés, de faible masse moléculaire, ont été testés en tant que substrats accepteurs alternatifs. Il fut démontré que la MTG accepte une large gamme de composés à cet effet. Nous avons démontré, pour la première fois, que des acides aminés non-ramifiés et courts, tels la glycine, peuvent servir de substrat accepteur. Les α-acides aminés estérifiés Thr, Ser, Cys et Trp, mais pas Ile, sont également réactifs. En étendant la recherche à des composés non-naturels, il fut observé qu’un cycle aromatique est bénéfique pour la réactivité, bien que les substituants réduisent l’activité. Fait notable, des amines de faible masse moléculaire, portant les groupements de forte densité électronique azidure ou alcyne, sont très réactives. La MTG catalyse donc efficacement la modification de peptides qui pourront ensuite être modifiés ou marqués par la chimie ‘click’. Ainsi, la MTG accepte une variété de substrats accepteurs naturels et non-naturels, élargissant la portée de modification des peptides contenant la glutamine. Afin de sonder le potentiel biocatalytique de la MTG par rapport aux substrats donneurs, des analogues plus petits du peptide modèle Z-Gln-Gly furent testés; aucun n’a réagi. Nous avons toutefois démontré, pour la première fois, la faible réactivité d’esters en tant que substrats donneurs de la MTG. L’éventuelle amélioration de cette réactivité permettrait de faire de la MTG un biocatalyseur plus général pour la synthèse d’amides. Mots clés: Lien amide, biocatalyse, biotransformation, transglutaminase, arrimage moléculaire, criblage de substrats, ingénierie de substrats.
Resumo:
Partout dans le monde, des tribunaux empruntent l’autoroute de l’information et choisissent le dépôt électronique comme moyen de faire évoluer les systèmes judiciaires. Certains tribunaux canadiens ont rallié le mouvement, mais la plupart se contentent pour l’instant d’observer, risquant de se voir claquer au nez la porte du cybermonde. Les obstacles invoqués sont divers et vont du manque d’argent et de ressources techniques à l’absence d’une masse critique de dépôts justifiant l’investissement initial nécessaire pour faire entrer le tribunal au XXIe siècle. La Cour fédérale, la Cour suprême et quelques partenaires du secteur privé étudient un modèle de nature à éliminer certains de ces obstacles, qui permettrait de numériser l’information qui circule entre les parties à un litige, leurs avocats et les tribunaux, grâce à la technologie sécurisée de l’Internet, fondée sur le Web. Le présent rapport expose la perspective des praticiens et énonce les avantages, les difficultés et les risques associés au modèle.
Resumo:
Affirmer que les citoyens des démocraties occidentales sont l’objet d’une surveillance systématique efficace et à grande échelle a de quoi provoquer une réaction incrédule. Démagogie, diront certains. Pourtant, les progrès réalisés dans les technologies de collecte, de traitement et de stockage d’information forcent une réflexion sur cette hypothèse. Il a été souligné justement que les coûts élevés liés aux moyens rudimentaires employés par les polices secrètes d’antan endiguaient en quelque sorte la menace. Les filatures, les infiltrations, les rapts nocturnes de dissidents pêchaient par manque de subtilité. Au contraire, le génie des techniques modernes vient de ce qu’elles n’entravent pas le quotidien des gens. Mais au-delà du raffinement technique, le contrôle panoptique de la masse atteint un sommet d’efficience dès lors que celle-ci est amenée à y consentir. Comme le faisait remarquer le professeur Raab : « [TRADUCTION] La surveillance prospère naturellement dans les régimes autoritaires qui ne s’exposent pas au débat public ni à la critique. Lorsqu’elle est utilisée dans des régimes dits démocratiques, elle est légitimée et circonscrite par des arguments de nécessité ou de justifications spéciales, tout comme la censure »[1]. Or, le droit, en tant que discours de rationalité, accomplit savamment ce travail de légitimation. C’est dans cet esprit qu’une analyse radicale des règles de droit encadrant le droit à la vie privée apporte une lucidité nouvelle sur notre faux sentiment de sécurité.
Resumo:
Bien que la souveraineté apparaisse aujourd'hui comme un concept juridique autonome, cela ne fut pas toujours le cas. Comme le souligne l’auteur de ce texte, notre société est passée d'une souveraineté mystique, celle de l'Église, à une souveraineté laïque, celle de l'État, pour aboutir, aujourd'hui, à une souveraineté plurielle ou composite. L'avènement d'un réseau de masse, comme l'Internet, vient encore une fois changer la donne. Ainsi, le concept de souveraineté informationnelle, discuté à la fin des années 70, semble aujourd’hui suranné, voire obsolète, à la lumière des nouveaux environnements électroniques. Conscient de cette évolution et de ses conséquence, l’auteur propose une réflexion historique et conceptuelle du principe de souveraineté afin de réévaluer les critères de territorialité et d'espace physique en tant que pivots autour desquels s'articule le concept de souveraineté nationale. L'État d'aujourd'hui ne pouvant aspirer seul à réglementer les transactions économiques transnationales, cet article nous pousse à nous questionner sur le sens que doit prendre le terme « souveraineté » à l’aube de l’ère numérique.
Resumo:
ans ce texte, l’auteur s’emploie à remettre en cause la méthode utilisée par le droit pour évaluer les dommages causés à une personne par les médias de masse lorsqu’il y a diffamation. Il montre que bien que les médias de masse disposent d’une large diffusion, leur influence réelle sur les personnes qui les consomment est loin d’être aussi évidente. Pour Langelier, divers phénomènes doivent être pris en compte pour évaluer les dommages réels causés aux personnes lorsqu’il y a diffamation. Au nombre de ceux-ci, mentionnons l’état des connaissances issues des sciences sociales sur l’influence potentielle des médias en regard de la formation des opinions individuelles, le degré de pénétration du médium en cause, la composition de l’auditoire auquel le médium s’adresse, le contexte social dans lequel le médium intervient, l’usage social des médias dans la société concernée, le degré de crédibilité dont disposent les médias dans cette société, l’importance relative des médias les uns par rapport aux autres et les raisons d’intérêt public justifiant une telle intervention. De l’examen de chacun de ces facteurs dans le contexte de la société canadienne, l’auteur conclut que l’influence des médias sur la formation de l’opinion publique et des opinions individuelles est relativement faible sinon inexistante. En conséquence, il trouve inappropriées l’orientation, le point de vue et la méthode avec lesquels le droit réalise ses déterminations lorsqu’il y a faute en matière de diffamation. Il appelle donc les juristes à rompre avec les présupposés et les mythes et à adopter une approche plus fine et plus réaliste de ces réalités.
Resumo:
Les matériaux conjugués sont de nos jours très utilisés dans de nombreuses applications ainsi qu’en recherche. L’enchainement des liaisons π-σ-π permet la délocalisation des électrons et d’obtenir différentes propriétés comme la conduction, la fluorescence, la chélation, etc. Ainsi, de nombreux dispositifs utilisent ces caractéristiques en vue d’obtenir de nouveaux matériaux révolutionnaires comme les cellules solaires, les transistors à effet de champs, les dispositifs électrochromiques, etc.. Les dispositifs électrochromiques font partie des dispositifs en vogue. Ils sont capables de changer de couleur selon le potentiel électrique appliqué. Ils se distinguent par la simplicité du mode de conception et ils ne nécessitent pas de fonctionner dans des conditions drastiques comme une atmosphère contrôlée. Ces dispositifs sont actuellement utilisés et commercialisés comme fenêtre intelligente, camouflage, papier électronique et carte de visite personnalisée pour n’en nommer que quelques-uns. Deux propriétés sont essentielles pour que des composés puissent être utilisés dans ces familles de dispositifs : la réversibilité à l’oxydation et la stabilité à l’air et à la lumière. Dans le groupe de recherche du professeur W.G. Skene, l’axe principal de recherche est basé sur la conception de nouveaux matériaux conducteurs comportant des liaisons azométhines. Les principaux matériaux étudiés sont des dérivés de thiophènes et de fluorènes. De précédents résultats ont montré que plusieurs produits issus de la réaction de condensation entre les dérivés du 2,5-diaminothiophène et de thiophènes diformylés menaient à des produits possédant d’excellentes propriétés photophysiques et électrochimiques. C’est en partant de ces résultats encourageants qu’il a été choisi de synthétiser une nouvelle famille de produits avec un nouveau substrat fonctionnalisé. Ce dernier possède d’excellentes propriétés électrochimiques et photophysiques : la triphénylamine. Deux familles de produits ont été synthétisées qui possèdent toutes comme cœur une triphénylamine. Cette dernière a été modifiée de façon à créer une, deux ou trois liaisons azométhines avec différents thiophènes. Deux dérivés du thiophène ont été choisis afin d’étudier l’influence des groupements donneurs et accepteurs sur ces nouveaux types de composés encore jamais étudiés. Les résultats des différentes synthèses et analyses ont été effectués par RMN, spectrométrie de masse, spectrométrie d’absorbance UV-Visible, fluorescence et voltampérométrie cyclique sont rapportées dans le présent recueil.
Resumo:
Les maladies constituent présentement la cause la plus importante de perte économique en aquaculture moderne. Chez certaines espèces, notamment les salmonidés (Oncorhynchus sp. et Salmo sp.), on rapporte des pertes annuelles atteignant cinquante pour cent de la production. À l’heure actuelle, les infections fongiques occupent le second rang derrière les maladies bactériennes en fonction de leur importance économique. Ces poissons sont particulièrement vulnérables à une infection fongique causée par Saprolegnia sp. qui infecte habituellement les oeufs morts. Le saprophyte ubiquitaire se propage ensuite aux oeufs sains et aux individus matures. Malheureusement, le traitement efficace de cette infection, souvent primaire et parfois secondaire, est de plus en plus difficile en raison de nouvelles réglementations restrictives entourant le vert de malachite. Jadis, ce colorant constituait le fongicide le plus efficace dans la lutte contre la saprolégniose, mais son potentiel cancérigène en limite maintenant l’utilisation. Jusqu'à présent, aucun traitement disponible n’est aussi efficace que le vert de malachite pour le contrôle de la saprolégniose. Récemment, nous sommes parvenus à isoler trois bactéries capables d’inhiber la croissance de Saprolegnia sp. in vitro. Ces trois Pseudomonas fluorescens proviennent d’une pisciculture dans laquelle survenaient des cas d’infections à Saprolegnia parasitica. En poussant la caractérisation de l’activité grâce à des analyses de chromatographie liquide haute performance et de spectrométrie de masse, nous avons réussi à isoler et à identifier la molécule responsable. L’acide phénazine-1-carboxylique (PCA), sécrété par deux de nos trois souches, cause l’inhibition de la croissance de Saprolegnia.
Resumo:
Les traits quantitatifs complexes sont des caractéristiques mesurables d’organismes vivants qui résultent de l’interaction entre plusieurs gènes et facteurs environnementaux. Les locus génétiques liés à un caractère complexe sont appelés «locus de traits quantitatifs » (QTL). Récemment, en considérant les niveaux d’expression tissulaire de milliers de gènes comme des traits quantitatifs, il est devenu possible de détecter des «QTLs d’expression» (eQTL). Alors que ces derniers ont été considérés comme des phénotypes intermédiaires permettant de mieux comprendre l’architecture biologique des traits complexes, la majorité des études visent encore à identifier une mutation causale dans un seul gène. Cette approche ne peut remporter du succès que dans les situations où le gène incriminé a un effet majeur sur le trait complexe, et ne permet donc pas d’élucider les situations où les traits complexes résultent d’interactions entre divers gènes. Cette thèse propose une approche plus globale pour : 1) tenir compte des multiples interactions possibles entre gènes pour la détection de eQTLs et 2) considérer comment des polymorphismes affectant l’expression de plusieurs gènes au sein de groupes de co-expression pourraient contribuer à des caractères quantitatifs complexes. Nos contributions sont les suivantes : Nous avons développé un outil informatique utilisant des méthodes d’analyse multivariées pour détecter des eQTLs et avons montré que cet outil augmente la sensibilité de détection d’une classe particulière de eQTLs. Sur la base d’analyses de données d’expression de gènes dans des tissus de souris recombinantes consanguines, nous avons montré que certains polymorphismes peuvent affecter l’expression de plusieurs gènes au sein de domaines géniques de co-expression. En combinant des études de détection de eQTLs avec des techniques d’analyse de réseaux de co-expression de gènes dans des souches de souris recombinantes consanguines, nous avons montré qu’un locus génétique pouvait être lié à la fois à l’expression de plusieurs gènes au niveau d’un domaine génique de co-expression et à un trait complexe particulier (c.-à-d. la masse du ventricule cardiaque gauche). Au total, nos études nous ont permis de détecter plusieurs mécanismes par lesquels des polymorphismes génétiques peuvent être liés à l’expression de plusieurs gènes, ces derniers pouvant eux-mêmes être liés à des traits quantitatifs complexes.