1000 resultados para conception du réseau en fonction du temps
Resumo:
Les objets d’étude de cette thèse sont les systèmes d’équations quasilinéaires du premier ordre. Dans une première partie, on fait une analyse du point de vue du groupe de Lie classique des symétries ponctuelles d’un modèle de la plasticité idéale. Les écoulements planaires dans les cas stationnaire et non-stationnaire sont étudiés. Deux nouveaux champs de vecteurs ont été obtenus, complétant ainsi l’algèbre de Lie du cas stationnaire dont les sous-algèbres sont classifiées en classes de conjugaison sous l’action du groupe. Dans le cas non-stationnaire, une classification des algèbres de Lie admissibles selon la force choisie est effectuée. Pour chaque type de force, les champs de vecteurs sont présentés. L’algèbre ayant la dimension la plus élevée possible a été obtenues en considérant les forces monogéniques et elle a été classifiée en classes de conjugaison. La méthode de réduction par symétrie est appliquée pour obtenir des solutions explicites et implicites de plusieurs types parmi lesquelles certaines s’expriment en termes d’une ou deux fonctions arbitraires d’une variable et d’autres en termes de fonctions elliptiques de Jacobi. Plusieurs solutions sont interprétées physiquement pour en déduire la forme de filières d’extrusion réalisables. Dans la seconde partie, on s’intéresse aux solutions s’exprimant en fonction d’invariants de Riemann pour les systèmes quasilinéaires du premier ordre. La méthode des caractéristiques généralisées ainsi qu’une méthode basée sur les symétries conditionnelles pour les invariants de Riemann sont étendues pour être applicables à des systèmes dans leurs régions elliptiques. Leur applicabilité est démontrée par des exemples de la plasticité idéale non-stationnaire pour un flot irrotationnel ainsi que les équations de la mécanique des fluides. Une nouvelle approche basée sur l’introduction de matrices de rotation satisfaisant certaines conditions algébriques est développée. Elle est applicable directement à des systèmes non-homogènes et non-autonomes sans avoir besoin de transformations préalables. Son efficacité est illustrée par des exemples comprenant un système qui régit l’interaction non-linéaire d’ondes et de particules. La solution générale est construite de façon explicite.
Resumo:
La réponse cellulaire aux ultra-violets (UV), ou réponse UV, est une réponse complexe et spécialisée dans l’adaptation et la tolérance des dommages aux UV. Celle-ci est initiée par un grand nombre d’évènements moléculaires et de signalisation nucléaire mais aussi au niveau de la membrane plasmique ou du cytoplasme. L’importance et l’influence exactes de ces évènements sur la réparation par excision de nucléotides (NER) des dommages UV à l’ADN sont encore mal comprises et doivent encore être méthodiquement démontrées. Dans cette thèse, grâce à l’utilisation d’une méthode sensible d’analyse de la réparation NER basée sur la cytométrie en flux, il est montré, dans un premier temps, que l’activité des voies MAPK (Mitogen-Activated Protein Kinases), qui sont des voies de signalisation de stress UV d’origine cytoplsamique, ne participent pas à l’efficacité de réparation NER des dommages UV dans les cellules humaines. En effet, l’abrogation de la signalisation MAPK, par inhibition pharmacologique, par utilisation de mutants dominant-négatifs ou par inhibition de leur expression endogène, ne révèlent aucun changement de la cinétique de réparation des dommages UV par excision de nucléotides. Cependant, l’utilisation de cette même méthode de réparation, mais cette fois, appliquée pour l’étude de réparation NER en fonction du cycle cellulaire, a permis de mettre en évidence la nécessité fonctionnelle de l’ADN polymérase translésionnelle eta (Pol η) dans la réparation NER des dommages UV, uniquement en phase S. Cette observation fut initialement caractérisée dans les cellules de patients affectés du syndrome variant de xérodermie pigmentaire (XP-V) puis, confirmée ensuite par l’inhibition de l’expression de Pol η endogène ou par la complémentation avec des mutants non-fonctionnels dans les cellules XP-V. Ces résultats indiquent que, contrairement à la réponse UV MAPK cytoplasmique, les évènements nucléaires comme la synthèse translésionnelle, peuvent influencer l’efficacité de réparation NER en phase S. Plus particulièrement, ces données établissent un lien possible entre la réparation NER en phase S et les niveaux de stress réplicatifs, révélé ici par la déficience fonctionnelle Pol η ou ATR. Les observations, présentées dans cette thèse, renforcent un rôle du point de contrôle S aux UV sur l’efficacité de la réparation NER et suggèrent que l’inhibition NER, observée en phase S dans les cellules XP-V, est modulée par le stress réplicatif. Un tel moyen de contrôle pourrait avoir une action plutôt protectrice pendant cette phase critique du cycle cellulaire. Mots clés: UV, translésionnelle, eta, MAPK, NER, CPD, cytométrie, phase-S, tolérance.
Resumo:
Le benzo[a]pyrène (BaP) est un contaminant environnemental de la famille des hydrocarbures aromatiques polycycliques ayant été classé cancérogène chez l’humain. Cependant, la relation entre l’exposition et les effets est toujours mal documentée. L’objectif de cette thèse était de mieux documenter la relation quantitative entre l’exposition au BaP, l’évolution temporelle des biomarqueurs d’exposition et l’apparition d’altérations biologiques précoces, à partir d’études expérimentales chez le rat. Dans un premier temps, nous avons déterminé l’effet de 4 doses de BaP (0.4, 4, 10 et 40 µmol/kg) sur plusieurs biomarqueurs d’exposition (3- et 7-OHBaP, 4,5- et 7,8-diolBaP, BaPtétrol et 1,6-, 3,6- et 7,8-diones-BaP), les adduits à l’ADN et l’expression de gènes impliqués dans le métabolisme du BaP, la réparation de l’ADN et le stress oxydatif. Le BaP et ses métabolites ont été mesurés dans le sang, les tissus et les excrétas, 8 h et 24 h après l’administration intraveineuse de BaP par chromatographie liquide à ultra haute performance (UHPLC) couplée à la fluorescence. Les adduits à l’ADN ont été quantifiés dans les poumons par immuno-essai en chémoluminescence. L’expression des gènes dans les poumons a été réalisée par PCR quantitative en temps réel (qRT-PCR). Les résultats ont révélé une bonne relation dose-excrétion pour le 3-OHBaP, le 4,5-diolBaP et le 7,8-diolBaP et ils ont également renforcé l’utilité du 4,5-diolBaP comme potentiel biomarqueur du BaP en plus du 3-OHBaP. De plus, l’augmentation dose-dépendante de la formation des adduits et de l’expression de certains gènes impliqués dans le métabolisme et le stress oxydatif a suggéré l’intérêt de ces derniers comme biomarqueurs d’effet précoce. Dans un second temps, nous avons évaluer le profil cinétique des biomarqueurs en lien avec la modulation temporelle de la formation des adduits à l’ADN et de l’expression génique, en utilisant la dose de 40 µmol/kg de BaP telle qu’établie dans l’étude précédente, avec une série de mesures sur une durée de 72 h après l’injection intraveineuse de BaP. Il est apparu que le 3- et le 7-OHBaP ainsi que le 4,5- et le 7,8-diolBaP semblaient être de bons biomarqueurs d'exposition; les hydroxyBaP et diolBaP présentaient des cinétiques différentes, mais tous ces métabolites étaient corrélés de façon significative aux adduits BaPDE dans les poumons. L’expression de certains gènes et l’étude de leur profil cinétique a également permis de faire des liens avec la formation des adduits et de mieux comprendre le métabolisme du BaP. Après ces résultats, il semblait alors logique de s’intéresser à l’effet de la voie d’exposition dans un context d’exposition multiple de la population. Les données mesurées dans le sang et les excréta, après administration de 40 µmol/kg de BaP par voie intraveineuse, intratrachéale, orale, et cutanée, ont encore une fois montré l'intérêt de mesurer plusieurs métabolites pour l’évaluation de l’exposition en raison des différences en fonction de la voie d’administration du composé et des différences dans la cinétique de plusieurs biomarqueurs, notamment entre les hydroxy (3- et 7-OHBaP) et les diols-BaP (4,5- et 7,8-diolBaP). Les résultats suggèrent aussi que la mesure de ratios de concentrations de différents métabolites pourrait aider à indiquer le moment et la principale voie d’exposition. Ces données ont permis une meilleure compréhension du continuum entre l’exposition et les effets.
Resumo:
Les opioïdes sont les analgésiques les plus puissants mais leur utilisation prolongée peut entraîner le développement d’une tolérance analgésique. La tolérance serait en partie associée à l’inhibition prolongée de l’adénosine monophosphate cyclique (AMPc) entraînant des changements compensatoires dans la voie de l’adénylate cyclase. Pour cette étude, nous avons eu recours à un biosenseur basée sur la technologie de Bioluminescence Resonnance Energy Transfer (BRET) et qui fournit des mesures de l’AMPc en fonction du temps réel. Durant les 15 premières minutes de stimulation, la réponse de l’AMPc est bi-phasique. Cette progression de la réponse à l’AMPc n’est pas la même pour tous les ligands. Par exemple, la deltorphine II qui induit l’internalisation du récepteur opioïde delta (DOR) affiche une baisse de l’inhibition de l’AMPc. À l’inverse la morphine qui n’induit pas l’internalisation du DOR affiche une réponse stable à l’inhibition de l’AMPc. Ainsi le profil d’internalisation permet de prédire la progression de l’inhibition de l’AMPc à court terme (15 minutes). Nous avons aussi mesuré la réponse à l’AMPc durant 30, 60 et 120 min, étant donné qu’un traitement chronique aux opioïdes induit une tolérance analgésique. Selon les résultats obtenus, le profil d’internalisation du DOR induits par les ligands ne permet pas d’expliquer l’inhibition persistante de l’AMPc.
Resumo:
L’étude qui nous concerne vise à mieux comprendre la violence en milieu carcéral. C’est à l’aide d’entrevues menées auprès de treize hommes incarcérés à l’Unité spéciale de détention, une unité canadienne spécifiquement conçue pour loger des personnes qui ont fait usage de violence intra murale ou sont soupçonné de l’avoir fait, que nous avons tenté d’atteindre l’objectif principal de ce projet. Plus spécifiquement, le point de vue des participants a été recueilli sur l’incarcération, sur les moyens utilisés afin de s’accoutumer aux défis de l’enfermement ainsi que la manière dont les individus justifient l’usage de violence dans ce contexte. Les résultats de nos analyses suggèrent que le milieu carcéral est un monde hostile et imprévisible où les individus se perçoivent constamment vulnérables à de multiples formes d’agression. Placés en hyper vigilance et orientés vers la survie, les détenus font usage de diverses stratégies d’adaptation afin de répondre aux situations difficiles qu’ils rencontrent en contexte de perte de liberté. La violence représente donc un des moyens dont disposent les individus pour survivre à l’intérieur des murs. Les diverses formes d’adaptation violente rencontrées en milieu carcéral peuvent ainsi informer sur les enjeux de survie présents dans un milieu et donc, du risque de violence ou de victimisation dans ce milieu, que cette violence soit interpersonnelle, collective, auto dirigée, axée sur la fuite ou contre les biens. Puisque l’usage de violence par une personne engendre une possibilité accrue de choisir la violence pour une autre, et ce, avec les conséquences qui s’en suivent pour les détenus et les membres du personnel, nous avons tenté d’identifier et de comprendre les diverses logiques d’action qui motivent le choix d’avoir recours à la violence dans les institutions carcérales. Or, il appert que certaines caractéristiques des individus tendent à faire augmenter le risque pour une personne d’avoir recours à la violence carcérale. De même, il semble que certaines institutions sont davantage propices à l’usage de violence que d’autres. De surcroît, des éléments appartenant aux individus et au milieu en interrelation semblent favoriser la possibilité qu’un condamné fasse usage de violence intra murale. Ainsi, le recours à la violence est davantage probable si elle est légitimée par les individus et le milieu, si le niveau d’adhésion aux valeurs des sous-cultures délinquantes des individus est élevé et si la philosophie du milieu en favorise le maintien, si des groupes influents en quête de contrôle et de pouvoir sont présents dans le milieu et qu’un individu désire y être affilié, s’il y a présence de marchés illicites comme réponse à la privation et qu’un individu y participe ou encore, si le milieu et l’individu sont pris dans l’engrenage d’un climat de survie. Par conséquent, une réflexion concernant le sentiment de sécurité préoccupant les reclus, sentiment qui est un besoin fondamental chez tous les êtres humains, un retour sur les divers modèles théoriques en fonction des données que nous avons obtenues ainsi qu’une réflexion portant sur les moyens dont disposent les individus et le milieu afin de diminuer les possibilités que la violence soit utilisée, ont été amorcées en conclusion.
Resumo:
Introduction : L’approche par compétences est maintenant bien ancrée dans l’enseignement au niveau de la formation médicale postdoctorale. Dans ce contexte, un système de sélection également axé sur les compétences pourrait être avantageux. L’objectif principal de ce projet était de concevoir un TJS ciblant le rôle CanMEDS de collaborateur pour la sélection au niveau postdoctoral en médecine interne (MI) et en médecine familiale (MF). Méthodologie : Des entrevues d’incidents critiques ont été réalisées auprès de résidents juniors en MI ou en MF afin de générer les items du TJS. Trois leaders de l’approche par compétences ont révisé le contenu du test. Les items ont été analysés pour identifier la compétence principale du rôle CanMEDS de collaborateur, le contexte ainsi que les membres de l’équipe interprofessionnelle représentés dans les vignettes. La clé de correction a été déterminée par un panel composé de 11 experts. Cinq méthodes de notation ont été comparées. Résultats : Sept entrevues ont été réalisées. Après révision, 33 items ont été conservés dans le TJS. Les compétences clés du rôle CanMEDS de collaborateur, les contextes et les divers membres de l’équipe interprofessionnelle étaient bien distribués au travers des items. La moyenne des scores des experts variait entre 43,4 et 75,6 % en fonction des différentes méthodes de notation. Le coefficient de corrélation de Pearson entre les cinq méthodes de notation variait entre 0,80 et 0,98. Conclusion : Ce projet démontre la possibilité de concevoir un TJS utilisant le cadre CanMEDS comme trame de fond pour l’élaboration de son contenu. Ce test, couplé à une approche globale de sélection basée sur les compétences, pourrait éventuellement améliorer le pouvoir prédictif du processus de sélection au niveau de la formation médicale postdoctorale.
Resumo:
Dans le cadre de cette thèse, nous nous proposons d’explorer la patiente explication que Heidegger a poursuivie avec Hegel à propos de l’origine de la négativité – problème qui s’impose de fait à titre d’« unique pensée d’une pensée qui pose la question de l’être ». Partant du constat d’une affinité insoupçonnée entre les deux penseurs quant au rôle insigne qui doit revenir à la négation en philosophie, nous entendons percer à jour les motifs de la constante fin de non-recevoir que Heidegger oppose néanmoins à la méthode dialectique de son plus coriace adversaire. Afin de rendre justice aux différents rebondissements d’une explication en constante mutation, et qui, de surcroît, traverse l’ensemble de l’œuvre de Heidegger, nous procédons à une division chronologique qui en circonscrit les quatre principaux moments. I. En un premier temps, notre regard se porte ainsi sur l’opposition résolue que le jeune Heidegger manifeste à l’égard de la montée du néo-hégélianisme, au nom d’une appropriation toute personnelle de l’intuitionnisme husserlien. Les transformations auxquelles il soumet la méthode phénoménologique de son maître doivent néanmoins laisser transparaître un furtif emprunt à la dialectique hégélienne, dont le principal mérite serait d’avoir conféré une fonction productrice à la négation. II. Le propos d’Être et temps demeure toutefois bien discret quant à cette dette méthodologique, bien que ses vestiges se laissent exhumer, notamment sous la forme d’une négation contre-déchéante dont l’intervention essentielle ponctue l’analytique existentiale. C’est qu’un désaccord subsiste entre Heidegger et son prédécesseur quant à l’origine ontologique de la néantité, qui semble devoir se dérober à toute forme de sursomption dialectique. III. Loin d’être alors définitivement réglé, le problème de l’origine du négatif rejaillit au cœur d’une nouvelle mouture métaphysique du projet heideggérien, la minant peut-être même en son fond. Il s’agit en l’occurrence de disputer à Hegel une compréhension plus originaire du néant, comprise comme témoignage de la finitude de l’être lui-même et s’inscrivant en faux face à l’accomplissement spécifiquement hégélien de la métaphysique. IV. Des tensions qui ne sont pas étrangères à cette délicate entreprise entraînent toutefois Heidegger sur la voie d’un dépassement de l’onto-théo-logie et de l’achèvement technique que Hegel lui a préparé. Il s’agit dès lors de situer l’origine abyssale du négatif auprès d’un irréductible retrait de l’estre, à l’encontre de l’oubli nihiliste auquel Hegel l’aurait confinée en la résorbant au sein de l’absolue positivité de la présence. Par là même, Heidegger propose un concept de négation qu’il juge plus originaire que son contrepoids dialectique, négation à laquelle il attribue la forme d’une réponse interrogative, patiente et attentive à la réticence hésitante de l’événement appropriant. Mais est-ce suffisant pour soutenir qu’il parvient, en définitive, à se libérer de l’embarras dialectique qui semble coller à sa pensée et qui exige de lui un constant effort de distanciation ? Cette thèse entend contribuer à établir les conditions d’une décision à cet égard.
Resumo:
Le non-humain et son ontologie sont définis dans ce mémoire en fonction des écrits de Philippe Descola et d’Eduardo Viveiros de Castro, deux figures-clés en anthropologie contemporaine sur l’Amazonie. L’animisme de Descola prête aux non-humains une intériorité humaine et les différencie par leur corps. Le perspectivisme de Viveiros de Castro, quant à lui, suppose que les points de vue différents créent des mondes et établissent ce qui est humain ou non. L’humain correspond au sujet cosmologique à la position pronominale de la première personne du singulier, ou « I », au sein d’une relation. De la sorte, un non-humain se perçoit comme un humain à cette position pronominale « I » et voit l’Autre à la position pronominale « it », position du non-humain. Dans ces deux ontologies, le non-humain est conçu comme une personne capable d’agir dans les mondes. La diversité des êtres inclus dans cette ontologie relationnelle est démontrée par des illustrations provenant de l’ethnographie achuar et araweté de ces deux auteurs. Puis, les relations de parenté, d’alliance et de prédation que les non-humains tissent entre eux et avec les humains exposent l’homologie des rapports non-humains avec les rapports humains. Finalement, l’analyse des méthodes de communication entre le non-humain et l’humain élucide comment la reconnaissance du non-humain dans une communication permet le traitement de ces êtres en tant qu’humains. Le non-humain ne serait donc pas un sujet permanent, mais temporaire le moment de l’interaction.
Resumo:
Cette recherche s’intéresse au phénomène qu’est l’allongement de la durée des conventions collectives. Avant juin 1994, la durée maximale d’une convention collective était fixée à trois ans. La venue de la mondialisation a chamboulé les entreprises qui, elles, pour s’adapter et survivre à cette nouvelle réalité et demeurer compétitives, ont dû procéder à des investissements majeurs, des restructurations, miser sur des relations de partenariat avec les syndicats, etc. (Boivin, 1998). Pour ce faire, elles devaient s’assurer d’obtenir une stabilité et une paix industrielle (Grant et Paquet, 1998). C’est à ce moment que nous avons vu l’apparition d’ententes qui visaient à prolonger la durée maximale des conventions collectives, fixées à trois ans, sans contrevenir aux différentes dispositions du Code du travail (L.R.Q. c.C-27). Ces « contrats sociaux » devaient compter différentes caractéristiques particulières. C’est le 10 mai 1994 que le législateur québécois a déplafonné la durée des conventions collectives (Mayer, 1999). Tel qu’établi, les transformations au niveau de l’environnement ont poussé les acteurs à revoir leurs façons de faire. Cela a mené à une déconflictualisation des relations du travail (Jalette, Bourque et Laroche, 2008). Les acteurs ont adopté des stratégies de négociation de plus en plus coopératives, ils ont eu un recours accru à la concertation, et ont développé une relation de partenariat (Maschino et coll., 2001). Nous observons en parallèle à une tendance à l’allongement de la durée des conventions collectives. Nous nous questionnons à savoir ce qui a principalement motivé autant les syndicats à négocier ce type d’entente et ainsi, renoncer à leur droit de grève, et aussi quels sont les avantages ou inconvénients pour les employeurs de négocier de telles ententes. De manière plus spécifique, notre question de recherche est la suivante : Quels sont les effets de l’allongement de la durée des conventions collectives sur les relations du travail locales en entreprise? Notre analyse vise à vérifier six propositions de recherche : 1- Les relations du travail sont transformées par la durée d’une convention collective de travail, laquelle est influencée par l’environnement. 2- L’allongement de la durée des conventions collectives de travail amène les parties à davantage recourir à des stratégies de négociation intégrative. 3- L’allongement de la durée des conventions collectives de travail contribue à diminuer le nombre de conflits de travail 4- L’allongement de la durée des conventions collectives de travail change la nature des manifestations du conflit sur le marché du travail. 5- L’allongement de la durée des conventions collectives transforme le contenu des conventions collectives de travail par l’intégration de clauses nouvelles. 6- L’allongement de la durée des CCT diminue le rapport de force du syndicat. Dans le but de répondre à ces différents questionnements, nous avons utilisé une méthodologie qualitative de recherche et plus précisément, l’étude de cas. Cette dernière fut conduite en trois étapes : la préparation, la collecte de données et l’interprétation (Merriam, 1998). Les données de notre étude ont été colligées durant l’été et l’automne 2010. Tout d’abord, nous avons effectué des entretiens semi structuré à l’aide d’une grille d’entrevue. Cette grille d’entrevue fut adaptée en fonction des acteurs rencontrés, et surtout de la partie qu’ils représentent. Nous avons interrogé les acteurs tant patronaux que syndicaux, c’est-à-dire : du côté patronal, nous avons rencontré les responsables des relations du travail oeuvrant au siège social ainsi que les conseillers en relations du travail en charge de négocier ou d’appliquer la convention collective des différents établissements couverts par l’étude. Du côté syndical, nous avons rencontré les conseillers syndicaux en charge également de négocier la convention collective et de veiller à son application. Au total, nous avons mené onze entretiens. En guise de comparaison, nous avons aussi procédé à une analyse de contenu de 139 conventions collectives du secteur de l’alimentation. Nous cherchions à savoir si les conventions collectives de longue durée avaient tendance à comporter majoritairement une plus grande présence de clauses en lien avec les 7 caractéristiques des « contrats sociaux » mentionnées par Mayer (1999). Ces caractéristiques sont les suivantes : transparence économique et de gestion, participation à la gestion, programme de qualité totale, formation, flexibilité dans l’organisation du travail, stabilité de l’emploi et mécanismes de gestion de l’entente. Mots clés : allongement, durée, conventions collectives, relations du travail, loi 116, déplafonnement des conventions collectives, NBI et concertation.
Resumo:
Thrasymaque de Chalcédoine, un sophiste de renom dans l'Athènes du Ve siècle av. J.C. est présenté comme l'interlocuteur principal de Socrate dans le livre I de la République. Il y est surtout question de la justice et des implications qui en découlent, Socrate et Thrasymaque ne s'entendant évidemment pas sur la nature de la justice. Thrasymaque, poussé par le questionnement constant de Socrate, en vient à formuler différentes thèses sur la justice, notamment : «Je soutiens, moi, que le juste n'est rien d'autre que l'intérêt du plus fort» (Rép. 338c) et «la justice et le juste constituent en réalité le bien d'un autre.» (Rép. 343c) Parallèlement, il oppose au philosophe une vision de la justice difficile à accepter, mais aussi difficile à réfuter : celui qui commet l'injustice est plus heureux que celui qui agit en fonction de la justice. Ainsi, pour Thrasymaque, l'injuste est meilleur que le juste et est plus heureux, car l'injustice est plus profitable pour soi-même. Selon cette vision, qu'est-ce donc que la justice, et en quoi n'est-elle pas profitable pour soi-même? L'objectif de ce mémoire sera de faire ressortir positivement la conception de la justice de Thrasymaque, car c'est avec elle qu'entre en conflit la recherche du bonheur. En effet, si la justice est la représentation des intérêts du dirigeant, comme l'avance le sophiste, alors être juste n'est rien d'autre qu'agir en fonction des intérêts d'autrui et non de soi-même. Cependant, dans une Cité où les individus sont sous la gouverne de la loi, il n'est pas si simple d'agir toujours selon ses propres intérêts lorsque ceux-ci sont contraires à la justice. C'est pourquoi il sera également pertinent de s'attarder aux caractéristiques et aux vertus qu'un individu doit posséder, selon Thrasymaque, pour être heureux. Nous essaierons donc de dégager de la pensée de Thrasymaque un modèle de vie à suivre : le κρείττων. En dernière analyse, nous mettrons en relief la position de Thrasymaque avec la critique platonicienne. Pour Socrate, la position voulant que l'injustice soit profitable est difficile, car il lui faudra montrer que c'est en fait la justice qui apporte le bonheur, en tant qu'elle est une vertu de l'âme.
Resumo:
Des évidences expérimentales récentes indiquent que les ARN changent de structures au fil du temps, parfois très rapidement, et que ces changements sont nécessaires à leurs activités biochimiques. La structure de ces ARN est donc dynamique. Ces mêmes évidences notent également que les structures clés impliquées sont prédites par le logiciel de prédiction de structure secondaire MC-Fold. En comparant les prédictions de structures du logiciel MC-Fold, nous avons constaté un lien clair entre les structures presque optimales (en termes de stabilité prédites par ce logiciel) et les variations d’activités biochimiques conséquentes à des changements ponctuels dans la séquence. Nous avons comparé les séquences d’ARN du point de vue de leurs structures dynamiques afin d’investiguer la similarité de leurs fonctions biologiques. Ceci a nécessité une accélération notable du logiciel MC-Fold. L’approche algorithmique est décrite au chapitre 1. Au chapitre 2 nous classons les impacts de légères variations de séquences des microARN sur la fonction naturelle de ceux-ci. Au chapitre 3 nous identifions des fenêtres dans de longs ARN dont les structures dynamiques occupent possiblement des rôles dans les désordres du spectre autistique et dans la polarisation des œufs de certains batraciens (Xenopus spp.).
Resumo:
Le présent mémoire porte sur les représentations sociales de la dangerosité en psychiatrie chez les intervenants de proximité (infirmières, préposés, et agent de sécurité), d’un milieu de soins psychiatriques. Nous cherchons à explorer comment ces intervenants perçoivent et interprètent les risques inhérents à leur métier et comment ils y réagissent en situation d’incertitude. Les concepts de dangerosité, d’ « individu dangereux » et de risque en psychiatrie sont abordés dans le présent mémoire, à travers un angle historique, social et anthropologique, suivant les lectures de Michel Foucault; de Robert Castel; de Ian Hacking; et de Mary Douglas. De l’observation participante dans une unité de soins psychiatriques aigus et des entrevues semi-structurées ont été réalisées auprès d’une dizaine d’intervenants en santé mentale. Une approche ethnographique et interprétative nous a permis de dégager les principales récurrences, divergences et contradictions intra et inter intervenants sur la question de la dangerosité et du risque en psychiatrie. Les résultats sont séparés en fonction de trois grands thèmes : 1) représentations sociales de la dangerosité 2) perceptions du risque au travail 3) réactions face au risque perçu. L’analyse de nos résultats montre que les connaissances qu’ont les intervenants sur la dangerosité ne se limitent pas à celles produites par le savoir expert, elles s’ouvrent aussi sur leur propre réalité clinique. De plus, contrairement aux prédictions du savoir expert, la différence observée entre les pratiques de contrôle des intervenants n’est pas la conséquence d’une surestimation du risque ni d’un manque d’information « objective » sur les facteurs de risque du comportement agressif, mais s’explique davantage en fonction de la présence ou de l’absence d’un lien thérapeutique et du degré de reconnaissance sociale dans les interactions entre les soignants et les soignés. Les éléments qui renforcent ou limitent l’établissement d’un lien de confiance sont explicités dans le présent mémoire.
Resumo:
Les scores de propension (PS) sont fréquemment utilisés dans l’ajustement pour des facteurs confondants liés au biais d’indication. Cependant, ils sont limités par le fait qu’ils permettent uniquement l’ajustement pour des facteurs confondants connus et mesurés. Les scores de propension à hautes dimensions (hdPS), une variante des PS, utilisent un algorithme standardisé afin de sélectionner les covariables pour lesquelles ils vont ajuster. L’utilisation de cet algorithme pourrait permettre l’ajustement de tous les types de facteurs confondants. Cette thèse a pour but d’évaluer la performance de l’hdPS vis-à-vis le biais d’indication dans le contexte d’une étude observationnelle examinant l’effet diabétogénique potentiel des statines. Dans un premier temps, nous avons examiné si l’exposition aux statines était associée au risque de diabète. Les résultats de ce premier article suggèrent que l’exposition aux statines est associée avec une augmentation du risque de diabète et que cette relation est dose-dépendante et réversible dans le temps. Suite à l’identification de cette association, nous avons examiné dans un deuxième article si l’hdPS permettait un meilleur ajustement pour le biais d’indication que le PS; cette évaluation fut entreprise grâce à deux approches: 1) en fonction des mesures d’association ajustées et 2) en fonction de la capacité du PS et de l’hdPS à sélectionner des sous-cohortes appariées de patients présentant des caractéristiques similaires vis-à-vis 19 caractéristiques lorsqu’ils sont utilisés comme critère d’appariement. Selon les résultats présentés dans le cadre du deuxième article, nous avons démontré que l’évaluation de la performance en fonction de la première approche était non concluante, mais que l’évaluation en fonction de la deuxième approche favorisait l’hdPS dans son ajustement pour le biais d’indication. Le dernier article de cette thèse a cherché à examiner la performance de l’hdPS lorsque des facteurs confondants connus et mesurés sont masqués à l’algorithme de sélection. Les résultats de ce dernier article indiquent que l’hdPS pourrait, au moins partiellement, ajuster pour des facteurs confondants masqués et qu’il pourrait donc potentiellement ajuster pour des facteurs confondants non mesurés. Ensemble ces résultats indiquent que l’hdPS serait supérieur au PS dans l’ajustement pour le biais d’indication et supportent son utilisation lors de futures études observationnelles basées sur des données médico-administratives.
Resumo:
La présente thèse porte sur les calculs utilisant la théorie de la fonctionnelle de la densité (DFT) pour simuler des systèmes dans lesquels les effets à longue portée sont importants. Une emphase particulière est mise sur les calculs des énergies d’excitations, tout particulièrement dans le cadre des applications photovoltaïques. Cette thèse aborde ces calculs sous deux angles. Tout d’abord, des outils DFT déjà bien établis seront utilisés pour simuler des systèmes d’intérêt expérimental. Par la suite, la théorie sous-jacente à la DFT sera explorée, ses limites seront identifiées et de nouveaux développements théoriques remédiant à ceux-ci seront proposés. Ainsi, dans la première partie de cette thèse, des calculs numériques utilisant la DFT et la théorie de la fonctionnelle de la densité dépendante du temps (TDDFT) telles qu’implémentées dans le logiciel Gaussian [1] sont faits avec des fonctionnelles courantes sur des molécules et des polymères d’intérêt expérimental. En particulier, le projet présenté dans le chapitre 2 explore l’utilisation de chaînes latérales pour optimiser les propriétés électroniques de polymères déjà couramment utilisés en photovoltaïque organique. Les résultats obtenus montrent qu’un choix judicieux de chaînes latérales permet de contrôler les propriétés électroniques de ces polymères et d’augmenter l’efficacité des cellules photovoltaïques les utilisant. Par la suite, le projet présenté dans le chapitre 3 utilise la TDDFT pour explorer les propriétés optiques de deux polymères, le poly-3-hexyl-thiophène (P3HT) et le poly-3-hexyl- sélénophène (P3HS), ainsi que leur mélange, dans le but d’appuyer les observations expérimentales indiquant la formation d’exciplexe dans ces derniers. Les calculs numériques effectués dans la première partie de cette thèse permettent de tirer plusieurs conclusions intéressantes, mais mettent également en évidence certaines limites de la DFT et de la TDDFT pour le traitement des états excités, dues au traitement approximatif de l’interaction coulombienne à longue portée. Ainsi, la deuxième partie de cette thèse revient aux fondements théoriques de la DFT. Plus précisément, dans le chapitre 4, une série de fonctionnelles modélisant plus précisément l’interaction coulombienne à longue portée grâce à une approche non-locale est élaborée. Ces fonctionnelles sont basées sur la WDA (weighted density approximation), qui est modifiée afin d’imposer plusieurs conditions exactes qui devraient être satisfaites par le trou d’échange. Ces fonctionnelles sont ensuite implémentées dans le logiciel Gaussian [1] et leurs performances sont évaluées grâce à des tests effectués sur une série de molécules et d’atomes. Les résultats obtenus indiquent que plusieurs de ces fonctionnelles donnent de meilleurs résultats que la WDA. De plus, ils permettrent de discuter de l’importance relative de satisfaire chacune des conditions exactes.
Resumo:
Le présent travail s’interroge quant au niveau de protection offert par la structure actuelle du droit international à l’ensemble de la population LGBT en vertu des normes juridiques de non-discrimination. Il questionne par le fait même la nécessité de créer une convention internationale spécifique contre la discrimination faite en fonction de l’orientation sexuelle au sein du système onusien des droits de la personne. Afin de le déterminer, une analyse bipartite est proposée. L’évolution de la notion d’orientation sexuelle au sein du droit international de 1975 à aujourd’hui expose dans un premier temps l’applicabilité de la norme de non-discrimination à l’ensemble de la population, et ce, malgré la polarisation de la communauté internationale sur la question. Par la suite, la jurisprudence du Comité des droits de l’homme en matière d’orientation sexuelle illustre la mise sur pied d’un régime de protection des minorités sexuelles modulé par les tractations politiques présentes sur la scène internationale. Ce mémoire conclut que la protection de la population LGBT ne nécessite pas la création une convention internationale contre la discrimination faite en fonction de l’orientation sexuelle, mais plutôt l’imposition d’une garantie universellement applicable de la norme juridique de non-discrimination à tous les droits fondamentaux reconnus par le système des traités des Nations Unies.