541 resultados para Athènes (Grèce) -- Acropole
Resumo:
Les entérocoques font partie de la flore normale intestinale des animaux et des humains. Plusieurs études ont démontré que les entérocoques d’origine animale pouvaient représenter un réservoir de gènes de résistance aux antibiotiques pour la communauté humaine et animale. Les espèces Enterococcus faecalis et Enterococcus faecium sont importantes en santé publique; elles sont responsables d’environ 12% de toutes les infections nosocomiales aux États-Unis. Au Canada, les cas de colonisation et/ou d’infections à entérocoques résistants à la vancomycine ont plus que triplé de 2005 à 2009. Un total de 387 isolats E. faecalis et E. faecium aviaires, et 124 isolats E. faecalis porcins ont été identifiés et analysés pour leur susceptibilité aux antibiotiques. De hauts pourcentages de résistance envers les macrolides et les tétracyclines ont été observés tant chez les isolats aviaires que porcins. Deux profils phénotypiques prédominants ont été déterminés et analysés par PCR et séquençage pour la présence de gènes de résistance aux antibiotiques. Différentes combinaisons de gènes de résistance ont été identifiées dont erm(B) et tet(M) étant les plus prévalents. Des extractions plasmidiques et des analyses par hybridation ont permis de déterminer, pour la première fois, la colocalisation des gènes erm(B) et tet(M) sur un plasmide d’environ 9 kb chez des isolats E. faecalis porcins, et des gènes erm(B) et tet(O) sur un plasmide de faible poids moléculaire d’environ 11 kb chez des isolats E. faecalis aviaires. De plus, nous avons démontré, grâce à des essais conjugatifs, que ces plasmides pouvaient être transférés. Les résultats ont révélé que les entérocoques intestinaux aviaires et porcins, lesquels peuvent contaminer la viande à l’abattoir, pouvaient représenter un réservoir de gènes de résistance envers la quinupristine-dalfopristine, la bacitracine, la tétracycline et les macrolides. Afin d’évaluer l’utilisation d’un antisérum polyclonal SA dans l’interférence de la résistance à de fortes concentrations de bacitracine (gènes bcrRAB), lors d’un transfert conjugatif répondant aux phéromones, un isolat multirésistant E. faecalis aviaire a été sélectionné. Après induction avec des phéromones produites par la souche réceptrice E. faecalis JH2-2, l’agrégation de la souche donatrice E. faecalis 543 a été observée ainsi que des fréquences de transfert élevées en bouillon lors d’une courte période de conjugaison. Le transfert conjugatif des gènes asa1, traB et bcrRAB ainsi que leur colocalisation a été démontré chez le donneur et un transconjugant T543-1 sur un plasmide de 115 kb par électrophorèse à champs pulsé (PFGE) et hybridation. Une CMI de > 2 048 µg/ml envers la bacitracine a été obtenue tant chez le donneur que le transconjuguant tandis que la souche réceptrice JH2-2 démontrait une CMI de 32 µg/ml. Le séquençage des gènes asa1, codant pour la substance agrégative, et traB, une protéine régulant négativement la réponse aux phéromones, a révélé une association de cet élément génétique avec le plasmide pJM01. De plus, cette étude présente qu’un antisérum polyclonal SA peut interférer significativement dans le transfert horizontal d’un plasmide répondant aux phéromones codant pour de la résistance à de fortes doses de bacitracine d’une souche E. faecalis aviaire multirésistante. Des isolats cliniques E. faecium d’origine humaine et canine ont été analysés et comparés. Cette étude rapporte, pour la première fois, la caractérisation d’isolats cliniques E. faecium résistants à l’ampicilline (EFRA) d’origine canine associés à CC17 (ST17) au Canada. Ces isolats étaient résistants à la ciprofloxacine et à la lincomycine. Leur résistance envers la ciprofloxacine a été confirmée par la présence de substitutions dans la séquence en acides aminés des gènes de l’ADN gyrase (gyrA/gyrB) et de la topoisomérase IV (parC/parE). Des résistances élevées envers la gentamicine, la kanamycine et la streptomycine, et de la résistance envers les macrolides et les lincosamides a également été observées. La fréquence de résistance envers la tétracycline était élevée tandis que celle envers la vancomycine n’a pas été détectée. De plus, aucune résistance n’a été observée envers le linézolide et la quinupristine-dalfopristine. Les données ont démontré une absence complète des gènes esp (protéine de surface des entérocoques) et hyl (hyaluronidase) chez les isolats canins EFRA testés tandis qu’ils possédaient tous le gène acm (adhésine de liaison au collagène d’E. faecium). Aucune activité reliée à la formation de biofilm ou la présence d’éléments CRISPR (loci de courtes répétitions palindromiques à interespaces réguliers) n’a été identifiée chez les isolats canins EFRA. Les familles de plasmide rep6 and rep11 ont significativement été associées aux isolats d’origine canine. Les profils PFGE des isolats d’origine humaine et canine n'ont révélé aucune relation (≤ 80%). Ces résultats illustrent l'importance d'une utilisation judicieuse des antibiotiques en médecine vétérinaire afin d’éviter la dissémination zoonotique des isolats EFRA canins. Nous pensons que ces résultats contribueront à une meilleure compréhension des mécanismes de résistance aux antibiotiques et de leurs éléments mobiles ainsi qu’à de nouvelles stratégies afin de réduire le transfert horizontal de la résistance aux antibiotiques et des facteurs de virulence.
Resumo:
La conciliation, un mécanisme alternatif de résolution des conflits, cherche à la fois à maintenir une relation d'affaires ainsi qu'à raviver la communication et l’équilibre des pouvoirs entre deux parties opposées. Son véritable esprit consiste à faire en sorte que le citoyen récupère son rôle principal dans la solution de ses conflits et qu’il agisse sans l'intervention de l'État. Contrairement aux autres systèmes juridiques, le système juridique colombien donne au conciliateur un pouvoir décisionnel et/ou consultatif dans un cas concret. Aussi, les termes médiation et conciliation sont parfois utilisés comme synonymes. Cependant, ces termes se différencient selon la participation du tiers conciliateur ou médiateur au processus de résolution des conflits. In mediation, the mediator controls the process through different and specific stages: introduction, joint session, caucus, and agreement, while the parties control the outcome. Par ailleurs, même si ce sont des concepts universels grâce aux textes juridiques, ces mécanismes de résolution des conflits demeurent encore méconnus des citoyens. La pratique de la conciliation ne connaît pas de frontières; elle est répandue partout dans le monde. Dans les années 90, les pays d’Amérique latine, plus précisément la Colombie, ont commencé à envisager la possibilité de prendre part dans cette enrichissante expérience grâce aux progrès législatifs et institutionnels qui ont été réalisés en matière de mécanismes alternatifs de résolution des conflits. En matière de conciliation, en Colombie, il y a une grande richesse normative mais les lois, dispersées et difficiles à interpréter, génèrent de l’insécurité et de l’incertitude juridique. De plus, entamer le processus de conciliation se fait de diverses manières, la plus controversée étant sans doute la conciliation préalable obligatoire. Cette méthode imposée a été la cible de diverses critiques. En effet, ces critiques concernent le fait qu’une telle pratique obligatoire enfreint le volontariat, un pilier fondamental de la conciliation. Aussi, le tiers conciliateur, ayant une formation de haut niveau, représente une pièce maîtresse dans le processus de conciliation vu sa grande responsabilité dans le bon déroulement de cette méthode de résolution des conflits.
Resumo:
Les changements sont faits de façon continue dans le code source des logiciels pour prendre en compte les besoins des clients et corriger les fautes. Les changements continus peuvent conduire aux défauts de code et de conception. Les défauts de conception sont des mauvaises solutions à des problèmes récurrents de conception ou d’implémentation, généralement dans le développement orienté objet. Au cours des activités de compréhension et de changement et en raison du temps d’accès au marché, du manque de compréhension, et de leur expérience, les développeurs ne peuvent pas toujours suivre les normes de conception et les techniques de codage comme les patrons de conception. Par conséquent, ils introduisent des défauts de conception dans leurs systèmes. Dans la littérature, plusieurs auteurs ont fait valoir que les défauts de conception rendent les systèmes orientés objet plus difficile à comprendre, plus sujets aux fautes, et plus difficiles à changer que les systèmes sans les défauts de conception. Pourtant, seulement quelques-uns de ces auteurs ont fait une étude empirique sur l’impact des défauts de conception sur la compréhension et aucun d’entre eux n’a étudié l’impact des défauts de conception sur l’effort des développeurs pour corriger les fautes. Dans cette thèse, nous proposons trois principales contributions. La première contribution est une étude empirique pour apporter des preuves de l’impact des défauts de conception sur la compréhension et le changement. Nous concevons et effectuons deux expériences avec 59 sujets, afin d’évaluer l’impact de la composition de deux occurrences de Blob ou deux occurrences de spaghetti code sur la performance des développeurs effectuant des tâches de compréhension et de changement. Nous mesurons la performance des développeurs en utilisant: (1) l’indice de charge de travail de la NASA pour leurs efforts, (2) le temps qu’ils ont passé dans l’accomplissement de leurs tâches, et (3) les pourcentages de bonnes réponses. Les résultats des deux expériences ont montré que deux occurrences de Blob ou de spaghetti code sont un obstacle significatif pour la performance des développeurs lors de tâches de compréhension et de changement. Les résultats obtenus justifient les recherches antérieures sur la spécification et la détection des défauts de conception. Les équipes de développement de logiciels doivent mettre en garde les développeurs contre le nombre élevé d’occurrences de défauts de conception et recommander des refactorisations à chaque étape du processus de développement pour supprimer ces défauts de conception quand c’est possible. Dans la deuxième contribution, nous étudions la relation entre les défauts de conception et les fautes. Nous étudions l’impact de la présence des défauts de conception sur l’effort nécessaire pour corriger les fautes. Nous mesurons l’effort pour corriger les fautes à l’aide de trois indicateurs: (1) la durée de la période de correction, (2) le nombre de champs et méthodes touchés par la correction des fautes et (3) l’entropie des corrections de fautes dans le code-source. Nous menons une étude empirique avec 12 défauts de conception détectés dans 54 versions de quatre systèmes: ArgoUML, Eclipse, Mylyn, et Rhino. Nos résultats ont montré que la durée de la période de correction est plus longue pour les fautes impliquant des classes avec des défauts de conception. En outre, la correction des fautes dans les classes avec des défauts de conception fait changer plus de fichiers, plus les champs et des méthodes. Nous avons également observé que, après la correction d’une faute, le nombre d’occurrences de défauts de conception dans les classes impliquées dans la correction de la faute diminue. Comprendre l’impact des défauts de conception sur l’effort des développeurs pour corriger les fautes est important afin d’aider les équipes de développement pour mieux évaluer et prévoir l’impact de leurs décisions de conception et donc canaliser leurs efforts pour améliorer la qualité de leurs systèmes. Les équipes de développement doivent contrôler et supprimer les défauts de conception de leurs systèmes car ils sont susceptibles d’augmenter les efforts de changement. La troisième contribution concerne la détection des défauts de conception. Pendant les activités de maintenance, il est important de disposer d’un outil capable de détecter les défauts de conception de façon incrémentale et itérative. Ce processus de détection incrémentale et itérative pourrait réduire les coûts, les efforts et les ressources en permettant aux praticiens d’identifier et de prendre en compte les occurrences de défauts de conception comme ils les trouvent lors de la compréhension et des changements. Les chercheurs ont proposé des approches pour détecter les occurrences de défauts de conception, mais ces approches ont actuellement quatre limites: (1) elles nécessitent une connaissance approfondie des défauts de conception, (2) elles ont une précision et un rappel limités, (3) elles ne sont pas itératives et incrémentales et (4) elles ne peuvent pas être appliquées sur des sous-ensembles de systèmes. Pour surmonter ces limitations, nous introduisons SMURF, une nouvelle approche pour détecter les défauts de conception, basé sur une technique d’apprentissage automatique — machines à vecteur de support — et prenant en compte les retours des praticiens. Grâce à une étude empirique portant sur trois systèmes et quatre défauts de conception, nous avons montré que la précision et le rappel de SMURF sont supérieurs à ceux de DETEX et BDTEX lors de la détection des occurrences de défauts de conception. Nous avons également montré que SMURF peut être appliqué à la fois dans les configurations intra-système et inter-système. Enfin, nous avons montré que la précision et le rappel de SMURF sont améliorés quand on prend en compte les retours des praticiens.
Resumo:
La connexine 43 (Cx43) est l’unité protéique de base dans la formation des canaux des jonctions gap (JG) responsables des échanges intercellulaires. Toutefois, elle forme aussi des canaux non-jonctionnels à large conductance, nommés hémicanaux (Hc), qui fournissent un accès entre l’intérieure des cellules et le milieu extracellulaire. Bien qu’ils soient beaucoup moins étudiés que les JG, on estime que les Hc restent normalement à l’état fermé, et ce, grâce à la phosphorylation des connexines qui les forment. Suite à un stress ischémique, les Cx43 se déphosphorylent et entraînent ainsi l’ouverture des Hc de Cx43 (HcCx43), un effet qui compromet la survie des cellules. La protéine kinase C (PKC) est l’enzyme de phosphorylation qui possède le plus grand nombre de sites de phosphorylation sur la Cx43 en comparaison avec les autres kinases. Ses fonctions dépendent de la mise en jeu d’un répertoire d’au moins 12 isoformes distinctes. Dans les cardiomyocytes, les isoformes de PKC participent au développement des réponses adaptées ou mésadaptées au stress ischémique. Malgré que la régulation des canaux de Cx43 par la PKC lors d’une ischémie soit bien documentée, il n’existe pas à l’heure actuelle de connaissances sur les effets fonctionnels spécifiques qu’exercent des différentes isoformes de PKC sur les HcCx43, ni sur la valeur thérapeutique de la modulation de ses derniers. Dans ce contexte, nous avons proposé que les HcCx43 sont régulés sélectivement et différentiellement par les différentes isoformes de PKC et que l’inhibition spécifique de ces hémicanaux peut protéger le coeur lors d’un événement ischémique. Le présent travail comporte trois études qui ont été entreprises spécialement dans le but de valider ces hypothèses. Dans la première étude, nous avons profité de l’expertise du laboratoire du Dr Baroudi dans la dissection des isoformes de PKC pour étudier le rôle fonctionnel de chacune d’elles dans la régulation des HcCx43 en utilisant une gamme unique de peptides synthétiques inhibiteurs et activateurs spécifiques des isoformes de PKC, en combinaison avec la technique du patch-clamp. Nous avons démontré, entre autre, que les HcCx43 sont particulièrement inhibés par l’isoforme PKC epsilon, connue pour son effet cardioprotecteur contre les dommages ischémiques lors d’un préconditionnement ischémique. Dans la deuxième étude, nous avons caractérisé l’effet d’un peptide synthétique mimétique structural de la Cx43 sur la fonction des HcCx43. En plus d’avoir élucidé ces effets sur les propriétés fonctionnelles du canal, nous avons démontré d’une manière directe et indéniable que le peptide Gap26 inhibe et spécifiquement les HcCx43 et que son administration in vitro (cardiomyocytes isolés) et ex vivo (coeur intact) confère à ces modèles expérimentaux une résistance importante contre le stress ischémique. Dans la troisième étude, nous avons investigué pour la première fois in vivo le potentiel de deux peptides uniques mimétiques structuraux de la Cx43, Gap26 et Gap27, dans la cardioprotection contre les lésions ischémiques lorsqu’ils sont administrés à basse dose sous forme d’un bolus intraveineux unique. Nous avons démontré que l’injection de ces peptides avant ou après la survenue de l’ischémie réduit significativement la taille de l’infarctus qui en résulte.En conclusion, l’ensemble de ces résultats révèlent le rôle bénéfique de l’inhibition des HcCx43 lors d’une ischémie et dévoilent un potentiel thérapeutique prometteux des mimétiques structuraux de Cx43 dans la prévention et le traitement de l’infarctus du myocarde.
Resumo:
Bien que ce soit un procédé industriel répandu, les films de copolymères à blocs préparés par trempage (« dip-coating ») sont moins étudiés que ceux obtenus par tournette (« spin-coating »). Pourtant, il est possible grâce à cette technique de contrôler précisément les caractéristiques de ces films. Au-delà de la méthode de fabrication, la capacité de modifier la morphologie des films trempés à l’aide d’autres facteurs externes est un enjeu primordial pour leur utilisation dans les nanotechnologies. Nous avons choisi, ici, d’étudier l’influence d’une petite molécule sur la morphologie de films supramoléculaires réalisés par « dip-coating » à partir de solutions de poly(styrène-b-4-vinyl pyridine) (PS-P4VP) dans le tétrahydrofurane (THF). En présence de 1-naphtol (NOH) et d’1-acide napthoïque (NCOOH), qui se complexent par pont hydrogène au bloc P4VP, ces films donnent, respectivement, une morphologie en nodules (sphères) et en stries (cylindres horizontaux). Des études par spectroscopie infrarouge ont permis de mesurer la quantité de petite molécule dans ces films minces, qui varie avec la vitesse de retrait mais qui s’avère être identique pour les deux petites molécules, à une vitesse de retrait donnée. Cependant, des études thermiques ont montré qu’une faible fraction de petite molécule est dispersée dans le PS (davantage de NOH que de NCOOH à cause de la plus faible liaison hydrogène du premier). La vitesse de retrait est un paramètre clé permettant de contrôler à la fois l’épaisseur et la composition du film supramoléculaire. L’évolution de l’épaisseur peut être modélisée par deux régimes récemment découverts. Aux faibles vitesses, l’épaisseur décroît (régime de capillarité), atteint un minimum, puis augmente aux vitesses plus élevées (régime de drainage). La quantité de petite molécule augmente aux faibles vitesses pour atteindre un plateau correspondant à la composition de la solution aux vitesses les plus élevées. Des changements de morphologie, à la fois liés à l’épaisseur et à la quantité de petite molécule, sont alors observés lorsque la vitesse de retrait est modifiée. Le choix du solvant est aussi primordial dans le procédé de « dip-coating » et a été étudié en utilisant le chloroforme, qui est un bon solvant pour les deux blocs. Il s’avère qu’à la fois la composition ainsi que la morphologie des films de PS-P4VP complexés sont différentes par rapport aux expériences réalisées dans le THF. Premièrement, la quantité de petite molécule reste constante avec la vitesse de retrait mais les films sont plus riches en NCOOH qu’en NOH. Deuxièmement, la morphologie des films contenant du NOH présente des stries ainsi que des lamelles à plat, tandis que seules ces dernières sont observables pour le NCOOH. Ce comportement est essentiellement dû à la quantité différente de petite molécule modulée par leur force de complexation différente avec le P4VP dans le chloroforme. Enfin, ces films ont été utilisés pour l’adsorption contrôlée de nanoparticules d’or afin de guider leur organisation sur des surfaces recouvertes de PS-P4VP. Avant de servir comme gabarits, un recuit en vapeurs de solvant permet soit d’améliorer l’ordre à longue distance des nodules de P4VP, soit de modifier la morphologie des films selon le solvant utilisé (THF ou chloroforme). Ils peuvent être ensuite exposés à une solution de nanoparticules d’or de 15 nm de diamètre qui permet leur adsorption sélective sur les nodules (ou stries) de P4VP.
Resumo:
Archipel des Petites Antilles, la Martinique est une société née de la traite transatlantique, de l’esclavage et du colonialisme français. Cette société créole, liée à sa métropole depuis près de quatre siècles, est devenue un département français en 1946, conférant à ses habitants le statut de citoyen français. Dès lors, l’émigration vers son centre, l’Ile-de-France, s’intensifia peu à peu pour s’institutionnaliser au cours des années 1960 grâce à un organisme d’Etat, le BUMIDOM. La présence antillaise en France est aujourd’hui telle, qu’on parle de la métropole comme d’une « troisième île ». Toutefois, on assiste de nos jours à de nouvelles pratiques de mobilités transatlantiques, plurales et multiformes, dont les migrations de retour font partie intégrante. Les acteurs du retour, les dits « retournés » ou « négropolitains », ont témoigné de plusieurs obstacles à l’heure de réintégrer leur terre d’origine. La présente étude entend démontrer cette tendance à considérer le migrant de retour comme un nouveau type d’ « outsider », soit comme un étranger culturel ; manifestation inédite qui dévoile une autre facette de l’altérité à la Martinique ainsi qu’une nouvelle configuration de sa relation postcoloniale avec la République française. Suite à un terrain ethnographique auprès de ces « retournés », et d’une observation participante auprès de la population locale, cette étude entend soumettre les représentations de l’île et de ses habitants à une analyse qualitative et comprendre comment l’expérience en territoire français transformera le migrant, sa façon d’appartenir à la culture martiniquaise et/ou à la culture française. Nous nous livrons ainsi à un examen des représentations et des pratiques des acteurs du retour pour permettre un éclairage novateur sur les nouvelles allégeances identitaires et les nouveaux déterminants de l’altérité à l’intersection de ces deux espaces à la fois proches et distants. Aussi, nous interrogerons comment le prisme du retour s’articule au cas martiniquais. En effet, le retour acquiert une dimension particulière dans le contexte de ces itinéraires de mobilité de « citoyens de couleur » qui expérimentent souvent un double rejet social et ce, sans même s’être écartés de leurs frontières nationales.
Resumo:
Cette thèse porte sur la capacité à détecter des compagnons de faible intensité en présence de bruit de tavelures dans le contexte de l’imagerie à haute gamme dynamique pour l’astronomie spatiale. On s’intéressera plus particulièrement à l’imagerie spectrale différentielle (ISD) obtenue en utilisant un étalon Fabry-Pérot comme filtre accordable. Les performances d’un tel filtre accordable sont présentées dans le cadre du Tunable Filter Imager (TFI), instrument conçu pour le télescope spatial James Webb (JWST). La capacité de l’étalon à supprimer les tavelures avec ISD est démontrée expérimentalement grâce à un prototype de l’étalon installé sur un banc de laboratoire. Les améliorations de contraste varient en fonction de la séparation, s’étendant d’un facteur 10 pour les séparations supérieures à 11 lambda/D jusqu’à un facteur 60 à 5 lambda/D. Ces résultats sont cohérents avec une étude théorique qui utilise un modèle basé sur la propagation de Fresnel pour montrer que les performances de suppression de tavelures sont limitées par le banc optique et non pas par l’étalon. De plus, il est démontré qu’un filtre accordable est une option séduisante pour l’imagerie à haute gamme dynamique combinée à la technique ISD. Une seconde étude basée sur la propagation de Fresnel de l’instrument TFI et du télescope, a permis de définir les performances de la technique ISD combinée avec un étalon pour l’astronomie spatiale. Les résultats prévoient une amélioration de contraste de l’ordre de 7 jusqu’à 100, selon la configuration de l’instrument. Une comparaison entre ISD et la soustraction par rotation a également été simulée. Enfin, la dernière partie de ce chapitre porte sur les performances de la technique ISD dans le cadre de l’instrument Near-Infrared Imager and Slitless Spectrograph (NIRISS), conçu pour remplacer TFI comme module scientifique à bord du Fine Guidance Sensor du JWST. Cent quatre objets localisés vers la région centrale de la nébuleuse d’Orion ont été caractérisés grâce à un spectrographe multi-objet, de basse résolution et multi-bande (0.85-2.4 um). Cette étude a relevé 7 nouvelles naines brunes et 4 nouveaux candidats de masse planétaire. Ces objets sont utiles pour déterminer la fonction de masse initiale sous-stellaire et pour évaluer les modèles atmosphériques et évolutifs futurs des jeunes objets stellaires et sous-stellaires. Combinant les magnitudes en bande H mesurées et les valeurs d’extinction, les objets classifiés sont utilisés pour créer un diagramme de Hertzsprung-Russell de cet amas stellaire. En accord avec des études antérieures, nos résultats montrent qu’il existe une seule époque de formation d’étoiles qui a débuté il y a environ 1 million d’années. La fonction de masse initiale qui en dérive est en accord avec des études antérieures portant sur d’autres amas jeunes et sur le disque galactique.
Resumo:
Ma thèse montre la présence et le rôle de la métaphysique dans Vérité et méthode. Elle tente de démontrer que Gadamer s'inspire du néoplatonisme pour surmonter le subjectivisme de la modernité et propose une métaphysique à cette fin. Après avoir expliqué comment Gadamer se réapproprie l’héritage de la pensée grecque pour critiquer la modernité en situant son interprétation de Platon par rapport à celle de Heidegger, je montre que Gadamer s’approprie la conception de l’être de Plotin de façon telle qu’il peut s’y appuyer pour penser l’autoprésentation de l’être dans l’expérience herméneutique de la vérité. L’art va, pour ce faire, redevenir sous la conduite du néoplatonisme source de vérité. Gadamer redonne en effet une dignité ontologique à l’art grâce à la notion d’émanation, notion qui permet de penser qu’il y a une présence réelle du représenté dans sa représentation, celle-ci émanant du représenté sans l’amoindrir, mais lui apportant au contraire un surcroît d’être. La notion d’émanation permet ensuite à Gadamer d’affirmer le lien indissoluble qui unit les mots aux choses. En effet, la doctrine du verbe intérieur de Thomas d’Aquin implique ce lien que Platon avait occulté en réduisant le langage, comme la logique, à n’être qu’un instrument de domination du réel. L’utilisation de la notion néoplatonicienne d’émanation permet donc de dépasser la philosophie grecque du logos et de mieux rendre compte de l’être de la langue. Je montre ensuite comment Gadamer radicalise sa pensée en affirmant que l’être qui peut être compris est langage, ce qui veut dire que l’être, comme chez Plotin, est autoprésentation de soi-même. Pour ce faire, Gadamer rattache l’être du langage à la métaphysique néoplatonicienne de la lumière. Les dernières pages de Vérité et méthode rappellent en effet que la splendeur du beau est manifestation de la vérité de l’être. On rattachera alors le concept de vérité herméneutique à ses origines métaphysiques. La vérité est une manifestation de l’être dont on ne peut avoir part que si on se laisse submerger par sa lumière. Loin d’être affaire de contrôle méthodique, l’expérience de la vérité exige de se laisser posséder par ce qui est à comprendre. Je démontre ainsi que Gadamer a découvert dans le néoplatonisme des éléments permettant de s’opposer à la dictature du sujet moderne, dictature qui doit être renversée, car elle masque le réel rapport de l’homme à la vérité en faisant abstraction de la finitude de son existence concrète. La critique du subjectivisme moderne sous la conduite du néoplatonisme ouvre ainsi le chemin vers une métaphysique de la finitude.
Resumo:
Camp met en présence un officier nazi et ses Juifs : une petite fille s’appuyant sur sa vie d’avant afin de survivre dans sa vie d’après, une jeune femme d’une cinglante liberté intérieure et un groupe de prisonniers, la masse grise. Ce récit se déroule en quelques jours dans un camp d’extermination, en Pologne. Il y est question d’un projet insensé, imaginé et mis en œuvre par le Nazi dont le discours s’apparente à de confuses et dérisoires logorrhées. La recherche d’une humanité déniée, à la base du dévoilement de l’individualité des personnages (prisonniers), émane de la grâce, de l’authenticité et de la force vitale de la protagoniste, la petite fille, tendue vers son plan-de-quand-même-vie. Forêt, écrit en parallèle, puis à la fin de Camp, n’est pas sa suite, mais l’est aussi… Court récit poétique, il raconte la traversée d’une forêt par une femme à la recherche de ses édens. Le lieu, interpellé et très souvent conspué pour ce qu’il est devenu, devient un actant. Forêt, se servant de ses restes mythiques, contraint le pas-à-pas de la femme, perdue d’avance. L’essai, Quatre objets de mémoire, porte sur l’appropriation et la transmission de la mémoire de la Shoah, à partir de restes, de détails, de petits riens, perçus ici comme d’imaginables traces. J’interroge les signes singuliers d’improbables objets (feuillets administratifs du Troisième Reich, clichés fragmentaires d’Auschwitz-Birkenau et photographies de ses bois et de ses latrines) afin d’y débusquer de petits morceaux du caché, du secret et de l’innommable de la Solution finale. L’affect ressenti en présence de ces objets, par ce que je nomme, le nécessaire abandon, y est analysé dans le dessein d’en saisir leurs douleurs et de les rendre miennes. L’œuvre de l’artiste de la photo, Marie-Jeanne Musiol, sur Auschwitz-Birkenau, est à la base de ce désir de mémoire pérenne.
Resumo:
Depuis quelques années, l'évolution moléculaire cherche à caractériser les variations et l'intensité de la sélection grâce au rapport entre taux de substitution synonyme et taux de substitution non-synonyme (dN/dS). Cette mesure, dN/dS, a permis d'étudier l'histoire de la variation de l'intensité de la sélection au cours du temps ou de détecter des épisodes de la sélection positive. Les liens entre sélection et variation de taille efficace interfèrent cependant dans ces mesures. Les méthodes comparatives, quant a elle, permettent de mesurer les corrélations entre caractères quantitatifs le long d'une phylogénie. Elles sont également utilisées pour tester des hypothèses sur l'évolution corrélée des traits d'histoire de vie, mais pour être employées pour étudier les corrélations entre traits d'histoire de vie, masse, taux de substitution ou dN/dS. Nous proposons ici une approche combinant une méthode comparative basée sur le principe des contrastes indépendants et un modèle d'évolution moléculaire, dans un cadre probabiliste Bayésien. Intégrant, le long d'une phylogénie, sur les reconstructions ancestrales des traits et et de dN/dS nous estimons les covariances entre traits ainsi qu'entre traits et paramètres du modèle d'évolution moléculaire. Un modèle hiérarchique, a été implémenté dans le cadre du logiciel coevol, publié au cours de cette maitrise. Ce modèle permet l'analyse simultané de plusieurs gènes sans perdre la puissance donnée par l'ensemble de séquences. Un travail deparallélisation des calculs donne la liberté d'augmenter la taille du modèle jusqu'à l'échelle du génome. Nous étudions ici les placentaires, pour lesquels beaucoup de génomes complets et de mesures phénotypiques sont disponibles. À la lumière des théories sur les traits d'histoire de vie, notre méthode devrait permettre de caractériser l'implication de groupes de gènes dans les processus biologique liés aux phénotypes étudiés.
Resumo:
Ce mémoire a pour objectif général de définir et de caractériser les présences amérindiennes sur l’île de Montréal au cours de la période s’échelonnant du Sylvicole supérieur à la fin du XVIIe siècle ainsi que de tenter de comprendre le rôle qu’exerça le mont Royal dans ce contexte. En nous appuyant sur des théories de l’archéologie du paysage, nous avons étudié la création consciente et inconsciente de paysages et la manière par laquelle ces lieux ont façonné les comportements et les identités de leurs occupants. Grâce à la continuité d’activités répétitives, liées au concept de taskscape, nous avons tenté d’y établir un modèle de trame d’occupation reflétant une utilisation dynamique et stratégique du paysage face aux politiques coloniales. La démarche adoptée est celle d’une approche holistique s’appuyant à la fois sur des données archéologiques, historiques, ethnohistoriques et ethnographiques émanant des rapports de fouilles archéologiques, des traditions orales et des différents documents coloniaux datant des XVIe, XVIIe et XVIIIe siècles. Cette étude a permis de déterminer différentes zones associées à des perceptions différentes du paysage reflétant une stratégie de continuité dans la conceptualisation, l’organisation et la manipulation de l’espace à la suite de l’appropriation des terres par le gouvernement colonial.
Resumo:
La version intégrale de ce mémoire est disponible uniquement pour consultation individuelle à la Bibliothèque de musique de l'Université de Montréal (www.bib.umontreal.ca)
Resumo:
Les collisions proton-proton produites par le LHC imposent un environnement radiatif hostile au détecteur ATLAS. Afin de quantifier les effets de cet environnement sur la performance du détecteur et la sécurité du personnel, plusieurs simulations Monte Carlo ont été réalisées. Toutefois, la mesure directe est indispensable pour suivre les taux de radiation dans ATLAS et aussi pour vérifier les prédictions des simulations. À cette fin, seize détecteurs ATLAS-MPX ont été installés à différents endroits dans les zones expérimentale et technique d'ATLAS. Ils sont composés d'un détecteur au silicium à pixels appelé MPX dont la surface active est partiellement recouverte de convertisseurs de neutrons thermiques, lents et rapides. Les détecteurs ATLAS-MPX mesurent en temps réel les champs de radiation en enregistrant les traces des particules détectées sous forme d'images matricielles. L'analyse des images acquises permet d'identifier les types des particules détectées à partir des formes de leurs traces. Dans ce but, un logiciel de reconnaissance de formes appelé MAFalda a été conçu. Étant donné que les traces des particules fortement ionisantes sont influencées par le partage de charge entre pixels adjacents, un modèle semi-empirique décrivant cet effet a été développé. Grâce à ce modèle, l'énergie des particules fortement ionisantes peut être estimée à partir de la taille de leurs traces. Les convertisseurs de neutrons qui couvrent chaque détecteur ATLAS-MPX forment six régions différentes. L'efficacité de chaque région à détecter les neutrons thermiques, lents et rapides a été déterminée par des mesures d'étalonnage avec des sources connues. L'étude de la réponse des détecteurs ATLAS-MPX à la radiation produite par les collisions frontales de protons à 7TeV dans le centre de masse a montré que le nombre de traces enregistrées est proportionnel à la luminosité du LHC. Ce résultat permet d'utiliser les détecteurs ATLAS-MPX comme moniteurs de luminosité. La méthode proposée pour mesurer et étalonner la luminosité absolue avec ces détecteurs est celle de van der Meer qui est basée sur les paramètres des faisceaux du LHC. Vu la corrélation entre la réponse des détecteurs ATLAS-MPX et la luminosité, les taux de radiation mesurés sont exprimés en termes de fluences de différents types de particules par unité de luminosité intégrée. Un écart significatif a été obtenu en comparant ces fluences avec celles prédites par GCALOR qui est l'une des simulations Monte Carlo du détecteur ATLAS. Par ailleurs, les mesures effectuées après l'arrêt des collisions proton-proton ont montré que les détecteurs ATLAS-MPX permettent d'observer la désintégration des isotopes radioactifs générés au cours des collisions. L'activation résiduelle des matériaux d'ATLAS peut être mesurée avec ces détecteurs grâce à un étalonnage en équivalent de dose ambiant.
Resumo:
La présente recherche se propose de retracer la vie et l’œuvre du père jésuite Jean Pierron (1631-1701), qui, venu de Lorraine, a contribué à la réouverture des missions iroquoises en Nouvelle-France. Arrivé dans la colonie en juin 1667, Pierron, se fit introduire auprès des populations autochtones par Jean Talon, après quoi il eut en charge un territoire d'environ une demi-douzaine de villages agniers de la vallée de l'Hudson. Après avoir livré ses premières impressions, le jésuite mit au point son programme apostolique, faisant appel à une méthode « audio-visuelle » fondée sur le dessin didactique. Mais le jésuite fut aussi un formidable voyageur, qui se rendit non seulement en Iroquoisie, mais aussi en Nouvelle-Angleterre. Il semble bien que ce soit grâce à de précieux réseaux de connaissances en dehors de ceux de la Compagnie de Jésus qu'il put entreprendre un tel voyage. La biographie de ce missionnaire-polyglotte, diplomate et peintre, souligne entre autre choses, l’importance du contexte stratégique et politique plus vaste des missions françaises en Amérique au XVIIe siècle.
Resumo:
La chaîne invariante (Ii ; CD74) est une protéine membranaire de type II qui joue un rôle majeur dans la présentation antigénique. Dans le réticulum endoplasmique (RE), Ii favorise l’assemblage du CMH II et prévient la liaison indésirable de polypeptides. Grâce à son motif di-leucine, la chaîne invariante cible le CMH II dans les endosomes. Une fois dans ces compartiments acides, Ii est dégradé, permettant la liaison de peptides de forte affinité qui seront ensuite présentés aux cellules T CD4+. Chez les souris déficientes en Ii murin (mIi), le CMH II présente une conformation non compacte typique des molécules vides ou liées faiblement à un peptide. Le transport du CMH II est aberrant ce qui conduit à une réduction de son expression en surface ainsi qu’à un défaut de présentation antigénique. De plus, Ii diversifie le répertoire de peptides et assure la sélection thymique des cellules T CD4+. Enfin, il a un rôle dans la maturation des cellules B et les souris déficientes en Ii présentent des nombres réduits de cellules B matures folliculaires (FO). L’isoforme mineure humaine p35 (Iip35) n’existe pas chez la souris et possède une extension cytoplasmique de 16 acides aminés contenant un motif R-x-R de rétention dans le RE. La sortie du RE est conditionnelle à la liaison du CMH II qui permet de masquer le motif de rétention. Iip35 agit comme dominant et impose la rétention aux autres isoformes d’Ii. Cependant, le rôle physiologique du motif R-x-R et, plus globalement, celui d’Iip35, demeurent nébuleux. Pour mieux cerner la fonction d’Iip35, nous avons généré des souris transgéniques (Tg) exprimant l’isoforme humaine Iip35 et avons analysé la conformation et le trafic du CMH II, la sélection thymique et la maturation des cellules B ainsi que la présentation antigénique. Nos résultats ont démontré qu’Iip35 favorise l’assemblage du CMH II dans le RE. Il induit également une conformation compacte du CMH II et augmente l’expression du CMH II en surface. De plus, Iip35 cible le CMH II dans les endosomes où un peptide de forte affinité se lie dans la niche peptidique. Par ailleurs, Iip35 diversifie le répertoire de peptides et rétablit totalement la sélection des cellules T CD4+ ainsi que le niveau d’expression du TCR de ces dernières. Iip35 restaure également la présentation antigénique de l’ovalbumine dont la présentation requiert l’expression d’Ii. Par contre, Iip35 rétablit la présentation des superantigènes mais à un niveau moindre que celui des souris sauvages. Ensuite, Iip35 permet le rétablissement de la sélection des cellules iNKT démontrant qu’il assiste la présentation des lipides par les molécules CD1d. Enfin, les résultats ont démontré qu’Iip35 restaure le développement des cellules B matures folliculaires (FO) mais pas celui des cellules B de la zone marginale. Ceci suggère qu’Iip35 est capable d’induire le développement des cellules FO sans stimulation préalable par le MIF (macrophage migration inhibitory factor). Ainsi, l’ensemble de ces résultats démontre qu’Iip35 est fonctionnel et assure la majorité des fonctions d’Ii. Cependant, Iip35 ne remplace pas mIi endogène concernant la maturation des cellules B MZ suggérant qu’il pourrait avoir un rôle de régulateur.