994 resultados para coup de coude direct et rétrograde
Resumo:
Le recours au plasma pour stériliser des dispositifs médicaux (DM) est un domaine de recherche ne datant véritablement que de la fin des années 1990. Les plasmas permettent, dans les conditions adéquates, de réaliser la stérilisation à basse température (≤ 65°C), tel qu’exigé par la présence de polymères dans les DM et ce contrairement aux procédés par chaleur, et aussi de façon non toxique, contrairement aux procédés chimiques comme, par exemple, l’oxyde d’éthylène (OEt). Les laboratoires du Groupe de physique des plasmas à l’Université de Montréal travaillent à l’élaboration d’un stérilisateur consistant plus particulièrement à employer les effluents d’une décharge N2-%O2 basse pression (2-8 Torrs) en flux, formant ce que l’on appelle une post-décharge en flux. Ce sont les atomes N et O de cette décharge qui viendront, dans les conditions appropriées, entrer en collisions dans la chambre de stérilisation pour y créer des molécules excitées NO*, engendrant ainsi l’émission d’une quantité appréciable de photons UV. Ceux-ci constituent, dans le cas présent, l’agent biocide qui va s’attaquer directement au bagage génétique du micro-organisme (bactéries, virus) que l’on souhaite inactiver. L’utilisation d’une lointaine post-décharge évite du même coup la présence des agents érosifs de la décharge, comme les ions et les métastables. L’un des problèmes de cette méthode de stérilisation est la réduction du nombre de molécules NO* créées par suite de la perte des atomes N et O, qui sont des radicaux connus pour interagir avec les surfaces, sur les parois des matériaux des DM que l’on souhaite stériliser. L’objectif principal de notre travail est de déterminer l’influence d’une telle perte en surface, dite aussi réassociation en surface, par l’introduction de matériaux comme le Téflon, l’acier inoxydable, l’aluminium et le cuivre sur le taux d’inactivation des spores bactériennes. Nous nous attendons à ce que la réassociation en surface de ces atomes occasionne ainsi une diminution de l’intensité UV et subséquemment, une réduction du taux d’inactivation. Par spectroscopie optique d’émission (SOE), nous avons déterminé les concentrations perdues de N et de O par la présence des matériaux dans le stérilisateur, ainsi que la diminution de l’émission UV en découlant. Nous avons observé que cette diminution des concentrations atomiques est d’autant plus importante que les surfaces sont catalytiques. Au cours de l’étude du phénomène de pertes sur les parois pour un mélange N2-%O2 nous avons constaté l’existence d’une compétition en surface entre les atomes N et O, dans laquelle les atomes d’oxygènes semblent dominer largement. Cela implique qu’au-delà d’un certain %O2 ajouté à la décharge N2, seuls les atomes O se réassocient en surface. Par ailleurs, l’analyse des courbes de survie bi-phasiques des micro-organismes a permis d’établir une étroite corrélation, par lien de cause à effet, entre la consommation des atomes N et O en surface et la diminution du taux d’inactivation des spores dans la première phase. En revanche, nous avons constaté que notre principal agent biocide (le rayonnement ultraviolet) est moins efficace dans la deuxième phase et, par conséquent, il n’a pas été possible d’établir un lien entre la diminution des concentrations et le taux d’inactivation de cette phase-là.
Resumo:
En direct de l'EBSI, la revue des diplômés de l'EBSI, est publiée annuellement par l'École de bibliothéconomie et des sciences de l'information (EBSI) de l'Université de Montréal. Une version imprimée a aussi été produite de 1988 à 2010.
Resumo:
La quantité de données générée dans le cadre d'étude à grande échelle du réseau d'interaction protéine-protéine dépasse notre capacité à les analyser et à comprendre leur sens; d'une part, par leur complexité et leur volume, et d'un autre part, par la qualité du jeu de donnée produit qui semble bondé de faux positifs et de faux négatifs. Cette dissertation décrit une nouvelle méthode de criblage des interactions physique entre protéines à haut débit chez Saccharomyces cerevisiae, la complémentation de fragments protéiques (PCA). Cette approche est accomplie dans des cellules intactes dans les conditions natives des protéines; sous leur promoteur endogène et dans le respect des contextes de modifications post-traductionnelles et de localisations subcellulaires. Une application biologique de cette méthode a permis de démontrer la capacité de ce système rapporteur à répondre aux questions d'adaptation cellulaire à des stress, comme la famine en nutriments et un traitement à une drogue. Dans le premier chapitre de cette dissertation, nous avons présenté un criblage des paires d'interactions entre les protéines résultant des quelques 6000 cadres de lecture de Saccharomyces cerevisiae. Nous avons identifié 2770 interactions entre 1124 protéines. Nous avons estimé la qualité de notre criblage en le comparant à d'autres banques d'interaction. Nous avons réalisé que la majorité de nos interactions sont nouvelles, alors que le chevauchement avec les données des autres méthodes est large. Nous avons pris cette opportunité pour caractériser les facteurs déterminants dans la détection d'une interaction par PCA. Nous avons remarqué que notre approche est sous une contrainte stérique provenant de la nécessité des fragments rapporteurs à pouvoir se rejoindre dans l'espace cellulaire afin de récupérer l'activité observable de la sonde d'interaction. L'intégration de nos résultats aux connaissances des dynamiques de régulations génétiques et des modifications protéiques nous dirigera vers une meilleure compréhension des processus cellulaires complexes orchestrés aux niveaux moléculaires et structuraux dans les cellules vivantes. Nous avons appliqué notre méthode aux réarrangements dynamiques opérant durant l'adaptation de la cellule à des stress, comme la famine en nutriments et le traitement à une drogue. Cette investigation fait le détail de notre second chapitre. Nous avons déterminé de cette manière que l'équilibre entre les formes phosphorylées et déphosphorylées de l'arginine méthyltransférase de Saccharomyces cerevisiae, Hmt1, régulait du même coup sont assemblage en hexamère et son activité enzymatique. L'activité d'Hmt1 a directement un impact dans la progression du cycle cellulaire durant un stress, stabilisant les transcrits de CLB2 et permettant la synthèse de Cln3p. Nous avons utilisé notre criblage afin de déterminer les régulateurs de la phosphorylation d'Hmt1 dans un contexte de traitement à la rapamycin, un inhibiteur de la kinase cible de la rapamycin (TOR). Nous avons identifié la sous-unité catalytique de la phosphatase PP2a, Pph22, activé par l'inhibition de la kinase TOR et la kinase Dbf2, activé durant l'entrée en mitose de la cellule, comme la phosphatase et la kinase responsable de la modification d'Hmt1 et de ses fonctions de régulations dans le cycle cellulaire. Cette approche peut être généralisée afin d'identifier et de lier mécanistiquement les gènes, incluant ceux n'ayant aucune fonction connue, à tout processus cellulaire, comme les mécanismes régulant l'ARNm.
Resumo:
La version intégrale de ce mémoire est disponible uniquement pour consultation individuelle à la Bibliothèque de musique de l'Université de Montréal (www.bib.umontreal.ca/MU).
Resumo:
Ce travail analyse les transformations du Graal en comparant sa représentation dans les romans médiévaux et dans trois textes de théâtre modernes. Le Graal, apparu dans la littérature au Moyen Âge, reste une source d'inspiration pour les écrivains modernes au point de gagner, avec le temps, un statut légendaire. L'objet de prédilection de la littérature arthurienne a évolué de façon significative dès le Moyen Âge, où il reste cependant confiné aux formes narratives. Après le « festival scénique sacré » (Bühnenweihfestspiel), Parsifal, de Wagner présenté en 1882 à Bayreuth, des œuvres plus récentes réactualisent le mythe en cherchant à l'adapter au théâtre. Jean Cocteau, en 1937, dans Les Chevaliers de la Table Ronde, présente un Graal inaccessible, immatériel. En 1948, Julien Gracq, dans Le Roi Pêcheur, inscrit le Graal dans l'opposition entre le profane et le sacré. Jacques Roubaud et Florence Delay, dans les éditions de 1977 et 2005 de Graal Théâtre, optent pour une récriture où les représentations du mythe se côtoient et se confrontent. Ces textes de théâtre modernes, où la représentation du Graal se situe au cœur du projet d'écriture, entrent ainsi en relation directe avec les œuvres médiévales. Ils s'inscrivent dans une redéfinition de l'objet qui se renouvelle sans cesse depuis Le Conte du Graal de Chrétien de Troyes. Dans les trois cas, la représentation du Graal entretient des relations contradictoires de filiation et de rupture avec la littérature arthurienne de l'époque médiévale. L'hypothèse principale de cette recherche se situe dans la problématique de la récriture comme transformation d'un héritage. Plus précisément, il sera question de comprendre comment la représentation du Graal dans les textes de théâtre pose problème et comment cette question est modulée, travaillée par les auteurs en termes rhétoriques, stylistiques et dramaturgiques. L'utilisation de la parodie, d'anachronismes et de voix dramatiques nouvelles, par exemple, permet aux auteurs modernes de revisiter et de changer le rapport à l'objet. Le Graal se redéfinit dans des contextes historiques et dans un genre distincts de leur source du Moyen Âge.
Resumo:
Nous avons examiné la nature du lien, additif ou interactif, entre les capacités attentionnelles et les habiletés de motricité fine et leur influence sur les habiletés d’écriture ultérieures. Les mesures de l’échantillon (n=439) de l’étude montréalaise sur le préscolaire en milieu défavorisé (MLEPS) à la maternelle incluent des questionnaires aux enseignants, des évaluations sur la connaissance des nombres et du vocabulaire réceptif des élèves et caractéristiques familiales rapportées par les parents. En 3ème année, les mesures proviennent de questionnaires aux enseignants. Selon les résultats des régressions multiples de notre modèle, un élève qui avait de bonnes capacités d’attention ou de motricité fine à la maternelle, avait plus de chances d’avoir de bonnes habiletés d’écriture en 3ème année. L’interaction entre l’attention et la motricité fine était aussi significative, ce qui signifie que les capacités d’attention, avec l’influence des habiletés de motricité fine, prédisent davantage les habiletés d’écriture ultérieure. Il est pertinent de mesurer la réussite scolaire en écriture puisque les élèves à l’école peuvent investir de 31 à 60% de leur temps à réaliser des tâches motrices et 85% de celles-ci incluraient un crayon et du papier (McHale & Cermak, 1992). L’écriture serait aussi importante que les mathématiques et la lecture pour la réussite scolaire (Cutler & Graham, 2008). En identifiant les éléments clés de la réussite en écriture, nous pourrons mieux intervenir et soutenir les élèves, et ainsi, nous pourrions augmenter leurs chances de vivre des expériences positives à l’école, d’obtenir un diplôme et d’ intégrer le marché du travail.
Resumo:
Le vieillissement de la main-d’œuvre canadienne entraîne diverses conséquences sur le marché du travail et sur les parcours de fin de vie active. C’est pourquoi cette recherche s’intéresse à la problématique des fins d’emploi de carrière et du passage vers un emploi de transition vers la retraite. À l’aide des données longitudinales de l’Enquête sur la dynamique du travail et du revenu de 2002 à 2007, l’objectif est de mener une analyse descriptive de cette trajectoire selon la profession, ce qui ne semble jamais avoir été fait dans la littérature canadienne. Les résultats montrent que certaines professions ont enregistré proportionnellement plus de fins d’emploi de carrière durant cette période, dont les enseignants et les occupants d’un poste de direction. Des analyses supplémentaires ont calculé la part des travailleurs ayant effectué leur transition dans une profession différente.
Resumo:
Les collisions proton-proton produites par le LHC imposent un environnement radiatif hostile au détecteur ATLAS. Afin de quantifier les effets de cet environnement sur la performance du détecteur et la sécurité du personnel, plusieurs simulations Monte Carlo ont été réalisées. Toutefois, la mesure directe est indispensable pour suivre les taux de radiation dans ATLAS et aussi pour vérifier les prédictions des simulations. À cette fin, seize détecteurs ATLAS-MPX ont été installés à différents endroits dans les zones expérimentale et technique d'ATLAS. Ils sont composés d'un détecteur au silicium à pixels appelé MPX dont la surface active est partiellement recouverte de convertisseurs de neutrons thermiques, lents et rapides. Les détecteurs ATLAS-MPX mesurent en temps réel les champs de radiation en enregistrant les traces des particules détectées sous forme d'images matricielles. L'analyse des images acquises permet d'identifier les types des particules détectées à partir des formes de leurs traces. Dans ce but, un logiciel de reconnaissance de formes appelé MAFalda a été conçu. Étant donné que les traces des particules fortement ionisantes sont influencées par le partage de charge entre pixels adjacents, un modèle semi-empirique décrivant cet effet a été développé. Grâce à ce modèle, l'énergie des particules fortement ionisantes peut être estimée à partir de la taille de leurs traces. Les convertisseurs de neutrons qui couvrent chaque détecteur ATLAS-MPX forment six régions différentes. L'efficacité de chaque région à détecter les neutrons thermiques, lents et rapides a été déterminée par des mesures d'étalonnage avec des sources connues. L'étude de la réponse des détecteurs ATLAS-MPX à la radiation produite par les collisions frontales de protons à 7TeV dans le centre de masse a montré que le nombre de traces enregistrées est proportionnel à la luminosité du LHC. Ce résultat permet d'utiliser les détecteurs ATLAS-MPX comme moniteurs de luminosité. La méthode proposée pour mesurer et étalonner la luminosité absolue avec ces détecteurs est celle de van der Meer qui est basée sur les paramètres des faisceaux du LHC. Vu la corrélation entre la réponse des détecteurs ATLAS-MPX et la luminosité, les taux de radiation mesurés sont exprimés en termes de fluences de différents types de particules par unité de luminosité intégrée. Un écart significatif a été obtenu en comparant ces fluences avec celles prédites par GCALOR qui est l'une des simulations Monte Carlo du détecteur ATLAS. Par ailleurs, les mesures effectuées après l'arrêt des collisions proton-proton ont montré que les détecteurs ATLAS-MPX permettent d'observer la désintégration des isotopes radioactifs générés au cours des collisions. L'activation résiduelle des matériaux d'ATLAS peut être mesurée avec ces détecteurs grâce à un étalonnage en équivalent de dose ambiant.
Resumo:
Le présent mémoire définira ce qu’on entend par modernité et postmodernité, tout en juxtaposant ces concepts philosophiques au cinéma pratiqué par le documentariste Pierre Perrault. Les modernistes influencés par les Lumières ont toujours considéré les progrès scientifiques comme des avancées nécessaires à l’atteinte d’une béatitude universelle. Pour eux, le salut des sociétés nécessite un passage du côté de la science, du rationalisme. Le problème avec une telle démarche est que tout discours qui se dissocie de la rationalité est immédiatement annihilé au profit d’une (sur)dominance du progrès. Il ne s’agit pas de dire que la modernité est à proscrire – loin de là! –, mais il serait temps d’envisager une remise en question de certaines de ses caractéristiques. La postmodernité, réflexion critique popularisée par Jean-François Lyotard, s’évertue à trouver des pistes de solution pour pallier à cette problématique. Elle est une critique de la domination exagérée des sciences dans la compréhension de notre monde. Il existe pourtant d’autres façons de l’appréhender, tels les mythes et les croyances. Ces récits irrationnels cachent souvent en eux des valeurs importantes (qu’elles soient d’ordre moral, écologique ou spirituel). Or, l’œuvre de Perrault regorge de ces petites histoires communautaires. Les deux films choisis pour notre travail – Le goût de la farine (1977) et Le pays de la terre sans arbre ou le Mouchouânipi (1980) – en sont l’exemple prégnant. Chacun d’eux présente des traditions autochtones (celles des Innus) opposées à la dictature du progrès. Et cette même opposition permet au réalisateur de forger un discours critique sur une modernité prête à tout pour effacer les coutumes uniques. Le cinéaste agit ainsi en postmoderniste, offrant une réflexion salutaire sur les pires excès véhiculés par les tenants du progrès.
Resumo:
L’arbitrage public international est demeuré un domaine exclusif aux États souverains jusqu’à la fin des années 50, alors que sont apparus les traités bilatéraux relatifs aux investissements (TBI). La principale caractéristique de ces TBI est sans conteste le recours direct de l’investisseur étranger en arbitrage international contre des États récalcitrants, une alternative aux tribunaux locaux souvent inefficaces. Plus récemment, en 1998, l’organe d’appel de l’OMC est allé jusqu’à accepter l’opinion d’amicus curiae dans un différend opposant des États et aujourd’hui, l’admission de ce type d’opinion est expressément prévue dans plusieurs TBI de nouvelle génération. Mais si l’investisseur bénéficie d’un recours devant une instance arbitrale neutre, il en va tout autrement pour la population locale qui se trouve souvent lésée par la présence, sur son territoire, d’investisseurs étrangers. Le droit de présenter une opinion ne peut remplacer le droit de faire valoir une réclamation. Se pose donc la question : est-ce que, dans le contexte actuel du droit de l’investissement international, des tiers (par rapport aux parties signataires de TBI et par rapport aux parties au différend) peuvent prétendre à une voie de recours direct en arbitrage international? Nous sommes d’avis qu’une telle voie de recours est actuellement possible et que le contexte de l’arbitrage relatif à l’investissement constitue un terrain fertile pour la mise en place de ce droit, étant donné la place déjà faite aux investisseurs. Nous verrons que les principales objections à l’admission de tiers à l’arbitrage international peuvent être rejetées. L’objection de l’absence du consentement des parties intéressées tombe quand on constate les nombreux cas d’arbitrage international où la portée du consentement a été étendue pour inclure des non-parties ou encore pour soumettre à l’arbitrage des matières non envisagées au départ. Par ailleurs, l’absence de qualité pour agir en droit international est un problème théorique, car les investisseurs y ont déjà accès malgré l’absence de cette qualité. Reste donc à déterminer quelle pourrait être la base d’un recours en droit substantiel international pour qu’un tiers puisse faire valoir une réclamation. Nous verrons qu’il existe des instruments juridiques et des principes internationaux dont la contravention pourrait très bien engager la responsabilité de l’État ou de l’investisseur fautif, tout comme il est possible de bien circonscrire les critères d’admissibilité des tiers à la procédure d’arbitrage international.
Resumo:
Notre thèse étudie les liens entre les « redevances forestières annuelles » (RFA) et le « développement local » dans deux communes du Cameroun. Ce travail anthropologique s’inscrit dans le débat qui se fait à l’échelle internationale relativement au rôle et au devenir des populations locales dans la gestion des ressources naturelles. Dans le passé, la gestion des redevances forestières annuelles (RFA) a été, dans les pays d’Afrique centrale et au Cameroun en particulier, sous la seule responsabilité de l’État central. Une telle politique n’offrait pas la garantie nécessaire à l’utilisation durable de ces ressources qui sont indispensables à la vie des populations villageoises riveraines et à l’équilibre de l’environnement. Profitant de la crise des années 1980 et 1990 en Afrique, le FMI et la Banque mondiale ont exercé une pression sur les États africains pour qu’ils revoient, en conformité avec la Conférence de Rio (1992), leurs politiques en matière de gestion et de conservation des ressources forestières. Dans le bassin du Congo, le Cameroun a été le tout premier pays à réviser, en 1994, ses lois forestières par le biais d’une décentralisation de la fiscalité forestière : les taxes perçues furent réparties entre l’État, les collectivités territoriales décentralisées et les populations villageoises riveraines. Les fonds transférés aux communes et aux populations riveraines devaient servir au développement local en contribuant notamment à l’amélioration des conditions générales de vie des populations à travers la réalisation d’œuvres sociales, l’adduction d’eau, la construction et l’entretien des routes, des écoles, des cases de santé, etc. Dans les faits, l’impact de la fiscalité forestière décentralisée reste à ce jour encore peu visible sur la dynamique du développement local des communes. Notre projet de recherche doctorale prend place dans le domaine d’une anthropologie du développement centrée sur l’étude des solutions que les populations locales apportent aux problèmes auxquels elles sont confrontées dans leur vie de tous les jours. L’analyse des impacts que les politiques de développement économique exercent sur les populations villageoises d’Afrique est ici à l’avant-plan, pas seulement au sens d’une critique des politiques étatiques en matière d’exploitation forestière, mais aussi au sens d’une meilleure compréhension des conditions de mise en œuvre de ces politiques et de l’impact de celles-ci sur les populations villageoises, tant sur le plan des avantages financiers directs que des transformations écologiques que les activités forestières introduisent dans les pratiques agricoles des villageois. Sur le plan méthodologique, il faut noter que ce fut très difficile d’obtenir les informations nécessaires, notre sujet d’étude se révélant être très sensible quant à sa portée politique. Nous avons néanmoins pu recueillir un solide ensemble de données par le biais d’une démarche de proximité de type qualitatif qui a été conduite dans deux communes forestières qui représentent deux réalités différentes en matière de gestion des RFA. La collecte des données a été faite, de manière intensive, dans sept villages qui répondaient à nos critères : nous avons ainsi pu étudier, de manière approfondie, la situation des groupes sociaux les plus défavorisés qui sont exclus dans le partage des revenus forestiers. Pour construire notre cadre théorique, nous avons combiné des éléments empruntés aux théories environnementales, à l’anthropologie économique et à l’analyse des modes de gestion. Il faut noter, par ailleurs, que l’anthropologue n’est ni un aménagiste, ni un environnementaliste, ni un spécialiste des études managériales. Nous avons conduit notre étude comparative dans les communes concernées en nous fixant pour objectif de comprendre les mécanismes de gestion des RFA mis en place par les leaders locaux et d’évaluer leur impact sur l’amélioration des conditions de vie des populations villageoises et sur leur écosystème. Notre préoccupation était de savoir si les RFA constituent des vecteurs de développement socioéconomique pour des populations vivant dans et de la forêt.
Resumo:
Les évolutions scientifiques et technologiques engendrent des risques environnementaux complexes. Ces risques doivent être gérés démocratiquement, dans l’intérêt du dêmos. Dans la démocratie représentative, les autorités publiques recourent souvent à l’expertise scientifique pour éclairer leurs décisions relatives à ces risques. Or, ces experts ne le sont pas dans d’autres aspects tout aussi importants tels que les considérations éthiques et les perceptions des risques par le dêmos. En principe, les autorités publiques intègreraient ces autres aspects dans leurs décisions relatives aux risques environnementaux : sur la base d’une évaluation scientifique d’un risque déterminé, les représentants en assureraient une gestion démocratique. Autrement formulé, les autorités publiques garantiraient un filtre démocratique entre l’évaluation scientifique d’un risque environnemental et la décision publique relative à ce risque. Or, sous l’influence exclusive des experts scientifiques et éloignée du dêmos, elles ne sont pas aptes à garantir ce filtre. Les décisions publiques relatives aux risques environnementaux se calquent principalement sur l’évaluation scientifique de ceux-ci. Afin de pallier ces écueils l’idée de faire participer directement le dêmos à l’élaboration de la décision publique environnementale est née. Cette participation enrichirait et nuancerait l’expertise scientifique et permettrait aux autorités publiques d’intégrer dans leurs décisions d’autres facettes des risques environnementaux que les facettes purement scientifiques. Le filtre démocratique entre l’évaluation scientifique et la décision publique serait rétabli. D’abord organisée, en droit international, dans le cadre de l’évaluation des incidences sur l’environnement d’activités susceptibles d’y avoir un impact significatif, la participation directe du public au processus décisionnel a ensuite été étendue. Cela a été tout particulièrement illustré par la convention d’Århus du 25 juin. L’intervention examinera si et comment le système participatif de la convention d’Århus assure réellement une gestion démocratique du risque environnemental et pointera de sérieuses faiblesses démocratiques du système. Explorant les potentialités du système participatif de la convention d’Århus, l’intervention offrira des suggestions pour remédier à ses faiblesses, afin d’assurer une gestion véritablement démocratique du risque environnemental.
Resumo:
Le problème de l’extrême pauvreté dans le Tiers-monde n’est pas d’abord une question économique. Il est avant tout politique parce qu’il est la conséquence directe des choix de société et de l’organisation du pouvoir au niveau des États et des diverses instances de la communauté internationale. Le politique a pour objet la conquête du pouvoir et la répartition des richesses à grande échelle. Il s’agit aussi d’un problème moral parce que les options prises collectivement par les peuples et le concert des nations ne s’orientent pas toujours vers la vertu de justice et l’égalité de chances pour tous. Extrême pauvreté et justice globale forment un binôme qui nous ramène donc au cœur de la philosophie politique et morale. Après la Seconde guerre mondiale, la philosophie politique a élargi ses horizons. Elle réfléchit davantage à l’exercice du pouvoir sur la scène internationale et la distribution des richesses au niveau mondial. Le phénomène de la mondialisation économique crée une dépendance mutuelle et d’importantes influences multilatérales entre les États. Plus que par le passé, l’autarcie n’est guère envisageable. Le dogme de la souveraineté intangible des États, issu du Traité de Westphalie au XVIIe siècle, s’avère de plus en plus caduque au regard des enjeux communs auxquels l’humanité fait actuellement face. D’où la nécessité d’une redéfinition du sens des souverainetés nationales et d’une fondation des droits cosmopolitiques pour chaque individu de la planète. Voilà pourquoi le binôme extrême pauvreté/justice globale nécessite une réflexion philosophique sur le concept de la responsabilité qui s’étend non seulement sur la sphère nationale, mais aussi sur une large amplitude cosmopolitique. L’expression « pays du Tiers-monde » peut sembler archaïque, péjorative et humiliante. Cependant, mieux que celles de « pays sous-développés » ou « pays en voie de développement », elle rend compte, sans euphémisme, de la réalité crue, brute et peu élégante de la misère politique et économique qui y sévit. Bien qu’elle semble désuète, elle délimite assez clairement le domaine de définition conceptuel et géographique de notre champ d’investigation philosophique. Elle désigne l’ensemble des pays qui sont exclus de la richesse économique répartie entre les nations. Étant donné que le pouvoir économique va généralement avec le pouvoir politique, cet ensemble est aussi écarté des centres décisionnels majeurs. Caractérisée par une pauvreté extrême, la réalité tiers-mondiste nécessité une analyse minutieuse des causes de cette marginalisation économique et politique à outrance. Une typologie de la notion de responsabilité en offre une figure conceptuelle avec une géométrie de six angles : la causalité, la moralité, la capacité, la communauté, le résultat et la solidarité, comme fondements de la réparation. Ces aspects sous lesquels la responsabilité est étudiée, sont chapeautés par des doctrines philosophiques de types conséquentialiste, utilitariste, déontologique et téléologique. La typologie de la responsabilité donne lieu à plusieurs solutions : aider par philanthropie à sauver des vies humaines ; établir et assigner des responsabilités afin que les torts passés et présents soient réparés aussi bien au niveau national qu’international ; promouvoir l’obligation de protéger dans un contexte international sain qui prenne en considération le devoir négatif de ne pas nuire aux plus défavorisés de la planète ; institutionnaliser des règles transfrontalières de justice ainsi que des droits cosmopolitiques. Enfin, nous entendrons par omniresponsabilité la responsabilité de tous vis-à-vis de ceux qui subissent les affres de l’extrême pauvreté dans le Tiers-monde. Loin d’être un concept-valise fourre-tout, c’est un ensemble de responsabilités partagées par des acteurs identifiables de la scène mondiale, en vue de la coréparation due aux victimes de l’injustice globale. Elle vise un telos : l’épanouissement du bien-être du citoyen du monde.
Resumo:
L’augmentation des interactions entre humains et animaux sauvages en lisière des habitats naturels pourrait faciliter la transmission d’agents pathogènes entre les humains et les différentes espèces animales d’un écosystème et ainsi favoriser l’émergence de maladies. Nous avons effectué une étude transversale portant sur l’infection par Giardia et Cryptosporidium chez les humains, les animaux domestiques, les rongeurs et les lémuriens au sein de l’écosystème de Ranomafana, Madagascar. Des échantillons de fèces ont étés collectés de manière non invasive chez des personnes volontaires, des mammifères domestiques et des rongeurs introduits habitant trois villages situés en lisière du Parc National de Ranomafana (PNR) ainsi que quatre espèces de lémuriens (Propithecus edwardsii, Prolemur simus, Eulemur rubriventer et Microcebus rufus) du PNR. Des analyses coproscopiques par la technique d’immunofluorescence directe ont été réalisées afin de détecter la présence de Cryptosporidium et Giardia. Leur prévalence a été estimée et certaines variables reliées à l’infection par les parasites ont été identifiées. Cryptosporidium et Giardia ont été détectés avec une prévalence estimée à 22,9 % et 13,6 % respectivement chez les humains. La prévalence de ces deux parasites variait de 0 % à 60 % chez les animaux domestiques et les rongeurs au sein des villages. L’espèce hôte, l’âge ainsi que la co-infection par un autre protozoaire sont les seules variables associées à l’infection par Cryptosporidium et Giardia dans cet écosystème tandis qu’aucune association avec une coinfection par un ordre de nématode n’a été détecté. De plus, Cryptosporidium a été détecté chez 10,5 % des lémuriens du PNR. Cette étude documente pour la première fois la présence de Cryptosporidium chez deux espèces de lémuriens du PNR. Par contre, Giardia n’a pas été détecté dans les échantillons issus de lémuriens du PNR.
Resumo:
Thèse doctorale effectuée en cotutelle au département d'histoire de l'Université de Montréal et à l'École doctorale d'archéologie de l'Université Paris 1 Panthéon-Sorbonne - UMR 7041, Archéologies et Sciences de l'Antiquité - Archéologie du monde grec.