534 resultados para valeur diagnostique


Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’objectif de ce mémoire est de mettre en lumière la mise en forme, la réception et la transmission de 2S 7,1-17 à l’intérieur du débat qui a présentement cours autour de la rédaction deutéronomiste, ainsi que de vérifier le lien possible de ce texte avec l’évolution de la pensée théologique juive issue de l’édition deutéronomiste. Notre recherche commence par établir un texte hébreu de travail fiable grâce à la critique textuelle. L’analyse syntaxique nous permet ensuite de proposer une traduction qui soit la plus fidèle possible au texte hébreu retenu afin de mieux comprendre le sens du texte dans sa langue originale. Nous abordons, dans le troisième chapitre, la question des différentes sources littéraires ayant pu servir à la composition du texte de 2S 7,1-17. L’exploration plus détaillée de quelques pistes qui sont apparues à la suite de la critique des sources et de la réception du texte de 2S 7,1-17 par le(s) Chroniste(s), nous permet de constater qu’à l’intérieur des traditions textuelles hébraïques, la prophétie de Nathan a évolué de façon significative dans le parcours des différentes traditions de relecture. À partir des quatres étapes de recherches, nous dégageons les éléments qui pourraient être mis en lien avec les théories existantes dans le cadre de l’histoire deutéronomiste et mettons en lumière les forces et les faiblesses des solutions proposées. Les résultats de la recherche nous permettent de penser que l’intégration de la prophétie de Nathan dans la trame historique s’expliquerait par la nécessité d’éclairer une suite d’événements selon diverses perspectives théologiques. Ce n’est qu’à partir des conditions exiliques que nous aurions le texte de 2S 7,1-17 le plus tardif offrant une réflexion sur la première histoire d’Israël. Dans ce sens, la prophétie de Nathan prendrait toute sa valeur et son extension bien au-delà de la seule histoire personnelle de David ou de Salomon.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les pensées herméneutiques de Gadamer et de Ricœur reconnaissent toutes deux une importance centrale, mais trop peu remarquée, au phénomène de la traduction. Elles lui attribuent même une valeur de modèle philosophique, mais l’abordent dans des perspectives différentes. Notre mémoire tâchera de présenter ces deux conceptions de la traduction et d’insister autant sur leurs similitudes que sur leurs divergences. Nous verrons que si pour Gadamer, la traduction sert surtout à mettre en évidence l’universalité de l’élément langagier, Ricœur s’intéresse, pour sa part, davantage à ses implications éthiques, qui restent seulement implicites dans la pensée gadamérienne.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse constitue à la fois un apport de nature clinique et technologique dans l’approche diagnostique du glaucome. Plus précisément, nous nous proposons d’étudier une nouvelle façon de détecter le glaucome par la mesure de l’asymétrie du rapport de la surface de l’anneau neurorétinien et de la surface de la papille ou du disque optique ou rim to disc area asymmetry ratio (RADAAR). Pour atteindre cet objectif, nous avons recours à une base de données composée d’une population subdivisée en 4 différents groupes de diagnostic (normal, glaucome possible, glaucome probable et glaucome définitif). Les mesures du RADAAR sont calculées de différentes façons à partir des paramètres stéréométriques de la tête du nerf optique des sujets, produits par la microscopie confocale à balayage laser (Heidelberg Retina Tomograph (HRT) (Heidelberg Engineering, Germany)). Nous procédons à une analyse de données grâce au logiciel SPSS où nous mettons en exergue la distribution du RADAAR dans les différentes populations, sa validité et son utilité dans le dépistage du glaucome. Nous enrôlons donc 523 sujets dans cette étude avec 82 sujets atteints de glaucome définitif. La moyenne d’âge est de 62 ans. Il y a plus de femmes que d’hommes et plus de Caucasiens que d’Africains Caribéens. Nous trouvons que la distribution de la mesure du RADAAR est différente des sujets d’un groupe de diagnostic à l’autre. En termes de performance, la sensibilité de la mesure du RADAAR est très basse c'est-à-dire que sa capacité de détecter la maladie est basse. En revanche la mesure du RADAAR est plus spécifique c'est-à-dire que sa capacité d’identifier les sujets exempts de la maladie est plus grande. Elle tendrait à être aussi plus performante chez les Africains Caribéens que chez les Caucasiens. De même, elle serait plus sensible chez les hommes que chez les femmes. La mesure du RADAAR est utile si on l’associe à une autre méthode de diagnostic comme l’analyse de Régression de Moorfields (MRA) incluse dans le logiciel du HRT3 spécialement lors de la détection du glaucome dans la population à haut risque. En définitive, nous déterminons que la mesure du RADAAR se veut un outil d’aide au diagnostic. Elle est particulièrement intéressante dans le contexte de dépistage de glaucome.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La ventilation unipulmonaire (SLV; Single Lung Ventilation) pendant les chirurgies thoraciques entraîne des altérations cardio-pulmonaires et hémodynamiques importantes. L’objectif de ce projet de recherche consiste à étudier l’impact de la SLV sur l’oxymétrie cérébrale et sa relation avec les complications post opératoires. La première étude inclut vingt patients ayant subi une chirurgie thoracique nécessitant une SLV. L’oxymétrie a été mesurée à l’aide de l’oxymètre cérébral absolu FORESIGHTTM (CASMED, USA) afin d’étudier les changements de la saturation cérébrale absolue (SctO2) tout le long de la chirurgie. La SctO2 ainsi que les paramètres de monitorage standard (BIS, SpO2, pression sanguine, fréquence cardiaque) ont été notés à toutes les cinq minutes à partir de l’induction jusqu’au réveil. Une analyse sanguine (paO2, paCO2, Hb) a été effectuée à toutes les quinze minutes. La deuxième étude effectuée consistait d’étudier la relation entre la désaturation cérébrale en oxygène et les complications post opératoires. Pour cette fin, les scores Clavien et SOFA mesurant l’amplitude des complications, ont été établis pour chaque patient. Les données sont présentées sous forme de moyenne et de la médiane [1er quartile, 3ème quartile; min – max]. Les vingt patients de la première étude ont montré une valeur moyenne absolue de saturation cérébrale absolue (SctO2) de 80% avant l’induction. Durant la SLV, cette valeur a chuté jusqu’à 63% et est remontée à 71% directement après extubation. Tous ces patients ont subi une désaturation durant SLV de plus que 15% comparativement à la valeur de base et 70% ont eu une désaturation de plus de 20%. La désaturation n’a pas été corrélée avec aucun des paramètres de monitorage clinique standard comme la pression artérielle, les analyses des gaz artériels, la saturation périphérique ou la PaO2. La deuxième étude incluant trente autres patients aux vingt premiers, est venue confirmer les résultats de la première étude. De plus, une analyse de corrélation entre les valeurs minimales de SctO2 obtenues durant SLV et les complications post opératoires a été effectuée. Les patients avaient une SctO2 de base de 80%, qui a chuté jusqu’à 64% pendant la SLV pour récupérer à 71% avant la fin de la chirurgie. 82% des patients ont subi des désaturations de plus de 15% des valeurs initiales et 10% ont atteint des valeurs de SctO2 entre 45 et 55%. Les valeurs minimales de SctO2 observées durant la SLV corrélaient avec le score SOFA non respiratoire (R2=0,090, p=0,0287) ainsi qu’avec le score Clavien (R2=0,098, p=0,0201), mais ne corrélait avec aucun des paramètres cliniques standards (ex : SpO¬2, PaO2, PaCO2, Hb). En définissant une valeur seuil de SctO2=65%, le «Odds ratio» d’avoir une défaillance d’organe non respiratoire est de 2.37 (IC 95%=1,18 – 4,39, p=0,043) et d’avoir une complication classifiée supérieure à un score Clavien de 0 est de 3,19 (IC 95%=1,6 – 6,34, p=0,0272). Les chirurgies thoraciques avec une SLV sont associées à des chutes significatives de SctO2, et les valeurs minimales de SctO2 semblent avoir une corrélation positive avec les complications post opératoires.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'administration fédérale canadienne et la Commission européenne ont construit, dans le courant des années 2000, deux réseaux de Systèmes d'informations géographiques (SIG) : le Système national d'information forestière au Canada, et l'Infrastructure d'information géographique dans la Communauté européenne. Ces SIG permettent le traitement géographique de données sociales et environnementales ainsi que leur représentation sur des cartes. Nous appréhendons ces deux réseaux de SIG sous l'angle de leur valeur heuristique : leur analyse nous permet d'étudier les configurations institutionnelles dans lesquelles ils ont été développés, c'est-à-dire, dans ces cas précis, ce qu'il est convenu d'appeler la « gouvernance ». Les SIG sont des instruments de mesure et de représentation de certains phénomènes : ils appartiennent à la classe des instruments d'objectivation. En tant qu'instruments d'objectivation, ils nous permettent de discuter deux éléments théoriques de la « gouvernance » : le rapport entre les administrations centrales et les administrations locales ; le rapport entre les administrations étatiques et les organisations non-étatiques. A travers cette discussion, nous montrons d'une part que la réarticulation de paliers de gouvernement différents ne signifie pas, comme cela a pu être écrit, un retrait de l'administration centrale au profit des administrations locales, mais au contraire une manière de contrôler plus étroitement celles-ci. Nous montrons d'autre part que cette renégociation des rapports entre les administrations centrales et locales ne s'accompagne pas, en pratique, d’une renégociation des rapports entre administrations étatiques et organisations non-étatiques. En révélant que les données non-étatiques ne sont pas intégrées dans les réseaux de SIG étatiques, nous relativisons les théories qui voient dans la « gouvernance » un mode de gouvernement ouvert aux organisations non-étatiques. Cela nous conduit à approfondir la piste qui envisage les instruments étatiques d'objectivation comme des moyens d'écarter de l'objectivation des phénomènes sociaux ou naturels les éléments qui contredisent l'action gouvernementale. Cette exégèse politique de deux ensembles de programmes informatiques particuliers – les SIG – nous amène, en conclusion, à proposer de considérer certains programmes informatiques comme des institutions politiques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le contrôle immunitaire des infections virales est effectué, en grande partie, par les lymphocytes T CD8+ cytotoxiques. Pour y parvenir, les lymphocytes T CD8+ doivent être en mesure de reconnaître les cellules infectées et de les éliminer. Cette reconnaissance des cellules infectées s’effectue par l’interaction du récepteur T (TCR) des lymphocytes T CD8+ et des peptides viraux associés au complexe majeur d’histocompatibilité (CMH) de classe I à la surface des cellules hôtes. Cette interaction constitue l’élément déclencheur permettant l’élimination de la cellule infectée. On comprend donc toute l’importance des mécanismes cellulaires menant à la génération des peptides antigéniques à partir des protéines virales produites au cours d’une infection. La vision traditionnelle de cet apprêtement protéique menant à la présentation d’antigènes par les molécules du CMH propose deux voies cataboliques distinctes. En effet, il est largement admis que les antigènes endogènes sont apprêtés par la voie dite ‘‘classique’’ de présentation antigénique par les CMH de classe I. Cette voie implique la dégradation des antigènes intracellulaires par le protéasome dans le cytoplasme, le transport des peptides résultant de cette dégradation à l’intérieur du réticulum endoplasmique, leur chargement sur les molécules du CMH de classe I et finalement le transport des complexes peptide-CMH à la surface de la cellule où ils pourront activer les lymphocytes T CD8+. Dans la seconde voie impliquant des antigènes exogènes, le dogme veut que ceux-ci soient apprêtés par les protéases du compartiment endovacuolaire. Les peptides ainsi générés sont directement chargés sur les molécules de CMH de classe II à l’intérieur de ce compartiment. Par la suite, des mécanismes de recyclage vésiculaire assurent le transport des complexes peptide-CMH de classe II à la surface de la cellule afin de stimuler les lymphocytes T CD4+. Cependant, cette stricte ségrégation des voies d’apprêtement antigénique a été durement éprouvée par la capacité des cellules présentatrices d’antigènes à effectuer l’apprêtement d’antigènes exogènes et permettre leur présentation sur des molécules de CMH de classe I. De plus, l’identification récente de peptides d’origine intracellulaire associés à des molécules de CMH de classe II a clairement indiqué la présence d’interactions entre les deux voies d’apprêtement antigénique permettant de transgresser le dogme préalablement établi. L’objectif du travail présenté ici était de caractériser les voies d’apprêtement antigénique menant à la présentation d’antigènes viraux par les molécules du CMH de classe I lors d’une infection par le virus de l’Herpès simplex de type I (HSV-1). Dans les résultats rapportés ici, nous décrivons une nouvelle voie d’apprêtement antigénique résultant de la formation d’autophagosomes dans les cellules infectées. Cette nouvelle voie permet le transfert d’antigènes viraux vers un compartiment vacuolaire dégradatif dans la phase tardive de l’infection par le virus HSV-1. Cette mise en branle d’une seconde voie d’apprêtement antigénique permet d’augmenter le niveau de présentation de la glycoprotéine B (gB) virale utilisée comme modèle dans cette étude. De plus, nos résultats décrivent la formation d’une nouvelle forme d’autophagosomes dérivés de l’enveloppe nucléaire en réponse à l’infection par le virus HSV-1. Ces nouveaux autophagosomes permettent le transfert d’antigènes viraux vers un compartiment vacuolaire lytique, action également assurée par les autophagosomes dits classiques. Dans la deuxième partie du travail présenté ici, nous utilisons l’infection par le virus HSV-1 et la production de la gB qui en résulte pour étudier le trafic membranaire permettant le transfert de la gB vers un compartiment vacuolaire dégradatif. Nos résultats mettent en valeur l’importance du réticulum endoplasmique, et des compartiments autophagiques qui en dérivent, dans ces mécanismes de transfert antigénique permettant d’amplifier la présentation antigénique de la protéine virale gB sur des CMH de classe I via une voie vacuolaire. L’ensemble de nos résultats démontrent également une étroite collaboration entre la voie classique de présentation antigénique par les CMH de classe I et la voie vacuolaire soulignant, encore une fois, la présence d’interaction entre les deux voies.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le cancer du sein est la forme de cancer la plus souvent diagnostiquée chez les femmes. Elles doivent vivre avec des séquelles qui nuisent à leur qualité de vie. Plusieurs études ont montré les bienfaits de l’activité physique (AP) sur les composantes physiques et psychologiques des patientes. Toutefois, elles réduisent souvent leur pratique d'AP suite aux traitements en raison de la détérioration de leur condition physique. Or, le maintien à long terme de la pratique d’AP est essentiel pour en conserver les bénéfices. La première section du mémoire présente une recension des écrits sur les bienfaits de l’AP auprès des femmes atteintes d'un cancer du sein et la seconde rend compte d'une étude expérimentale ayant pour objectif d'évaluer l’impact d’un programme d’AP sur le sentiment d’efficacité personnel et sur le plaisir associé à la pratique d'AP. Une enquête de suivi a été menée trois mois après la fin du programme afin d’évaluer le maintien à long terme de la pratique d'AP. L'étude a été réalisée auprès de 18 patientes en cours de traitement. Le groupe expérimental a suivi un programme supervisé d’AP combiné à des séances de counseling sur une période de 16 semaines. Le groupe témoin avait la possibilité de suivre un programme de yoga. Nos résultats indiquent une amélioration statistiquement significative des trois composantes mesurées, soit le sentiment d'efficacité personnelle, le plaisir à faire de l'AP et le maintien de la pratique après la participation au programme.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le présent mémoire dresse un portrait des règles entourant la mise en vigueur et l'entrée en application de régimes de droits de souscription d'actions. À cet effet, l'auteur résume les règles entourant les offres publiques d'achat, examine les principes touchés par la mise en place d'un régime de droits de souscription d'actions, ainsi que les effets d'un tel régime sur la valeur des actions. Dans un deuxième temps, l'auteur se penche sur la légalité des régimes de droits de souscription d'actions en effectuant une revue du principe de l'égalité des actionnaires et des droits et obligations des administrateurs en matière de défense à une offre publique d'achat. L'auteur termine en effectuant une revue des divers recours qui s'ouvrent aux divers intervenants.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La présente recherche a pour but de faire le point sur l'état du droit canadien et sur ses perspectives futures en relation avec les œuvres créées par ordinateurs. L'outil terminologique choisi pour notre objectif est le logiciel de traduction automatique multilingue qui, à cause de sa complexité, s'éloigne le plus du programmeur « créateur» et se rapproche le plus d'œuvres qui ne peuvent être directement attribuées aux linguistes et programmeurs. Ces outils et leurs créations seront d'après nous les prochains outils technologiques à confronter le droit. En effet, dans un avenir prévisible, considérant l'évolution technologique, ces logiciels produiront des textes qui bénéficieront d'une valeur commerciale ajoutée et c'est alors que certains feront valoir leurs « droits », non seulement sur les textes mais aussi sur la technologie. Pour atteindre cet objectif, nous débuterons par un retour historique sur la technologie et ses origines. Par la suite, nous ferons une analyse de la protection actuelle accordée aux logiciels, aux banques de données et aux traductions qu'ils produisent. Nous déterminerons ensuite qui sera responsable des textes produits en relation avec le texte d'origine et avec sa résultante au niveau du droit d'auteur et de celui de la responsabilité civile. Cette recherche nous amènera à conclure que le droit actuel est « mésadapté » tant à l'égard de la protection qu'au niveau de la responsabilité. Ces conclusions devront d'après nous imposer un retour aux principes fondamentaux du droit. Ce fondamentalisme légal sera pour nous le prix à payer pour la légitimité. En effet, plus particulièrement concernant le droit d'auteur, nous conclurons qu'il devra cesser d'être le « fourre-tout» du droit de la propriété intellectuelle et redevenir ce qu'il doit être: un droit qui protège la créativité. Cette démarche prospective tirera ses racines du fait que nous serons obligés de conclure que les juristes canadiens ont refusé, à tort à notre point de vue, de renvoyer au monde des brevets les méthodes et procédés nouveaux et inventifs, ce qui donc a introduit des problématiques inutiles qui exacerbent l'incertitude. Finalement, notre cheminement nous dirigera vers le droit de la responsabilité où nous soutiendrons que le fournisseur ne peut actuellement être responsable du texte produit puisqu'il ne participe pas directement aux choix et ne porte pas atteinte au contenu. Voici donc en quelques mots le cœur de notre recherche qui entrouvre une boîte de Pandore.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Réalisé en codirection avec Hélène Buzelin

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse est une recherche pluridisciplinaire sur le concept du pardon interpersonnel. Elle cherche à circonscrire la portée et la dynamique du pardon, entre autres en répondant à la question Pourquoi pardonner ? Jusqu’à récemment on trouvait peu d’écrits sur le pardon. Mais les deux dernières décennies ont vu un foisonnement de travaux de recherche sur le sujet de la part de psychologues éveillés à ses bienfaits thérapeutiques. Parallèlement, des philosophes et des théologiens se sont aussi intéressés à la question et ont commencé à publier leurs réflexions. Deux hypothèses marquent le parcours de notre recherche. La première porte sur la signification de la deuxième partie de l’énoncé biblique en Luc 23, 34 « Père, pardonne-leur car ils ne savent pas ce qu’ils font ». Elle avance que le « motif de l’ignorance » que cette parole affirme a une portée universelle et soutient que l’offenseur est en état d’ignorance inconsciente lorsqu’il fait le mal. Le pardon des offenses serait donc le pardon de cette ignorance inconsciente. La seconde hypothèse conjecture que le pardon interpersonnel s’inscrit dans une dynamique spirituelle même s’il a quitté ses amarres religieuses. Nous avançons que la relation pardon-spiritualité est significative et que sa compréhension peut aider à mieux saisir l’essence d’un pardon devenu séculier et à en permettre l’éclosion. Pour établir la valeur de cette hypothèse, nous devons étudier la dynamique d’une démarche de pardon de même qu’à déterminer le statut actuel de la spiritualité. La thèse se divise en trois parties. La première partie expose la pensée d’auteurs significatifs dans chacune des principales disciplines concernées par le pardon : philosophie, théologie, psychologie et spiritualité. Il y est question d’offense pardonnable ou impardonnable, de pardon conditionnel ou inconditionnel, de corrélats du pardon comme l’oubli, la colère, la culpabilité, le repentir et des résultats d’études empiriques psychothérapeutiques sur le pardon. Cette première partie se termine par une réflexion sur la spiritualité de façon à voir dans quelle mesure le pardon devient une dynamique spirituelle. La deuxième partie est consacrée à l’examen de l’hypothèse concernant le sens et la portée du « car ils ne savent pas ce qu’ils font ». Dans un premier temps on fait appel à l’expertise exégétique pour situer l’authenticité et la portée de ce passage. Nous explorons ensuite la pensée philosophique à travers l’histoire pour comprendre le véritable sens du libre-arbitre et son impact sur la conception de la faute. La remise en cause philosophique du libre-arbitre nous ramènera à la thèse socratique selon laquelle « Nul n’est méchant volontairement ». La théorie mimétique de René Girard vient démontrer que les persécuteurs sont fondamentalement inconscients de ce qu’ils font et la théologienne Lytta Basset identifie le fantasme de la connaissance du bien et du mal comme accroissant cette ignorance qui s’ignore. La troisième partie de la thèse intègre les réflexions et découvertes des deux premières parties, et les situent dans un parcours qui va de l’impardonnable à la guérison, tout en les conceptualisant avec une matrice de verticalité et d’horizontalité qui schématise leurs interactions. Nous découvrons que si « car ils ne savent pas ce qu’ils font » fournit la réponse logique à la question Pourquoi pardonner ?, il existe aussi une deuxième voie qui conduit au pardon, l’amour. L’amour est la clé du pardon basé sur le message évangélique, alors que l’empathie est celle de l’approche psychothérapeutique. Enfin, la comparaison entre le « pardon psychothérapeutique » et le « pardon évangélique » nous fait conclure qu’il y a deux modes d’accès majeurs au pardon : la raison et l’amour.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans cet article je considère un récent défi à l’égalitarisme développé par Michael Huemer. Le challenge de Huemer prend la forme d’un dilemme : les égalitaristes peuvent être soit atomistes soit holistes en ce qui concerne la valeur de l’égalité. S’ils sont atomistes, alors ils doivent acceptés que l’égalité n’ait pas de valeur intrinsèque ; s’ils sont holistes, alors leur point ce vue est inconsistant avec une intuitive mais très plausible forme de conséquentialisme. Je montre que ce dilemme ne doit pas perturber les égalitaristes. Ils peuvent être holistes en ce qui concerne la valeur et adhérer en même temps au conséqeuntialisme.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans les démocraties occidentales, la notion d’opinion publique occupe une place importante dans l’action des politiciens et le discours des médias. Elle y renvoie généralement à la somme des opinions individuelles des citoyens, aux résultats de sondages. Or, les limites de l’opinion publique ainsi conceptualisée apparaissent de plus en plus clairement aux chercheurs en sciences sociales, et cela jette un doute sur sa valeur comme guide des politiques publiques. Pour mieux comprendre la place de l’opinion publique dans le processus démocratique québécois, nous avons cherché à connaître les conceptions qu’en ont certains acteurs-clés : les chroniqueurs politiques et éditorialistes francophones du Québec. Au moyen d’entrevues, nous avons documenté leurs « théories profanes » à ce sujet, c’est à dire leurs façons de voir l’opinion publique et sa place dans le processus démocratique. L’exercice nous apprend que ces « commentateurs habituels » distinguent plusieurs formes d’opinion publique, de valeur inégale. Celle qui revêt le plus d’intérêt pour eux est une « opinion publique latente », qui intègre des dimensions d’intensité et de propension à changer. Ils jugent les sondages utiles mais insuffisants pour appréhender l’opinion publique; aussi l’interprètent-ils à partir de conversations et d’un certain « sens de l’opinion publique ». Selon eux, les médias peuvent influencer l’opinion publique, mais surtout influencer la tenue d’une délibération publique et la façon dont les décideurs lisent l’opinion publique. Ils estiment aussi pouvoir, par leur travail journalistique, favoriser l’émergence d’une opinion publique raisonnée, ce qui est conforme à leur idéal de démocratie participative.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le béryllium (Be) est un métal dont les propriétés physiques et mécaniques sont très recherchées, notamment dans les secteurs spatial, énergétique et électronique. Les principaux effets associés à l’exposition au Be sont la sensibilisation et la bérylliose chronique. La prévalence des effets associés au Be suggère que les risques sont, entre autres, fonction de sa spéciation. Par ailleurs, il semble que les particules fines constituent la fraction d’intérêt pour l’occurrence de tels effets. Dans cette étude nous avons vérifié l’hypothèse que la forme chimique et la taille des particules du Be jouent un rôle majeur au niveau de la toxicité et de l’apparition d’effets spécifiques à une exposition au Be. Les effets spécifiques se traduisent, entre autres, par la formation de granulomes inflammatoires pulmonaire, par la prolifération de lymphocytes TCD4+ et la production de cytokines de type Th1. Pour chacune des trois formes chimiques visées par la présente étude (le Be métallique ou Be, l’oxyde de Be ou BeO et l’alliage Be aluminium ou BeAl), la toxicité a été évaluée à la suite d’une exposition subchronique par inhalation oro-nasale à des particules fines (F) et totales (T). À cette fin, un modèle animal (souris) a été utilisé. Au total, 245 souris ont été utilisées. Elles ont été subdivisées en sept groupes de 35 souris. Un groupe a servi de contrôle, alors que chacun des six autres a été exposé soit à des particules fines soit à des particules totales, pour chacune des trois formes chimiques de Be (Be-F, Be-T, BeO-F, BeO-T, BeAl-F, BeAl-T). La durée d’exposition pour chacun des groupes s’est étendue sur 3 semaines, 5 jours par semaine, 6 heures par jour. Le niveau d’exposition des souris était de 250 µg/m3. L‘urine des souris a été recueillie avant et durant l’exposition. Au moment du sacrifice, plusieurs tissus (poumon, rate, foie et reins) ainsi que des échantillons de sang ont été prélevés puis immédiatement congelés jusqu’à leur analyse pour la détermination de leur teneur en Be. De plus, certains poumons et rates ont été analysés pour l’évaluation de la sensibilité immunologique et de l'inflammation pulmonaire. Cette étude d’exposition subchronique est la première étude murine qui étudie les effets toxiques de différentes tailles particulaires sur les changements pathologique et immunologique similaires à ceux observés chez l’humain. Cette étude a permis de constater qu’il existait des différences importantes au niveau de la toxicité du Be d’après les différentes tailles particulaires à l’étude. Ces différences seraient reliées au dépôt des particules de Be dans les voies respiratoires et également à la capacité des voies respiratoires à les éliminer totalement ou partiellement. La clairance respiratoire est fonction, notamment, du site de déposition et du caractère soluble ou non des particules. Cette recherche aura également permis de démontrer que les souris C3H/HeJ représentent un bon modèle pour l’étude des effets toxicologiques et immunologiques d’une exposition au Be. De plus, nos résultats démontrent que la sévérité des lésions pulmonaires causées par le Be, tel que l’infiltration interstitielle de lymphocytes et la formation de granulomes non-caséeux, augmente avec le temps de résidence pulmonaire des particules de Be. Combinés à d’autres résultats, nos résultats contribueront à guider les actions de prévention relativement à l’exposition au Be, incluant éventuellement la révision de la valeur limite de l’exposition et possiblement l’établissement de valeurs limites en fonction de la forme chimique et de la taille des particules.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse examine les impacts sur la morphologie des tributaires du fleuve Saint-Laurent des changements dans leur débit et leur niveau de base engendrés par les changements climatiques prévus pour la période 2010–2099. Les tributaires sélectionnés (rivières Batiscan, Richelieu, Saint-Maurice, Saint-François et Yamachiche) ont été choisis en raison de leurs différences de taille, de débit et de contexte morphologique. Non seulement ces tributaires subissent-ils un régime hydrologique modifié en raison des changements climatiques, mais leur niveau de base (niveau d’eau du fleuve Saint-Laurent) sera aussi affecté. Le modèle morphodynamique en une dimension (1D) SEDROUT, à l’origine développé pour des rivières graveleuses en mode d’aggradation, a été adapté pour le contexte spécifique des tributaires des basses-terres du Saint-Laurent afin de simuler des rivières sablonneuses avec un débit quotidien variable et des fluctuations du niveau d’eau à l’aval. Un module pour simuler le partage des sédiments autour d’îles a aussi été ajouté au modèle. Le modèle ainsi amélioré (SEDROUT4-M), qui a été testé à l’aide de simulations à petite échelle et avec les conditions actuelles d’écoulement et de transport de sédiments dans quatre tributaires du fleuve Saint-Laurent, peut maintenant simuler une gamme de problèmes morphodynamiques de rivières. Les changements d’élévation du lit et d’apport en sédiments au fleuve Saint-Laurent pour la période 2010–2099 ont été simulés avec SEDROUT4-M pour les rivières Batiscan, Richelieu et Saint-François pour toutes les combinaisons de sept régimes hydrologiques (conditions actuelles et celles prédites par trois modèles de climat globaux (MCG) et deux scénarios de gaz à effet de serre) et de trois scénarios de changements du niveau de base du fleuve Saint-Laurent (aucun changement, baisse graduelle, baisse abrupte). Les impacts sur l’apport de sédiments et l’élévation du lit diffèrent entre les MCG et semblent reliés au statut des cours d’eau (selon qu’ils soient en état d’aggradation, de dégradation ou d’équilibre), ce qui illustre l’importance d’examiner plusieurs rivières avec différents modèles climatiques afin d’établir des tendances dans les effets des changements climatiques. Malgré le fait que le débit journalier moyen et le débit annuel moyen demeurent près de leur valeur actuelle dans les trois scénarios de MCG, des changements importants dans les taux de transport de sédiments simulés pour chaque tributaire sont observés. Ceci est dû à l’impact important de fortes crues plus fréquentes dans un climat futur de même qu’à l’arrivée plus hâtive de la crue printanière, ce qui résulte en une variabilité accrue dans les taux de transport en charge de fond. Certaines complications avec l’approche de modélisation en 1D pour représenter la géométrie complexe des rivières Saint-Maurice et Saint-François suggèrent qu’une approche bi-dimensionnelle (2D) devrait être sérieusement considérée afin de simuler de façon plus exacte la répartition des débits aux bifurcations autour des îles. La rivière Saint-François est utilisée comme étude de cas pour le modèle 2D H2D2, qui performe bien d’un point de vue hydraulique, mais qui requiert des ajustements pour être en mesure de pleinement simuler les ajustements morphologiques des cours d’eau.