384 resultados para Haut représentant


Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’extraction aurifère est l’une des activités humaines qui a fortement accru l’émission de contaminants métalliques dans l’environnement. Le mercure (Hg), l’arsenic (As) et le sélénium (Se) sont 3 polluants métalliques de grande toxicité environnementale. En milieu aquatique, ils peuvent subir des transformations menant à des composés capables de bioaccumulation et de bioamplification. Il peut en résulter des concentrations 106 fois celle mesurée dans l’eau chez les poissons et les organismes situés en haut des chaînes alimentaires posant de ce fait de graves menaces pour la santé de ces organismes ainsi que leurs consommateurs y compris les humains. Cette étude a évalué les teneurs en Hg, As et Se dans les milieux aquatiques au Burkina Faso, une région d’Afrique sub-saharienne soumise à une exploitation minière intensive. Le risque potentiel pour les organismes aquatiques et les humains a été évalué en considérant les effets des interactions antagonistes Se/Hg et As/Se. La bioaccumulation et le transfert du Hg et du Se dans les réseaux trophiques sont également décrits. L’exposition au Hg de poissons par les humains a été également évalué au laboratoire par mesure de la bioaccessibilité comme équivalent de la biodisponibilité par simulation de la digestion humaine. En général, les milieux aquatiques étudiés étaient peu affectés par ces 3 métal(loïd)s bien que certaines espèces de poisson issus des réservoirs les plus profonds indiquent des teneurs de Hg au dessus de 500 ngHg/g (poids frais) recommandé par l’OMS. Ces niveaux sont susceptibles de présenter des risques toxicologiques pour les poissons et pour leurs consommateurs. En considérant l’antagonisme Se/Hg, 99 % des échantillons de poisson seraient moins exposés à la toxicité du Hg dû à la présence simultanée du sélénium dans le milieu et pourraient être consommés sans risque. Cependant, les effets potentiels de l’antagonisme As/Se pourraient réduire les effets bénéfiques du Se et ramener cette proportion à 83 %. L’application des mesures de signatures en isotopes stables d’azote (δ15N) et de carbone (δ13C) des organismes aquatiques a permis le traçage des voies de transfert du Hg et du Se dans les réseaux trophiques. On y observe des chaînes trophiques très courtes (3 - 4 niveaux trophiques) et des poissons majoritairement benthiques. L’approche isotopique n’a cependant pas permis de détecter les variations saisonnières des niveaux de contamination en Hg des poissons. L’exploration des contenus stomacaux des poissons a permis de mieux expliquer la baisse des concentrations en Hg et Se observées chez certains poissons au cours de la saison sèche en lien avec la variation de la composition des proies que l’analyse isotopique n’a pas cerné. L’étude suggère que l’analyse de contenus stomacaux ainsi que l’étude de la dynamique des communautés d’invertébrés couplées à celle des métaux pourraient améliorer la compréhension du fonctionnement des écosystèmes étudiés. Enfin, l’évaluation expérimentale de l’exposition au Hg indique que les modes de traitement avant consommation ainsi que l’usage de composés alimentaires tels le thé, le café lors de repas de poisson par certaines communautés humaines ont un impact sur la bioaccessibilité du Hg de poisson. Ces résultats, sous réserve de validation par des modèles animaux, suggèrent la prise en compte des habitudes alimentaires des communautés dans l’élaboration adéquat des avis de consommation de poisson.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En lien avec l’avancée rapide de la réduction de la taille des motifs en microfabrication, des processus physiques négligeables à plus grande échelle deviennent dominants lorsque cette taille s’approche de l’échelle nanométrique. L’identification et une meilleure compréhension de ces différents processus sont essentielles pour améliorer le contrôle des procédés et poursuivre la «nanométrisation» des composantes électroniques. Un simulateur cellulaire à l’échelle du motif en deux dimensions s’appuyant sur les méthodes Monte-Carlo a été développé pour étudier l’évolution du profil lors de procédés de microfabrication. Le domaine de gravure est discrétisé en cellules carrées représentant la géométrie initiale du système masque-substrat. On insère les particules neutres et ioniques à l’interface du domaine de simulation en prenant compte des fonctions de distribution en énergie et en angle respectives de chacune des espèces. Le transport des particules est effectué jusqu’à la surface en tenant compte des probabilités de réflexion des ions énergétiques sur les parois ou de la réémission des particules neutres. Le modèle d’interaction particule-surface tient compte des différents mécanismes de gravure sèche telle que la pulvérisation, la gravure chimique réactive et la gravure réactive ionique. Le transport des produits de gravure est pris en compte ainsi que le dépôt menant à la croissance d’une couche mince. La validité du simulateur est vérifiée par comparaison entre les profils simulés et les observations expérimentales issues de la gravure par pulvérisation du platine par une source de plasma d’argon.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La quantité de données générée dans le cadre d'étude à grande échelle du réseau d'interaction protéine-protéine dépasse notre capacité à les analyser et à comprendre leur sens; d'une part, par leur complexité et leur volume, et d'un autre part, par la qualité du jeu de donnée produit qui semble bondé de faux positifs et de faux négatifs. Cette dissertation décrit une nouvelle méthode de criblage des interactions physique entre protéines à haut débit chez Saccharomyces cerevisiae, la complémentation de fragments protéiques (PCA). Cette approche est accomplie dans des cellules intactes dans les conditions natives des protéines; sous leur promoteur endogène et dans le respect des contextes de modifications post-traductionnelles et de localisations subcellulaires. Une application biologique de cette méthode a permis de démontrer la capacité de ce système rapporteur à répondre aux questions d'adaptation cellulaire à des stress, comme la famine en nutriments et un traitement à une drogue. Dans le premier chapitre de cette dissertation, nous avons présenté un criblage des paires d'interactions entre les protéines résultant des quelques 6000 cadres de lecture de Saccharomyces cerevisiae. Nous avons identifié 2770 interactions entre 1124 protéines. Nous avons estimé la qualité de notre criblage en le comparant à d'autres banques d'interaction. Nous avons réalisé que la majorité de nos interactions sont nouvelles, alors que le chevauchement avec les données des autres méthodes est large. Nous avons pris cette opportunité pour caractériser les facteurs déterminants dans la détection d'une interaction par PCA. Nous avons remarqué que notre approche est sous une contrainte stérique provenant de la nécessité des fragments rapporteurs à pouvoir se rejoindre dans l'espace cellulaire afin de récupérer l'activité observable de la sonde d'interaction. L'intégration de nos résultats aux connaissances des dynamiques de régulations génétiques et des modifications protéiques nous dirigera vers une meilleure compréhension des processus cellulaires complexes orchestrés aux niveaux moléculaires et structuraux dans les cellules vivantes. Nous avons appliqué notre méthode aux réarrangements dynamiques opérant durant l'adaptation de la cellule à des stress, comme la famine en nutriments et le traitement à une drogue. Cette investigation fait le détail de notre second chapitre. Nous avons déterminé de cette manière que l'équilibre entre les formes phosphorylées et déphosphorylées de l'arginine méthyltransférase de Saccharomyces cerevisiae, Hmt1, régulait du même coup sont assemblage en hexamère et son activité enzymatique. L'activité d'Hmt1 a directement un impact dans la progression du cycle cellulaire durant un stress, stabilisant les transcrits de CLB2 et permettant la synthèse de Cln3p. Nous avons utilisé notre criblage afin de déterminer les régulateurs de la phosphorylation d'Hmt1 dans un contexte de traitement à la rapamycin, un inhibiteur de la kinase cible de la rapamycin (TOR). Nous avons identifié la sous-unité catalytique de la phosphatase PP2a, Pph22, activé par l'inhibition de la kinase TOR et la kinase Dbf2, activé durant l'entrée en mitose de la cellule, comme la phosphatase et la kinase responsable de la modification d'Hmt1 et de ses fonctions de régulations dans le cycle cellulaire. Cette approche peut être généralisée afin d'identifier et de lier mécanistiquement les gènes, incluant ceux n'ayant aucune fonction connue, à tout processus cellulaire, comme les mécanismes régulant l'ARNm.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La fibrillation auriculaire (FA) est une arythmie touchant les oreillettes. En FA, la contraction auriculaire est rapide et irrégulière. Le remplissage des ventricules devient incomplet, ce qui réduit le débit cardiaque. La FA peut entraîner des palpitations, des évanouissements, des douleurs thoraciques ou l’insuffisance cardiaque. Elle augmente aussi le risque d'accident vasculaire. Le pontage coronarien est une intervention chirurgicale réalisée pour restaurer le flux sanguin dans les cas de maladie coronarienne sévère. 10% à 65% des patients qui n'ont jamais subi de FA, en sont victime le plus souvent lors du deuxième ou troisième jour postopératoire. La FA est particulièrement fréquente après une chirurgie de la valve mitrale, survenant alors dans environ 64% des patients. L'apparition de la FA postopératoire est associée à une augmentation de la morbidité, de la durée et des coûts d'hospitalisation. Les mécanismes responsables de la FA postopératoire ne sont pas bien compris. L'identification des patients à haut risque de FA après un pontage coronarien serait utile pour sa prévention. Le présent projet est basé sur l'analyse d’électrogrammes cardiaques enregistrées chez les patients après pontage un aorte-coronaire. Le premier objectif de la recherche est d'étudier si les enregistrements affichent des changements typiques avant l'apparition de la FA. Le deuxième objectif est d'identifier des facteurs prédictifs permettant d’identifier les patients qui vont développer une FA. Les enregistrements ont été réalisés par l'équipe du Dr Pierre Pagé sur 137 patients traités par pontage coronarien. Trois électrodes unipolaires ont été suturées sur l'épicarde des oreillettes pour enregistrer en continu pendant les 4 premiers jours postopératoires. La première tâche était de développer un algorithme pour détecter et distinguer les activations auriculaires et ventriculaires sur chaque canal, et pour combiner les activations des trois canaux appartenant à un même événement cardiaque. L'algorithme a été développé et optimisé sur un premier ensemble de marqueurs, et sa performance évaluée sur un second ensemble. Un logiciel de validation a été développé pour préparer ces deux ensembles et pour corriger les détections sur tous les enregistrements qui ont été utilisés plus tard dans les analyses. Il a été complété par des outils pour former, étiqueter et valider les battements sinusaux normaux, les activations auriculaires et ventriculaires prématurées (PAA, PVA), ainsi que les épisodes d'arythmie. Les données cliniques préopératoires ont ensuite été analysées pour établir le risque préopératoire de FA. L’âge, le niveau de créatinine sérique et un diagnostic d'infarctus du myocarde se sont révélés être les plus importants facteurs de prédiction. Bien que le niveau du risque préopératoire puisse dans une certaine mesure prédire qui développera la FA, il n'était pas corrélé avec le temps de l'apparition de la FA postopératoire. Pour l'ensemble des patients ayant eu au moins un épisode de FA d’une durée de 10 minutes ou plus, les deux heures précédant la première FA prolongée ont été analysées. Cette première FA prolongée était toujours déclenchée par un PAA dont l’origine était le plus souvent sur l'oreillette gauche. Cependant, au cours des deux heures pré-FA, la distribution des PAA et de la fraction de ceux-ci provenant de l'oreillette gauche était large et inhomogène parmi les patients. Le nombre de PAA, la durée des arythmies transitoires, le rythme cardiaque sinusal, la portion basse fréquence de la variabilité du rythme cardiaque (LF portion) montraient des changements significatifs dans la dernière heure avant le début de la FA. La dernière étape consistait à comparer les patients avec et sans FA prolongée pour trouver des facteurs permettant de discriminer les deux groupes. Cinq types de modèles de régression logistique ont été comparés. Ils avaient une sensibilité, une spécificité et une courbe opérateur-receveur similaires, et tous avaient un niveau de prédiction des patients sans FA très faible. Une méthode de moyenne glissante a été proposée pour améliorer la discrimination, surtout pour les patients sans FA. Deux modèles ont été retenus, sélectionnés sur les critères de robustesse, de précision, et d’applicabilité. Autour 70% patients sans FA et 75% de patients avec FA ont été correctement identifiés dans la dernière heure avant la FA. Le taux de PAA, la fraction des PAA initiés dans l'oreillette gauche, le pNN50, le temps de conduction auriculo-ventriculaire, et la corrélation entre ce dernier et le rythme cardiaque étaient les variables de prédiction communes à ces deux modèles.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le Sud-Est centrafricain est touché depuis 2009 par les exactions de la Lord Resistance Army (LRA). La peur qu’inspire cette rébellion ougandaise déstabilise toute la région, en poussant les habitants des villages à se réfugier dans les villes, et en provoquant une situation d’urgence alimentaire. Elle conduit aussi à un afflux d’acteurs humanitaires, dont l’objectif est d’accroître la résilience des populations, c’est-à-dire leurs capacités à faire face au choc du pillage, mais aussi à celui, plus diffus, d’une insécurité persistante. Trois questions se posent alors. Quelles sont, tout d’abord, les pratiques adoptées par les ces populations face à une telle insécurité ? Quelles sont, ensuite, les contributions des acteurs humanitaires à ces capacités, en dépit des complexités du contexte d’intervention et d’éventuels effets pervers ? Nous sommes là au coeur des interrogations en termes d’éthique de l’intervention humanitaire, que nous fondons sur le principe de précaution sociale. Enfin, résiliences spontanée et suscitée sont-elles, peuvent-elles être, compatibles, dans cet Est centrafricain confronté à une situation de « crise prolongée » ? Des éléments de réponse sont apportés à ces trois questions, sur la base d’études quantitatives et qualitatives menées dans trois petites villes du Haut-Mbomou.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Problématique : Bien que le tabac et l’alcool soient les facteurs causaux principaux des cancers épidermoïdes de l’oropharynx, le virus du papillome humain (VPH) serait responsable de l’augmentation récente de l’incidence de ces cancers, particulièrement chez les patients jeunes et/ou non-fumeurs. La prévalence du VPH à haut risque, essentiellement de type 16, est passée de 20% à plus de 60% au cours des vingt dernières années. Certaines études indiquent que les cancers VPH-positifs ont un meilleur pronostic que les VPH- négatifs, mais des données prospectives à cet égard sont rares dans la littérature, surtout pour les études de phase III avec stratification basée sur les risques. Hypothèses et objectifs : Il est présumé que la présence du VPH est un facteur de bon pronostic. L’étude vise à documenter la prévalence du VPH dans les cancers de l’oropharynx, et à établir son impact sur le pronostic, chez des patients traités avec un schéma thérapeutique incluant la chimio-radiothérapie. Méthodologie : Les tumeurs proviennent de cas traités au CHUM pour des cancers épidermoïdes de la sphère ORL à un stade localement avancé (III, IVA et IVB). Elles sont conservées dans une banque tumorale, et les données cliniques sur l’efficacité du traitement et les effets secondaires, recueillies prospectivement. La présence du VPH est établie par biologie moléculaire déterminant la présence du génome VPH et son génotype. Résultats: 255 spécimens ont été soumis au test de génotypage Linear Array HPV. Après amplification par PCR, de l’ADN viral a été détecté dans 175 (68.6%) échantillons tumoraux ; le VPH de type 16 était impliqué dans 133 cas (52.25 %). Conclusion: Une proportion grandissante de cancers ORL est liée au VPH. Notre étude confirme que la présence du VPH est fortement associée à une amélioration du pronostic chez les patients atteints de cancers ORL traités par chimio-radiothérapie, et devrait être un facteur de stratification dans les essais cliniques comprenant des cas de cancers ORL.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse porte sur les phénomènes critiques survenant dans les modèles bidimensionnels sur réseau. Les résultats sont l'objet de deux articles : le premier porte sur la mesure d'exposants critiques décrivant des objets géométriques du réseau et, le second, sur la construction d'idempotents projetant sur des modules indécomposables de l'algèbre de Temperley-Lieb pour la chaîne de spins XXZ. Le premier article présente des expériences numériques Monte Carlo effectuées pour une famille de modèles de boucles en phase diluée. Baptisés "dilute loop models (DLM)", ceux-ci sont inspirés du modèle O(n) introduit par Nienhuis (1990). La famille est étiquetée par les entiers relativement premiers p et p' ainsi que par un paramètre d'anisotropie. Dans la limite thermodynamique, il est pressenti que le modèle DLM(p,p') soit décrit par une théorie logarithmique des champs conformes de charge centrale c(\kappa)=13-6(\kappa+1/\kappa), où \kappa=p/p' est lié à la fugacité du gaz de boucles \beta=-2\cos\pi/\kappa, pour toute valeur du paramètre d'anisotropie. Les mesures portent sur les exposants critiques représentant la loi d'échelle des objets géométriques suivants : l'interface, le périmètre externe et les liens rouges. L'algorithme Metropolis-Hastings employé, pour lequel nous avons introduit de nombreuses améliorations spécifiques aux modèles dilués, est détaillé. Un traitement statistique rigoureux des données permet des extrapolations coïncidant avec les prédictions théoriques à trois ou quatre chiffres significatifs, malgré des courbes d'extrapolation aux pentes abruptes. Le deuxième article porte sur la décomposition de l'espace de Hilbert \otimes^nC^2 sur lequel la chaîne XXZ de n spins 1/2 agit. La version étudiée ici (Pasquier et Saleur (1990)) est décrite par un hamiltonien H_{XXZ}(q) dépendant d'un paramètre q\in C^\times et s'exprimant comme une somme d'éléments de l'algèbre de Temperley-Lieb TL_n(q). Comme pour les modèles dilués, le spectre de la limite continue de H_{XXZ}(q) semble relié aux théories des champs conformes, le paramètre q déterminant la charge centrale. Les idempotents primitifs de End_{TL_n}\otimes^nC^2 sont obtenus, pour tout q, en termes d'éléments de l'algèbre quantique U_qsl_2 (ou d'une extension) par la dualité de Schur-Weyl quantique. Ces idempotents permettent de construire explicitement les TL_n-modules indécomposables de \otimes^nC^2. Ceux-ci sont tous irréductibles, sauf si q est une racine de l'unité. Cette exception est traitée séparément du cas où q est générique. Les problèmes résolus par ces articles nécessitent une grande variété de résultats et d'outils. Pour cette raison, la thèse comporte plusieurs chapitres préparatoires. Sa structure est la suivante. Le premier chapitre introduit certains concepts communs aux deux articles, notamment une description des phénomènes critiques et de la théorie des champs conformes. Le deuxième chapitre aborde brièvement la question des champs logarithmiques, l'évolution de Schramm-Loewner ainsi que l'algorithme de Metropolis-Hastings. Ces sujets sont nécessaires à la lecture de l'article "Geometric Exponents of Dilute Loop Models" au chapitre 3. Le quatrième chapitre présente les outils algébriques utilisés dans le deuxième article, "The idempotents of the TL_n-module \otimes^nC^2 in terms of elements of U_qsl_2", constituant le chapitre 5. La thèse conclut par un résumé des résultats importants et la proposition d'avenues de recherche qui en découlent.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En rivière à lit de graviers, le transport des sédiments en charge de fond est un processus intermittent qui dépend de plusieurs variables du système fluvial dont la prédiction est encore aujourd’hui inexacte. Les modèles disponibles pour prédire le transport par charriage utilisent des variables d’écoulement moyen et la turbulence n’est généralement pas considérée malgré que les tourbillons contenus dans les écoulements possèdent une quantité d’énergie importante. L’utilisation de nouvelles approches pour étudier la problématique du transport par charriage pourrait nous permettre d’améliorer notre connaissance de ce processus déterminant en rivière alluviale. Dans ce mémoire, nous documentons ces composantes de la dynamique fluviale dans un cours d’eau graveleux en période de crue. Les objectifs du projet de recherche sont : 1) d’examiner l’effet du débit sur les variables turbulentes et les caractéristiques des structures turbulentes cohérentes, 2) d’investiguer l’effet du débit sur les caractéristiques des événements de transport de sédiments individuels détectés à l’aide d’un nouvel algorithme développé et testé et 3) de relier les caractéristiques de l’écoulement turbulent aux événements de transport de sédiments individuels. Les données de turbulence montrent qu’à haut niveau d’eau, l’écoulement décéléré est peu cohérent et a une turbulence plus isotrope où les structures turbulentes cohérentes sont de courte durée. Ces observations se distinguent de celles faites à faible niveau d’eau, en écoulement accéléré, où la plus grande cohérence de l’écoulement correspond à ce qui est généralement observé dans les écoulements uniformes en rivières graveleuses. Les distributions de fréquence des variables associées aux événements de transport individuel (intensité de transport moyenne, durée d’événement et intervalle entre événements successifs) ont des formes différentes pour chaque intensité de crue. À haut niveau d’eau, le transport est moins intermittent qu’à faible débit où les événements rares caractérisent davantage les distributions. L’accélération de l’écoulement à petite échelle de temps joue un rôle positif sur le transport, mais surtout lorsque la magnitude de la crue mobilisatrice est en dessous du niveau plein bord. Les résultats de l’étude montrent que les caractéristiques de la turbulence ainsi que les liens complexes entre l’écoulement et le transport par charriage sont fonction du débit.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le présent mémoire est subdivisé en deux principaux sujets. Le premier porte sur le développement d’une hydrolyse de thiazolidines assistée par micro-ondes en vue d’obtenir des cystéines a-substituées. Le second est axé sur le développement d’une méthodologie pour la synthèse catalytique énantiosélective d’alkylidènecyclopropanes 1,1-di-accepteurs. Dans un premier temps, les rôles et les utilités des acides aminés quaternaires, plus spécifiquement des cystéines a-substituées, seront abordés, puis une revue des différentes méthodes énantiosélectives pour accéder à ces unités sera effectuée. Par la suite, le développement d’une méthode rapide et efficace d’hydrolyse sous irradiation aux micro-ondes de thiazolines sera présenté. Finalement, les études menant à l’application de cette méthode à la synthèse de cystéines -substituées sur grande échelle au moyen de réacteurs en écoulement dynamique et à haut criblage seront détaillées. Dans la seconde partie, les applications ainsi que les synthèses générales des alkylidènecyclopropanes en synthèse organique seront décrites. Plus particulièrement, les applications spécifiques des alkylidènecyclopropanes 1,1-di-accepteurs ainsi que leurs synthèses seront traitées de manière exhaustive. Par la suite, le développement d’une méthodologie énantiosélective catalytique pour la synthèse d’alkylidènecyclopropanes 1,1-di-accepteurs sera présenté. L’extension de cette méthodologie à la synthèse de dérivés cyclopropanes et cyclopropènes, ainsi que l’application de réactions stéréospécifiques pour les alkylidènecyclopropanes 1,1-di-accepteurs seront brièvement discutées.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La présente recherche porte sur la lecture littéraire dans un contexte d’enseignement primaire et concerne plus précisément les albums jeunesse qui favorisent le développement des habiletés interprétatives. Il s’agit d’une recherche-développement qui comporte trois objectifs. Le premier objectif consiste à développer un outil pour analyser les procédés narratifs des albums jeunesse et y cerner les éléments propices au travail interprétatif. Le second objectif vise à mettre à l’essai l’outil d’analyse afin d’en mesurer la validité et la fidélité, alors que le dernier objectif consiste à élaborer, à l’aide de l’outil développé, un répertoire d’albums jeunesse québécois susceptibles de favoriser le développement des habiletés interprétatives des élèves du primaire. La méthodologie mise en œuvre afin d’atteindre les trois objectifs a d’abord permis d’analyser les besoins, c’est-à-dire, les finalités et les utilisateurs de l’outil d’analyse, puis d’en concevoir et d’en élaborer une première version, de la mettre à l’essai afin d’en évaluer la validité auprès d’experts, avant d’en produire une deuxième version, d’en évaluer la fidélité à l’aide de codeurs et finalement, d’en produire une troisième puis une quatrième version afin d’élaborer un répertoire d’albums jeunesse québécois propices au travail interprétatif. Bien que la mise à l’essai ne permette pas de conclure de façon tout à fait satisfaisante à propos de l’objectivité des indicateurs de l’outil développé, l’analyse des commentaires des experts permet d’affirmer que les indicateurs de l’outil d’analyse présentent un très haut degré de pertinence, ce qui donne à penser que l’outil développé de même que le répertoire de quinze albums jeunesse québécois susceptibles de favoriser le développement des habiletés interprétatives des élèves du primaire élaboré, dans le cadre de cette recherche, peuvent s’avérer de premiers outils utiles et pertinents pour le milieu scolaire.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La version intégrale de ce mémoire est disponible uniquement pour consultation individuelle à la Bibliothèque de musique de l’Université de Montréal (www.bib.umontreal.ca/MU).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les dernières décennies ont été marquées par une augmentation du nombre des cas de cancers, ce qui a subséquemment conduit à une augmentation dans la consommation des agents de chimiothérapie. La toxicité et le caractère cancérogène de ces molécules justifient l’intérêt crucial porté à leur égard. Quelques études ont fait l’objet de détection et de quantification des agents de chimiothérapie dans des matrices environnementales. Dans ce projet, une méthode utilisant la chromatographie liquide couplée à la spectrométrie de masse en tandem (LC-MS/MS) précédée d’une extraction sur phase solide (SPE) automatisée ou en ligne a été développée pour la détection et la quantification d’un groupe de six agents de chimiothérapie. Parmi ceux-ci figurent les plus utilisés au Québec (gemcitabine, méthotrexate, cyclophosphamide, ifosfamide, irinotécan, épirubicine) et présentant des propriétés physico-chimiques et des structures chimiques différentes. La méthode développée a été validée dans une matrice réelle représentant l’affluent d’une station d’épuration dans la région de Montréal. Deux des six composés cytotoxiques étudiés en l’occurrence (cyclophosphamide et méthotrexate) ont été détectés dans huit échantillons sur les neuf qui ont été recensés, essentiellement au niveau de l’affluent et l’effluent de quelques stations d’épuration de la région de Montréal. Les résultats des analyses effectuées sur les échantillons réels ont montré qu’il n’y avait pas de différence significative dans la concentration entre l’affluent et l’effluent, et donc que les systèmes d’épuration semblent inefficaces pour la dégradation de ces molécules.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

"La nature flexible et interactive d’Internet implique que de plus en plus de consommateurs l’utilisent en tant qu’outil d’information sur tous les sujets imaginables, qu’il s’agisse de trouver la meilleurs aubaine sur un billet d’avion, ou de se renseigner sur certains problèmes liés à leur santé. Cependant, une grande quantité de l’information disponible en ligne n’est pas impartiale. Certains sites web ne présentent qu’une vision des choses ou font la promotion des produits d’une seule entreprise. Les consommateurs sont plus habitués à évaluer le poid à attribuer à certains conseils ou autres formes d’informations dans un contexte différent. Une telle évaluation de la crédibilité d’une information devient plus difficile dans le monde virtuel où les indices du monde réel, de l’écrit ou de l’interaction face-à-face sont absents. Consumers International a développé une définition de la notion de « crédibilité de l’information retrouvée en ligne » et a établi une liste de critères pouvant l’évaluer. Entre les mois d’avril et juillet 2002, une équipe représentant 13 pays a visité 460 sites web destinés à fournir de l’information sur la santé, sur des produits financiers et sur les prix de voyages et de différents biens de consommation en utilisant ces critères. L’appréciation de ces données nous démontre que les consommateurs doivent faire preuve de prudence lorsqu’ils utilisent Internet comme source d’information. Afin de faire des choix éclairés sur la valeur à donner à une information retrouvée en ligne, les consommateurs doivent connaître ce qui suit : L’identité du propriétaire d’un site web, ses partenaires et publicitaires; La qualité de l’information fournie, incluant son actualité et sa clarté, l’identité des sources citées et l’autorité des individus donnant leur opinion; Si le contenu du site est contrôlé par des intérêts commerciaux, ou, s’il offre des liens, la nature de la relation avec le site visé; et Si on lui demandera de fournir des données personnelles, l’usage réservé à ces données et les mesures employées pour protéger ces données. Cette étude démontre que plusieurs sites ne fournissent pas suffisamment de détails dans ces domaines, ce qui risque d’exposer le consommateur à des informations inexactes, incomplètes ou même délibérément fausses. Les discours exagérés ou vagues de certains sites concernant leurs services ne fait qu’ajouter à la confusion. Ceci peut résulter en une perte de temps ou d’argent pour le consommateur, mais pour certaines catégories d’informations, comme les conseils visant la santé, le fait de se fier à de mauvais conseils peut avoir des conséquences beaucoup plus graves. Cette étude vise à aviser les consommateurs de toujours vérifier le contexte des sites avant de se fier aux informations qui s’y retrouvent. Elle demande aux entreprises d’adopter de meilleures pratiques commerciales et de fournir une information plus transparente afin d’accroître la confiance des consommateurs. Elle demande finalement aux gouvernements de contribuer à ce mouvement en assurant le respect des lois relatives à la consommation et des standards existants tant dans le monde réel que dans le monde virtuel."

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le juriste appelé à réfléchir à la question autochtone est inéluctablement entraîné à poser son regard sur les disciplines exogènes au droit : anthropologie, ethnologie, histoire, sociologie, pour n'en nommer que quelques-unes.  Cet exercice, fort salutaire, l'oblige à un « examen de conscience épistémologique ». En d'autres termes, il doit s'interroger sur la nature du savoir qu'il produit et sur les méthodes employées pour ce faire.  Mais cet exercice l'amène également à constater que, dans un univers résolument hostile à l'idée de valeurs universellement partagées, la légitimité du droit passe de plus en plus par la mobilisation du savoir produit par les sciences sociales énumérées plus haut.  Autrement dit, en raison du scepticisme à l'égard de l'objectivité des valeurs, la discipline prescriptive par excellence qu'est le droit se tourne vers les disciplines qui décrivent le réel.   Ainsi, on voit les avocats embrigader et instrumentaliser les résultats de recherche produits par les sciences sociales dans la définition des droits ancestraux.  Or, bien souvent, ces avocats ne s'interrogent pas sur les limites épistémologiques des disciplines qu'ils enrôlent au profit de leur client.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

S’il est un sujet  qui a fait l’objet d’un certain nombre de réflexions approfondies de la part des juges de la Cour suprême du Canada depuis l’entrée en vigueur de La Charte des droits et libertés (la Charte), c’est bien celui qui est en lien avec la notion de liberté d’association.  En fait, l’alinéa 2d) de la Charte a donné lieu à plusieurs décisions importantes dans lesquelles la portée de la notion de la liberté d’association (en matière de liberté syndicale(1)) a été circonscrite avec beaucoup d’attention. Dans le cadre de notre texte, nous entendons scruter d’un peu plus près la jurisprudence canadienne en matière de liberté syndicale.  Comment les juges de la Cour suprême du Canada envisagent-ils la reconnaissance des droits associés à la liberté syndicale ? Jusqu’à quel point les juges du plus haut tribunal du pays sont-ils prêts à reconnaître qu’un authentique régime de liberté syndicale comporte la reconnaissance effective de la liberté d’association, le droit de négociation et le droit de faire la grève ? Les décisions des dernières années nous indiquent-elles une volonté d’harmonisation de la jurisprudence canadienne avec la jurisprudence internationale à ce sujet ? Notre étude soulève aussi la question de la stratégie syndicale qui consiste à faire appel au pouvoir judiciaire pour résoudre un enjeu social important (le droit de négociation et le droit de grève).  La voie de la contestation judiciaire est-elle plus porteuse de changements durables que celle de la voie de l’affrontement direct et du conflit ouvert ? L’étude de cette question nous permettra de voir jusqu’à quel point nous assistons, depuis l’entrée en vigueur de la Charte, à une recomposition du lien politique entre le mouvement syndical et certaines composantes du pouvoir étatique.