509 resultados para Plantes envahissantes--Prévention--Prise de décision--Méthodes statistiques
Resumo:
La série "Rapport synthèse" met en relief les faits saillants des principales études, recherches, projets d'intervention ou promotion réalisés dans les différents domaines de la santé publique.
Resumo:
Introduction : L’effet biologique variable de l’aspirine a été attribué à un état de résistance pharmacologique. L’incidence de cette « résistance » varie selon la population ou la technologie étudiée. Méthodes : Nous avons déterminé la performance de 5 techniques évaluant l’effet de l’aspirine chez des sujets sains, non fumeurs et ne prenant aucune médication pouvant interférer avec la fonction plaquettaire. Des spécimens de sang et d’urine ont été obtenus avant et après 8-10 jours de prise de 80 mg d’aspirine. Résultats: Chez 45 sujets de 19-59 ans, la sensibilité (SE), la spécificité (SP), et la valeur optimale de coupure (CO) pour détecter l’effet de l’aspirine sont : agrégométrie par transmission optique induite avec 1,6 mM d’acide arachidonique (ATO-AA) - SE 100%, SP 95,9%, CO 20%; ATO-ADP 10 μM - SE 84,4%, SP 77,7%, CO 70%; VerifyNow® Aspirin - SE 100%, SP 95,6%, CO 550 ARU; agrégation en tube - SE 82,2%, SP 86,7%, CO 55%; TEG® - SE 82,9%, SP 75,8%, CO 90%; et le dosage de 11-dehydrothromboxane B2 urinaire - SE 62,2%, SP 82,2%, CO 60 pg/ml. Conclusions: La résistance à l’aspirine chez les sujets sains définie par ATO-AA et VerifyNow® Aspirin est rare. Puisque les autres techniques étudiées discriminent de façon sous optimale l’effet de l’aspirine, leur utilité dans la définition de la résistance pharmacologique à l’aspirine semble marginale. Ces résultats suggèrent qu’une proportion de la variabilité de l’incidence rapportée de “résistance à l’aspirine” est artefactuelle et reliée aux limitations technologiques de certaines analyses.
Resumo:
Objectif : Examiner l’association entre la consommation alimentaire de caroténoïdes (β-carotène, α-carotène, β-cryptoxanthine, lutéine/zéaxanthine, lycopène) et de vitamine C et le risque de cancer du poumon, selon le sexe, l’intensité de tabagisme et le sous-type histologique de la tumeur. Méthodes : Les données proviennent d’une étude cas-témoins menée à Montréal, Canada. Des entrevues ont été effectuées auprès de 1 105 cas incidents de cancer du poumon et 1 449 témoins issus de la population générale. Leur fréquence de consommation moyenne de 49 fruits et légumes deux ans auparavant a été convertie en apports en antioxydants. Les rapports de cotes (RC) et les intervalles de confiance (IC) à 95% caractérisant l’association entre les antioxydants et le risque de cancer du poumon ont été estimés à l’aide de modèles de régression logistique et polytomée, en tenant compte de facteurs de confusion potentiels. Résultats : Une consommation élevée en antioxydants était généralement associée à une diminution du risque de cancer du poumon de l’ordre de 30%. Un effet protecteur a été observé chez les hommes et les femmes, pour les non fumeurs, les fumeurs quelque soit l’intensité de tabagisme, ainsi que pour les carcinomes à petites cellules, épidermoïde et l’adénocarcinome. Conclusions : Plusieurs antioxydants alimentaires protégeraient du cancer du poumon. Les efforts de prévention bénéficieraient de cibler la promotion de la consommation de fruits et de légumes riches en caroténoïdes et en vitamine C.
Resumo:
Nous avons mené une étude prospective randomisée dans le but de comparer l'effet de l'irrigation du cathéter de type PICC avec deux types d'anticoagulants: Héparine standard et Tinzaparine, une héparine de faible poids moléculaire. Notre étude s'adresse aux patients de la clinique externe d'oncologie de l'hôpital Maisonneuve-Rosemont. Entre début Mai 2005 et Mars 2008, nous avons recruté 131 patients dont 70 ont été randomisés. Parmi les 61 patients exclus, 23 n'ont pas rencontré les critères d'inclusion, 30 ont refusé de participer et 8 ne sont pas inclus pour d'autres raisons. Sur les 70, 36 sujets sont randomisés dans le groupe Héparine standard et 34 dans le groupe Tinzaparine. La population en intention de traiter comprend 65 sujets dont 32 dans le groupe Héparine standard et 33 dans le groupe Tinzaparine. Le médicament a été administré pendant un mombre maximal de 30 jours et les sujets ont été suivis pendant 90 jours. La thrombose veineuse associée au cathéter (TVAC) a été objectivée par une phlébographie ou une échographie-Doppler à la fin de la période de 30 jours suivant l'installation du cathéter. L'incidence de la TVAC sur 30 jours est de 14,39 par 1000 cathéter-jours (IC à 95%:[9,0;19,79]/1000 cathéter-jours ou 41,5% (27/65). L'incidence de la thrombose veineuse profonde (TVP) symptômatique du membre supérieur sur la période de suivi de 90 jours est de 0,41 par 1000 cathéter-jours (IC à 95%:[0,08;0,81]/1000 cathéter-jours ou 3% (2/65). Nous n'avons observé aucune différence entre les deux groupes par rapport à la fréquence de la TVAC ni de la TVP. Nous ne pouvons conclure à une différence dans l'efficacité de la Tinzaparine par rapport à l'Héparine standard dans la prévention de la TVAC.
Resumo:
Ce mémoire porte sur les processus de catégorisation et les modes de prise en charge des populations sans logement par l’État français à deux époques que sont la fin du XIXème siècle et la fin du XXème siècle (1880-1910 et 1980-2008). Au cours de ces deux périodes charnières, les transformations socio-économiques brouillent les dispositifs traditionnels de prise en charge de populations sans logement et conduisent progressivement l’État à une redéfinition de ces populations sur le plan administratif ainsi qu’à un resserrement sur le plan juridique. L’analyse met en évidence la résistance des discours juridiques et politiques face aux transformations sociales avant d’étudier l’émergence de nouvelles catégories et de nouveaux dispositifs pour appréhender et contrôler ces populations. Les sources utilisées (juridico-politiques et médicales) permettent de nuancer l’analyse dominante proposée jusqu’alors par Castel, qui néglige les sources médicales dans son étude des bouleversements sociaux et de la prise en charge des populations marginalisées aux deux époques. Enfin, le travail de catégorisation des populations marginalisées de la part de l’État s’oppose à une résistance de la part des populations elles-mêmes qui débordent les catégories et les dispositifs mis en œuvre pour les appréhender.
Resumo:
Contexte : Les enfants atteints de maladies chroniques utilisent souvent des médecines complémentaires. Plusieurs études traitent de l’utilisation de ces traitements et des facteurs qui y sont associés chez les enfants atteints d’arthrite juvénile mais aucune étude n’est longitudinale. De plus, aucune n’a documenté l’utilisation de ces traitements chez les enfants ayant des incapacités physiques en attente de services publics de réadaptation. Objectifs : Les objectifs de cette étude étaient de déterminer la fréquence d’utilisation des médecines complémentaires chez les enfants atteints d’arthrite juvénile et d’incapacités physiques, d’évaluer leur efficacité telle que perçue par les parents et d’explorer les facteurs associés à leur utilisation. Méthodes : Une cohorte d’enfants atteints d’arthrite juvénile idiopathique (n=182, âge moyen : 10,2 ans) qui fréquentent des cliniques d’arthrite et une cohorte d’enfants ayant des incapacités physiques en attente de services de réadaptation publics (n=224, âge moyen : 2,6 ans) ont été suivis durant une période d’un an. L’utilisation des médecines complémentaires et la perception de leur efficacité d’après les parents ont été évaluées à l’aide de statistiques descriptives à chaque trois mois pour la cohorte d’enfants atteints d’arthrite et au début de l’étude pour la cohorte d’enfants ayant des incapacités physiques. Les facteurs associés à l’utilisation de ces traitements ont été explorés par des analyses de type GEE (« Generalized estimating equations ») et des régressions polytomique et logistique. Résultats : L’utilisation antérieure de ces médecines était de 51,1% pour les enfants atteints d’arthrite et de 15% pour les enfants ayant des incapacités physiques. Les médecines complémentaires étaient considérées comme étant efficaces dans 72% des cas par les parents d’enfants atteints d’arthrite et dans 83% des cas par les parents d’enfants ayant des incapacités physiques. Les facteurs associés à l’utilisation des médecines complémentaires chez les enfants atteints d’arthrite étaient l’utilisation antérieure des médecines complémentaires par les parents et la perception des parents que les médicaments prescrits ne sont pas utiles pour leur enfant. Chez les enfants ayant des incapacités physiques, les facteurs associés à l’utilisation des médecines complémentaires étaient l’origine culturelle canadienne, un niveau de scolarité plus élevé que le diplôme d’études secondaires et une moins bonne qualité de vie reliée à la santé. Finalement, l’utilisation des médecines complémentaires semblait associée à de moins bons résultats chez les enfants atteints d’arthrite. Conclusion: Une proportion non-négligeable des enfants participant à la présente étude ont utilisé des médecines complémentaires. Leur utilisation était plus fréquente chez les enfants atteints d’arthrite juvénile idiopathique, surtout chez ceux dont les parents avaient déjà utilisé les médecines complémentaires par le passé et chez ceux qui trouvaient la médication peu efficace. Chez les enfants ayant des incapacités physiques, l’utilisation des médecines complémentaires était associée à des facteurs socio-démographiques et à des besoins plus élevés en matière de santé. Les médecines complémentaires étaient considérées comme étant efficaces dans les deux cohortes mais leur utilisation était associée à de faibles résultats chez les enfants atteints d’arthrite. Ces résultats démontrent l’importance d’évaluer l’utilisation des médecines complémentaires afin de mieux renseigner les parents et de les aider à prendre les meilleures décisions possibles concernant le traitement de leur enfant.
Resumo:
Entre 100 et 140 millions de femmes, de petites filles et d’adolescentes sont excisées (Andro et Lesclingrand, 2007). Les risques sanitaires de l’excision sont élevés et concernent la santé reproductive, physique et psychologique des femmes. Les nouvelles migrations et l’augmentation des pays qui légifèrent l’excision ont contribué à l’internationalisation de l’excision et à la modification de son processus. On constate actuellement une tendance de l’excision à devenir une pratique clandestine et une perte de sa signification rituelle. En même temps, les mouvements de lutte internationaux, régionaux autant que nationaux prennent de l’ampleur et connaissent une période de mutation afin de contrer la nouvelle figure de l’excision. Le Burkina Faso ne fait pas exception. Le gouvernement burkinabé s’est clairement positionné en faveur du mouvement de lutte contre l’excision et met en place de nombreux dispositifs juridiques, politiques et économiques afin d’en soutenir les initiatives. En 2003, 77 % des femmes burkinabè âgées de 15 à 49 ans se déclaraient excisées. Parallèlement, on assiste à une diminution de la pratique chez leurs filles entre 1998 et 2003 et à une augmentation du nombre de Burkinabè se déclarant contre la pratique. Pourtant en 2003, environ 40 % des femmes ont excisé ou souhaitent exciser leurs filles et environ 24 % des hommes et 26 % des femmes sont encore favorables à la perpétuation de l’excision. Ce mémoire s’intéresse d’abord aux changements de pratique, de connaissance et d’attitudes par rapport à l’excision entre 1998 et 2003. Il s’intéresse ensuite aux déterminants socioculturels, démographiques et économiques favorisant la persistance de cette pratique au sein de la société burkinabé et aux obstacles rencontrés par les intervenants pour combattre l’excision sur le terrain. Pour ce faire la recherche associe méthodes quantitatives et qualitatives. Elle combine analyses statistiques des données des enquêtes démographiques de santé de 2003 et de 1998 et analyse des données d’entretiens collectées auprès d’acteurs sur le terrain entre le premier et le 10 octobre 2005.
Resumo:
L'éducation à la citoyenneté comme forme de socialisation juridique est un moyen parmi d'autres qui nous permet de concevoir un possible dépassement de la «raison paresseuse» dans laquelle sont engagés les modèles politiques occidentaux. Les bases d'un nouveau code moral proposant à la fois une identité individuelle et collective pour le citoyen sont nécessaires. Ainsi, les énergies consacrées à la meilleure formation possible des futurs acteurs de la société québécoise, au partage d'idées et de perceptions dans une perspective contemporaine, ne peuvent être que bénéfiques pour l'avancement et l'avènement d'une société où l'équité coexiste avec la différence. C'est en réfléchissant et en échangeant sur le sujet avec notre entourage que nous avons décidé de concentrer nos recherches dans le domaine de 1'« éducation à la citoyenneté» avec comme contenu le droit. Naturellement, l'analyse à proprement positiviste du droit est ici mise de côté. Comme nous le verrons plus loin, une étude qui aborde la vision que se font les jeunes de l'univers juridique qui les entoure commande plutôt une approche sociologique. Les conclusions tirées de notre projet de recherche contribueront au débat entourant les concepts de citoyenneté, de droits fondamentaux et de responsabilités sociales dans une dynamique d'apprentissage. En tenant compte de la dimension culturelle de la citoyenneté, nous décrirons les différences d'interprétation et de représentation des droits fondamentaux et des responsabilités sociales dans la conscience d'« initiés» et de « non initiés» à une activité de socialisation juridique organisée par le Centre de développement pour l'exercice de la citoyenneté (CDEC), Débats de citoyens. Ce n'est qu'une fois cet exercice complété que nous tenterons d'évaluer le bienfondé et la validité d'une telle approche pédagogique. Mots clés: Éducation, citoyenneté, droits, responsabilités, socialisation, culture, débat, différence.
Resumo:
Introduction: Les instillations nasales de solution saline isotonique (INSS) chez les enfants sont recommandées par les pédiatres et des oto-rhino-laryngologistes de notre institution dans le but de prévenir les otites moyennes aigues à répétition (OMAr). Cependant, aucune étude dans la littérature ne vient corroborer ou infirmer cette pratique. Objectifs: Déterminer l’efficacité des INSS dans la prévention des OMAr. Méthode: Projet pilote d’un essai clinique randomisé. Les enfants diagnostiqués avec des OMAr étaient éligibles. Les patients recrutés ont été randomisés en 2 groupes. Seul le groupe traitement procède aux INSS. L’issue primaire est l’incidence d’OMAr pendant une période de 3 mois. Résultats: Vingt-neuf patients satisfaisant les critères d’inclusion et d’exclusion ont consenti à participer. Le taux d’OMAr était inférieur dans le groupe traitement (p=0.03, chi-carré) Conclusion: Les INSS semblent efficaces dans la prévention des OMAr. Une étude multicentrique est indiquée pour vérifier la validité externe et confirmer la sécurité.
Resumo:
Les agents anti-infectieux sont utilisés pour traiter ou prévenir les infections chez les humains, les animaux, les insectes et les plantes. L’apparition de traces de ces substances dans les eaux usées, les eaux naturelles et même l’eau potable dans plusieurs pays du monde soulève l’inquiétude de la communauté scientifique surtout à cause de leur activité biologique. Le but de ces travaux de recherche a été d’étudier la présence d’anti-infectieux dans les eaux environnementales contaminées (c.-à-d. eaux usées, eaux naturelles et eau potable) ainsi que de développer de nouvelles méthodes analytiques capables de quantifier et confirmer leur présence dans ces matrices. Une méta-analyse sur l’occurrence des anti-infectieux dans les eaux environnementales contaminées a démontré qu’au moins 68 composés et 10 de leurs produits de transformation ont été quantifiés à ce jour. Les concentrations environnementales varient entre 0.1 ng/L et 1 mg/L, selon le composé, la matrice et la source de contamination. D’après cette étude, les effets nuisibles des anti-infectieux sur le biote aquatique sont possibles et ces substances peuvent aussi avoir un effet indirect sur la santé humaine à cause de sa possible contribution à la dissémination de la résistance aux anti-infecteiux chez les bactéries. Les premiers tests préliminaires de développement d’une méthode de détermination des anti-infectieux dans les eaux usées ont montré les difficultés à surmonter lors de l’extraction sur phase solide (SPE) ainsi que l’importance de la sélectivité du détecteur. On a décrit une nouvelle méthode de quantification des anti-infectieux utilisant la SPE en tandem dans le mode manuel et la chromatographie liquide couplée à la spectrométrie de masse en tandem (LC-MS/MS). Les six anti-infectieux ciblés (sulfaméthoxazole, triméthoprime, ciprofloxacin, levofloxacin, clarithromycin et azithromycin) ont été quantifiés à des concentrations entre 39 et 276 ng/L dans les échantillons d’affluent et d’effluent provenant d’une station d’épuration appliquant un traitement primaire et physico- chimique. Les concentrations retrouvées dans les effluents indiquent que la masse moyenne totale de ces substances, déversées hebdomadairement dans le fleuve St. Laurent, était de ~ 2 kg. En vue de réduire le temps total d’analyse et simplifier les manipulations, on a travaillé sur une nouvelle méthode de SPE couplée-LC-MS/MS. Cette méthode a utilisé une technique de permutation de colonnes pour préconcentrer 1.00 mL d’échantillon dans une colonne de SPE couplée. La performance analytique de la méthode a permis la quantification des six anti-infectieux dans les eaux usées municipales et les limites de détection étaient du même ordre de grandeur (13-60 ng/L) que les méthodes basées sur la SPE manuelle. Ensuite, l’application des colonnes de SPE couplée de chromatographie à débit turbulent pour la préconcentration de six anti-infectieux dans les eaux usées a été explorée pour diminuer les effets de matrice. Les résultats obtenus ont indiqué que ces colonnes sont une solution de réchange intéressante aux colonnes de SPE couplée traditionnelles. Finalement, en vue de permettre l’analyse des anti-infectieux dans les eaux de surface et l’eau potable, une méthode SPE couplée-LC-MS/MS utilisant des injections de grand volume (10 mL) a été développée. Le volume de fuite de plusieurs colonnes de SPE couplée a été estimé et la colonne ayant la meilleure rétention a été choisie. Les limites de détection et de confirmation de la méthode ont été entre 1 à 6 ng/L. L’analyse des échantillons réels a démontré que la concentration des trois anti-infectieux ciblés (sulfaméthoxazole, triméthoprime et clarithromycine) était au dessous de la limite de détection de la méthode. La mesure des masses exactes par spectrométrie de masse à temps d’envol et les spectres des ions produits utilisant une pente d’énergie de collision inverse dans un spectromètre de masse à triple quadripôle ont été explorés comme des méthodes de confirmation possibles.
Resumo:
Différentes méthodes ayant pour objectif une utilisation optimale d'antennes radio-fréquences spécialisées en imagerie par résonance magnétique sont développées et validées. Dans un premier temps, il est démontré qu'une méthode alternative de combinaison des signaux provenant des différents canaux de réception d'un réseau d'antennes mène à une réduction significative du biais causé par la présence de bruit dans des images de diffusion, en comparaison avec la méthode de la somme-des-carrés généralement utilisée. Cette réduction du biais engendré par le bruit permet une amélioration de l'exactitude de l'estimation de différents paramètres de diffusion et de diffusion tensorielle. De plus, il est démontré que cette méthode peut être utilisée conjointement avec une acquisition régulière sans accélération, mais également en présence d'imagerie parallèle. Dans une seconde perspective, les bénéfices engendrés par l'utilisation d'une antenne d'imagerie intravasculaire sont étudiés. Suite à une étude sur fantôme, il est démontré que l'imagerie par résonance magnétique intravasculaire offre le potentiel d'améliorer significativement l'exactitude géométrique lors de mesures morphologiques vasculaires, en comparaison avec les résultats obtenus avec des antennes de surface classiques. Il est illustré qu'une exactitude géométrique comparable à celle obtenue grâce à une sonde ultrasonique intravasculaire peut être atteinte. De plus, plusieurs protocoles basés sur une acquisition de type balanced steady-state free-precession sont comparés dans le but de mettre en évidence différentes relations entre les paramètres utilisés et l'exactitude géométrique obtenue. En particulier, des dépendances entre la taille du vaisseau, le rapport signal-sur-bruit à la paroi vasculaire, la résolution spatiale et l'exactitude géométrique atteinte sont mises en évidence. Dans une même optique, il est illustré que l'utilisation d'une antenne intravasculaire permet une amélioration notable de la visualisation de la lumière d'une endoprothèse vasculaire. Lorsque utilisée conjointement avec une séquence de type balanced steady-state free-precession utilisant un angle de basculement spécialement sélectionné, l'imagerie par résonance magnétique intravasculaire permet d'éliminer complètement les limitations normalement engendrées par l'effet de blindage radio-fréquence de l'endoprothèse.
Resumo:
Le maintien de la stabilité du génome est essentiel pour la propagation de l’information génétique et pour la croissance et la survie des cellules. Tous les organismes possèdent des systèmes de prévention des dommages et des réarrangements de l’ADN et nos connaissances sur ces processus découlent principalement de l’étude des génomes bactériens et nucléaires. Comparativement peu de choses sont connues sur les systèmes de protection des génomes d’organelles. Cette étude révèle l’importance des protéines liant l’ADN simple-brin de la famille Whirly dans le maintien de la stabilité du génome des organelles de plantes. Nous rapportons que les Whirlies sont requis pour la stabilité du génome plastidique chez Arabidopsis thaliana et Zea mays. L’absence des Whirlies plastidiques favorise une accumulation de molécules rearrangées produites par recombinaison non-homologue médiée par des régions de microhomologie. Ce mécanisme est similaire au “microhomology-mediated break-induced replication” (MMBIR) retrouvé chez les bactéries, la levure et l’humain. Nous montrons également que les organelles de plantes peuvent réparer les bris double-brin en utilisant une voie semblable au MMBIR. La délétion de différents membres de la famille Whirly entraîne une accumulation importante de réarrangements dans le génome des organelles suite à l’induction de bris double-brin. Ces résultats indiquent que les Whirlies sont aussi importants pour la réparation fidèle des génomes d’organelles. En se basant sur des données biologiques et structurales, nous proposons un modèle où les Whirlies modulent la disponibilité de l’ADN simple-brin, régulant ainsi le choix des voies de réparation et permettant le maintien de la stabilité du génome des organelles. Les divers aspects de ce modèle seront testés au cours d’expériences futures ce qui mènera à une meilleure compréhension du maintien de la stabilité du génome des organelles.
Resumo:
Les temps de réponse dans une tache de reconnaissance d’objets visuels diminuent de façon significative lorsque les cibles peuvent être distinguées à partir de deux attributs redondants. Le gain de redondance pour deux attributs est un résultat commun dans la littérature, mais un gain causé par trois attributs redondants n’a été observé que lorsque ces trois attributs venaient de trois modalités différentes (tactile, auditive et visuelle). La présente étude démontre que le gain de redondance pour trois attributs de la même modalité est effectivement possible. Elle inclut aussi une investigation plus détaillée des caractéristiques du gain de redondance. Celles-ci incluent, outre la diminution des temps de réponse, une diminution des temps de réponses minimaux particulièrement et une augmentation de la symétrie de la distribution des temps de réponse. Cette étude présente des indices que ni les modèles de course, ni les modèles de coactivation ne sont en mesure d’expliquer l’ensemble des caractéristiques du gain de redondance. Dans ce contexte, nous introduisons une nouvelle méthode pour évaluer le triple gain de redondance basée sur la performance des cibles doublement redondantes. Le modèle de cascade est présenté afin d’expliquer les résultats de cette étude. Ce modèle comporte plusieurs voies de traitement qui sont déclenchées par une cascade d’activations avant de satisfaire un seul critère de décision. Il offre une approche homogène aux recherches antérieures sur le gain de redondance. L’analyse des caractéristiques des distributions de temps de réponse, soit leur moyenne, leur symétrie, leur décalage ou leur étendue, est un outil essentiel pour cette étude. Il était important de trouver un test statistique capable de refléter les différences au niveau de toutes ces caractéristiques. Nous abordons la problématique d’analyser les temps de réponse sans perte d’information, ainsi que l’insuffisance des méthodes d’analyse communes dans ce contexte, comme grouper les temps de réponses de plusieurs participants (e. g. Vincentizing). Les tests de distributions, le plus connu étant le test de Kolmogorov- Smirnoff, constituent une meilleure alternative pour comparer des distributions, celles des temps de réponse en particulier. Un test encore inconnu en psychologie est introduit : le test d’Anderson-Darling à deux échantillons. Les deux tests sont comparés, et puis nous présentons des indices concluants démontrant la puissance du test d’Anderson-Darling : en comparant des distributions qui varient seulement au niveau de (1) leur décalage, (2) leur étendue, (3) leur symétrie, ou (4) leurs extrémités, nous pouvons affirmer que le test d’Anderson-Darling reconnait mieux les différences. De plus, le test d’Anderson-Darling a un taux d’erreur de type I qui correspond exactement à l’alpha tandis que le test de Kolmogorov-Smirnoff est trop conservateur. En conséquence, le test d’Anderson-Darling nécessite moins de données pour atteindre une puissance statistique suffisante.
Resumo:
Les systèmes de gestion intégrée en environnement et en santé et sécurité du travail (SGI) sont un nouveau paradigme de gestion dans les organisations modernes. Ces systèmes sont construits à partir des normes ISO 14001 et d’OHSAS 18001, basées sur la prévention des risques et le principe de précaution. La littérature sur les SGI témoigne d’un marasme conceptuel prédominant depuis plus de 10 ans; elle insiste sur l’urgence d’un consensus taxinomique et conceptuel afin de définir les systèmes de gestion intégrée et de différencier le mécanisme d’intégration de celui de l’implantation. Cette lacune conceptuelle enlise les connaissances dans un fossé épistémologique, retardant ainsi le débat dans ce nouveau champ d’études. Les rares connaissances dont nous disposons dans ce domaine proviennent de quelques études théoriques et de six études empiriques, toutes préoccupées par la compatibilité des multiples systèmes et des avantages économiques de leur intégration. Les évidences engendrées par ces études sont insuffisantes pour appréhender la dynamique du nouveau paradigme dont les effets demeurent peu connus. Cette situation révèle l’urgence d’agir dans un contexte où l’utilisation des SGI se multiplie, et où leur tendance à minimiser l’importance des risques devient de plus en plus préoccupante. Aucune étude ne s’est encore penchée sur l’implantation d’un SGI en environnement et en santé et sécurité du travail construit uniquement à partir des normes ISO 14001 et d’OHSAS 18001. Cette connaissance est importante pour expliquer les effets de tels systèmes. C’est dans cette perspective que nous avons réalisé cette première étude empirique d’un SGI selon les normes ISO 14001 et d’OHSAS 18001. Nos questions de recherche portent sur le mode, le degré d’implantation, les effets du SGI, ainsi que sur les facteurs contextuels qui interviennent pour expliquer les variations dans le degré d’implantation et les effets du SGI. Il s’agit d’une recherche à prélèvement qualitatif qui repose sur un devis d’étude de cas, avec des niveaux d’analyse imbriqués, et comportant une double visée descriptive et explicative. Notre échantillon, de type raisonné, regroupait trente-cinq intervenants provenant de différentes instances hiérarchiques ; il incluait également des représentants syndicaux. Notre échantillon était composé de 7 usines, accréditées aux normes ISO 14001, OHSAS 18001, et dispersées dans différentes villes du Québec. Ces usines différaient tant par leur technologie, leur âge, leur taille, et leurs types de production. Nos données ont été recueillies en 2004; elles sont basées sur des entrevues semi dirigées, sur des observations directes lors de la visite des lieux; elles s’appuient aussi sur des consultations de documents internes et sur des outils électroniques implantés. La transcription des entrevues effectuée, le contenu des discours a été catégorisé selon les cinq dimensions du SGI: engagement, planification, mise en opération, contrôle et revue de la direction. Une condensation horizontale avait précédé l’analyse de chaque cas et l’analyse transversale des cas selon une approche à la fois inductive et déductive. Les résultats de notre recherche ont révélé deux modes d’implantation : le mode d’enrichissement et le mode de fusion. Ces modes dépendaient de la nature des structures fonctionnelles en place. La visée d’amélioration continue à la base du SGI n’avait pas réussi à concilier les approches traditionnelles bottom up et top down qui ont dominé cette implantation; son mécanisme était guidé par 4 types de stratégies : l’économie des ressources, le contrôle des forces d’influences, la stratégie des fruits faciles à cueillir et la stratégie à petits pas. Pour analyser le degré d’implantation, nous avons tenu compte de l’effort de structuration du SGI et de la force d’utilisation des processus implantés à chacune des cinq dimensions du SGI. Les résultats de notre recherche révèlent une variabilité certaine du degré d’implantation entre les usines d’une part, et entre les processus associés aux cinq dimensions du SGI d’autre part. L’analyse des discours a permis de produire cinq hypothèses qui soutiennent l’effort de structuration et la force d’utilisation du SGI: (i) l’hypothèse de la force de cohésion, (ii) l’hypothèse de la spécificité du processus, (iii) l’hypothèse de la portée du processus, (iv) l’hypothèse de la capacité organisationnelle, (v) l’hypothèse de l’acceptation du changement. L’implantation du SGI était soumise à l’influence de multiples facteurs; ils étaient de nature politique, structurelle et organisationnelle. Ces facteurs avaient agi sur le processus d’implantation en amorçant une cascade d’interactions au cours desquelles leurs forces d’influences se renforçaient, se neutralisaient ou s’additionnaient pour affecter le degré d’implantation. Les facteurs facilitant touchaient surtout l’effort de structuration ; ils incluaient : l’expérience des systèmes de gestion, l’implication de la direction, celle du syndicat ou du CSS, la structure organisationnelle, le niveau d’éducation, l’âge et la taille de l’usine. Quant aux facteurs contraignants, ils agissaient sur la force d’utilisation ; ils incluaient : la lourdeur procédurale, le manque de temps, le manque de formation, le manque de ressources, la culture organisationnelle, la structure organisationnelle, le fossé intergénérationnel, l’absence du syndicat et l’âge de l’usine. Trois effets proximaux escomptés par l’entreprise ont été observés. (i) La rigueur de la gestion était associée à l’application des exigences du SGI; elle touchait la gouvernance en environnement et en santé et sécurité du travail, les mécanismes de gestion et les procédés de production. (ii) La standardisation était reliée au mode d’implantation du SGI; elle concernait les pratiques, les outils, les méthodes de travail et l’organisation des ressources. (iii) La rupture des silos est un effet relié au mode d’implantation du SGI; elle touchait les structures départementales, les frontières professionnelles, les relations et climat de travail. Ces effets proximaux avaient provoqué plusieurs effets émergents, plus distaux: une augmentation du pouvoir de contrôle syndical, un renforcement de la légitimité des recommandations soumises par les spécialistes professionnels, la création de réseaux inter organisationnels et le transfert du savoir. L’implantation du SGI avait transformé la gouvernance et les pratiques en environnement et en santé et sécurité du travail dans les sept usines. Toutefois, elle ne semblait pas garantir l’immunité du processus de gestion des risques à l’environnement ni à la santé et sécurité du travail. Sa capacité à diluer les risques devait retenir l’attention des politiques de santé publiques et des programmes de prévention des risques à l’environnement et à la santé et sécurité du travail. L’amélioration de la gestion des risques demeurait un effet attendu non observé et soumis à des facteurs contextuels qui pourraient l’empêcher de se concrétiser. À cet égard, le transfert du savoir, renforcé par l’émergence des réseaux inter organisationnels, semblait offrir une avenue beaucoup plus prometteuse et accessible. C’est l’une des contributions de cette recherche. Elle a aussi (i) proposé une typologie des modes d’implantation et des effets du SGI (ii) préconisé une méthode détaillée d’une meilleure appréciation du degré d’implantation (iii) précisé le rôle des facteurs contextuels dans l’explication des variations du degré d’implantation et dans la production des effets, (iv) proposé des hypothèses sur la structuration et l’utilisation du SGI (v) offert une perspective plurielle et approfondie de la dynamique de l’implantation du SGI grâce à la variété de l’échantillon des répondants et des usines. Il s’agit de la première étude de terrain dans le domaine. À notre connaissance, aucune autre étude n’a eu de tels résultats. Mots Clés : ISO 14001, OHSAS 18001, gestion intégrée, environnement, santé et sécurité du travail, risques environnementaux, risques en santé et sécurité du travail, analyse d’implantation, degré d’implantation, SGI, transfert du savoir.
Resumo:
Il est reconnu que le benzène, le toluène, l’éthylbenzène et les isomères du xylène, composés organiques volatils (COVs) communément désignés BTEX, produisent des effets nocifs sur la santé humaine et sur les végétaux dépendamment de la durée et des niveaux d’exposition. Le benzène en particulier est classé cancérogène et une exposition à des concentrations supérieures à 64 g/m3 de benzène peut être fatale en 5–10 minutes. Par conséquent, la mesure en temps réel des BTEX dans l’air ambiant est essentielle pour détecter rapidement un danger associé à leur émission dans l’air et pour estimer les risques potentiels pour les êtres vivants et pour l’environnement. Dans cette thèse, une méthode d’analyse en temps réel des BTEX dans l’air ambiant a été développée et validée. La méthode est basée sur la technique d’échantillonnage direct de l’air couplée avec la spectrométrie de masse en tandem utilisant une source d’ionisation chimique à pression atmosphérique (APCI-MS/MS directe). La validation analytique a démontré la sensibilité (limite de détection LDM 1–2 μg/m3), la précision (coefficient de variation CV < 10%), l’exactitude (exactitude > 95%) et la sélectivité de la méthode. Des échantillons d’air ambiant provenant d’un site d’enfouissement de déchets industriels et de divers garages d’entretien automobile ont été analysés par la méthode développée. La comparaison des résultats avec ceux obtenus par la technique de chromatographie gazeuse on-line couplée avec un détecteur à ionisation de flamme (GC-FID) a donné des résultats similaires. La capacité de la méthode pour l’évaluation rapide des risques potentiels associés à une exposition aux BTEX a été prouvée à travers une étude de terrain avec analyse de risque pour la santé des travailleurs dans trois garages d’entretien automobile et par des expériences sous atmosphères simulées. Les concentrations mesurées dans l’air ambiant des garages étaient de 8,9–25 µg/m3 pour le benzène, 119–1156 µg/m3 pour le toluène, 9–70 µg/m3 pour l’éthylbenzène et 45–347 µg/m3 pour les xylènes. Une dose quotidienne environnementale totale entre 1,46 10-3 et 2,52 10-3 mg/kg/jour a été déterminée pour le benzène. Le risque de cancer lié à l’exposition environnementale totale au benzène estimé pour les travailleurs étudiés se situait entre 1,1 10-5 et 1,8 10-5. Une nouvelle méthode APCI-MS/MS a été également développée et validée pour l’analyse directe de l’octaméthylcyclotétrasiloxane (D4) et le décaméthylcyclopentasiloxane (D5) dans l’air et les biogaz. Le D4 et le D5 sont des siloxanes cycliques volatils largement utilisés comme solvants dans les processus industriels et les produits de consommation à la place des COVs précurseurs d’ozone troposphérique tels que les BTEX. Leur présence ubiquitaire dans les échantillons d’air ambiant, due à l’utilisation massive, suscite un besoin d’études de toxicité. De telles études requièrent des analyses qualitatives et quantitatives de traces de ces composés. Par ailleurs, la présence de traces de ces substances dans un biogaz entrave son utilisation comme source d’énergie renouvelable en causant des dommages coûteux à l’équipement. L’analyse des siloxanes dans un biogaz s’avère donc essentielle pour déterminer si le biogaz nécessite une purification avant son utilisation pour la production d’énergie. La méthode développée dans cette étude possède une bonne sensibilité (LDM 4–6 μg/m3), une bonne précision (CV < 10%), une bonne exactitude (> 93%) et une grande sélectivité. Il a été également démontré qu’en utilisant cette méthode avec l’hexaméthyl-d18-disiloxane comme étalon interne, la détection et la quantification du D4 et du D5 dans des échantillons réels de biogaz peuvent être accomplies avec une meilleure sensibilité (LDM ~ 2 μg/m3), une grande précision (CV < 5%) et une grande exactitude (> 97%). Une variété d’échantillons de biogaz prélevés au site d’enfouissement sanitaire du Complexe Environnemental de Saint-Michel à Montréal a été analysée avec succès par cette nouvelle méthode. Les concentrations mesurées étaient de 131–1275 µg/m3 pour le D4 et 250–6226 µg/m3 pour le D5. Ces résultats représentent les premières données rapportées dans la littérature sur la concentration des siloxanes D4 et D5 dans les biogaz d’enfouissement en fonction de l’âge des déchets.