1000 resultados para Paramètres atmosphériques
Resumo:
Les données manquantes sont fréquentes dans les enquêtes et peuvent entraîner d’importantes erreurs d’estimation de paramètres. Ce mémoire méthodologique en sociologie porte sur l’influence des données manquantes sur l’estimation de l’effet d’un programme de prévention. Les deux premières sections exposent les possibilités de biais engendrées par les données manquantes et présentent les approches théoriques permettant de les décrire. La troisième section porte sur les méthodes de traitement des données manquantes. Les méthodes classiques sont décrites ainsi que trois méthodes récentes. La quatrième section contient une présentation de l’Enquête longitudinale et expérimentale de Montréal (ELEM) et une description des données utilisées. La cinquième expose les analyses effectuées, elle contient : la méthode d’analyse de l’effet d’une intervention à partir de données longitudinales, une description approfondie des données manquantes de l’ELEM ainsi qu’un diagnostic des schémas et du mécanisme. La sixième section contient les résultats de l’estimation de l’effet du programme selon différents postulats concernant le mécanisme des données manquantes et selon quatre méthodes : l’analyse des cas complets, le maximum de vraisemblance, la pondération et l’imputation multiple. Ils indiquent (I) que le postulat sur le type de mécanisme MAR des données manquantes semble influencer l’estimation de l’effet du programme et que (II) les estimations obtenues par différentes méthodes d’estimation mènent à des conclusions similaires sur l’effet de l’intervention.
Resumo:
Avec la hausse mondiale de la fréquence des floraisons de cyanobactéries (CB), dont certaines produisent des cyanotoxines (CT), le développement d’une méthode de détection/quantification rapide d’un maximum de CT s’impose. Cette méthode permettrait de faire un suivi quotidien de la toxicité de plans d’eau contaminés par des CB et ainsi d’émettre rapidement des avis d’alerte appropriés afin de protéger la santé publique. Une nouvelle technologie utilisant la désorption thermique induite par diode laser (LDTD) couplée à l’ionisation chimique sous pression atmosphérique (APCI) et reliée à la spectrométrie de masse en tandem (MS/MS) a déjà fait ses preuves avec des temps d'analyse de l’ordre de quelques secondes. Les analytes sont désorbés par la LDTD, ionisés en phase gazeuse par APCI et détectés par la MS/MS. Il n’y a donc pas de séparation chromatographique, et la préparation de l’échantillon avant l’analyse est minimale selon la complexité de la matrice contenant les analytes. Parmi les quatre CT testées (microcystine-LR, cylindrospermopsine, saxitoxine et anatoxine-a (ANA-a)), seule l’ANA-a a généré une désorption significative nécessaire au développement d’une méthode analytique avec l’interface LDTD-APCI. La forte polarité ou le poids moléculaire élevé des autres CT empêche probablement leur désorption. L’optimisation des paramètres instrumentaux, tout en tenant compte de l’interférence isobarique de l’acide aminé phénylalanine (PHE) lors de la détection de l’ANA-a par MS/MS, a généré une limite de détection d’ANA-a de l’ordre de 1 ug/L. Celle-ci a été évaluée à partir d’une matrice apparentée à une matrice réelle, démontrant qu’il serait possible d’utiliser la LDTD pour effectuer le suivi de l’ANA-a dans les eaux naturelles selon les normes environnementales applicables (1 à 12 ug/L). Il a été possible d’éviter l’interférence isobarique de la PHE en raison de sa très faible désorption avec l’interface LDTD-APCI. En effet, il a été démontré qu’une concentration aussi élevée que 500 ug/L de PHE ne causait aucune interférence sur le signal de l’ANA-a.
Resumo:
La neurogenèse persiste à l’âge adulte dans deux régions du système nerveux central (SNC) des mammifères : la zone sous-ventriculaire (SVZ) du cerveau antérieur et la zone sous-granulaire (SGZ) de l’hippocampe. Cette neurogenèse est possible grâce à la capacité de prolifération des cellules souches présentes dans les niches de la SVZ et la SGZ, mais en vieillissant, le cerveau subit une diminution dramatique du nombre de cellules souches neurales adultes (CSNa), une diminution de la prolifération cellulaire et une altération des niches de neurogenèse. Cependant, une importante question reste sans réponse : comment la perte tardive des CSNa est temporellement reliée aux changements de l’activité de prolifération et de la structure de la principale niche de neurogenèse (la SVZ)? Afin d’avoir un aperçu sur les événements initiaux, nous avons examiné les changements des CSNa et de leur niche dans la SVZ entre le jeune âge et l’âge moyen. La niche de la SVZ des souris d’âge moyen (12 mois) subit une réduction de l’expression des marqueurs de plusieurs sous-populations de précurseurs neuraux en comparaison avec les souris jeunes adultes (2 mois). Anatomiquement, cela est associé avec des anomalies cytologiques, incluant une atrophie générale de la SVZ, une perte de la couche de cellules sousépendymaires par endroit et l’accumulation de gouttelettes lipidiques de grande taille dans l’épendyme. Fonctionnellement, ces changements sont corrélés avec une diminution de l’activité de la SVZ et une réduction du nombre de nouveaux neurones arrivant aux bulbes olfactifs. Pour déterminer si les CSNa de la SVZ ont subi des changements visibles, nous avons évalué les paramètres clés des CSNa in vivo et in vitro. La culture cellulaire montre qu’un nombre équivalent de CSNa ayant la capacité de former des neurosphères peut être isolé du cerveau du jeune adulte et d’âge moyen. Cependant, à l’âge moyen, les précurseurs neuraux semblent moins sensibles aux facteurs de croissance durant leur différenciation in vitro. Les CSNa donnent des signes de latence in vivo puisque leur capacité d’incorporation et de rétention du BrdU diminue. Ensemble, ces données démontrent que, tôt dans le processus du vieillissement, les CSNa et leur niche dans la SVZ subissent des changements significatifs, et suggèrent que la perte de CSNa liée au vieillissement est secondaire à ces événements.
Resumo:
Souvent laissée pour contre par les théoriciens, longtemps associée à la littérature populaire, la littérature fantastique a su depuis se tailler une place parmi les grands genres de la littérature. Depuis le milieu du XXe siècle, les chercheurs et le public découvrent ou redécouvrent un genre qui a toujours fait parti du paysage littéraire. Une œuvre majeure contribuera à la redécouverte scientifique du genre : Écrite en 1970 l’œuvre de Tzvetan Todorov Introduction à la littérature fantastique donne tant au néophyte qu’au chercheur un ouvrage qui trouve encore des échos aujourd’hui. Sa définition du fantastique, son approche du rôle du narrateur et du lecteur sont une référence, un point de départ et surtout un incontournable pour ceux et celles qui désirent comprendre et apprendre le fantastique. Dans ce mémoire, nous nous concentrerons particulièrement sur le rôle et la problématique du narrateur dans l’œuvre de deux représentants majeurs de la littérature fantastique de langue allemande du début du XXe siècle : Leo Perutz (1882-1957) et Alexander Lernet-Holenia (1897-1976). Le narrateur semble jouer un rôle prédominant dans la littérature fantastique. En effet, par son discours souvent présenté au « je », il semble créer une dynamique très particulière : il manipule son propre discours, il agit sur le lecteur en étant narrateur et personnage dans le récit, il crée une tension entre les différentes couches narratives par son état instable. Bref, il semble contribuer à l’apparition du fantastique dans le texte et également provoquer une certaine hésitation chez le lecteur. Le texte joue également un rôle : Leo Perutz produit un modèle de texte qui semble marquer aussi son collègue Alexander Lernet-Holenia. La structure presque mathématique des textes de Perutz rappelle que le fantastique peut jouer même à l’intérieur de paramètres rigides avec l’ordre et le chaos, les frontières entre le réel et le rêve. Nous étudierons des œuvres de Leo Perutz et d’Alexander Lernet-Holenia qui ont été publiées entre 1915 et 1937. Les théories qui serviront à appuyer mon travail sont tirées entre autre des études de Tzvetan Todorov et Uwe Durst sur la littérature fantastique et de Gérard Genette sur le narrateur.
Resumo:
Les séquences protéiques naturelles sont le résultat net de l’interaction entre les mécanismes de mutation, de sélection naturelle et de dérive stochastique au cours des temps évolutifs. Les modèles probabilistes d’évolution moléculaire qui tiennent compte de ces différents facteurs ont été substantiellement améliorés au cours des dernières années. En particulier, ont été proposés des modèles incorporant explicitement la structure des protéines et les interdépendances entre sites, ainsi que les outils statistiques pour évaluer la performance de ces modèles. Toutefois, en dépit des avancées significatives dans cette direction, seules des représentations très simplifiées de la structure protéique ont été utilisées jusqu’à présent. Dans ce contexte, le sujet général de cette thèse est la modélisation de la structure tridimensionnelle des protéines, en tenant compte des limitations pratiques imposées par l’utilisation de méthodes phylogénétiques très gourmandes en temps de calcul. Dans un premier temps, une méthode statistique générale est présentée, visant à optimiser les paramètres d’un potentiel statistique (qui est une pseudo-énergie mesurant la compatibilité séquence-structure). La forme fonctionnelle du potentiel est par la suite raffinée, en augmentant le niveau de détails dans la description structurale sans alourdir les coûts computationnels. Plusieurs éléments structuraux sont explorés : interactions entre pairs de résidus, accessibilité au solvant, conformation de la chaîne principale et flexibilité. Les potentiels sont ensuite inclus dans un modèle d’évolution et leur performance est évaluée en termes d’ajustement statistique à des données réelles, et contrastée avec des modèles d’évolution standards. Finalement, le nouveau modèle structurellement contraint ainsi obtenu est utilisé pour mieux comprendre les relations entre niveau d’expression des gènes et sélection et conservation de leur séquence protéique.
Resumo:
La cartographie peptidique est une méthode qui permet entre autre d’identifier les modifications post-traductionnelles des protéines. Elle comprend trois étapes : 1) la protéolyse enzymatique, 2) la séparation par électrophorèse capillaire (CE) ou chromatographie en phase liquide à haute performance (HPLC) des fragments peptidiques et 3) l’identification de ces derniers. Cette dernière étape peut se faire par des méthodes photométriques ou par spectrométrie de masse (MS). Au cours de la dernière décennie, les enzymes protéolytiques immobilisées ont acquis une grande popularité parce qu’elles peuvent être réutilisées et permettent une digestion rapide des protéines due à un rapport élevé d’enzyme/substrat. Pour étudier les nouvelles techniques d’immobilisation qui ont été développées dans le laboratoire du Professeur Waldron, la cartographie peptidique par CE est souvent utilisée pour déterminer le nombre total de peptides détectés et leurs abondances. La CE nous permet d’avoir des séparations très efficaces et lorsque couplée à la fluorescence induite par laser (LIF), elle donne des limites de détection qui sont 1000 fois plus basses que celles obtenues avec l’absorbance UV-Vis. Dans la méthode typique, les peptides venant de l’étape 1) sont marqués avec un fluorophore avant l’analyse par CE-LIF. Bien que la sensibilité de détection LIF puisse approcher 10-12 M pour un fluorophore, la réaction de marquage nécessite un analyte dont la concentration est d’au moins 10-7 M, ce qui représente son principal désavantage. Donc, il n’est pas facile d’étudier les enzymes des peptides dérivés après la protéolyse en utilisant la technique CE-LIF si la concentration du substrat protéique initial est inférieure à 10-7 M. Ceci est attribué à la dilution supplémentaire lors de la protéolyse. Alors, afin d’utiliser le CE-LIF pour évaluer l’efficacité de la digestion par enzyme immobilisée à faible concentration de substrat,nous proposons d’utiliser des substrats protéiques marqués de fluorophores pouvant être purifiés et dilués. Trois méthodes de marquage fluorescent de protéine sont décrites dans ce mémoire pour étudier les enzymes solubles et immobilisées. Les fluorophores étudiés pour le marquage de protéine standard incluent le naphtalène-2,3-dicarboxaldéhyde (NDA), la fluorescéine-5-isothiocyanate (FITC) et l’ester de 6-carboxyfluorescéine N-succinimidyl (FAMSE). Le FAMSE est un excellent réactif puisqu’il se conjugue rapidement avec les amines primaires des peptides. Aussi, le substrat marqué est stable dans le temps. Les protéines étudiées étaient l’-lactalbumine (LACT), l’anhydrase carbonique (CA) et l’insuline chaîne B (INB). Les protéines sont digérées à l’aide de la trypsine (T), la chymotrypsine (CT) ou la pepsine (PEP) dans leurs formes solubles ou insolubles. La forme soluble est plus active que celle immobilisée. Cela nous a permis de vérifier que les protéines marquées sont encore reconnues par chaque enzyme. Nous avons comparé les digestions des protéines par différentes enzymes telles la chymotrypsine libre (i.e., soluble), la chymotrypsine immobilisée (i.e., insoluble) par réticulation avec le glutaraldéhyde (GACT) et la chymotrypsine immobilisée sur billes d’agarose en gel (GELCT). Cette dernière était disponible sur le marché. Selon la chymotrypsine utilisée, nos études ont démontré que les cartes peptidiques avaient des différences significatives selon le nombre de pics et leurs intensités correspondantes. De plus, ces études nous ont permis de constater que les digestions effectuées avec l’enzyme immobilisée avaient une bonne reproductibilité. Plusieurs paramètres quantitatifs ont été étudiés afin d’évaluer l’efficacité des méthodes développées. La limite de détection par CE-LIF obtenue était de 3,010-10 M (S/N = 2,7) pour la CA-FAM digérée par GACT et de 2,010-10 M (S/N = 4,3) pour la CA-FAM digérée par la chymotrypsine libre. Nos études ont aussi démontrées que la courbe d’étalonnage était linéaire dans la région de travail (1,0×10-9-1,0×10-6 M) avec un coefficient de corrélation (R2) de 0,9991.
Resumo:
Cette étude vise à évaluer l’impact de l’état nutritionnel et de son évolution durant l’attente d’une transplantation pulmonaire sur la mortalité et la morbidité postopératoire. Nous avons examiné les 209 dossiers de patients greffés pulmonaires au Programme de Transplantation Pulmonaire du CHUM entre 2000 et 2007 et regardé la mortalité et les complications post-transplantation en fonction de l’IMC, des apports protéino-énergétiques, de certains paramètres biochimiques et selon l’évolution pondérale durant la période d’attente. Les résultats montrent que la mortalité augmente en fonction de l’augmentation des strates d’IMC avec un risque relatif de décès au cours du séjour hospitalier de 3,31 (IC95% 1,19-9,26) pour un IMC 25-29,9 et de 8,83 (IC95% 2,98-26,18) pour un IMC ≥ 30 avec une issue postopératoire plus sombre en terme de complications chirurgicales (p=0,003), de durée de séjour aux soins intensifs (p=0,031) et de durée de séjour à l’hôpital (p<0,001) chez les patients avec IMC ≥ 30 comparativement aux patients de poids normal. Les patients ayant présenté une évolution inadéquate de l’IMC durant la période d’attente ont connu une durée de séjour hospitalier prolongée (p=0,015). Ceux dont les apports nutritionnels étaient sous-optimaux en pré-greffe ont aussi connu une durée de séjour hospitalier prolongée (p=0,002) et davantage de complications infectieuses (p=0,038), digestives (p=0,003) et chirurgicales (p=0,029) mais sans impact détectable sur la mortalité. Nos résultats suggèrent que l’obésité et l’embonpoint ainsi qu’une évolution inadéquate de l’IMC durant la période d’attente de même que des apports protéino-énergétiques sous-optimaux affectent négativement l’issue d’une transplantation pulmonaire.
Resumo:
La proprotéine convertase subtilisine/kexine-9 (PCSK9) a été identifiée comme le troisième locus impliqué dans l’hypercholestérolémie autosome dominante (ADH). Les deux autres gènes impliqués dans l’ADH encodent le récepteur des lipoprotéines de faible densité (LDLR) et l’apolipoprotéine B. La PCSK9 est une convertase qui favorise la dégradation du LDLR dans les hépatocytes et augmente le niveau plasmatique de cholestérol des LDL (LDL-C). Les mutations « gain de fonction » de la PCSK9 sont associées à un phénotype d’hypercholestérolémie familiale, tandis que les variantes « perte de fonction » sont associées à un LDL-C réduit et à un risque coronarien plus faible. Pour élucider le rôle physiologique de la PCSK9, nous avons étudié sa régulation génique. En utilisant le RT-PCR quantitatif dans des hépatocytes humains, nous avons analysé la régulation de PCSK9 sous différentes conditions modulant l’expression des gènes impliqués dans le métabolisme du cholestérol. Nous avons démontré que l’expression de la PCSK9 était induite par les statines de manière dose-dépendante et que cette induction était abolie par le mévalonate. De plus, le promoteur de PCSK9 contenait deux motifs conservés pour la régulation par le cholestérol : le sterol regulatory element (SRE) et un site Sp1. La PCSK9 circule dans le plasma sous des formes mature et clivée par la furine. Grâce à notre anticorps polyclonal, nous avons mis au point un test ELISA mesurant la PCSK9 plasmatique totale. Une étude transversale a évalué les concentrations plasmatiques de PCSK9 chez des sujets sains et hypercholestérolémiques, traités ou non par des statines ou une combinaison statine/ezetimibe. Chez 254 sujets sains, la valeur moyenne de PCSK9 (écart-type) était de 89,5 (31,9) µg/L. La concentration plasmatique de la PCSK9 corrélait avec celle de cholestérol total, du LDL-C, des triglycérides (TG), de la glycémie à jeun, l’âge et l’indice de masse corporelle. Le séquençage de PCSK9 chez des sujets aux extrêmes de la distribution des concentrations de PCSK9 de notre cohorte a révélé la présence d’une nouvelle variation « perte de fonction » : R434W. Chez 200 patients hypercholestérolémiques, la concentration de PCSK9 était plus élevée que chez les sujets sains (P<0,04). Elle a augmenté avec une dose croissante de statine (P<0,001), et a augmenté encore plus suite à l’ajout d’ezetimibe (P<0,001). Chez les patients traités, ceux présentant une hypercholestérolémie familiale (HF; due à une mutation du LDLR) avaient des concentrations plus élevées de PCSK9 que les non-HF (P<0,005), et la réduction de LDL-C corrélait positivement avec la concentration de PCSK9 atteinte de la même manière dans les deux sous-catégories (P<0,02 et P<0,005, respectivement). Par ailleurs, une incubation des cellules HepG2 (hépatocytes) et Caco-2 (entérocytes) avec de l’ezetimibe a provoqué une augmentation de l’ARNm de PCSK9 et de NPC1L1 de 1,5 à 2 fois (P<0,05), mais aucune variation significative de PCSK9 sécrétée n’a été observée, suggérant que ces lignées cellulaires ne sont pas un modèle idéal. Nous avons également mesuré le niveau de PCSK9 chez 1 739 Canadiens-français âgés de 9, 13 et 16 ans. La valeur moyenne (écart-type) de PCSK9 dans cette cohorte était de 84,7 (24,7) µg/L, légèrement plus basse que dans la cohorte d’adultes (89,5 (31,9) µg/L). Chez les garçons, la PCSK9 circulante diminuait avec l’âge, tandis que c’était l’inverse chez les filles. Il y avait des associations positives et significatives entre la PCSK9 et la glycémie à jeun, l’insulinémie, le HOMA-IR, et les paramètres lipidiques (TC, LDL-C, TG, HDL-C, apoAI et apoB). Dans l’analyse multivariée, une hausse de 10% de l’insulinémie à jeun était associée à une augmentation de 1 à 2% de PCSK9. La régulation de PCSK9 est typique de celle d’un gène impliqué dans le métabolisme des lipoprotéines et est probablement la cible du facteur de transcription «sterol regulatory element-binding protein » (SREBP-2). La concentration plasmatique de la PCSK9 est associée avec l’âge, le sexe, et de multiples marqueurs métaboliques chez les enfants et les adultes. La détection de la PCSK9 circulante chez les sujets HF et non-HF signifie que ce test ELISA spécifique à PCSK9 pourrait servir à suivre la réponse à la thérapie chez un grand éventail de sujets. PCSK9 semble être une cible thérapeutique prometteuse dans le traitement de l’hypercholestérolémie et de la maladie cardiovasculaire.
Resumo:
L'hétérogénéité de réponses dans un groupe de patients soumis à un même régime thérapeutique doit être réduite au cours d'un traitement ou d'un essai clinique. Deux approches sont habituellement utilisées pour atteindre cet objectif. L'une vise essentiellement à construire une observance active. Cette approche se veut interactive et fondée sur l'échange ``médecin-patient '', ``pharmacien-patient'' ou ``vétérinaire-éleveurs''. L'autre plutôt passive et basée sur les caractéristiques du médicament, vise à contrôler en amont cette irrégularité. L'objectif principal de cette thèse était de développer de nouvelles stratégies d'évaluation et de contrôle de l'impact de l'irrégularité de la prise du médicament sur l'issue thérapeutique. Plus spécifiquement, le premier volet de cette recherche consistait à proposer des algorithmes mathématiques permettant d'estimer efficacement l'effet des médicaments dans un contexte de variabilité interindividuelle de profils pharmacocinétiques (PK). Cette nouvelle méthode est fondée sur l'utilisation concommitante de données \textit{in vitro} et \textit{in vivo}. Il s'agit de quantifier l'efficience ( c-à-dire efficacité plus fluctuation de concentrations \textit{in vivo}) de chaque profil PK en incorporant dans les modèles actuels d'estimation de l'efficacité \textit{in vivo}, la fonction qui relie la concentration du médicament de façon \textit{in vitro} à l'effet pharmacodynamique. Comparativement aux approches traditionnelles, cette combinaison de fonction capte de manière explicite la fluctuation des concentrations plasmatiques \textit{in vivo} due à la fonction dynamique de prise médicamenteuse. De plus, elle soulève, à travers quelques exemples, des questions sur la pertinence de l'utilisation des indices statiques traditionnels ($C_{max}$, $AUC$, etc.) d'efficacité comme outil de contrôle de l'antibiorésistance. Le deuxième volet de ce travail de doctorat était d'estimer les meilleurs temps d'échantillonnage sanguin dans une thérapie collective initiée chez les porcs. Pour ce faire, nous avons développé un modèle du comportement alimentaire collectif qui a été par la suite couplé à un modèle classique PK. À l'aide de ce modèle combiné, il a été possible de générer un profil PK typique à chaque stratégie alimentaire particulière. Les données ainsi générées, ont été utilisées pour estimer les temps d'échantillonnage appropriés afin de réduire les incertitudes dues à l'irrégularité de la prise médicamenteuse dans l'estimation des paramètres PK et PD . Parmi les algorithmes proposés à cet effet, la méthode des médianes semble donner des temps d'échantillonnage convenables à la fois pour l'employé et pour les animaux. Enfin, le dernier volet du projet de recherche a consisté à proposer une approche rationnelle de caractérisation et de classification des médicaments selon leur capacité à tolérer des oublis sporadiques. Méthodologiquement, nous avons, à travers une analyse globale de sensibilité, quantifié la corrélation entre les paramètres PK/PD d'un médicament et l'effet d'irrégularité de la prise médicamenteuse. Cette approche a consisté à évaluer de façon concomitante l'influence de tous les paramètres PK/PD et à prendre en compte, par la même occasion, les relations complexes pouvant exister entre ces différents paramètres. Cette étude a été réalisée pour les inhibiteurs calciques qui sont des antihypertenseurs agissant selon un modèle indirect d'effet. En prenant en compte les valeurs des corrélations ainsi calculées, nous avons estimé et proposé un indice comparatif propre à chaque médicament. Cet indice est apte à caractériser et à classer les médicaments agissant par un même mécanisme pharmacodynamique en terme d'indulgence à des oublis de prises médicamenteuses. Il a été appliqué à quatre inhibiteurs calciques. Les résultats obtenus étaient en accord avec les données expérimentales, traduisant ainsi la pertinence et la robustesse de cette nouvelle approche. Les stratégies développées dans ce projet de doctorat sont essentiellement fondées sur l'analyse des relations complexes entre l'histoire de la prise médicamenteuse, la pharmacocinétique et la pharmacodynamique. De cette analyse, elles sont capables d'évaluer et de contrôler l'impact de l'irrégularité de la prise médicamenteuse avec une précision acceptable. De façon générale, les algorithmes qui sous-tendent ces démarches constitueront sans aucun doute, des outils efficients dans le suivi et le traitement des patients. En outre, ils contribueront à contrôler les effets néfastes de la non-observance au traitement par la mise au point de médicaments indulgents aux oublis
Resumo:
La substitution est une méthode de prévention primaire qui permet l’élimination à la source des dangers pour les travailleurs. Une des étapes de la démarche est la comparaison des options afin de procéder au choix final. Divers indices de comparaison, basés sur des paramètres physicochimiques, sanitaires et environnementaux des substances, permettent de guider ce choix. Toutefois, aucune évaluation de ces indices n’a été effectuée dans le cas de la substitution des solvants. Une recherche de développement a été entreprise afin de proposer une méthodologie améliorée de comparaison des solvants. La démarche d’analyse de substitution et la comparaison des options de remplacement à l’aide du rapport de danger de vapeur (« Vapour Hazard Ratio », VHR) ont été appliquées à un cas réel de substitution de solvants en entreprise. Trois indices de potentiel de surexposition (IPS) (VHR, « Måleteknisk Arbejdshygiejnisk Luftbehov » (MAL) et « SUBstitution FACtor » (SUBFAC)) et trois indices globaux de hiérarchisation des dangers (indice air (ψiair), « Indiana Relative Chemical Hazard Score » (IRCHS) et « Final Hazard Score » (FHS)) ont été évalués et comparés à partir de listes de 56 et 67 solvants respectivement. La problématique de la non-idéalité des mélanges a aussi été considérée par rapport aux IPS par l’évaluation et la comparaison de 50 mélanges de solvant. Une méthodologie d’établissement d’une valeur limite d’exposition (VLE), pour les solvants n’en possédant pas, a été développée par modélisation de type relations quantitatives propriété-propriété (QPPR). La modélisation QPPR des VLE, effectuée sur une liste de 88 solvants possédant une VLE, a été effectuée à partir des coefficients de partage octanol:air, octanol:eau, sang:air et des constantes métaboliques. L’étude de cas a montré que l’utilisation du VHR facilitait la comparaison des options, bien qu’elle puisse se heurter à l’absence de VLE. Les indices VHR et SUBFAC ont été identifiés comme des méthodes très proches, caractérisées par une forte corrélation (R=0,99) alors que l’indice MAL se distingue des deux autres IPS par une perte d’information sur la volatilité résultant en une corrélation plus faible avec le VHR (R=0,75). L’impact de la non idealité, évalué par le calcul de coefficients d’activité sur une série de 50 mélanges, a permis d’établir que les ratios entre les indices VHR corrigés et non corrigés variaient entre 0,57 et 2,7, suggérant un facteur de sécurité de cinq lors de la comparaison de mélanges. Les analyses de corrélation et de sensibilité ont montré que les indices de hiérarchisation des dangers différaient de façon importante sur leur prise en compte de paramètres comme la volatilité, les VLE, l’exposition cutanée, l’inflammabilité, la cancérogénicité et les divers paramètres environnementaux. Aucun de ces indices ne peut être recommandé pour la substitution des solvants. Deux modèles QPPR ont été développés afin de prédire des VLE et des VHR, et 61 % et 87 % des VHR prédits variaient respectivement d’un facteur maximal de deux et de cinq par rapport aux VHR calculés. Nos résultats mènent à proposer une démarche améliorée de comparaison en deux étapes. Après un tri selon des critères prioritaires de santé, de sécurité et d’environnement, la comparaison devrait se baser sur le calcul du VHR tout en considérant d’autres paramètres selon la situation concrète de l’entreprise ou du procédé. La comparaison devra tenir compte de la non-idéalité pour les mélanges, et de VLE estimées pour les solvants n’en possédant pas.
Resumo:
Placer une charge au niveau du membre inférieur est une approche sans fondement scientifique, utilisée par les cliniciens, pour renforcer certains muscles clés de la marche. Cette étude a déterminé les modifications du patron de marche lors de l’ajout d’une charge à la cheville parétique ou non parétique chez des personnes ayant une hémiparésie suite à un accident vasculaire cérébral et a comparé les résultats à ceux d’un groupe témoin. Il est supposé qu’une charge placée à la jambe parétique/non dominante (charge ipsilatérale) augmenterait les efforts (moments et puissance) à la hanche parétique/non dominante lors de l’oscillation et qu’une charge placée controlatéralement augmenterait les efforts lors de la phase d’appui principalement pour les abducteurs de hanche stabilisant le bassin dans le plan frontal. La marche avec et sans charge de cinq individus hémiparétiques chroniques et 5 personnes en santé a été analysée en laboratoire par l’enregistrement des forces de réaction du sol et des mouvements des membres inférieurs. Ces informations ont permis de calculer les paramètres temps-distance, les angles à la hanche parétique/non dominante et au tronc, les moments nets, les puissances et le travail mécanique à la hanche parétique/non dominante. Des tests statistiques non-paramétriques ont servi à déterminer l’effet de la condition, avec charge (ipsi- et controlatérale) ou sans charge et à comparer les résultats entre les deux groupes. L’ajout d’une charge n’a pas modifié la vitesse de marche des sujets. Les phases d’appui et d’oscillation étaient rendus plus symétriques par la charge, même si peu de différences apparaissaient dans le plan sagittal avec ou sans la charge. Dans le plan frontal, le moment abducteur de hanche des sujets hémiparétiques a diminué avec la charge controlatérale, tandis qu'il a augmenté chez les sujets en santé. L’utilisation d’une stratégie posturale ou dynamique au tronc pourrait expliquer la différence de l’effet de la charge sur le moment abducteur à la hanche. Au vu de ces résultats, il est nécessaire de poursuivre l’évaluation de cette approche de renforcement musculaire spécifique à la tâche avant d’en recommander son utilisation.
Resumo:
Réalisé en cotutellle avec Gaétan Bourgeois et avec la participation de Guy Boivin, d'Agriculture et Agroalimentaire Canada, du Centre de Recherche et Développement en Horticulture à Saint-Jean-sur-Richelieu, QC J3B 3E6, Canada
Resumo:
Diverses études se sont penchées sur les paramètres EEG du sommeil en ondes lentes, y compris l’activité en ondes lentes en lien avec le somnambulisme, mais les résultats se révèlent inconsistants et contradictoires. Le premier objectif de la présente étude était d’analyser quantitativement l’EEG en sommeil en mesurant les fluctuations de puissance spectrale en delta (1-4 Hz) et delta lent (0.5-1 Hz) avant des épisodes de somnambulisme. Le second était de détecter les oscillations lentes (> 75 μV, fréquence d'environ 0.7-0.8 Hz) et très lentes (> 140 μV, fréquence d'environ 0.7-0.8 Hz) afin d'examiner leur changement d'amplitude et de densité avant de tels épisodes. Suite à une privation de sommeil de 25 heures, les enregistrements polysomnographiques de 22 adultes atteints de somnambulisme ont été scrutés. L’analyse des 200 secondes avant les épisodes révèle que ceux-ci ne sont pas précédés d’une augmentation graduelle de puissance spectrale en delta ni en delta lent, tant sur les dérivations frontale, centrale que pariétale. Toutefois, une hausse statistiquement significative de la densité des oscillations lentes et des oscillations très lentes a été observée au cours des 20 sec immédiatement avant le début des épisodes. Reste à déterminer le rôle exact de ces paramètres de l’EEG en sommeil par rapport à la manifestation et au diagnostic des parasomnies en sommeil lent.
Resumo:
La sclérose en plaques (SEP) est caractérisée par des infiltrations périvasculaires de cellules immunitaires et par de la démyélinisation au sein du système nerveux central (SNC). Ces deux paramètres de la maladie sont associés à la fragilisation de la barrière hémato-encéphalique (BHE). En ce sens, le recrutement des cellules présentatrices d’antigène (CPA) myéloïdes, telles que les monocytes, les macrophages et les cellules dendritiques, dans le SNC à travers la BHE, est une étape cruciale dans l’initiation et la persistance de l’inflammation cérébrale. Nerve injury-induced protein (Ninjurin)-1 est une nouvelle molécule d’adhérence qui médie une interaction de type homophilique et dont l’expression sur l’endothélium vasculaire de la BHE humaine fut identifiée grâce à une analyse protéomique des protéines associées à la BHE. Les résultats présentés dans ce mémoire montrent que l’expression de Ninjurin-1 augmente dans un contexte inflammatoire dans les cultures primaires de cellules endothéliales de la BHE (CE-BHE) et sur les CPA myéloïdes humaines ex vivo et générées in vitro. De plus, les CPA infiltrantes retrouvées dans les lésions cérébrales de patients atteints de SEP et dans le SNC des souris atteintes d’encéphalomyélite autoimmune expérimentale (EAE), le modèle murin de la SEP, expriment de hauts niveaux de Ninjurin-1. À l’aide du modèle in vitro de la BHE, la neutralisation de Ninjurin-1 restreint spécifiquement la migration des monocytes à travers les CE-BHE sans affecter le recrutement des lymphocytes, ni la perméabilité des CE-BHE. Enfin, les souris atteintes d’EAE et traitées avec un peptide bloquant dirigé contre Ninjurin-1 présentent une maladie moins sévère ainsi qu’une diminution des CPA infiltrant le SNC et ce comparé au groupe contrôle. Ces résultats suggèrent que Ninjurin-1 est une molécule d’adhérence de la BHE impliquée dans le recrutement de CPA myéloïdes au sein du SNC et qu’elle peut être considérée comme une cible thérapeutique potentielle en SEP.
Resumo:
Dans une société qui assiste à la confusion des territoires du privé et du public, le culte du corps et la valorisation de normes esthétiques féminines semblent littéralement envahir l’espace narratif et magnifier le dualisme entre l’être et le paraître. Il va sans dire que cette nouvelle façon de penser et de concevoir le corps, notamment le corps féminin, a une incidence sur l’écriture des femmes contemporaines. Intimement lié à la construction identitaire du sujet, le corps incarne dans les oeuvres littéraires une nouvelle « féminité » dont le présent mémoire vise à explorer les paramètres littéraires, psychanalytiques et sociologiques. C’est dans le contexte d’une corporalité reconfigurée que l’inscription de la triade corps/identité/féminité dans les textes littéraires de Nelly Arcan et de Marie-Sissi Labrèche sera étudiée par l’analyse d’oeuvres significatives publiées au début de ce troisième millénaire : Putain et À ciel ouvert, d’une part, Borderline et La Brèche, d’autre part. Le corps est au coeur de la quête identitaire des protagonistes présentées dans ces récits. Mais ce corps s’érigeant souvent en obstacle devient le lieu d’une difficile image de soi et contribue à renforcer l’agentivité négative, soit cette incapacité du sujet à tracer son avenir de manière positive, contre laquelle se battent les personnages féminins tout au long de la narration. C’est à ce propos que la position ambivalente des deux auteures est représentative des questions de filiation qui marquent la littérature contemporaine.