27 resultados para Cosmological constants
em Université de Montréal, Canada
Resumo:
Previous studies on the determinants of the choice of college major have assumed a constant probability of success across majors or a constant earnings stream across majors. Our model disregards these two restrictive assumptions in computing an expected earnings variable to explain the probability that a student will choose a specific major among four choices of concentrations. The construction of an expected earnings variable requires information on the student s perceived probability of success, the predicted earnings of graduates in all majors and the student s expected earnings if he (she) fails to complete a college program. Using data from the National Longitudinal Survey of Youth, we evaluate the chances of success in all majors for all the individuals in the sample. Second, the individuals' predicted earnings of graduates in all majors are obtained using Rumberger and Thomas's (1993) regression estimates from a 1987 Survey of Recent College Graduates. Third, we obtain idiosyncratic estimates of earnings alternative of not attending college or by dropping out with a condition derived from our college major decision-making model applied to our sample of college students. Finally, with a mixed multinominal logit model, we explain the individuals' choice of a major. The results of the paper show that the expected earnings variable is essential in the choice of a college major. There are, however, significant differences in the impact of expected earnings by gender and race.
Resumo:
Nous investiguons dans ce travail la dynamique des excitons dans une couche mince d’agrégats H autoassemblés hélicoïdaux de molécules de sexithiophène. Le couplage intermoléculaire (J=100 meV) place ce matériau dans la catégorie des semi-conducteurs à couplage de type intermédiaire. Le désordre énergétique et la forte interaction électronsphonons causent une forte localisation des excitons. Les espèces initiales se ramifient en deux états distincts : un état d’excitons autopiégés (rendement de 95 %) et un état à transfert de charge (rendement de 5%). À température de la pièce (293K), les processus de sauts intermoléculaires sont activés et l’anisotropie de la fluorescence décroît rapidement à zéro en 5 ns. À basse température (14K), les processus de sauts sont gelés. Pour caractériser la dynamique de diffusion des espèces, une expérience d’anisotropie de fluorescence a été effectuée. Celle-ci consiste à mesurer la différence entre la photoluminescence polarisée parallèlement au laser excitateur et celle polarisée perpendiculairement, en fonction du temps. Cette mesure nous donne de l’information sur la dépolarisation des excitons, qui est directement reliée à leur diffusion dans la structure supramoléculaire. On mesure une anisotropie de 0,1 après 20 ns qui perdure jusqu’à 50ns. Les états à transfert de charge causent une remontée de l’anisotropie vers une valeur de 0,15 sur une plage temporelle allant de 50 ns jusqu’à 210 ns (période entre les impulsions laser). Ces résultats démontrent que la localisation des porteurs est très grande à 14K, et qu’elle est supérieure pour les espèces à transfert de charge. Un modèle numérique simple d’équations différentielles à temps de vie radiatif et de dépolarisation constants permet de reproduire les données expérimentales. Ce modèle a toutefois ses limitations, notamment en ce qui a trait aux mécanismes de dépolarisation des excitons.
Resumo:
Cette thèse se propose d’étudier les façons dont la pensée et l’imaginaire grec de l’époque archaïque se représentaient quelques pans du réel qui ne se laissaient jamais voir ni atteindre: l’éther, l’air et l’abîme marin. Vu le caractère insondable de ces espaces, l’imagination et l’abstraction se sont ingéniées à les appréhender par un discours spécifique et à les intégrer dans le système de connaissances et de croyances propre à l’époque en leur assignant une place dans le système de l’univers, en les rattachant à une hiérarchie de l’ordre cosmologique, en leur donnant une forme, en classant leurs objets et en les rapportant aux modèles du monde connu, en les aménageant par les moyens les plus divers. Une étude des formes d’expression de la pensée grecque archaïque, autant littéraires qu’iconographiques, permet de cerner les diverses formes de représentation des domaines inaccessibles et les modèles d’organisation spatiale issus de ce type de pensée. Grâce à la dialectique particulière qui ressort du rapport entre espace et mouvement, cette thèse se propose également d’interroger le corpus des sources grecques archaïques sous des angles jusqu’ici peu explorés: comment maîtrise-t-on l’espace par les déplacements physiques en dehors des parcours terrestres? Comment les schémas du mouvement dans l’espace se sont-ils forgés? Comment les dichotomies issues de la logique spatiale archaïque (haut/bas, droite/gauche, est/ouest, en deça/au-delà, etc.) influent-elles sur la structuration spatiale? Quelles espèces d’espace révèlent les déplacements à travers les différents niveaux du monde, que ce soit ceux des dieux, ceux des mortels et d’autres entités, forces physiques et substances privilégiées dans le commerce avec le divin et le monde d’en haut? Ces analyses mettent en valeur les façons dont l’imagination et l’abstraction plutôt que l’expérience vécue ont contribué, à leur façon, à structurer l’espace et à forger l’image du monde comme κόσμος, monde mis en ordre et soumis autant aux lois physiques qu’aux lois divines.
Resumo:
Quatre microélectrodes ont été insérées dans le ganglion stellaire gauche (GS) de préparations canines in vivo pour évaluer la décharge des potentiels d’action dans les neurones situés dans ce ganglion périphérique durant un état cardiovasculaire stable et suivant des injections systémiques et locales de nicotine. Durant les périodes de contrôle, des changements mineurs ont été observés dans la pression artérielle systolique, dans le rythme cardiaque et dans le temps de conduction atrio-ventriculaire. L’activité générée par les neurones du GS est demeurée relativement constante à l’intérieure de chaque chien, mais variait entre les préparations. L’administration de nicotine systémique a altéré les variables physiologiques et augmenté l’activité neuronale. Même si différents changements au niveau des variables physiologiques ont été observés entre les animaux, ces changements demeuraient relativement constants pour un même animal. La dynamique de la réponse neuronale était similaire, mais l’amplitude et la durée variaient entre et au sein des chiens. L’injection de nicotine dans une artère à proximité du GS a provoqué une augmentation marquée des potentiels d’action sans faire changer les variables physiologiques. La technique d’enregistrement permet donc de suivre le comportement de multiples populations de neurones intrathoraciques situés dans le GS. La relation entre l’activation neuronale du GS et les changements physiologiques sont stables pour chaque chien, mais varient entre les animaux. Cela suggère que le poids relatif des boucles de rétroaction impliquées dans la régulation cardiovasculaire peut être une caractéristique propre à chaque animal.
Resumo:
Un nouveau contrôleur de EMCCD (Electron multiplying Charge Coupled Device) est présenté. Il permet de diminuer significativement le bruit qui domine lorsque la puce EMCCD est utilisé pour du comptage de photons: le bruit d'injection de charge. À l'aide de ce contrôleur, une caméra EMCCD scientifique a été construite, caractérisée en laboratoire et testée à l'observatoire du mont Mégantic. Cette nouvelle caméra permet, entre autres, de réaliser des observations de la cinématique des galaxies par spectroscopie de champ intégral par interférométrie de Fabry-Perot en lumière Ha beaucoup plus rapidement, ou de galaxies de plus faible luminosité, que les caméras à comptage de photon basées sur des tubes amplificateurs. Le temps d'intégration nécessaire à l'obtention d'un rapport signal sur bruit donné est environ 4 fois moindre qu'avec les anciennes caméras. Les applications d'un tel appareil d'imagerie sont nombreuses: photométrie rapide et faible flux, spectroscopie à haute résolution spectrale et temporelle, imagerie limitée par la diffraction à partir de télescopes terrestres (lucky imaging), etc. D'un point de vue technique, la caméra est dominée par le bruit de Poisson pour les flux lumineux supérieurs à 0.002 photon/pixel/image. D'un autre côté, la raie d'hydrogène neutre (HI) à 21 cm a souvent été utilisée pour étudier la cinématique des galaxies. L'hydrogène neutre a l'avantage de se retrouver en quantité détectable au-delà du disque optique des galaxies. Cependant, la résolution spatiale de ces observations est moindre que leurs équivalents réalisés en lumière visible. Lors de la comparaison des données HI, avec des données à plus haute résolution, certaines différences étaient simplement attribuées à la faible résolution des observations HI. Le projet THINGS (The HI Nearby Galaxy Survey a observé plusieurs galaxies de l'échantillon SINGS (Spitzer Infrared Nearby Galaxies Survey). Les données cinématiques du projet THIGNS seront comparées aux données cinématiques obtenues en lumière Ha, afin de déterminer si la seule différence de résolution spatiale peut expliquer les différences observées. Les résultats montrent que des différences intrinsèques aux traceurs utilisées (hydrogène neutre ou ionisé), sont responsables de dissemblances importantes. La compréhension de ces particularités est importante: la distribution de la matière sombre, dérivée de la rotation des galaxies, est un test de certains modèles cosmologiques.
Resumo:
La substitution est une méthode de prévention primaire qui permet l’élimination à la source des dangers pour les travailleurs. Une des étapes de la démarche est la comparaison des options afin de procéder au choix final. Divers indices de comparaison, basés sur des paramètres physicochimiques, sanitaires et environnementaux des substances, permettent de guider ce choix. Toutefois, aucune évaluation de ces indices n’a été effectuée dans le cas de la substitution des solvants. Une recherche de développement a été entreprise afin de proposer une méthodologie améliorée de comparaison des solvants. La démarche d’analyse de substitution et la comparaison des options de remplacement à l’aide du rapport de danger de vapeur (« Vapour Hazard Ratio », VHR) ont été appliquées à un cas réel de substitution de solvants en entreprise. Trois indices de potentiel de surexposition (IPS) (VHR, « Måleteknisk Arbejdshygiejnisk Luftbehov » (MAL) et « SUBstitution FACtor » (SUBFAC)) et trois indices globaux de hiérarchisation des dangers (indice air (ψiair), « Indiana Relative Chemical Hazard Score » (IRCHS) et « Final Hazard Score » (FHS)) ont été évalués et comparés à partir de listes de 56 et 67 solvants respectivement. La problématique de la non-idéalité des mélanges a aussi été considérée par rapport aux IPS par l’évaluation et la comparaison de 50 mélanges de solvant. Une méthodologie d’établissement d’une valeur limite d’exposition (VLE), pour les solvants n’en possédant pas, a été développée par modélisation de type relations quantitatives propriété-propriété (QPPR). La modélisation QPPR des VLE, effectuée sur une liste de 88 solvants possédant une VLE, a été effectuée à partir des coefficients de partage octanol:air, octanol:eau, sang:air et des constantes métaboliques. L’étude de cas a montré que l’utilisation du VHR facilitait la comparaison des options, bien qu’elle puisse se heurter à l’absence de VLE. Les indices VHR et SUBFAC ont été identifiés comme des méthodes très proches, caractérisées par une forte corrélation (R=0,99) alors que l’indice MAL se distingue des deux autres IPS par une perte d’information sur la volatilité résultant en une corrélation plus faible avec le VHR (R=0,75). L’impact de la non idealité, évalué par le calcul de coefficients d’activité sur une série de 50 mélanges, a permis d’établir que les ratios entre les indices VHR corrigés et non corrigés variaient entre 0,57 et 2,7, suggérant un facteur de sécurité de cinq lors de la comparaison de mélanges. Les analyses de corrélation et de sensibilité ont montré que les indices de hiérarchisation des dangers différaient de façon importante sur leur prise en compte de paramètres comme la volatilité, les VLE, l’exposition cutanée, l’inflammabilité, la cancérogénicité et les divers paramètres environnementaux. Aucun de ces indices ne peut être recommandé pour la substitution des solvants. Deux modèles QPPR ont été développés afin de prédire des VLE et des VHR, et 61 % et 87 % des VHR prédits variaient respectivement d’un facteur maximal de deux et de cinq par rapport aux VHR calculés. Nos résultats mènent à proposer une démarche améliorée de comparaison en deux étapes. Après un tri selon des critères prioritaires de santé, de sécurité et d’environnement, la comparaison devrait se baser sur le calcul du VHR tout en considérant d’autres paramètres selon la situation concrète de l’entreprise ou du procédé. La comparaison devra tenir compte de la non-idéalité pour les mélanges, et de VLE estimées pour les solvants n’en possédant pas.
Resumo:
Depuis la fin des années 1980, le phénomène de revitalisation culturelle amérindienne observé à l’échelle continentale s’est enraciné au Québec. Ce phénomène panindien, qui se définit entre autres par un mouvement de guérison dit communautaire – c’est- à-dire qui s’organise à l’intérieur-même des communautés (par opposition à ce qui vient de l’extérieur) – est caractérisé par la prise en charge des problèmes sociaux rencontrés par les populations amérindiennes. Par l’analyse du rite de la tente à sudation, une pratique emblématique de la spiritualité panindienne et du mouvement de guérison, ce mémoire explore la dualité des stratégies de relation d’aide qui y sont déployées. Pour ce faire, l’expérience en milieu carcéral et en communauté d’aînés et d’intervenants autochtones a été prise à témoin. L’enquête de terrain révèle ainsi qu’en parallèle avec la fonction de mobilisation sociale et politique associée à la revitalisation culturelle amérindienne, on assiste à une instrumentation du rituel à des fins psychothérapeutiques. Tout en s’inscrivant dans la structure cosmologique commune à plusieurs traditions orales algonquiennes, cet usage particulier de la symbolique du rituel met à jour une vision plus clinique, plus individualisée et plus dépolitisée de la guérison autochtone habituellement revendiqué dans le discours panindien.
Resumo:
Le présent projet vise à documenter la nécessité d’augmenter notre connaissance de la présence des contaminants organiques tels que les médicaments dans l’environnement et d’évaluer leur devenir environnemental. On a étudié la présence de composés pharmaceutiques dans différents échantillons d'eau. On a focalisé nos efforts spécialement sur les échantillons d'eau de l'usine d'épuration de la Ville de Montréal et ses effluents, les eaux de surface avoisinantes et l’eau du robinet dans la région de Montréal. Pour ce faire, on a tout d’abord développé deux méthodes analytiques automatisées basées sur la chromatographie liquide avec extraction en phase solide (SPE) couplée à la chromatographie liquide couplée à la spectrométrie de masse en tandem (LC-MS/MS). On a également étudié les performances des trois techniques d'ionisation à pression atmosphérique (API), pour ensuite les utiliser dans la méthode analytique développée. On a démontré que l'ionisation par électronébulisation (ESI) est une méthode d'ionisation plus efficace pour l'analyse des contaminants pharmaceutiques dans des échantillons de matrices très complexes comme les eaux usées. Une première méthode analytique SPE couplée à la LC-MS/MS a été développée et validée pour l'étude des échantillons complexes provenant de l'usine d'épuration de la Ville de Montréal et des eaux de surface près de l'usine. Cinq médicaments de prescription ont été étudiés: le bézafibrate (un régulateur de lipides), le cyclophosphamide et le méthotrexate (deux agents anticancéreux), l'orlistat (un agent anti-obésité) et l’énalapril (utilisé dans le traitement de l'hypertension). La plupart de ces drogues sont excrétées par le corps humain et rejetées dans les eaux usées domestiques en faisant par la suite leur chemin vers les usines municipales de traitement des eaux usées. On a pu démontrer qu'il y a un faible taux d’élimination à l'usine d'épuration pour le bézafibrate et l'énalapril. Ces deux composés ont aussi été détectés dans les eaux de surface sur un site à proximité immédiate de la décharge de l’effluent de la station d'épuration. i En observant la nécessité de l'amélioration des limites de détection de la première méthode analytique, une deuxième méthode a été développée. Pour la deuxième méthode, un total de 14 contaminants organiques, incluant trois agents anti-infectieux (clarithromycin, sulfaméthoxazole et triméthoprime), un anticonvulsant (carbamazépine) et son produit de dégradation (10,11-dihydrocarbamazépine), l'agent antihypertensif (enalapril), deux antinéoplastiques utilisés en chimiothérapie (cyclophosphamide et méthotrexate), des herbicides (atrazine, cyanazine, et simazine) et deux produits de transformation de l’atrazine (deséthylatrazine et déisopropylatrazine) ainsi qu’un agent antiseptique (triclocarban). Ces produits ont été quantifiés dans les eaux de surface ainsi que dans l’eau du robinet. L'amélioration des limites de détection pour cette méthode a été possible grâce à la charge d'un volume d'échantillon supérieur à celui utilisé dans la première méthode (10 mL vs 1 mL). D'autres techniques de confirmation, telles que les spectres des ions produits utilisant une pente d’énergie de collision inverse dans un spectromètre de masse à triple quadripôle et la mesure des masses exactes par spectrométrie de masse à temps d’envol, ont été explorées. L'utilisation d'un analyseur de masse à temps d’envol a permis la confirmation de 6 des 14 analytes. Finalement, étant donné leur haute toxicité et pour évaluer leur persistance et leur transformation au niveau du traitement des eaux potables, la cinétique d'oxydation du cyclophosphamide et de méthotrexate avec l'ozone moléculaire et des radicaux OH a été étudiée. Les constantes de dégradation avec l'ozone moléculaire ont été calculées et la qualité de l'eau après traitement a pu être évaluée. Le rendement du processus d'ozonation a été amélioré pour la cyclophosphamide dans les eaux naturelles, en raison de la combinaison de réactions directes et indirectes. Cette étude a montré que l'ozone est très efficace pour oxyder le méthotrexate mais que le cyclophosphamide serait trop lent à s’oxyder pour un traitement efficace aux conditions usuelles de traitement de l’eau potable.
Resumo:
Les liposomes sont des structures sphériques formés par l'auto-assemblage de molécules amphiphiles sous forme d'une bicouche. Cette bicouche sépare le volume intérieur du liposome du milieu extérieur, de la même manière que les membranes cellulaires. Les liposomes sont donc des modèles de membranes cellulaires et sont formulés pour étudier les processus biologiques qui font intervenir la membrane (transport de molécules à travers la membrane, effets des charges en surface, interactions entre la matrice lipidique et d'autres molécules, etc.). Parce qu'ils peuvent encapsuler une solution aqueuse en leur volume intérieur, ils sont aussi utilisés aujourd'hui comme nanovecteurs de principes actifs. Nous avons formulé des liposomes non-phospholipidiques riches en stérol que nous avons appelés stérosomes. Ces stérosomes sont composés d'environ 30 % d'amphiphiles monoalkylés et d'environ 70 % de stérols (cholestérol, Chol, et/ou sulfate de cholestérol, Schol). Quand certaines conditions sont respectées, ces mélanges sont capables de former une phase liquide ordonnée (Lo) pour donner, par extrusion, des vésicules unilamellaires. Certaines de ces nouvelles formulations ont été fonctionnalisées de manière à libérer leur contenu en réponse à un stimulus externe. En incorporant des acides gras dérivés de l’acide palmitique possédant différents pKa, nous avons pu contrôler le pH auquel la libération débute. Un modèle mathématique a été proposé afin de cerner les paramètres régissant leur comportement de libération. En incorporant un amphiphile sensible à la lumière (un dérivé de l’azobenzène), les liposomes formés semblent répondre à une radiation lumineuse. Pour ce système, il serait probablement nécessaire de tracer le diagramme de phase du mélange afin de contrôler la photo-libération de l’agent encapsulé. Nous avons aussi formulé des liposomes contenant un amphiphile cationique (le chlorure de cétylpyridinium). En tant que nanovecteurs, ces stérosomes montrent un potentiel intéressant pour la libération passive ou contrôlée de principes actifs. Pour ces systèmes, nous avons développé un modèle pour déterminer l’orientation des différentes molécules dans la bicouche. La formation de ces nouveaux systèmes a aussi apporté de nouvelles connaissances dans le domaine des interactions détergents-lipides. Aux nombreux effets du cholestérol (Chol) sur les systèmes biologiques, il faut ajouter maintenant que les stérols sont aussi capables de forcer les amphiphiles monoalkylés à former des bicouches. Cette nouvelle propriété peut avoir des répercussions sur notre compréhension du fonctionnement des systèmes biologiques. Enfin, les amphiphiles monoalkylés peuvent interagir avec la membrane et avoir des répercussions importantes sur son fonctionnement. Par exemple, l'effet antibactérien de détergents est supposé être dû à leur insertion dans la membrane. Cette insertion est régie par l'affinité existant entre le détergent et cette dernière. Dans ce cadre, nous avons voulu développer une nouvelle méthode permettant d'étudier ces affinités. Nous avons choisi la spectroscopie Raman exaltée de surface (SERS) pour sa sensibilité. Les hypothèses permettant de déterminer cette constante d’affinité se basent sur l’incapacité du détergent à exalter le signal SERS lorsque le détergent est inséré dans la membrane. Les résultats ont été comparés à ceux obtenus par titration calorimétrique isotherme (ITC). Les résultats ont montré des différences. Ces différences ont été discutées.
Resumo:
Malgré des progrès constants en termes de capacité de calcul, mémoire et quantité de données disponibles, les algorithmes d'apprentissage machine doivent se montrer efficaces dans l'utilisation de ces ressources. La minimisation des coûts est évidemment un facteur important, mais une autre motivation est la recherche de mécanismes d'apprentissage capables de reproduire le comportement d'êtres intelligents. Cette thèse aborde le problème de l'efficacité à travers plusieurs articles traitant d'algorithmes d'apprentissage variés : ce problème est vu non seulement du point de vue de l'efficacité computationnelle (temps de calcul et mémoire utilisés), mais aussi de celui de l'efficacité statistique (nombre d'exemples requis pour accomplir une tâche donnée). Une première contribution apportée par cette thèse est la mise en lumière d'inefficacités statistiques dans des algorithmes existants. Nous montrons ainsi que les arbres de décision généralisent mal pour certains types de tâches (chapitre 3), de même que les algorithmes classiques d'apprentissage semi-supervisé à base de graphe (chapitre 5), chacun étant affecté par une forme particulière de la malédiction de la dimensionalité. Pour une certaine classe de réseaux de neurones, appelés réseaux sommes-produits, nous montrons qu'il peut être exponentiellement moins efficace de représenter certaines fonctions par des réseaux à une seule couche cachée, comparé à des réseaux profonds (chapitre 4). Nos analyses permettent de mieux comprendre certains problèmes intrinsèques liés à ces algorithmes, et d'orienter la recherche dans des directions qui pourraient permettre de les résoudre. Nous identifions également des inefficacités computationnelles dans les algorithmes d'apprentissage semi-supervisé à base de graphe (chapitre 5), et dans l'apprentissage de mélanges de Gaussiennes en présence de valeurs manquantes (chapitre 6). Dans les deux cas, nous proposons de nouveaux algorithmes capables de traiter des ensembles de données significativement plus grands. Les deux derniers chapitres traitent de l'efficacité computationnelle sous un angle différent. Dans le chapitre 7, nous analysons de manière théorique un algorithme existant pour l'apprentissage efficace dans les machines de Boltzmann restreintes (la divergence contrastive), afin de mieux comprendre les raisons qui expliquent le succès de cet algorithme. Finalement, dans le chapitre 8 nous présentons une application de l'apprentissage machine dans le domaine des jeux vidéo, pour laquelle le problème de l'efficacité computationnelle est relié à des considérations d'ingénierie logicielle et matérielle, souvent ignorées en recherche mais ô combien importantes en pratique.
Resumo:
Les observations astronomiques et cosmologiques suggèrent fortement la présence d’une matière exotique, non-relativiste et non-baryonique qui représenterait 26% du contenu de masse-énergie de l’Univers actuel. Cette matière dite sombre et froide serait compo- sée de particules neutres, massives et interagissant faiblement avec la matière ordinaire (WIMP : Weakly Interactive Massive Particles). Le projet PICASSO (Projet d’Identification des CAndidats Supersymétriques de la matière SOmbre) est une des expériences installées dans le site souterrain de SNOLAB à Sudbury en Ontario, qui tente de détecter directement un des candidats de la matière sombre, proposé dans le cadre des extensions supersymétriques du modèle standard : le neutralino. Pour cela, PICASSO utilise des détecteurs à gouttelettes surchauffées de C4F10, basés sur le principe de la chambre à bulles. Les transitions de phase dans les liquides surchauffés peuvent être déclenchées par le recul du 19 F, causé par une collision élastique avec les neutralinos. La nucléation de la gouttelette génère une onde sonore enregistrée par des senseurs piézo-électriques. Cette thèse présentera les récents progrès de l’expérience PICASSO qui ont conduit à une augmentation substantielle de sa sensibilité dans la recherche du neutralino. En effet, de nouvelles procédures de fabrication et de purification ont permis de réduire à un facteur de 10, la contamination majeure des détecteurs, causée par les émetteurs alpha. L’étude de cette contamination dans les détecteurs a permis de localiser la source de ces émetteurs. Les efforts effectués dans le cadre de l’analyse des données, ont permis d’améliorer l’effet de discrimination entre des évènements engendrés par les particules alpha et par les reculs nucléaires. De nouveaux outils d’analyse ont également été implémentés dans le but de discriminer les évènements générés par des particules de ceux générés par des bruits de fond électroniques ou acoustiques. De plus, un mécanisme important de suppression de bruit de fond indésirable à haute température, a permis à l’expérience PICASSO d’être maintenant sensible aux WIMPs de faibles masses.
Resumo:
Les toxines formeuses de pore (PFTs) sont des protéines exogènes responsables d’un grand nombre de maladies infectieuses qui perméabilisent les membranes cellulaires de leur hôte. La formation des pores ou l’introduction d’une enzyme dans le cytoplasme peut entrainer l’apparition de symptômes de maladies connues (l’anthrax, le botulisme) et, dans le pire des cas, la mort. Les mécanismes d’infection et de destruction des cellules infectées sont bien caractérisés. Toutefois, l’aspect dynamique des changements de conformation durant le processus de perméabilisation reste à découvrir pour la majorité des toxines formeuses de pore. Le but de cette thèse est d’étudier les mécanismes d’oligomérisation des PFTs, ainsi que la formation des pores à la membrane lipidique grâce à la spectroscopie de fluorescence. Nous avons choisi la toxine Cry1Aa, un bio pesticide produit par le bacille de Thuringe et qui a été rigoureusement caractérisé, en tant que modèle d’étude. La topologie de la Cry1Aa à l’état actif et inactif a pu être résolue grâce à l’utilisation d’une technique de spectroscopie de fluorescence, le FRET ou transfert d’énergie par résonance entre un fluorophore greffé au domaine formeur de pore (D1) et un accepteur non fluorescent (le DPA ou dipicrylamine) localisé dans la membrane et qui bouge selon le potentiel membranaire. Le courant électrique, ainsi que la fluorescence provenant de la bicouche lipidique membranaire horizontale ont été enregistrés simultanément. De cette manière, nous avons pu localiser toutes les boucles reliant les hélices de D1 avant et après la formation des pores. Dans la forme inactive de la toxine, toutes ces boucles se trouvent du côté interne de la bicouche lipidique, mais dans sa forme active l’épingle α3-α4 traverse du côté externe, alors que toutes les autres hélices demeurent du côté interne. Ces résultats suggèrent que α3-α4 forment le pore. Nous avons découvert que la toxine change significativement de conformation une fois qu’elle se trouve dans la bicouche lipidique, et que la Cry1Aa attaque la membrane lipidique de l’extérieur, mais en formant le pore de l’intérieur. Dans le but de caractériser la distribution de toxines à chaque extrémité de la bicouche, nous avons utilisé une technique de double FRET avec deux accepteurs ayant des vitesses de translocation différentes (le DPA et l’oxonol) dans la membrane lipidique. De cette manière, nous avons déterminé que la toxine était présente des deux côtés de la bicouche lipidique durant le processus de perméabilisation. La dynamique d’oligomérisation de la toxine dans une bicouche lipidique sans récepteurs a été étudiée avec une technique permettant le compte des sauts de fluorescence après le photoblanchiment des fluorophore liés aux sous unités composant un oligomère présent dans la bicouche lipidique supportée. Nous avons confirmé de cette manière que la protéine formait ultimement des tétramères, et que cet état résultait de la diffusion des monomères de toxine dans la bicouche et de leur assemblage subséquent. Enfin nous avons voulu étudier le « gating » de la colicine Ia, provenant de la bactérie E.Coli, dans le but d’observer les mouvements que font deux positions supposées traverser la bicouche lipidique selon le voltage imposé aux bornes de la bicouche. Nos résultats préliminaires nous permettent d’observer un mouvement partiel (et non total) de ces positions, tel que le suggèrent les études de conductances du canal.
Resumo:
Cette recherche vise à décrire comment a évolué l’évaluation de la compétence à écrire dans les épreuves uniques d’écriture de 5e secondaire, en portant spécifiquement le regard sur la composante linguistique de cette compétence. Une recherche documentaire a permis de recueillir des épreuves et autres documents les concernant pour une période allant de 1971 à 2012. Bien que notre étude porte en particulier sur les épreuves uniques d’écriture, implantées en 1986, nous avons pu remonter plus loin dans le temps afin de brosser un tableau le plus large possible de l’évaluation certificative de l’écriture en 5e secondaire. Plusieurs aspects sont analysés : le contexte des épreuves, les tâches qu’elles contiennent, les paramètres encadrant leur correction, ainsi que les seuils de réussite relatifs à la langue, les épreuves entières, la compétence à écrire et la matière français, langue d’enseignement. Nous avons également pu observer, à l’échelle provinciale, l’évolution des résultats des élèves aux épreuves uniques d’écriture. À l’aide de divers concepts théoriques reliés à l’évaluation de la compétence écrire et sa composante linguistique, un cadre méthodologique a été développé pour permettre l’analyse des épreuves d’écriture. Celle-ci révèle notamment que la nature des tâches et leurs paramètres sont restés assez constants dans le temps, particulièrement depuis 1986. Le nombre d’erreurs linguistiques permises a augmenté, alors que les résultats des élèves sont restés stables. De plus, le regard historique de cette étude montre comment le ministère de l’Éducation accorde à notre époque une grande importance à l’écriture et à la correction de l’orthographe.
Resumo:
Les modèles pharmacocinétiques à base physiologique (PBPK) permettent de simuler la dose interne de substances chimiques sur la base de paramètres spécifiques à l’espèce et à la substance. Les modèles de relation quantitative structure-propriété (QSPR) existants permettent d’estimer les paramètres spécifiques au produit (coefficients de partage (PC) et constantes de métabolisme) mais leur domaine d’application est limité par leur manque de considération de la variabilité de leurs paramètres d’entrée ainsi que par leur domaine d’application restreint (c. à d., substances contenant CH3, CH2, CH, C, C=C, H, Cl, F, Br, cycle benzénique et H sur le cycle benzénique). L’objectif de cette étude est de développer de nouvelles connaissances et des outils afin d’élargir le domaine d’application des modèles QSPR-PBPK pour prédire la toxicocinétique de substances organiques inhalées chez l’humain. D’abord, un algorithme mécaniste unifié a été développé à partir de modèles existants pour prédire les PC de 142 médicaments et polluants environnementaux aux niveaux macro (tissu et sang) et micro (cellule et fluides biologiques) à partir de la composition du tissu et du sang et de propriétés physicochimiques. L’algorithme résultant a été appliqué pour prédire les PC tissu:sang, tissu:plasma et tissu:air du muscle (n = 174), du foie (n = 139) et du tissu adipeux (n = 141) du rat pour des médicaments acides, basiques et neutres ainsi que pour des cétones, esters d’acétate, éthers, alcools, hydrocarbures aliphatiques et aromatiques. Un modèle de relation quantitative propriété-propriété (QPPR) a été développé pour la clairance intrinsèque (CLint) in vivo (calculée comme le ratio du Vmax (μmol/h/kg poids de rat) sur le Km (μM)), de substrats du CYP2E1 (n = 26) en fonction du PC n octanol:eau, du PC sang:eau et du potentiel d’ionisation). Les prédictions du QPPR, représentées par les limites inférieures et supérieures de l’intervalle de confiance à 95% à la moyenne, furent ensuite intégrées dans un modèle PBPK humain. Subséquemment, l’algorithme de PC et le QPPR pour la CLint furent intégrés avec des modèles QSPR pour les PC hémoglobine:eau et huile:air pour simuler la pharmacocinétique et la dosimétrie cellulaire d’inhalation de composés organiques volatiles (COV) (benzène, 1,2-dichloroéthane, dichlorométhane, m-xylène, toluène, styrène, 1,1,1 trichloroéthane et 1,2,4 trimethylbenzène) avec un modèle PBPK chez le rat. Finalement, la variabilité de paramètres de composition des tissus et du sang de l’algorithme pour les PC tissu:air chez le rat et sang:air chez l’humain a été caractérisée par des simulations Monte Carlo par chaîne de Markov (MCMC). Les distributions résultantes ont été utilisées pour conduire des simulations Monte Carlo pour prédire des PC tissu:sang et sang:air. Les distributions de PC, avec celles des paramètres physiologiques et du contenu en cytochrome P450 CYP2E1, ont été incorporées dans un modèle PBPK pour caractériser la variabilité de la toxicocinétique sanguine de quatre COV (benzène, chloroforme, styrène et trichloroéthylène) par simulation Monte Carlo. Globalement, les approches quantitatives mises en œuvre pour les PC et la CLint dans cette étude ont permis l’utilisation de descripteurs moléculaires génériques plutôt que de fragments moléculaires spécifiques pour prédire la pharmacocinétique de substances organiques chez l’humain. La présente étude a, pour la première fois, caractérisé la variabilité des paramètres biologiques des algorithmes de PC pour étendre l’aptitude des modèles PBPK à prédire les distributions, pour la population, de doses internes de substances organiques avant de faire des tests chez l’animal ou l’humain.
Resumo:
Les biofilms sont des communautés de microorganismes incorporés dans une matrice exo-polymérique complexe. Ils sont reconnus pour jouer un rôle important comme barrière de diffusion dans les systèmes environnementaux et la santé humaine, donnant lieu à une résistance accrue aux antibiotiques et aux désinfectants. Comme le transfert de masse dans un biofilm est principalement dû à la diffusion moléculaire, il est primordial de comprendre les principaux paramètres influençant les flux de diffusion. Dans ce travail, nous avons étudié un biofilm de Pseudomonas fluorescens et deux hydrogels modèles (agarose et alginate) pour lesquels l’autodiffusion (mouvement Brownien) et les coefficients de diffusion mutuels ont été quantifiés. La spectroscopie par corrélation de fluorescence a été utilisée pour mesurer les coefficients d'autodiffusion dans une volume confocal de ca. 1 m3 dans les gels ou les biofilms, tandis que les mesures de diffusion mutuelle ont été faites par cellule de diffusion. En outre, la voltamétrie sur microélectrode a été utilisée pour évaluer le potentiel de Donnan des gels afin de déterminer son impact sur la diffusion. Pour l'hydrogel d'agarose, les observations combinées d'une diminution du coefficient d’autodiffusion et de l’augmentation de la diffusion mutuelle pour une force ionique décroissante ont été attribuées au potentiel de Donnan du gel. Des mesures de l'effet Donnan (différence de -30 mV entre des forces ioniques de 10-4 et 10-1 M) et l'accumulation correspondante d’ions dans l'hydrogel (augmentation d’un facteur de 13 par rapport à la solution) ont indiqué que les interactions électrostatiques peuvent fortement influencer le flux de diffusion de cations, même dans un hydrogel faiblement chargé tel que l'agarose. Curieusement, pour un gel plus chargé comme l'alginate de calcium, la variation de la force ionique et du pH n'a donné lieu qu'à de légères variations de la diffusion de sondes chargées dans l'hydrogel. Ces résultats suggèrent qu’en influençant la diffusion du soluté, l'effet direct des cations sur la structure du gel (compression et/ou gonflement induits) était beaucoup plus efficace que l'effet Donnan. De même, pour un biofilm bactérien, les coefficients d'autodiffusion étaient pratiquement constants sur toute une gamme de force ionique (10-4-10-1 M), aussi bien pour des petits solutés chargés négativement ou positivement (le rapport du coefficient d’autodiffusion dans biofilm sur celui dans la solution, Db/Dw ≈ 85 %) que pour des nanoparticules (Db/Dw≈ 50 %), suggérant que l'effet d'obstruction des biofilms l’emporte sur l'effet de charge. Les résultats de cette étude ont montré que parmi les divers facteurs majeurs qui affectent la diffusion dans un biofilm environnemental oligotrophe (exclusion stérique, interactions électrostatiques et hydrophobes), les effets d'obstruction semblent être les plus importants lorsque l'on tente de comprendre la diffusion du soluté. Alors que les effets de charge ne semblaient pas être importants pour l'autodiffusion de substrats chargés dans l'hydrogel d'alginate ou dans le biofilm bactérien, ils ont joué un rôle clé dans la compréhension de la diffusion à travers l’agarose. L’ensemble de ces résultats devraient être très utiles pour l'évaluation de la biodisponibilité des contaminants traces et des nanoparticules dans l'environnement.