592 resultados para Mélanges binaires


Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’entérotoxine B staphylococcique (SEB) est une toxine entérique hautement résistante à la chaleur et est responsable de plus de 50 % des cas d’intoxication d’origine alimentaire par une entérotoxine. L’objectif principal de ce projet de maîtrise est de développer et valider une méthode basée sur des nouvelles stratégies analytiques permettant la détection et la quantification de SEB dans les matrices alimentaires. Une carte de peptides tryptiques a été produite et 3 peptides tryptiques spécifiques ont été sélectionnés pour servir de peptides témoins à partir des 9 fragments protéolytiques identifiés (couverture de 35 % de la séquence). L’anhydride acétique et la forme deutérée furent utilisés afin de synthétiser des peptides standards marqués avec un isotope léger et lourd. La combinaison de mélanges des deux isotopes à des concentrations molaires différentes fut utilisée afin d’établir la linéarité et les résultats ont démontré que les mesures faites par dilution isotopique combinée au CL-SM/SM respectaient les critères généralement reconnus d’épreuves biologiques avec des valeurs de pente près de 1, des valeurs de R2 supérieure à 0,98 et des coefficients de variation (CV%) inférieurs à 8 %. La précision et l’exactitude de la méthode ont été évaluées à l’aide d’échantillons d’homogénat de viande de poulet dans lesquels SEB a été introduite. SEB a été enrichie à 0,2, 1 et 2 pmol/g. Les résultats analytiques révèlent que la méthode procure une plage d’exactitude de 84,9 à 91,1 %. Dans l’ensemble, les résultats présentés dans ce mémoire démontrent que les méthodes protéomiques peuvent être utilisées efficacement pour détecter et quantifier SEB dans les matrices alimentaires. Mots clés : spectrométrie de masse; marquage isotopique; protéomique quantitative; entérotoxines

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le cyborg est un avatar de ce que permet la science-fiction lorsqu’elle s’offre comme terrain où développer une heuristique des identités genrées. Donna Haraway, dans le Manifeste cyborg, a relevé le potentiel de liberté discursive que promettait cette figure romanesque. Il m’apparaît que, depuis sa fictionnalisation puis sa théorisation dans les années 1980 et 1990, le cyborg a muté au sein de l’entreprise science-fictionnelle littéraire. Le Silence de la Cité d’Élisabeth Vonarburg et Le Goût de l’immortalité de Catherine Dufour présentent des personnages dont la cyborgitude problématise les questions identitaires du genre humain, à travers une écriture spécifique, affectée par les technologies. Mon analyse des procédés scripturaux s’effectue de pair avec une analyse gender, ce qui me permet de mieux saisir la fictionnalisation toujours changeante des cyborgs dans les oeuvres de Vonarburg et de Dufour. Ces cyborgs déconstruisent les frontières des systèmes binaires traditionnels, en explorant les possibilités trans-genres et trans-espèces que permettent les métamorphoses de leurs corps excentriques. En tant que représentations fantasmées de désirs autrement inavouables, les cyborgs science-fictionnels témoignent du malaise inhérent de couples comme homme/femme, humain/animal ou organique/artificiel.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'évaluation des risques de l'exposition aux mélanges de produits chimiques par voies multiples peut être améliorée par une compréhension de la variation de la dose interne due à l’interaction entre les produits. Les modèles pharmacocinétiques à base physiologique (PBPK) sont des outils éprouvés pour prédire l'ampleur de ces variations dans différents scénarios. Dans cette étude, quatre composés organiques volatils (COV) (toluène, nhexane, cyclohexane et isooctane) ont été choisis pour représenter des produits pétroliers (essence) pouvant contaminer l'eau potable. Premièrement, les modèles PBPK ont simulé l'exposition à un seul COV par une voie (inhalation ou gavage). Ensuite, ces modèles ont été interconnectés pour simuler l'exposition à un mélange par voies multiples. Les modèles ont été validés avec des données in vivo chez des rats Sprague-Dawley (n=5) exposés par inhalation (50 ppm ; toluène, hexane, et 300 ppm ; cyclohexane, isooctane; 2-h) ou par gavage (8,3; 5,5; 27,9 et 41,27 mg/kg pour le toluène, l’hexane, le cyclohexane et l’isooctane, respectivement). Des doses similaires ont été utilisées pour l'exposition au mélange par voies multiples. Les AUC (mg/L x min) pour le toluène, l'hexane, le cyclohexane et l'isooctane étaient respectivement de 157,25; 18,77; 159,58 et 176,54 pour les données expérimentales, et 121,73; 21,91; 19,55 et 170,54 pour les modèles PBPK. Les résultats des modèles PBPK et les données in vivo (simple COV par voies multiples vs. mélange par voies multiples) ont montré des interactions entre les COVs dans le cas de l'exposition au mélange par voies multiples. Cette étude démontre l'efficacité des modèles PBPK pour simuler l'exposition aux mélanges de COV par voies multiples.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les liposomes sont des nanovecteurs polyvalents et prometteurs quant à leur utilisation dans plusieurs domaines. Il y a une décennie, un nouveau type de liposome constitué d’amphiphiles monoalkylés et de stérols est né fortuitement dans notre groupe. Ils sont nommés Stérosomes puisqu’ils contiennent une grande proportion de stérols, entre 50 et 70 mol %. Les objectifs de cette thèse sont de développer de nouvelles formulations de Stérosomes ayant des caractéristiques spécifiques et d’acquérir une compréhension plus profonde des règles physicochimiques qui dictent leur comportement de phase. Nous avons spécifiquement examiné le rôle de motifs moléculaires des stérols, de la charge interfaciale et de la capacité à former des liaisons H dans les interactions intermoléculaires menant à l’autoassemblage. Le comportement de phase a été caractérisé par calorimétrie différentielle à balayage (DSC), par spectroscopie infrarouge (IR) et par spectroscopie de résonance magnétique nucléaire du deutérium (²H NMR). Premièrement, nous avons établi certaines corrélations entre la structure des stérols, leur tendance à former des bicouches fluides en présence d'amphiphile monoalkylé et la perméabilité des grandes vésicules unilamellaires (LUV) formées. La nature des stérols module les propriétés de mélange avec de l’acide palmitique (PA). Les stérols portant une chaîne volumineuse en position C17 sont moins aptes à induire des bicouches fluides que ceux qui ont une chaîne plus simple, comme celle du cholestérol. Un grand ordre de la chaîne alkyle de PA est un effet commun à tous les stérols investigués. Il a été démontré que la perméabilité des LUV peut être contrôlée en utilisant des stérols différents. Cependant, ces stérols n’ont aucun impact significatif sur la sensibilité des Stérosomes au pH. Afin de créer des liposomes qui sont sensibles au pH et qui ont une charge positive à la surface, des Stérosomes composés de stéarylamine et de cholestérol (Chol) ont été conçus et caractérisés. Il a été conclu que l’état de protonation de l’amine, dans ce travail, ou du groupe carboxylique, dans un travail précédent, confère une sensibilité au pH et détermine la charge à la surface du liposome. Les premiers Stérosomes complètement neutres ont été fabriqués en utilisant un réseau de fortes liaisons H intermoléculaires. Le groupe sulfoxyde est capable de former de fortes liaisons H avec le cholestérol et les molécules d’eau. Une bicouche fluide métastable a été obtenue, à la température de la pièce, à partir d'un mélange équimolaire d’octadécyl méthyl sulfoxyde (OMSO) et de Chol. Ce comportement distinct a permis d’extruder le mélange pour former des LUV à la température de la pièce. Après 30 h, le temps de vie de la phase métastable, des Stérosomes stables et imperméables existaient toujours sous une forme solide. Un diagramme de température-composition a été proposé afin de résumer le comportement de phase des mélanges d’OMSO/Chol. Finalement, nous avons élaboré des Stérosomes furtifs en incorporant du polyéthylène glycol (PEG) avec une ancre de cholestérol (PEG-Chol) à l’interface de Stérosomes de PA/Chol. Jusqu’à 20 mol % de PEG-Chol peut être introduit sans perturber la structure de la bicouche. La présence du PEG-Chol n’a aucun impact significatif sur la perméabilité de la LUV. L'encapsulation active de la doxorubicine, un médicament contre le cancer, a été réalisée malgré la faible perméabilité de ces LUV et la présence du PEG à l’interface. L’inclusion de PEG a modifié considérablement les propriétés de l’interface et a diminué la libération induite par la variation de pH observée avec des LUV nues de PA/Chol. Cette formulation inédite est potentiellement utile pour l’administration intraveineuse de médicaments.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les propriétés intrinsèques, photophysiques, électrochimiques et cristallographiques des molécules fluorescentes 4,4'-bis(2-benzoxazolyle)stilbène (BBS) et 2,5-bis(5-tert-butyl-2-benzoxazolyle)thiophène (BBT) ont été étudiées en solution et dans les polymères semi-cristallins : poly(butylène succinate) (PBS) et polylactide (PLA). Les deux fluorophores sont caractérisés par de hauts rendements quantiques absolus de fluorescence. Toutefois, une désactivation de la fluorescence peut se produire par croisement intersystème vers l'état triplet pour le BBT, et par photoisomérisation trans-cis pour le BBS. La cinétique de ce dernier processus dépend de la concentration, résultant en un pur isomère cis photo-induit à faibles concentrations, qui est accompagné à des concentrations élevées par l'apparition d'un composé acide après photo-clivage suivi d'une oxydation. Cette étude a révélé des changements spectroscopiques prononcés suite à l’augmentation de la concentration des fluorophores, en particulier à l'état solide, spécifiques à l'agrégation des molécules à l'état fondamental pour le BBT et à la formation d’excimères pour le BBS, permettant ainsi de corréler les propriétés fluorescentes avec les caractéristiques du monocristal pour chaque fluorophore. En outre, le passage d’une dispersion moléculaire à une séparation de phases dans le cas du BBS est accompagné d'un changement de couleur du bleu au vert, qui est sensible à la déformation, à la température et au temps, affectant les rendements quantiques absolus de fluorescence et fournissant une large opportunité à la création d'une grande variété de polymères intelligents indicateurs capables d'auto-évaluation. D’autre part, la solubilité élevée du BBT dans les solvants courants, combinée à ses propriétés optoélectroniques élevées, en font un candidat en tant que référence universelle de fluorescence et matériau intelligent à la fois pour les études de polymères et en solution. Similairement aux mélanges comprenant des polymères miscibles, l'orientation du PBS augmente après ajout d'une molécule fluorescente, dont les monomères ont tendance à être orientés dans des films étirés, contrairement aux excimères ou agrégats.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La réduction de la taille des particules jusqu’à l’obtention de nanocristaux est l’une des approches utilisées afin d’améliorer la pénétration cutanée des médicaments à usage topique. Nous proposons que la fabrication d’une formulation semi solide (hydrogel) à base de nanosuspension de docosanol, aboutira à une diffusion du principe actif supérieure à celle du produit commercial Abreva®, à travers des membranes synthétiques de polycarbonates. Le broyage humide est la technique proposée pour la production des nanoparticules de docosanol. Nous proposons aussi la préparation d’une formulation semi-solide (hydrogel) à usage topique à partir de la nanosuspension de docosanol. La nanosuspension de docosanol est obtenue par dispersion du docosanol en solution aqueuse en présence du polymère stabilisant hydroxypropylcellulose (HPC) et du surfactant laurylsulfate de sodium (SDS) suivi d’un broyage humide à faible ou à haute énergie. L’hydrogel de docosanol nanoformulé est préparé à l’aide de la nanosuspension de docosanol qui subit une gélification par le carbopol Ultrez 21 sous agitation mécanique suivie d’une neutralisation au triéthanolamine TEA. La taille des particules de la nanosuspension et de l’hydrogel a été déterminée par diffusion dynamique de la lumière (DLS). Une méthode analytique de chromatographie liquide à haute performance (HPLC) munie d’un détecteur évaporatif (ELSD) a été développée et validée pour évaluer la teneur de docosanol dans les préparations liquides, dans les différentes nanosuspensions et dans les hydrogels de docosanol. L’état de cristallinité des nanocristaux dans la nanosuspension et dans l’hydrogel a été étudié par calorimétrie différentielle à balayage. La morphologie de la nanosuspension et de l’hydrogel de docosanol a été examinée par microscopie électronique à balayage (MEB). Les propriétés rhéologiques et de stabilité physique à différentes températures ont été aussi étudiées pour la formulation semi-solide (hydrogel). De même, la libération in vitro du docosanol contenu dans l’hydrogel et dans le produit commercial Abreva® a été étudiée à travers deux membranes de polycarbonates de taille de pores 400 et 800 nm. Dans le cas de nanosuspensions, des cristaux de docosanol de taille nanométrique ont été produits avec succès par broyage humide. Les nanoparticules de tailles variant de 197 nm à 312 nm ont été produites pour des pourcentages différents en docosanol, en polymère HPC et en surfactant SDS. Après lyophilisation, une augmentation de la taille dépendant de la composition de la formulation a été observée tout en restant dans la gamme nanométrique pour la totalité presque des formulations étudiées. Dans le cas des hydrogels examinés, la taille moyenne des particules de docosanol est maintenue dans la gamme nanométrique avant et après lyophilisation. L’analyse thermique des mélanges physiques, des nanosuspensions et des hydrogels de docosanol a révélé la conservation de l’état de cristallinité des nanocristaux de docosanol après broyage et aussi après gélification. L’examen par microscopie électronique à balayage (MEB) a montré que la nanosuspension et l’hydrogel ont tous deux une morphologie régulière et les nanoparticules ont une forme sphérique. De plus les nanoparticules de la nanosuspension ont presque la même taille inférieure à 300 nm en accord avec le résultat obtenu par diffusion dynamique de la lumière (DLS). Les nanoparticules de l’hydrogel ont une légère augmentation de taille par rapport à celle de la nanosuspension, ce qui est en accord avec les mesures de DLS. D’après les mesures rhéologiques, l’hydrogel de docosanol a un comportement pseudoplastique et un faible degré de thixotropie. L’étude de stabilité physique a montré que les formulations d’hydrogel sont stables à basse température (5°C) et à température ambiante (21°C) pendant une période d’incubation de 13 semaines et instable au-delà de 30°C après deux semaines. La méthode HPLC-ELSD a révélé des teneurs en docosanol comprises entre 90% et 110% dans le cas des nanosuspensions et aux alentours de 100% dans le cas de l’hydrogel. L’essai de diffusion in vitro a montré qu’il y a diffusion de docosanol de l’hydrogel à travers les membranes de polycarbonates, qui est plus marquée pour celle de pore 800 nm, tandis que celui du produit commercial Abreva® ne diffuse pas. Le broyage humide est une technique bien adaptée pour la préparation des nanosuspensions docosanol. Ces nanosuspensions peuvent être utilisée comme base pour la préparation de l’hydrogel de docosanol nanoformulé.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Je ne me rappelle pas comment cela a commencé. Mais Andrée Lajoie et moi avons toujours entretenu le plaisir de la conversation. Sur les choses de la vie comme sur le droit. Pour lui rendre hommage dans ces Mélanges, j’ai imaginé une conversation que j’aurais pu avoir avec elle sur la pénalisation du tabagisme, un prétexte pour écrire sur l’émergence de normes pénales. Et pour relier cet échange imaginaire à des réflexions de sa propre recherche. En boutade, elle m’a souvent affirmé ne rien connaître au droit pénal. Je sais déjà que mes propres analyses sur l’émergence de normes pénales peuvent se rattacher à ses positions théoriques sur le droit. D’autres exposés exigeront peut-être de ma part plus que de la persuasion  rhétorique pour la convaincre du bien-fondé de certains points de vue.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

"Le sous-titre des Mélanges consacrés à Andrée Lajoie – Ledroit : une variable dépendante – n’est pas neutre : d’abord, parce qu’elle en est elle-même l’auteure ; ensuite, parce qu’elle a travaillé à traquer, dans la réalité phénoménale tout autant que discursive, toute prétention à la neutralité. Le concept de variable est intimement lié à la formulation d’une hypothèse dont on sait qu’elle se définit comme le pivot de l’élaboration d’un projet de recherche quand, une fois abreuvée d’un cadre théorique qui la surdétermine, elle bascule vers les efforts de démonstration et les stratégies de vérification appelés à l’infirmer définitivement ou à la confirmer toujours temporairement. Les variables, entre dimensions théoriques et indicateurs empiriques, obéissent à une structure interactionnelle dans une relation de causalité, de covariance, d’imputation, etc. Ces rapports soumettent l’observation à une dynamique présupposée entre des données inertes (variable indépendante) et des données mutantes (variable dépendante), souvent sous l’effet de facteurs de changements (variable intermédiaire). On parlera donc de variations impulsées par des combinaisons, des séquençages, des coordinations entre des concepts d’abord, puis entre des faits (incluant les faits discursifs) qui rendront compte plus adéquatement de la réalité et qui enrichiront les connaissances."

Relevância:

10.00% 10.00%

Publicador:

Resumo:

C’est sans hésiter que j’ai accepté l’invitation à préparer un texte pour les Mélanges Andrée Lajoie, mais le défi de choisir un sujet qui puisse permettre de contribuer à transmettre, ne fût-ce que tout modestement, l’apport énorme de Madame Lajoie à la communauté des chercheurs a été de taille. Je suis un produit de la génération d’étudiants qui ont pu bénéficier des retombées de sa réflexion sur la place des juristes dans la société québécoise1 et, m’étant forgé une place en tant que juriste, j’ai choisi, finalement, de décrire ma « pratique de la recherche », d’une part, parce que le concept même de « pratiquer » la recherche en droit, et particulièrement en droit social, trouve son inspiration dans la vie de la chercheure Andrée Lajoie, mais aussi parce que, n’eût été d’Andrée Lajoie, je n’aurais jamais choisi le droit de la santé au travail comme champ de recherche. Je vais donc décrire ce champ, qui est devenu ma passion, pour ensuite proposer quelques réflexions sur la transdisciplinarité en recherche et le rôle du juriste-chercheur en 2007.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'analyse en composantes indépendantes (ACI) est une méthode d'analyse statistique qui consiste à exprimer les données observées (mélanges de sources) en une transformation linéaire de variables latentes (sources) supposées non gaussiennes et mutuellement indépendantes. Dans certaines applications, on suppose que les mélanges de sources peuvent être groupés de façon à ce que ceux appartenant au même groupe soient fonction des mêmes sources. Ceci implique que les coefficients de chacune des colonnes de la matrice de mélange peuvent être regroupés selon ces mêmes groupes et que tous les coefficients de certains de ces groupes soient nuls. En d'autres mots, on suppose que la matrice de mélange est éparse par groupe. Cette hypothèse facilite l'interprétation et améliore la précision du modèle d'ACI. Dans cette optique, nous proposons de résoudre le problème d'ACI avec une matrice de mélange éparse par groupe à l'aide d'une méthode basée sur le LASSO par groupe adaptatif, lequel pénalise la norme 1 des groupes de coefficients avec des poids adaptatifs. Dans ce mémoire, nous soulignons l'utilité de notre méthode lors d'applications en imagerie cérébrale, plus précisément en imagerie par résonance magnétique. Lors de simulations, nous illustrons par un exemple l'efficacité de notre méthode à réduire vers zéro les groupes de coefficients non-significatifs au sein de la matrice de mélange. Nous montrons aussi que la précision de la méthode proposée est supérieure à celle de l'estimateur du maximum de la vraisemblance pénalisée par le LASSO adaptatif dans le cas où la matrice de mélange est éparse par groupe.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La présente étude constitue une analyse comparative de discours qui articulent la problématique de l’héritage coloniale et des réclamations autochtones au Chili et au Canada : des livres de texte de sciences sociales, des discours d’opinion et des discours autochtones. Nous proposons que les similitudes surprenantes qui ont été révélées par les contextes nationaux canadiens et chiliens peuvent être expliquées, en partie, par leur articulation avec le discours globalisé de la modernité/colonialité. D’une part, les textes scolaires et les discours d’opinion font circuler des éléments discursifs de la modernité, tout en reproduisant des formes de savoir et de dire coloniaux. D’autre part, les discours autochtones se ressemblent entre eux dans la mesure où ils interpolent la modernité/colonialité transformant ainsi les termes d’engagement interculturel. Bien que les états canadiens et chiliens renforcent leur engagement à l’égard de la réconciliation avec les Autochtones durant les dernières décennies, les conflits interculturels continuent à se produire en impliquant toujours les mêmes acteurs : l’état, différents peuples autochtones, des entreprises privées, ainsi que des membres de l’élite intellectuelle, politique et patronale. En prenant en compte cette situation, l’objectif de cette thèse vise à mieux comprendre pourquoi ces conflits, loin d’être résolus, continuent à se reproduire. Dans ces deux pays, la problématique des conflits interculturels est fondamentalement mise en rapport avec la question des droits territoriaux et, par conséquent, sont inséparables de la question de l’héritage coloniale des états nationaux canadien et chilien. Pourtant cette dimension coloniale des conflits a tendance à être cachée autant par la rhétorique multiculturelle du discours national que par les polarisations produites par l’opinion publique, lesquelles ont l’habitude d’encadrer la problématique par des notions binaires, telles que « civilisation/barbarie » ou « authenticité/illégitimité ». De plus, on peut considérer l’ouest du Canada et le sud du Chili comme étant des contextes comparables, puisque ceux-ci ont été colonisés avec la base du discours moderne du progrès et de la civilisation, qui a servi à légitimer l’expansion de l’état national au dix-neuvième siècle. Cependant, il n’existe que très peu d’études qui comparent les productions discursives relatives aux relations interculturelles entre Autochtones et non Autochtones dans les contextes canadiens et chiliens, possiblement à cause des différences linguistiques, sociohistoriques et politiques qui paraissent insurmontables.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les supercapacités hybrides se taillent de plus en plus une place dans le secteur des énergies renouvelables. L’oxyde de manganèse possède certaines caractéristiques (faible coût, caractère écologique et une capacitance spécifique supérieure) qui font de ce dernier un matériau très attirant pour l’assemblage de tels dispositifs. Ce mémoire, divisé en trois parties, propose l’utilisation des liquides ioniques protiques comme électrolytes pour l’assemblage de supercapacités hybrides à base d’oxyde de manganèse et carbone. D’abord, le comportement pseudocapacitif des électrodes à base de films minces d’oxyde de manganèse dans les liquides ioniques protiques ainsi que leurs propriétés optiques sont étudiés et évalués. Des valeurs de capacitance spécifique allant jusqu’à 397 F/g ont été trouvées dans cette partie. Ensuite, des mélanges composés par un solvant organique (acétonitrile) et le liquide ionique protique sont présentés comme une manière de contourner la faible conductivité de ce dernier qui limite les valeurs de capacitance spécifique à obtenir. Une amélioration de la capacitance spécifique d’environ 30% est reportée dans ce chapitre. Finalement, l’assemblage d’une supercapacité hybride est présenté comme une stratégie efficace qui permet l’élargissement de la faible fenêtre de potentiel de travail obtenue avec les électrodes à base d’oxyde de manganèse. De cette façon, la faisabilité de tel arrangement est montré ici, obtenant de valeurs de capacitance spécifique (16 F/g) ainsi que de puissance (81 W/kg) et d’énergie spécifique (1,9 Wh/kg) acceptables en utilisant des liquides ioniques protiques comme électrolytes de remplissage.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’apprentissage supervisé de réseaux hiérarchiques à grande échelle connaît présentement un succès fulgurant. Malgré cette effervescence, l’apprentissage non-supervisé représente toujours, selon plusieurs chercheurs, un élément clé de l’Intelligence Artificielle, où les agents doivent apprendre à partir d’un nombre potentiellement limité de données. Cette thèse s’inscrit dans cette pensée et aborde divers sujets de recherche liés au problème d’estimation de densité par l’entremise des machines de Boltzmann (BM), modèles graphiques probabilistes au coeur de l’apprentissage profond. Nos contributions touchent les domaines de l’échantillonnage, l’estimation de fonctions de partition, l’optimisation ainsi que l’apprentissage de représentations invariantes. Cette thèse débute par l’exposition d’un nouvel algorithme d'échantillonnage adaptatif, qui ajuste (de fa ̧con automatique) la température des chaînes de Markov sous simulation, afin de maintenir une vitesse de convergence élevée tout au long de l’apprentissage. Lorsqu’utilisé dans le contexte de l’apprentissage par maximum de vraisemblance stochastique (SML), notre algorithme engendre une robustesse accrue face à la sélection du taux d’apprentissage, ainsi qu’une meilleure vitesse de convergence. Nos résultats sont présent ́es dans le domaine des BMs, mais la méthode est générale et applicable à l’apprentissage de tout modèle probabiliste exploitant l’échantillonnage par chaînes de Markov. Tandis que le gradient du maximum de vraisemblance peut-être approximé par échantillonnage, l’évaluation de la log-vraisemblance nécessite un estimé de la fonction de partition. Contrairement aux approches traditionnelles qui considèrent un modèle donné comme une boîte noire, nous proposons plutôt d’exploiter la dynamique de l’apprentissage en estimant les changements successifs de log-partition encourus à chaque mise à jour des paramètres. Le problème d’estimation est reformulé comme un problème d’inférence similaire au filtre de Kalman, mais sur un graphe bi-dimensionnel, où les dimensions correspondent aux axes du temps et au paramètre de température. Sur le thème de l’optimisation, nous présentons également un algorithme permettant d’appliquer, de manière efficace, le gradient naturel à des machines de Boltzmann comportant des milliers d’unités. Jusqu’à présent, son adoption était limitée par son haut coût computationel ainsi que sa demande en mémoire. Notre algorithme, Metric-Free Natural Gradient (MFNG), permet d’éviter le calcul explicite de la matrice d’information de Fisher (et son inverse) en exploitant un solveur linéaire combiné à un produit matrice-vecteur efficace. L’algorithme est prometteur: en terme du nombre d’évaluations de fonctions, MFNG converge plus rapidement que SML. Son implémentation demeure malheureusement inefficace en temps de calcul. Ces travaux explorent également les mécanismes sous-jacents à l’apprentissage de représentations invariantes. À cette fin, nous utilisons la famille de machines de Boltzmann restreintes “spike & slab” (ssRBM), que nous modifions afin de pouvoir modéliser des distributions binaires et parcimonieuses. Les variables latentes binaires de la ssRBM peuvent être rendues invariantes à un sous-espace vectoriel, en associant à chacune d’elles, un vecteur de variables latentes continues (dénommées “slabs”). Ceci se traduit par une invariance accrue au niveau de la représentation et un meilleur taux de classification lorsque peu de données étiquetées sont disponibles. Nous terminons cette thèse sur un sujet ambitieux: l’apprentissage de représentations pouvant séparer les facteurs de variations présents dans le signal d’entrée. Nous proposons une solution à base de ssRBM bilinéaire (avec deux groupes de facteurs latents) et formulons le problème comme l’un de “pooling” dans des sous-espaces vectoriels complémentaires.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire présente une analyse photométrique et spectroscopique d'un échantillon de 16 naines blanches magnétiques froides riches en hydrogène. L'objectif principal de cette étude est de caractériser leurs propriétés atmosphériques et magnétiques afin d'obtenir une vision d'ensemble représentative de cette population d'étoiles. Pour ce faire, il a fallu réunir le plus d'information possible sur toutes les candidates sous la forme de spectres visibles à haut signal-sur-bruit et de données photométriques. Il a également été nécessaire de mettre à jour les modèles d'atmosphère de Bergeron et al. (1992) à l'aide des avancées réalisées par Tremblay & Bergeron (2009). Les paramètres atmosphériques de chacune des étoiles ont ensuite été déterminés en modélisant les distributions d'énergie photométriques observées tandis que la topologie et l'intensité du champ magnétique ont été obtenues en comparant des spectres synthétiques magnétiques au profil d'absorption Zeeman autour de H-alpha. Qui plus est, un processus de déconvolution combinant ces deux approches a aussi été créé afin de traiter adéquatement les systèmes binaires présents dans l'échantillon. Les résultats de ces analyses sont ensuite exposés, incluant une discussion sur la possible corrélation entre les paramètres atmosphériques et les propriétés magnétiques de ces naines blanches. Finalement, cette étude démontre que les données spectroscopiques de la majorité de ces étoiles peuvent uniquement être reproduites si ces dernières se trouvent dans un système binaire composé d'une seconde naine blanche. De plus, les résultats suggèrent que le champ magnétique de ces naines blanches froides ne peut pas être d'origine fossile et doit être généré par un mécanisme physique devant encore être identifié.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les étoiles naines blanches représentent la fin de l’évolution de 97% des étoiles de notre galaxie, dont notre Soleil. L’étude des propriétés globales de ces étoiles (distribution en température, distribution de masse, fonction de luminosité, etc.) requiert l’élaboration d’ensembles statistiquement complets et bien définis. Bien que plusieurs relevés d’étoiles naines blanches existent dans la littérature, la plupart de ceux-ci souffrent de biais statistiques importants pour ce genre d’analyse. L’échantillon le plus représentatif de la population d’étoiles naines blanches demeure à ce jour celui défini dans un volume complet, restreint à l’environnement immédiat du Soleil, soit à une distance de 20 pc (∼ 65 années-lumière) de celui-ci. Malheureusement, comme les naines blanches sont des étoiles intrinsèquement peu lumineuses, cet échantillon ne contient que ∼ 130 objets, compromettant ainsi toute étude statistique significative. Le but de notre étude est de recenser la population d’étoiles naines blanches dans le voisinage solaire a une distance de 40 pc, soit un volume huit fois plus grand. Nous avons ainsi entrepris de répertorier toutes les étoiles naines blanches à moins de 40 pc du Soleil à partir de SUPERBLINK, un vaste catalogue contenant le mouvement propre et les données photométriques de plus de 2 millions d’étoiles. Notre approche est basée sur la méthode des mouvements propres réduits qui permet d’isoler les étoiles naines blanches des autres populations stellaires. Les distances de toutes les candidates naines blanches sont estimées à l’aide de relations couleur-magnitude théoriques afin d’identifier les objets se situant à moins de 40 pc du Soleil, dans l’hémisphère nord. La confirmation spectroscopique du statut de naine blanche de nos ∼ 1100 candidates a ensuite requis 15 missions d’observations astronomiques sur trois grands télescopes à Kitt Peak en Arizona, ainsi qu’une soixantaine d’heures allouées sur les télescopes de 8 m des observatoires Gemini Nord et Sud. Nous avons ainsi découvert 322 nouvelles étoiles naines blanches de plusieurs types spectraux différents, dont 173 sont à moins de 40 pc, soit une augmentation de 40% du nombre de naines blanches connues à l’intérieur de ce volume. Parmi ces nouvelles naines blanches, 4 se trouvent probablement à moins de 20 pc du Soleil. De plus, nous démontrons que notre technique est très efficace pour identifier les étoiles naines blanches dans la région peuplée du plan de la Galaxie. Nous présentons ensuite une analyse spectroscopique et photométrique détaillée de notre échantillon à l’aide de modèles d’atmosphère afin de déterminer les propriétés physiques de ces étoiles, notamment la température, la gravité de surface et la composition chimique. Notre analyse statistique de ces propriétés, basée sur un échantillon presque trois fois plus grand que celui à 20 pc, révèle que nous avons identifié avec succès les étoiles les plus massives, et donc les moins lumineuses, de cette population qui sont souvent absentes de la plupart des relevés publiés. Nous avons également identifié plusieurs naines blanches très froides, et donc potentiellement très vieilles, qui nous permettent de mieux définir le côté froid de la fonction de luminosité, et éventuellement l’âge du disque de la Galaxie. Finalement, nous avons aussi découvert plusieurs objets d’intérêt astrophysique, dont deux nouvelles étoiles naines blanches variables de type ZZ Ceti, plusieurs naines blanches magnétiques, ainsi que de nombreux systèmes binaires non résolus.