996 resultados para Farel, Guillaume, 1489-1565
Resumo:
Dans les élevages laitiers d’aujourd’hui, les déplacements de la caillette sont parmi les conditions chirurgicales les plus souvent rencontrées. Le pronostic pour ces pathologies est cependant très différent que l’on soit en présence d’une dilatation de la caillette à droite (DCD) ou d’un volvulus de la caillette (VC). En pratique, la distinction en période préopératoire entre ces deux conditions est difficile. Afin de limiter les pertes économiques associées aux DCD/VC, l’identification et la réforme précoce des animaux ayant le plus grand risque d’avoir une mauvaise évolution postopératoire deviennent des enjeux de premier plan. Les objectifs de cette étude étaient de déterminer la valeur pronostique de la L-lactatémie (LAC) mesurée à la ferme en préopératoire à l’aide d’un appareil portatif chez des vaches souffrant de DCD ou VC et de suggérer des seuils de LAC cliniquement significatifs. Nos résultats indiquent que la LAC est un bon indicateur pronostique lors de DCD/VC. Une LAC ≤ 2 mmol/L est un bon indicateur de succès chirurgical et s’avère très utile pour appuyer la décision d’opérer l’animal (sensibilité, spécificité, valeurs prédictives positive et négative de respectivement 76.2, 82.7, 53.3 et 93.1%). Par ailleurs, il n’y a aucun avantage économique à effectuer une chirurgie chez des vaches commerciales souffrant de DCD/VC qui ont une LAC ≥ 6 mmol/L (sensibilité, spécificité, valeurs prédictives positive et négative de respectivement 28.6, 97.5, 75 et 84%). Par conséquent, ces animaux devraient, dans la plupart des cas, être réformés en raison de la probabilité élevée qu’ils aient une mauvaise évolution postopératoire.
Resumo:
Cette thèse porte sur les phénomènes critiques survenant dans les modèles bidimensionnels sur réseau. Les résultats sont l'objet de deux articles : le premier porte sur la mesure d'exposants critiques décrivant des objets géométriques du réseau et, le second, sur la construction d'idempotents projetant sur des modules indécomposables de l'algèbre de Temperley-Lieb pour la chaîne de spins XXZ. Le premier article présente des expériences numériques Monte Carlo effectuées pour une famille de modèles de boucles en phase diluée. Baptisés "dilute loop models (DLM)", ceux-ci sont inspirés du modèle O(n) introduit par Nienhuis (1990). La famille est étiquetée par les entiers relativement premiers p et p' ainsi que par un paramètre d'anisotropie. Dans la limite thermodynamique, il est pressenti que le modèle DLM(p,p') soit décrit par une théorie logarithmique des champs conformes de charge centrale c(\kappa)=13-6(\kappa+1/\kappa), où \kappa=p/p' est lié à la fugacité du gaz de boucles \beta=-2\cos\pi/\kappa, pour toute valeur du paramètre d'anisotropie. Les mesures portent sur les exposants critiques représentant la loi d'échelle des objets géométriques suivants : l'interface, le périmètre externe et les liens rouges. L'algorithme Metropolis-Hastings employé, pour lequel nous avons introduit de nombreuses améliorations spécifiques aux modèles dilués, est détaillé. Un traitement statistique rigoureux des données permet des extrapolations coïncidant avec les prédictions théoriques à trois ou quatre chiffres significatifs, malgré des courbes d'extrapolation aux pentes abruptes. Le deuxième article porte sur la décomposition de l'espace de Hilbert \otimes^nC^2 sur lequel la chaîne XXZ de n spins 1/2 agit. La version étudiée ici (Pasquier et Saleur (1990)) est décrite par un hamiltonien H_{XXZ}(q) dépendant d'un paramètre q\in C^\times et s'exprimant comme une somme d'éléments de l'algèbre de Temperley-Lieb TL_n(q). Comme pour les modèles dilués, le spectre de la limite continue de H_{XXZ}(q) semble relié aux théories des champs conformes, le paramètre q déterminant la charge centrale. Les idempotents primitifs de End_{TL_n}\otimes^nC^2 sont obtenus, pour tout q, en termes d'éléments de l'algèbre quantique U_qsl_2 (ou d'une extension) par la dualité de Schur-Weyl quantique. Ces idempotents permettent de construire explicitement les TL_n-modules indécomposables de \otimes^nC^2. Ceux-ci sont tous irréductibles, sauf si q est une racine de l'unité. Cette exception est traitée séparément du cas où q est générique. Les problèmes résolus par ces articles nécessitent une grande variété de résultats et d'outils. Pour cette raison, la thèse comporte plusieurs chapitres préparatoires. Sa structure est la suivante. Le premier chapitre introduit certains concepts communs aux deux articles, notamment une description des phénomènes critiques et de la théorie des champs conformes. Le deuxième chapitre aborde brièvement la question des champs logarithmiques, l'évolution de Schramm-Loewner ainsi que l'algorithme de Metropolis-Hastings. Ces sujets sont nécessaires à la lecture de l'article "Geometric Exponents of Dilute Loop Models" au chapitre 3. Le quatrième chapitre présente les outils algébriques utilisés dans le deuxième article, "The idempotents of the TL_n-module \otimes^nC^2 in terms of elements of U_qsl_2", constituant le chapitre 5. La thèse conclut par un résumé des résultats importants et la proposition d'avenues de recherche qui en découlent.
Resumo:
Les centrosomes dont le rôle principal est d’organiser le cytosquelette de microtubules et le fuseau mitotique servent aussi de sites d’interaction pour plusieurs protéines régulatrices du cycle cellulaire et de la réponse aux dommages à l’ADN. Une de ces protéines est la kinase CHK2 et plusieurs publications montrent une sous-population de CHK2 localisée aux centrosomes dans les cellules en interphase et en mitose. Toutefois, la localisation de CHK2 aux centrosomes demeure controversée, car des doutes subsistent en ce qui concerne la spécificité des anticorps utilisés en immunocytochimie. En utilisant des lignées cellulaires du cancer du côlon, les cellules HCT116 sauvages et HCT116 CHK2-/- ainsi que différentes lignées d’ostéosarcome humain dans lesquelles l’expression de CHK2 a été inhibée par ARN interférence, nous montrons que les anticorps anti-CHK2 qui donnent un signal centrosomal sont non spécifiques et reconnaissent un antigène inconnu sur les centrosomes. Cependant, par des expériences d’immunofluorescence réalisées avec des cellules U2OS qui expriment les protéines de fusion GFP-CHK2 ou FLAG-CHK2, nous révélons une localisation centrosomale de CHK2 dans les cellules en mitose, mais pas en interphase. Ce résultat a été confirmé par vidéomicroscopie dans les cellules vivantes exprimant GFP-CHK2. Pour déterminer le ou les rôles potentiels de CHK2 en mitose nous avons réalisé des expériences pour explorer le rôle de CHK2 dans la progression de la mitose, la nucléation des microtubules aux centrosomes et la progression de la mitose en présence de problèmes d’attachement des chromosomes où de lésions génotoxiques. Nos données suggèrent que CHK2 n’est pas impliquée dans la régulation de la mitose dans les cellules U2OS.
Resumo:
Le caribou forestier est une espèce menacée au Canada, la principale hypothèse au déclin des populations étant l’intensification de la prédation provoquée par les perturbations anthropiques du paysage. Afin de faire face à cette situation, il est nécessaire d’étudier et comprendre l’impact de l’environnement sur les interactions prédateur-proies entre le caribou et le loup, ainsi qu’avec l’orignal, qui est sa principale proie alternative. Pour cela, cette thèse présente la conception d’un modèle centré sur l’individu des déplacements de ces trois espèces en fonction de leur environnement, dont résulteront les interactions prédateur-proies. Afin de permettre l’application de ce modèle sur de longues périodes, et donc pour un environnement changeant, une méthodologie a été développée, qui s’articule atour de deux aspects principaux. Tout d’abord, la notion de niveaux d’émergence est introduite, permettant d’ordonner les comportements observables du système selon leurs interdépendances, afin de choisir comme trait du modèle un com- portement correspondant au domaine d’applicabilité visé. Ordonner les comportements selon leurs niveaux d’émergence permet également d’identifier la redondance entre les patrons, qui peut être à l’origine d’un phénomène de sur-apprentissage lorsqu’ils sont utilisés lors de la calibration. Dans un second temps, un nouveau protocole pour la calibration et la validation du ou des traits choisis à l’aide des niveaux d’émergence, nommé réplication de système basé sur l’individu (Individual Based System Replication - IBSRtion) est également présenté. Ce protocole met l’emphase sur la modélisation directe, contrairement au principal protocole existant, la modélisation orientée patrons (Pattern Oriented Modelling - POM), et permet une approche empirique en générant artificiellement des données non disponibles ou ne pouvant être récoltées par des études de terrains. IBSRtion a également l’avantage de pouvoir être intégrée dans POM, afin de contribuer à la création d’une méthodologie universelle pour la conception de modèles centrés sur l’individu. Le processus de conception de ce modèle aura entre autre permis de faire une synthèse des connaissances et d’identifier certaines lacunes. Une étude visant à palier le manque de connaissances satisfaisantes sur les réponses comportementales à court-terme des proies face au risque de prédation a notamment permis d’observer que celles-ci sont une combinaison de comportements chroniques et éphémères, et que les mécanismes qui en sont à l’origine sont complexes et non-linéaires. Le résultat de ce travail est un modèle complexe utilisant de nombreux sous-modèles, et calibré de façon empirique, applicable à une grande variété d’environnements. Ce modèle a permis de tester l’impact de l’enfeuillement sur les relations prédateur-proies. Des simulations ont été effectuées pour différentes quantités d’enfeuillement, suivant deux configurations spatiales différentes. Les résultats de simulation suggèrent que des plans d’aménagement considérant également l’habitat de l’orignal pourraient être bénéfiques pour le caribou forestier, car ils permettraient d’améliorer la ségrégation spatiale entre les deux espèces, et donc entre le caribou et le loup. En le couplant avec un module de naissances et de morts naturelles ainsi qu’un modèle d’évolution du paysage, ce modèle permettra par la suite d’évaluer l’impact de plans d’aménagement forestier sur la viabilité des populations de caribou forestier.
Resumo:
Les auteurs présentent les règles issues de la Loi pour la confiance dans l’économie numérique venant encadrer le commerce électronique. Ils illustrent leurs propos au regard de la notion de « commerce électronique » et de la responsabilité et des obligations d’information découlant de cette activité, de la problématique liée à la publicité en ligne ou encore des obligations de forme relative au contrat.
Resumo:
Listeria monocytogenes (L. monocytogenes) est un pathogène majeur en santé publique comme les épisodes de 2008 dans les fromages et les charcuteries l’ont démontré. Au Canada, il n’y a pas de surveillance règlementaire de ce microorganisme dans les étapes précédant la transformation de produits prêts-à-manger. Ainsi, la présence et la circulation de ce microorganisme dans ces environnements est peu documentée. Pour décrire ces phénomènes, nous avons effectué un échantillonnage dans une usine d’abattage et de découpe de porcs au Québec, principalement dans les parcs d’attente, et dans l’environnement de l’abattage et de découpe : les échantillonages ont été effectués après lavage et désinfection sur une période de 2 ans. Un nombre de 874 échantillons a été récoltés. Le protocole de détection utilisé était inspiré de la méthode MFHPB-30 de Santé Canada. Les sérotypes ont été obtenus par PCR et les isolats caractérisés par un génotypage RFLP-PFGE en utilisant les enzymes de restriction Apa1 et Asc1. Nous avons détecté la présence de Listeria monocytogemes dans toutes ces étapes de la production. De ces échantillons positifs, 4 sérotypes (principalement 1/2b) ont émergé. Les patrons PFGE ont démontré la présence d’une variété de génotypes dans les zones d’attente et d’abattage de l’usine et la présence d’un type majeur dans l’environnement de la zone de découpe (le type 1 représentant 96.1% des souches à cette étape). De plus, nous avons démontré des liens entre les souches retrouvés au début de la production, en attente, et les souches retrouvées dans la zone de découpe. Ces résultats suggèrent que Listeria monocytogenes entre dans l’usine avec les animaux, contamine les étapes suivantes de la production et que certaines souches peuvent être sélectionnées et leur croissance favorisé dans l’environnement, devenant majoritaires, persistantes et préoccupantes en regars de la santé publique.
Resumo:
Faculté de Pharmacie
Resumo:
Rapport de recherche présenté à la Faculté des arts et des sciences en vue de l'obtention du grade de Maîtrise en sciences économiques.
Resumo:
Ce mémoire s’intéresse à la cohabitation intergénérationnelle en immeubles de type plex, en tant que stratégie de solidarité familiale observée à Montréal. Plus précisément, il s’agit de retracer l’histoire de ce mode d’habiter à travers les récits recueillis auprès d’une dizaine de familles québécoises. Les personnes rencontrées ont évoqué les motivations d’un tel projet, ont parlé de son élaboration, de la vie quotidienne dans le plex, de l’avenir de la cohabitation ou, le cas échéant, des motifs d’y mettre fin. La spécificité de la cohabitation intergénérationnelle en plex est de mettre à profit le cadre bâti résidentiel montréalais, composé d’un grand nombre de plex, dans le but plus ou moins explicite de resserrer les liens de la solidarité familiale. La démarche a donc consisté à reconstituer l’histoire d’une dizaine de familles ayant opté pour un tel mode d’habiter à Montréal, ceci à travers le récit d’un membre de la « génération-pivot », dans chacun de ces familles, susceptible de se situer au carrefour des solidarités : entre ses enfants dans la jeune vingtaine et ses parents et ses parents vieillissants. Deux objectifs principaux ont été poursuivis. Il s’agissait dans un premier temps de retracer le processus menant à une telle stratégie de proximité résidentielle et de détailler ensuite le fonctionnement quotidien de la cohabitation intergénérationnelle. Pour atteindre ces objectifs, trois questions ont guidé l’analyse du discours des répondants. Premièrement, quelles sont les motivations de ces familles? Deuxièmement, à quel point les réalités quotidiennes des membres cohabitants se voient-elles dès lors imbriquées? Troisièmement, quels enjeux sont soulevés par ce mode d’habiter? Les résultats mettent de l’avant de nombreux avantages à la cohabitation intergénérationnelle en plex, par exemple l’accès plus aisé à la propriété pour les jeunes générations, des possibilités accrues d’échanges de services concrets ou encore un sentiment de plus grande sécurité. Les enjeux soulevés par ce mode d’habiter sont également explorés et analysés du point de vue de la notion centrale sur laquelle repose ce projet familial et résidentiel, la notion d’indépendance.
Resumo:
Un système multi-agents est composé de plusieurs agents autonomes qui interagissent entre eux dans un environnement commun. Ce mémoire vise à démontrer l’utilisation d’un système multi-agents pour le développement d’un jeu vidéo. Tout d’abord, une justification du choix des concepts d’intelligence artificielle choisie est exposée. Par la suite, une approche pratique est utilisée en effectuant le développement d’un jeu vidéo. Pour ce faire, le jeu fut développé à partir d’un jeu vidéo mono-agent existant et mo- difié en système multi-agents afin de bien mettre en valeur les avantages d’un système multi-agents dans un jeu vidéo. Le développement de ce jeu a aussi démontré l’applica- tion d’autres concepts en intelligence artificielle comme la recherche de chemins et les arbres de décisions. Le jeu développé pour ce mémoire viens appuyer les conclusions des différentes recherches démontrant que l’utilisation d’un système multi-agents per- met de réaliser un comportement plus réaliste pour les joueurs non humains et bien plus compétitifs pour le joueur humain.
Resumo:
Ce mémoire vise à élargir l’interprétation du monument funéraire d’Henri II et Catherine de Médicis (1565-70) maintenant aménagé à la Basilique Saint-Denis à Paris, une œuvre que l’historiographie attribue conjointement au Primatice et à Germain Pilon. Fortement marquée par une perspective panosfkienne, la fortune critique de ce tombeau a privilégié des approches, qu’elles soient historicistes ou iconographiques, qui ont eu pour effet d’oblitérer la médialité du dispositif dans lequel le tombeau devait originellement paraître, soit la chapelle des Valois, mieux connue sous le nom de « rotonde des Valois ». Le présent travail se penche sur ce dispositif particulier en reformulant une approche propice à développer des outils méthodologiques adaptés au médium de la sculpture. De plus, il propose une hypothèse d’interprétation en liaison avec la commanditaire du tombeau, Catherine de Médicis. Nous verrons en effet que la construction d’une chapelle funéraire renforçait l’identification à la reine antique Artémise, ainsi que cela était suggéré dans un ouvrage composé par l’apothicaire de la reine, Nicolas Houel. Dans un contexte hostile aux prises de pouvoir féminin, Catherine se serait ainsi servie d’une fable amoureuse pour faciliter la construction de sa persona politique. Le mémoire s’attache plus précisément à examiner comment l’image traduit cette opération de refiguration du soi. Aussi, il s’inspire de l’importante réflexion menée ces dernières années en histoire de l’art et en anthropologie autour de la pensée d’Aby Warburg et s’applique à inscrire l’interprétation de l’image dans le champ de sa figurabilité.
Resumo:
Ce mémoire analyse l’espérance du temps de fixation conditionnellement à ce qu’elle se produise et la probabilité de fixation d’un nouvel allèle mutant dans des populations soumises à différents phénomènes biologiques en uti- lisant l’approche des processus ancestraux. Tout d’abord, l’article de Tajima (1990) est analysé et les différentes preuves y étant manquantes ou incomplètes sont détaillées, dans le but de se familiariser avec les calculs du temps de fixa- tion. L’étude de cet article permet aussi de démontrer l’importance du temps de fixation sur certains phénomènes biologiques. Par la suite, l’effet de la sé- lection naturelle est introduit au modèle. L’article de Mano (2009) cite un ré- sultat intéressant quant à l’espérance du temps de fixation conditionnellement à ce que celle-ci survienne qui utilise une approximation par un processus de diffusion. Une nouvelle méthode utilisant le processus ancestral est présentée afin d’arriver à une bonne approximation de ce résultat. Des simulations sont faites afin de vérifier l’exactitude de la nouvelle approche. Finalement, un mo- dèle soumis à la conversion génique est analysé, puisque ce phénomène, en présence de biais, a un effet similaire à celui de la sélection. Nous obtenons finalement un résultat analytique pour la probabilité de fixation d’un nouveau mutant dans la population. Enfin, des simulations sont faites afin de détermi- nerlaprobabilitédefixationainsiqueletempsdefixationconditionnellorsque les taux sont trop grands pour pouvoir les calculer analytiquement.
Resumo:
Le Renouveau charismatique catholique met de l’avant une rencontre personnelle avec Dieu par le croyant, qui se voit habilité à exercer des dons– parmi lesquels nous retrouvons la guérison par l’imposition des mains, la glossolalie et les révélations. La participation continue à un groupe religieux organisé de la part d’individus devenus autonomes dans leur relation à Dieu n’a pas encore fait l’objet d’une attention académique soutenue. La présente étude d’un Centre de prière du Renouveau catholique charismatique de Montréal, à partir d’une méthodologie d’inspiration phénoménologique et expérientielle, vise à développer cette problématique, tout en s’éloignant d’une compréhension purement rhétorique (Csordas 1997, 2001) de l’expérience charismatique. La socialisation religieuse (Fer 2005, 2007) encadrant l’entrée d’un nouveau membre au Centre met en lumière les mécanismes d’encadrement institutionnel invisibles permettant l’intégration d’une communauté de croyants tout en laissant paradoxalement l’individu vivre une expérience religieuse personnelle. Le sujet charismatique, socialisé religieusement dans une conversion vécue dans l’unité corps-esprit, développe de nouveaux modes d’attention somatique, permettant l’expérience de différentes intersubjectivités. Il en vient à partager un monde collectif de représentations et de sensations, développant parallèlement une agentivité accrue dans son rapport avec le sacré. Toutefois, alors que l’agentivité est usuellement conçue comme un acte de résistance, celle développée par les charismatiques va dans le sens d’une reproduction de la norme (Mahmood 2001). La socialisation religieuse établissant les paramètres d’émergence de cette agentivité, elle en constitue aussi le cadre délimitant son expression.
Resumo:
L’importance des produits naturels dans le développement de nouveaux médicaments est indéniable. Malheureusement, l’isolation et la purification de ces produits de leurs sources naturelles procure normalement de très faibles quantités de molécules biologiquement actives. Ce problème a grandement limité l’accès à des études biologiques approfondies et/ou à une distribution sur une grande échelle du composé actif. Par exemple, la famille des pipéridines contient plusieurs composés bioactifs isolés de sources naturelles en très faible quantité (de l’ordre du milligramme). Pour pallier à ce problème, nous avons développé trois nouvelles approches synthétiques divergentes vers des pipéridines polysubstituées contenant une séquence d’activation/désaromatisation d’un sel de pyridinium chiral et énantioenrichi. La première approche vise la synthèse de pipéridines 2,5-disubstituées par l’utilisation d’une réaction d’arylation intermoléculaire sur des 1,2,3,4-tétrahydropyridines 2-substituées. Nous avons ensuite développé une méthode de synthèse d’indolizidines et de quinolizidines par l’utilisation d’amides secondaires. Cette deuxième approche permet ainsi la synthèse formelle d’alcaloïdes non-naturels à la suite d’une addition/cyclisation diastéréosélective et régiosélective sur un intermédiaire pyridinium commun. Finalement, nous avons développé une nouvelle approche pour la synthèse de pipéridines 2,6-disubstituées par l’utilisation d’une réaction de lithiation dirigée suivie d’un couplage croisé de Negishi ou d’un parachèvement avec un réactif électrophile. Le développement de transformations chimiosélectives et versatiles est un enjeu crucial et actuel pour les chimistes organiciens. Nous avons émis l’hypothèse qu’il serait possible d’appliquer le concept de chimiosélectivité à la fonctionnalisation d’amides, un des groupements le plus souvent rencontrés dans la structure des molécules naturelles. Dans le cadre précis de cette thèse, des transformations chimiosélectives ont été réalisées sur des amides secondaires fonctionnalisés. La méthode repose sur l’activation de la fonction carbonyle par l’anhydride triflique en présence d’une base faible. Dans un premier temps, l’amide ainsi activé a été réduit sélectivement en fonction imine, aldéhyde ou amine en présence d’hydrures peu nucléophiles. Alternativement, un nucléophile carboné a été employé afin de permettre la synthèse de cétones ou des cétimines. D’autre part, en combinant un amide et un dérivé de pyridine, une réaction de cyclisation/déshydratation permet d’obtenir les d’imidazo[1,5-a]pyridines polysubstituées. De plus, nous avons brièvement appliqué ces conditions d’activation au réarrangement interrompu de type Beckmann sur des cétoximes. Une nouvelle voie synthétique pour la synthèse d’iodures d’alcyne a finalement été développée en utilisant une réaction d’homologation/élimination en un seul pot à partir de bromures benzyliques et allyliques commercialement disponibles. La présente méthode se distincte des autres méthodes disponibles dans la littérature par la simplicité des procédures réactionnelles qui ont été optimisées afin d’être applicable sur grande échelle.
Resumo:
L’apprentissage supervisé de réseaux hiérarchiques à grande échelle connaît présentement un succès fulgurant. Malgré cette effervescence, l’apprentissage non-supervisé représente toujours, selon plusieurs chercheurs, un élément clé de l’Intelligence Artificielle, où les agents doivent apprendre à partir d’un nombre potentiellement limité de données. Cette thèse s’inscrit dans cette pensée et aborde divers sujets de recherche liés au problème d’estimation de densité par l’entremise des machines de Boltzmann (BM), modèles graphiques probabilistes au coeur de l’apprentissage profond. Nos contributions touchent les domaines de l’échantillonnage, l’estimation de fonctions de partition, l’optimisation ainsi que l’apprentissage de représentations invariantes. Cette thèse débute par l’exposition d’un nouvel algorithme d'échantillonnage adaptatif, qui ajuste (de fa ̧con automatique) la température des chaînes de Markov sous simulation, afin de maintenir une vitesse de convergence élevée tout au long de l’apprentissage. Lorsqu’utilisé dans le contexte de l’apprentissage par maximum de vraisemblance stochastique (SML), notre algorithme engendre une robustesse accrue face à la sélection du taux d’apprentissage, ainsi qu’une meilleure vitesse de convergence. Nos résultats sont présent ́es dans le domaine des BMs, mais la méthode est générale et applicable à l’apprentissage de tout modèle probabiliste exploitant l’échantillonnage par chaînes de Markov. Tandis que le gradient du maximum de vraisemblance peut-être approximé par échantillonnage, l’évaluation de la log-vraisemblance nécessite un estimé de la fonction de partition. Contrairement aux approches traditionnelles qui considèrent un modèle donné comme une boîte noire, nous proposons plutôt d’exploiter la dynamique de l’apprentissage en estimant les changements successifs de log-partition encourus à chaque mise à jour des paramètres. Le problème d’estimation est reformulé comme un problème d’inférence similaire au filtre de Kalman, mais sur un graphe bi-dimensionnel, où les dimensions correspondent aux axes du temps et au paramètre de température. Sur le thème de l’optimisation, nous présentons également un algorithme permettant d’appliquer, de manière efficace, le gradient naturel à des machines de Boltzmann comportant des milliers d’unités. Jusqu’à présent, son adoption était limitée par son haut coût computationel ainsi que sa demande en mémoire. Notre algorithme, Metric-Free Natural Gradient (MFNG), permet d’éviter le calcul explicite de la matrice d’information de Fisher (et son inverse) en exploitant un solveur linéaire combiné à un produit matrice-vecteur efficace. L’algorithme est prometteur: en terme du nombre d’évaluations de fonctions, MFNG converge plus rapidement que SML. Son implémentation demeure malheureusement inefficace en temps de calcul. Ces travaux explorent également les mécanismes sous-jacents à l’apprentissage de représentations invariantes. À cette fin, nous utilisons la famille de machines de Boltzmann restreintes “spike & slab” (ssRBM), que nous modifions afin de pouvoir modéliser des distributions binaires et parcimonieuses. Les variables latentes binaires de la ssRBM peuvent être rendues invariantes à un sous-espace vectoriel, en associant à chacune d’elles, un vecteur de variables latentes continues (dénommées “slabs”). Ceci se traduit par une invariance accrue au niveau de la représentation et un meilleur taux de classification lorsque peu de données étiquetées sont disponibles. Nous terminons cette thèse sur un sujet ambitieux: l’apprentissage de représentations pouvant séparer les facteurs de variations présents dans le signal d’entrée. Nous proposons une solution à base de ssRBM bilinéaire (avec deux groupes de facteurs latents) et formulons le problème comme l’un de “pooling” dans des sous-espaces vectoriels complémentaires.