946 resultados para Classificazione spettrale,Saha,Boltzmann


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il est avant-tout question, dans ce mémoire, de la modélisation du timbre grâce à des algorithmes d'apprentissage machine. Plus précisément, nous avons essayé de construire un espace de timbre en extrayant des caractéristiques du son à l'aide de machines de Boltzmann convolutionnelles profondes. Nous présentons d'abord un survol de l'apprentissage machine, avec emphase sur les machines de Boltzmann convolutionelles ainsi que les modèles dont elles sont dérivées. Nous présentons aussi un aperçu de la littérature concernant les espaces de timbre, et mettons en évidence quelque-unes de leurs limitations, dont le nombre limité de sons utilisés pour les construire. Pour pallier à ce problème, nous avons mis en place un outil nous permettant de générer des sons à volonté. Le système utilise à sa base des plug-ins qu'on peut combiner et dont on peut changer les paramètres pour créer une gamme virtuellement infinie de sons. Nous l'utilisons pour créer une gigantesque base de donnée de timbres générés aléatoirement constituée de vrais instruments et d'instruments synthétiques. Nous entrainons ensuite les machines de Boltzmann convolutionnelles profondes de façon non-supervisée sur ces timbres, et utilisons l'espace des caractéristiques produites comme espace de timbre. L'espace de timbre ainsi obtenu est meilleur qu'un espace semblable construit à l'aide de MFCC. Il est meilleur dans le sens où la distance entre deux timbres dans cet espace est plus semblable à celle perçue par un humain. Cependant, nous sommes encore loin d'atteindre les mêmes capacités qu'un humain. Nous proposons d'ailleurs quelques pistes d'amélioration pour s'en approcher.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Malgré les progrès des traitements des cancers du sein, ceux-ci demeurent la seconde cause de mortalité par cancer au Canada. Parmi les gènes associés aux cancers du sein, le récepteur des œstrogènes ERα est exprimé dans plus de 70% des tumeurs mammaires, qui prolifèrent en réponse aux œstrogènes, faisant de lui une cible de choix. ERα est un facteur de transcription ligand-dépendant, liant des éléments de réponse PuGGTCAnnnTGACCPy. Afin d’examiner la capacité des récepteurs nucléaires à reconnaitre de nouveaux motifs ADN, des mutants aux capacités de liaison modifiées ont été générés. Parmi les quatre résidus interagissant avec l’ADN, R211 ne peut pas être modifiée sans perdre complètement la liaison du récepteur à l’ADN. Néanmoins, les mutations combinées de plusieurs acides aminés contactant les bases de l’ERE ont généré des récepteurs capables de reconnaitre de nouveaux motifs, tout en conservant des niveaux de transactivation efficaces. L’utilisation potentielle des récepteurs nucléaires comme outils de thérapie génique hormono-dépendant, repose sur la prédiction des motifs de liaison efficaces. Étant donné son importance dans la carcinogenèse mammaire, ERα est une cible cruciale des thérapies anti-néoplastiques. L’anti-œstrogène total, ICI, induit la dégradation de ERα et l’arrêt de la croissance des cellules tumorales mammaires ERα-positives. De plus, la nouvelle drogue anti-tumorale HDACi, SAHA, module la voie de signalisation des œstrogènes et possède des propriétés prometteuses en association avec d’autres traitements anti-tumoraux. En effet, le co-traitement ICI et SAHA a un impact synergique sur l’inhibition de la prolifération des cellules mammaires tumorales ERα-positives. Cette synergie repose sur la coopération des effets de ICI et SAHA pour réduire les niveaux protéiques de ERα et bloquer la progression du cycle cellulaire via la modulation de la transcription des gènes cibles des œstrogènes. En fait, les fortes doses de HDACis masquent rapidement et complètement la signalisation transcriptionnelle des œstrogènes. De plus, les gènes cibles primaires des œstrogènes, contenant des EREs, présentent la même régulation transcriptionnelle en réponse aux fortes doses de SAHA ou du co-traitement, avec des doses utilisables en clinique de ICI et SAHA. En fait, ICI mime l’impact des fortes doses de SAHA, en dégradant ERα, potentialisant ainsi la répression de la transcription ERE-dépendante par SAHA. Finalement, la synergie des effets de ICI et SAHA pourrait augmenter l’efficacité des traitements des tumeurs mammaires.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’activité rythmique des muscles masticateurs (ARMM) pendant le sommeil se retrouve chez environ 60% de la population générale adulte. L'étiologie de ce mouvement n'est pas encore complètement élucidée. Il est cependant démontré que l’augmentation de la fréquence des ARMM peut avoir des conséquences négatives sur le système masticatoire. Dans ce cas, l'ARMM est considérée en tant que manifestation d'un trouble moteur du sommeil connue sous le nom de bruxisme. Selon la Classification Internationale des Troubles du Sommeil, le bruxisme est décrit comme le serrement et grincement des dents pendant le sommeil. La survenue des épisodes d’ARMM est associée à une augmentation du tonus du système nerveux sympathique, du rythme cardiaque, de la pression artérielle et elle est souvent en association avec une amplitude respiratoire accrue. Tous ces événements peuvent être décrits dans le contexte d’un micro-éveil du sommeil. Cette thèse comprend quatre articles de recherche visant à étudier i) l'étiologie de l’ARMM pendant le sommeil en relation aux micro-éveils, et à évaluer ii) les aspects cliniques du bruxisme du sommeil, du point de vue diagnostique et thérapeutique. Pour approfondir l'étiologie de l’ARMM et son association avec la fluctuation des micro-éveils, nous avons analysé le patron cyclique alternant (ou cyclic alternating pattern (CAP) en anglais), qui est une méthode d’analyse qui permet d’évaluer l'instabilité du sommeil et de décrire la puissance des micro-éveils. Le CAP a été étudié chez des sujets bruxeurs et des sujets contrôles qui ont participé à deux protocoles expérimentaux, dans lesquels la structure et la stabilité du sommeil ont été modifiées par l'administration d'un médicament (la clonidine), ou avec l'application de stimulations sensorielles (de type vibratoire/auditif) pendant le sommeil. Dans ces deux conditions expérimentales caractérisées par une instabilité accrue du sommeil, nous étions en mesure de démontrer que les micro-éveils ne sont pas la cause ou le déclencheur de l’ARMM, mais ils représentent plutôt la «fenêtre permissive» qui facilite l'apparition de ces mouvements rythmiques au cours du sommeil. Pour évaluer la pertinence clinique du bruxisme, la prévalence et les facteurs de risque, nous avons effectué une étude épidémiologique dans une population pédiatrique (7-17 ans) qui était vue en consultation en orthodontie. Nous avons constaté que le bruxisme est un trouble du sommeil très fréquent chez les enfants (avec une prévalence de 15%), et il est un facteur de risque pour l'usure des dents (risque relatif rapproché, RRR 8,8), la fatigue des muscles masticateurs (RRR 10,5), les maux de tête fréquents (RRR 4,3), la respiration bruyante pendant le sommeil (RRR 3,1), et divers symptômes liés au sommeil, tels que la somnolence diurne (RRR 7,4). Ces résultats nous ont amenés à développer une étude expérimentale pour évaluer l'efficacité d'un appareil d'avancement mandibulaire (AAM) chez un groupe d'adolescents qui présentaient à la fois du bruxisme, du ronflement et des maux de tête fréquents. L'hypothèse est que dans la pathogenèse de ces comorbidités, il y a un mécanisme commun, probablement lié à la respiration pendant le sommeil, et que l'utilisation d'un AAM peut donc agir sur plusieurs aspects liés. À court terme, le traitement avec un AAM semble diminuer l'ARMM (jusqu'à 60% de diminution), et améliorer le ronflement et les maux de tête chez les adolescents. Cependant, le mécanisme d'action exact des AAM demeure incertain; leur efficacité peut être liée à l'amélioration de la respiration pendant le sommeil, mais aussi à l'influence que ces appareils pourraient avoir sur le système masticatoire. Les interactions entre le bruxisme du sommeil, la respiration et les maux de tête, ainsi que l'efficacité et la sécurité à long terme des AAM chez les adolescents, nécessitent des études plus approfondies.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Malgré des progrès constants en termes de capacité de calcul, mémoire et quantité de données disponibles, les algorithmes d'apprentissage machine doivent se montrer efficaces dans l'utilisation de ces ressources. La minimisation des coûts est évidemment un facteur important, mais une autre motivation est la recherche de mécanismes d'apprentissage capables de reproduire le comportement d'êtres intelligents. Cette thèse aborde le problème de l'efficacité à travers plusieurs articles traitant d'algorithmes d'apprentissage variés : ce problème est vu non seulement du point de vue de l'efficacité computationnelle (temps de calcul et mémoire utilisés), mais aussi de celui de l'efficacité statistique (nombre d'exemples requis pour accomplir une tâche donnée). Une première contribution apportée par cette thèse est la mise en lumière d'inefficacités statistiques dans des algorithmes existants. Nous montrons ainsi que les arbres de décision généralisent mal pour certains types de tâches (chapitre 3), de même que les algorithmes classiques d'apprentissage semi-supervisé à base de graphe (chapitre 5), chacun étant affecté par une forme particulière de la malédiction de la dimensionalité. Pour une certaine classe de réseaux de neurones, appelés réseaux sommes-produits, nous montrons qu'il peut être exponentiellement moins efficace de représenter certaines fonctions par des réseaux à une seule couche cachée, comparé à des réseaux profonds (chapitre 4). Nos analyses permettent de mieux comprendre certains problèmes intrinsèques liés à ces algorithmes, et d'orienter la recherche dans des directions qui pourraient permettre de les résoudre. Nous identifions également des inefficacités computationnelles dans les algorithmes d'apprentissage semi-supervisé à base de graphe (chapitre 5), et dans l'apprentissage de mélanges de Gaussiennes en présence de valeurs manquantes (chapitre 6). Dans les deux cas, nous proposons de nouveaux algorithmes capables de traiter des ensembles de données significativement plus grands. Les deux derniers chapitres traitent de l'efficacité computationnelle sous un angle différent. Dans le chapitre 7, nous analysons de manière théorique un algorithme existant pour l'apprentissage efficace dans les machines de Boltzmann restreintes (la divergence contrastive), afin de mieux comprendre les raisons qui expliquent le succès de cet algorithme. Finalement, dans le chapitre 8 nous présentons une application de l'apprentissage machine dans le domaine des jeux vidéo, pour laquelle le problème de l'efficacité computationnelle est relié à des considérations d'ingénierie logicielle et matérielle, souvent ignorées en recherche mais ô combien importantes en pratique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse étudie des modèles de séquences de haute dimension basés sur des réseaux de neurones récurrents (RNN) et leur application à la musique et à la parole. Bien qu'en principe les RNN puissent représenter les dépendances à long terme et la dynamique temporelle complexe propres aux séquences d'intérêt comme la vidéo, l'audio et la langue naturelle, ceux-ci n'ont pas été utilisés à leur plein potentiel depuis leur introduction par Rumelhart et al. (1986a) en raison de la difficulté de les entraîner efficacement par descente de gradient. Récemment, l'application fructueuse de l'optimisation Hessian-free et d'autres techniques d'entraînement avancées ont entraîné la recrudescence de leur utilisation dans plusieurs systèmes de l'état de l'art. Le travail de cette thèse prend part à ce développement. L'idée centrale consiste à exploiter la flexibilité des RNN pour apprendre une description probabiliste de séquences de symboles, c'est-à-dire une information de haut niveau associée aux signaux observés, qui en retour pourra servir d'à priori pour améliorer la précision de la recherche d'information. Par exemple, en modélisant l'évolution de groupes de notes dans la musique polyphonique, d'accords dans une progression harmonique, de phonèmes dans un énoncé oral ou encore de sources individuelles dans un mélange audio, nous pouvons améliorer significativement les méthodes de transcription polyphonique, de reconnaissance d'accords, de reconnaissance de la parole et de séparation de sources audio respectivement. L'application pratique de nos modèles à ces tâches est détaillée dans les quatre derniers articles présentés dans cette thèse. Dans le premier article, nous remplaçons la couche de sortie d'un RNN par des machines de Boltzmann restreintes conditionnelles pour décrire des distributions de sortie multimodales beaucoup plus riches. Dans le deuxième article, nous évaluons et proposons des méthodes avancées pour entraîner les RNN. Dans les quatre derniers articles, nous examinons différentes façons de combiner nos modèles symboliques à des réseaux profonds et à la factorisation matricielle non-négative, notamment par des produits d'experts, des architectures entrée/sortie et des cadres génératifs généralisant les modèles de Markov cachés. Nous proposons et analysons également des méthodes d'inférence efficaces pour ces modèles, telles la recherche vorace chronologique, la recherche en faisceau à haute dimension, la recherche en faisceau élagué et la descente de gradient. Finalement, nous abordons les questions de l'étiquette biaisée, du maître imposant, du lissage temporel, de la régularisation et du pré-entraînement.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’objectif de cette thèse par articles est de présenter modestement quelques étapes du parcours qui mènera (on espère) à une solution générale du problème de l’intelligence artificielle. Cette thèse contient quatre articles qui présentent chacun une différente nouvelle méthode d’inférence perceptive en utilisant l’apprentissage machine et, plus particulièrement, les réseaux neuronaux profonds. Chacun de ces documents met en évidence l’utilité de sa méthode proposée dans le cadre d’une tâche de vision par ordinateur. Ces méthodes sont applicables dans un contexte plus général, et dans certains cas elles on tété appliquées ailleurs, mais ceci ne sera pas abordé dans le contexte de cette de thèse. Dans le premier article, nous présentons deux nouveaux algorithmes d’inférence variationelle pour le modèle génératif d’images appelé codage parcimonieux “spike- and-slab” (CPSS). Ces méthodes d’inférence plus rapides nous permettent d’utiliser des modèles CPSS de tailles beaucoup plus grandes qu’auparavant. Nous démontrons qu’elles sont meilleures pour extraire des détecteur de caractéristiques quand très peu d’exemples étiquetés sont disponibles pour l’entraînement. Partant d’un modèle CPSS, nous construisons ensuite une architecture profonde, la machine de Boltzmann profonde partiellement dirigée (MBP-PD). Ce modèle a été conçu de manière à simplifier d’entraînement des machines de Boltzmann profondes qui nécessitent normalement une phase de pré-entraînement glouton pour chaque couche. Ce problème est réglé dans une certaine mesure, mais le coût d’inférence dans le nouveau modèle est relativement trop élevé pour permettre de l’utiliser de manière pratique. Dans le deuxième article, nous revenons au problème d’entraînement joint de machines de Boltzmann profondes. Cette fois, au lieu de changer de famille de modèles, nous introduisons un nouveau critère d’entraînement qui donne naissance aux machines de Boltzmann profondes à multiples prédictions (MBP-MP). Les MBP-MP sont entraînables en une seule étape et ont un meilleur taux de succès en classification que les MBP classiques. Elles s’entraînent aussi avec des méthodes variationelles standard au lieu de nécessiter un classificateur discriminant pour obtenir un bon taux de succès en classification. Par contre, un des inconvénients de tels modèles est leur incapacité de générer deséchantillons, mais ceci n’est pas trop grave puisque la performance de classification des machines de Boltzmann profondes n’est plus une priorité étant donné les dernières avancées en apprentissage supervisé. Malgré cela, les MBP-MP demeurent intéressantes parce qu’elles sont capable d’accomplir certaines tâches que des modèles purement supervisés ne peuvent pas faire, telles que celle de classifier des données incomplètes ou encore celle de combler intelligemment l’information manquante dans ces données incomplètes. Le travail présenté dans cette thèse s’est déroulé au milieu d’une période de transformations importantes du domaine de l’apprentissage à réseaux neuronaux profonds qui a été déclenchée par la découverte de l’algorithme de “dropout” par Geoffrey Hinton. Dropout rend possible un entraînement purement supervisé d’architectures de propagation unidirectionnel sans être exposé au danger de sur- entraînement. Le troisième article présenté dans cette thèse introduit une nouvelle fonction d’activation spécialement con ̧cue pour aller avec l’algorithme de Dropout. Cette fonction d’activation, appelée maxout, permet l’utilisation de aggrégation multi-canal dans un contexte d’apprentissage purement supervisé. Nous démontrons comment plusieurs tâches de reconnaissance d’objets sont mieux accomplies par l’utilisation de maxout. Pour terminer, sont présentons un vrai cas d’utilisation dans l’industrie pour la transcription d’adresses de maisons à plusieurs chiffres. En combinant maxout avec une nouvelle sorte de couche de sortie pour des réseaux neuronaux de convolution, nous démontrons qu’il est possible d’atteindre un taux de succès comparable à celui des humains sur un ensemble de données coriace constitué de photos prises par les voitures de Google. Ce système a été déployé avec succès chez Google pour lire environ cent million d’adresses de maisons.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La chromatine possède une plasticité complexe et essentielle pour répondre à différents mécanismes cellulaires fondamentaux tels la réplication, la transcription et la réparation de l’ADN. Les histones sont les constituants essentiels de la formation des nucléosomes qui assurent le bon fonctionnement cellulaire d’où l’intérêt de cette thèse d’y porter une attention particulière. Un dysfonctionnement de la chromatine est souvent associé à l’émergence du cancer. Le chapitre II de cette thèse focalise sur la répression transcriptionnelle des gènes d’histones par le complexe HIR (HIstone gene Repressor) en réponse au dommage à l'ADN chez Saccharomyces cerevisiae. Lors de dommage à l’ADN en début de phase S, les kinases du point de contrôle Mec1, Tel1 et Rad53 s’assurent de bloquer les origines tardives de réplication pour limiter le nombre de collisions potentiellement mutagéniques ou cytotoxiques entre les ADN polymérases et les lésions persistantes dans l'ADN. Lorsque la synthèse totale d’ADN est soudainement ralentie par le point de contrôle, l’accumulation d'un excès d'histones nouvellement synthétisées est néfaste pour les cellules car les histones libres se lient de manière non-spécifique aux acides nucléiques. L'un des mécanismes mis en place afin de minimiser la quantité d’histones libres consiste à réprimer la transcription des gènes d'histones lors d'une chute rapide de la synthèse d'ADN, mais les bases moléculaires de ce mécanisme étaient très mal connues. Notre étude sur la répression des gènes d’histones en réponse aux agents génotoxiques nous a permis d’identifier que les kinases du point de contrôle jouent un rôle dans la répression des gènes d’histones. Avant le début de mon projet, il était déjà connu que le complexe HIR est requis pour la répression des gènes d’histones en phase G1, G2/M et lors de dommage à l’ADN en phase S. Par contre, la régulation du complexe HIR en réponse au dommage à l'ADN n'était pas connue. Nous avons démontré par des essais de spectrométrie de masse (SM) que Rad53 régule le complexe HIR en phosphorylant directement une de ses sous-unités, Hpc2, à de multiples résidus in vivo et in vitro. La phosphorylation d’Hpc2 est essentielle pour le recrutement aux promoteurs de gènes d’histones du complexe RSC (Remodels the Structure of Chromatin) dont la présence sur les promoteurs des gènes d'histones corrèle avec leur répression. De plus, nous avons mis à jour un nouveau mécanisme de régulation du complexe HIR durant la progression normale à travers le cycle cellulaire ainsi qu'en réponse aux agents génotoxiques. En effet, durant le cycle cellulaire normal, la protéine Hpc2 est très instable durant la transition G1/S afin de permettre la transcription des gènes d’histones et la production d'un pool d'histones néo-synthétisées juste avant l'initiation de la réplication de l’ADN. Toutefois, Hpc2 n'est instable que pour une brève période de temps durant la phase S. Ces résultats suggèrent qu'Hpc2 est une protéine clef pour la régulation de l'activité du complexe HIR et la répression des gènes d’histones lors du cycle cellulaire normal ainsi qu'en réponse au dommage à l’ADN. Dans le but de poursuivre notre étude sur la régulation des histones, le chapitre III de ma thèse concerne l’analyse globale de l’acétylation des histones induite par les inhibiteurs d’histone désacétylases (HDACi) dans les cellules normales et cancéreuses. Les histones désacétylases (HDACs) sont les enzymes qui enlèvent l’acétylation sur les lysines des histones. Dans plusieurs types de cancers, les HDACs contribuent à l’oncogenèse par leur fusion aberrante avec des complexes protéiques oncogéniques. Les perturbations causées mènent souvent à un état silencieux anormal des suppresseurs de tumeurs. Les HDACs sont donc une cible de choix dans le traitement des cancers engendrés par ces protéines de fusion. Notre étude de l’effet sur l’acétylation des histones de deux inhibiteurs d'HDACs de relevance clinique, le vorinostat (SAHA) et l’entinostat (MS-275), a permis de démontrer une augmentation élevée de l’acétylation globale des histones H3 et H4, contrairement à H2A et H2B, et ce, autant chez les cellules normales que cancéreuses. Notre quantification en SM de l'acétylation des histones a révélé de façon inattendue que la stœchiométrie d'acétylation sur la lysine 56 de l’histone H3 (H3K56Ac) est de seulement 0,03% et, de manière surprenante, cette stœchiométrie n'augmente pas dans des cellules traitées avec différents HDACi. Plusieurs études de H3K56Ac chez l’humain présentes dans la littérature ont rapporté des résultats irréconciliables. Qui plus est, H3K56Ac était considéré comme un biomarqueur potentiel dans le diagnostic et pronostic de plusieurs types de cancers. C’est pourquoi nous avons porté notre attention sur la spécificité des anticorps utilisés et avons déterminé qu’une grande majorité d’anticorps utilisés dans la littérature reconnaissent d’autres sites d'acétylation de l’histone H3, notamment H3K9Ac dont la stœchiométrie d'acétylation in vivo est beaucoup plus élevée que celle d'H3K56Ac. De plus, le chapitre IV fait suite à notre étude sur l’acétylation des histones et consiste en un rapport spécial de recherche décrivant la fonction de H3K56Ac chez la levure et l’homme et comporte également une évaluation d’un anticorps supposément spécifique d'H3K56Ac en tant qu'outil diagnostic du cancer chez l’humain.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Après des décennies de développement, l'ablation laser est devenue une technique importante pour un grand nombre d'applications telles que le dépôt de couches minces, la synthèse de nanoparticules, le micro-usinage, l’analyse chimique, etc. Des études expérimentales ainsi que théoriques ont été menées pour comprendre les mécanismes physiques fondamentaux mis en jeu pendant l'ablation et pour déterminer l’effet de la longueur d'onde, de la durée d'impulsion, de la nature de gaz ambiant et du matériau de la cible. La présente thèse décrit et examine l'importance relative des mécanismes physiques qui influencent les caractéristiques des plasmas d’aluminium induits par laser. Le cadre général de cette recherche forme une étude approfondie de l'interaction entre la dynamique de la plume-plasma et l’atmosphère gazeuse dans laquelle elle se développe. Ceci a été réalisé par imagerie résolue temporellement et spatialement de la plume du plasma en termes d'intensité spectrale, de densité électronique et de température d'excitation dans différentes atmosphères de gaz inertes tel que l’Ar et l’He et réactifs tel que le N2 et ce à des pressions s’étendant de 10‾7 Torr (vide) jusqu’à 760 Torr (pression atmosphérique). Nos résultats montrent que l'intensité d'émission de plasma dépend généralement de la nature de gaz et qu’elle est fortement affectée par sa pression. En outre, pour un délai temporel donné par rapport à l'impulsion laser, la densité électronique ainsi que la température augmentent avec la pression de gaz, ce qui peut être attribué au confinement inertiel du plasma. De plus, on observe que la densité électronique est maximale à proximité de la surface de la cible où le laser est focalisé et qu’elle diminue en s’éloignant (axialement et radialement) de cette position. Malgré la variation axiale importante de la température le long du plasma, on trouve que sa variation radiale est négligeable. La densité électronique et la température ont été trouvées maximales lorsque le gaz est de l’argon et minimales pour l’hélium, tandis que les valeurs sont intermédiaires dans le cas de l’azote. Ceci tient surtout aux propriétés physiques et chimiques du gaz telles que la masse des espèces, leur énergie d'excitation et d'ionisation, la conductivité thermique et la réactivité chimique. L'expansion de la plume du plasma a été étudiée par imagerie résolue spatio-temporellement. Les résultats montrent que la nature de gaz n’affecte pas la dynamique de la plume pour des pressions inférieures à 20 Torr et pour un délai temporel inférieur à 200 ns. Cependant, pour des pressions supérieures à 20 Torr, l'effet de la nature du gaz devient important et la plume la plus courte est obtenue lorsque la masse des espèces du gaz est élevée et lorsque sa conductivité thermique est relativement faible. Ces résultats sont confirmés par la mesure de temps de vol de l’ion Al+ émettant à 281,6 nm. D’autre part, on trouve que la vitesse de propagation des ions d’aluminium est bien définie juste après l’ablation et près de la surface de la cible. Toutefois, pour un délai temporel important, les ions, en traversant la plume, se thermalisent grâce aux collisions avec les espèces du plasma et du gaz.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les algorithmes d'apprentissage profond forment un nouvel ensemble de méthodes puissantes pour l'apprentissage automatique. L'idée est de combiner des couches de facteurs latents en hierarchies. Cela requiert souvent un coût computationel plus elevé et augmente aussi le nombre de paramètres du modèle. Ainsi, l'utilisation de ces méthodes sur des problèmes à plus grande échelle demande de réduire leur coût et aussi d'améliorer leur régularisation et leur optimization. Cette thèse adresse cette question sur ces trois perspectives. Nous étudions tout d'abord le problème de réduire le coût de certains algorithmes profonds. Nous proposons deux méthodes pour entrainer des machines de Boltzmann restreintes et des auto-encodeurs débruitants sur des distributions sparses à haute dimension. Ceci est important pour l'application de ces algorithmes pour le traitement de langues naturelles. Ces deux méthodes (Dauphin et al., 2011; Dauphin and Bengio, 2013) utilisent l'échantillonage par importance pour échantilloner l'objectif de ces modèles. Nous observons que cela réduit significativement le temps d'entrainement. L'accéleration atteint 2 ordres de magnitude sur plusieurs bancs d'essai. Deuxièmement, nous introduisont un puissant régularisateur pour les méthodes profondes. Les résultats expérimentaux démontrent qu'un bon régularisateur est crucial pour obtenir de bonnes performances avec des gros réseaux (Hinton et al., 2012). Dans Rifai et al. (2011), nous proposons un nouveau régularisateur qui combine l'apprentissage non-supervisé et la propagation de tangente (Simard et al., 1992). Cette méthode exploite des principes géometriques et permit au moment de la publication d'atteindre des résultats à l'état de l'art. Finalement, nous considérons le problème d'optimiser des surfaces non-convexes à haute dimensionalité comme celle des réseaux de neurones. Tradionellement, l'abondance de minimum locaux était considéré comme la principale difficulté dans ces problèmes. Dans Dauphin et al. (2014a) nous argumentons à partir de résultats en statistique physique, de la théorie des matrices aléatoires, de la théorie des réseaux de neurones et à partir de résultats expérimentaux qu'une difficulté plus profonde provient de la prolifération de points-selle. Dans ce papier nous proposons aussi une nouvelle méthode pour l'optimisation non-convexe.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

- Réalisé au centre de recherche de l'hospital du Sacré-Coeur de Montréal. - Programme conjoint entre Université de Montréal et École Polytechnique de Montréal.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En mécanique statistique, un système physique est représenté par un système mécanique avec un très grand nombre de degrés de liberté. Ce qui est expérimentalement accessible, croit-on, se limite à des moyennes temporelles sur de longues périodes. Or, il est bien connu qu’un système physique tend vers un équilibre thermodynamique. Ainsi, les moyennes temporelles censées représenter les résultats de mesure doivent être indépendantes du temps. C’est pourquoi elles sont associées à des temps infinis. Ces moyennes sont par contre difficilement analysables, et c’est pourquoi la moyenne des phases est utilisée. La justification de l’égalité de la moyenne temporelle infinie et de la moyenne des phases est le problème ergodique. Ce problème, sous une forme ou une autre, a fait l’objet d’études de la part de Boltzmann (1868 ; 1872), les Ehrenfest (1912), Birkhoff (1831), Khinchin (1949), et bien d’autres, jusqu’à devenir une théorie à part entière en mathématique (Mackey 1974). Mais l’introduction de temps infinis pose des problèmes physiques et philosophiques d’importance. En effet, si l’infini a su trouver une nouvelle place dans les mathématiques cantoriennes, sa place en physique n’est pas aussi assurée. Je propose donc de présenter les développements conceptuels entourant la théorie ergodique en mécanique statistique avant de me concentrer sur les problèmes épistémologiques que soulève la notion d’infini dans ces mêmes développements.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Global Positioning System (GPS), with its high integrity, continuous availability and reliability, revolutionized the navigation system based on radio ranging. With four or more GPS satellites in view, a GPS receiver can find its location anywhere over the globe with accuracy of few meters. High accuracy - within centimeters, or even millimeters is achievable by correcting the GPS signal with external augmentation system. The use of satellite for critical application like navigation has become a reality through the development of these augmentation systems (like W AAS, SDCM, and EGNOS, etc.) with a primary objective of providing essential integrity information needed for navigation service in their respective regions. Apart from these, many countries have initiated developing space-based regional augmentation systems like GAGAN and IRNSS of India, MSAS and QZSS of Japan, COMPASS of China, etc. In future, these regional systems will operate simultaneously and emerge as a Global Navigation Satellite System or GNSS to support a broad range of activities in the global navigation sector.Among different types of error sources in the GPS precise positioning, the propagation delay due to the atmospheric refraction is a limiting factor on the achievable accuracy using this system. The WADGPS, aimed for accurate positioning over a large area though broadcasts different errors involved in GPS ranging including ionosphere and troposphere errors, due to the large temporal and spatial variations in different atmospheric parameters especially in lower atmosphere (troposphere), the use of these broadcasted tropospheric corrections are not sufficiently accurate. This necessitated the estimation of tropospheric error based on realistic values of tropospheric refractivity. Presently available methodologies for the estimation of tropospheric delay are mostly based on the atmospheric data and GPS measurements from the mid-latitude regions, where the atmospheric conditions are significantly different from that over the tropics. No such attempts were made over the tropics. In a practical approach when the measured atmospheric parameters are not available analytical models evolved using data from mid-latitudes for this purpose alone can be used. The major drawback of these existing models is that it neglects the seasonal variation of the atmospheric parameters at stations near the equator. At tropics the model underestimates the delay in quite a few occasions. In this context, the present study is afirst and major step towards the development of models for tropospheric delay over the Indian region which is a prime requisite for future space based navigation program (GAGAN and IRNSS). Apart from the models based on the measured surface parameters, a region specific model which does not require any measured atmospheric parameter as input, but depends on latitude and day of the year was developed for the tropical region with emphasis on Indian sector.Large variability of atmospheric water vapor content in short spatial and/or temporal scales makes its measurement rather involved and expensive. A local network of GPS receivers is an effective tool for water vapor remote sensing over the land. This recently developed technique proves to be an effective tool for measuring PW. The potential of using GPS to estimate water vapor in the atmosphere at all-weather condition and with high temporal resolution is attempted. This will be useful for retrieving columnar water vapor from ground based GPS data. A good network of GPS could be a major source of water vapor information for Numerical Weather Prediction models and could act as surrogate to the data gap in microwave remote sensing for water vapor over land.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Màster Experimental en Química: Química Física