936 resultados para ecuación de Boltzmann-Hamel modificada
Resumo:
Cette recherche explore le Théâtre-forum comme support méthodologie d’un espace délibératif pour discuter des tensions sociales liées à la coprésence au centre-ville de Montréal entre des personnes en situation de rue et leurs voisins domiciliés. L’argument au cœur de la problématique repose sur les taches aveugles de la délibération: dans les forums de quartier, les inégalités sociales se traduisent par des inégalités délibératives au désavantage des personnes sans adresse en défaut d’autorité épistémologique en raison de leur statut; ces inégalités délibératives reproduisent le déni de reconnaissance qui traverse l’expérience relationnelle de ces personnes. Le Théâtre-forum est issu du Théâtre de l’opprimé : une pratique d’intervention théâtrale conçue par Augusto Boal durant la dictature au Brésil comme dispositif émancipateur pour les groupes opprimés. Le Joker incite les membres de l’auditoire à devenir Spect-acteurs par les remplacements du protagoniste, et ce, afin de surmonter son oppression. Ainsi, cette projection dans les chaussures du protagoniste-itinérant facilite-t-elle ce passage de l’indignité à la reconnaissance pour les personnes en situation de rue? L’échange théâtral peut-il ouvrir la voie vers la reconstruction d’un lien intersubjectif entre personnes sans adresse et domiciliés, intersubjectivité qui au cœur-même des vertus délibératives et des principes fondateurs défendus par les théoriciens de la reconnaissance comme Honneth et Renault?
Resumo:
Cette thèse de doctorat met en lumière les stratégies narratives déployées dans le récit français actuel pour représenter et construire son présent. L’hypothèse principale que cette recherche vérifie est la suivante : la littérature narrative d’aujourd’hui, par le recours à une énonciation entremêlant discours et narration ainsi que par une utilisation critique et pragmatique du passé, réplique au « présentisme » observé par François Hartog, cette perspective sur les temps dont le point d’observation et le point observé sont le présent. Les écrivains contemporains mettent en place un régime de temporalités où passé et avenir sont coordonnés au présent pour pacifier le rapport entre les trois catégories temporelles et faire apparaître un présent qui, sinon, demeure narrativement insaisissable ou soumis à l’autorité d’un passé ou d’un avenir qui dicte ses actions. En distinguant leurs textes du genre romanesque et du mode narratif qui le compose, Pierre Bergounioux, François Bon, Olivier Cadiot, Chloé Delaume, Annie Ernaux, Jean Echenoz et Olivier Rolin, entre autres, s’inscrivent dans la tradition énonciative du récit, ici entendu comme genre littéraire où l’énonciation et le texte en formation sont à eux-mêmes leur propre intrigue. Le sujet d’énonciation du récit contemporain cherche à élucider son rapport au temps en ayant recours à des scènes énonciatives qui ont à voir avec l’enquête et l’interlocution, de manière à ce que d’une anamnèse personnelle et intellectuelle, de même que de la confrontation d’une mémoire avec son récit jaillissent les caractéristiques d’une expérience du présent. Or, une des caractéristiques du présent expérimenté par le sujet contemporain semble être une résistance à la narration et au récit, rendant alors difficile sa saisie littéraire. Cette opposition au récit est investie par des écrivains qui ont recours, pour donner à voir l’immédiateté du présent, à la note et au journal, de même qu’à des genres littéraires qui mettent en échec la narration, notamment la poésie. En dépit de leurs efforts énonciatifs pour extraire le présent de l’opération qui le transforme en passé, ces écrivains font tout de même l’expérience répétée de la disparition immédiate du présent et de leur incapacité à énoncer littérairement un sentiment du présent. Le seul moyen d’en donner un aperçu reste alors peut-être de chercher à construire le présent à partir du constat répété de l’impossibilité d’un tel accomplissement.
Resumo:
Les logiciels sont en constante évolution, nécessitant une maintenance et un développement continus. Ils subissent des changements tout au long de leur vie, que ce soit pendant l'ajout de nouvelles fonctionnalités ou la correction de bogues. Lorsque les logiciels évoluent, leurs architectures ont tendance à se dégrader et deviennent moins adaptables aux nouvelles spécifications des utilisateurs. En effet, les architectures de ces logiciels deviennent plus complexes et plus difficiles à maintenir à cause des nombreuses dépendances entre les artefacts. Par conséquent, les développeurs doivent comprendre les dépendances entre les artefacts des logiciels pour prendre des mesures proactives qui facilitent les futurs changements et ralentissent la dégradation des architectures des logiciels. D'une part, le maintien d'un logiciel sans la compréhension des les dépendances entre ses artefacts peut conduire à l'introduction de défauts. D'autre part, lorsque les développeurs manquent de connaissances sur l'impact de leurs activités de maintenance, ils peuvent introduire des défauts de conception, qui ont un impact négatif sur l'évolution du logiciel. Ainsi, les développeurs ont besoin de mécanismes pour comprendre comment le changement d'un artefact impacte le reste du logiciel. Dans cette thèse, nous proposons trois contributions principales : La spécification de deux nouveaux patrons de changement et leurs utilisations pour fournir aux développeurs des informations utiles concernant les dépendances de co-changement. La spécification de la relation entre les patrons d'évolutions des artefacts et les fautes. La découverte de la relation entre les dépendances des anti-patrons et la prédisposition des différentes composantes d'un logiciel aux fautes.
Resumo:
Cette recherche explore le sens que la « génération de l’information » (20-35 ans) donne à l’engagement. Alors que sociologues et médias ont longtemps brandi des chiffres alarmants concernant la désaffection électorale des jeunes et leur rejet des associations ou groupes de pression usuels, le développement du Web 2.0 semble donner lieu à de nouvelles formes d’action visant le changement social, qui sont particulièrement prisées par les jeunes. Analysant leur recours à des pratiques de manifestations éclairs (flash mobs), de cyberdissidence, l’utilisation du micro-blogging et des réseaux Facebook et Twitter dans le cadre de mobilisations récentes, des enquêtes suggèrent qu’elles témoignent d’une nouvelle culture de la participation sociale et politique, qui appelle à repenser les façons de concevoir et de définir l’engagement. Or, si nous assistons à une transformation profonde des répertoires et des modes d’action des jeunes, il demeure difficile de comprendre en quoi et comment l’utilisation des TIC influence leur intérêt ou motivation à « agir ». Que veut dire s’engager pour les jeunes aujourd’hui ? Comment perçoivent-ils le contexte social, politique et médiatique ? Quelle place estiment-ils pouvoir y occuper ? Soulignant l’importance du sens que les acteurs sociaux donnent à leurs pratiques, la recherche s’éloigne des perspectives technocentristes pour explorer plus en profondeur la façon dont de jeunes adultes vivent, expérimentent et interprètent l’engagement dans le contexte médiatique actuel. La réflexion s’ancre sur une observation empirique et deux séries d’entretiens en profondeur (de groupe et individuels), menés auprès de 137 jeunes entre 2009-2012. Elle analyse un ensemble de représentations, perceptions et pratiques d’individus aux horizons et aux modes d’engagement variés, soulignant les multiples facteurs qui agissent sur la façon dont ils choisissent d’agir et les raisons qui les mènent à recourir aux TIC dans le cadre de pratiques spécifiques. À la croisée d’une multiplication des modes de participation et des modes d’interaction qui marquent l’univers social et politique des jeunes, la recherche propose de nouvelles hypothèses théoriques et une métaphore conceptuelle, le « murmure des étourneaux », pour penser la façon dont les pratiques d’affichage personnel, de relais, et d’expérimentation mises en avant par les jeunes s’arriment en réseau à celles d’autrui pour produire des « dérives culturelles » : des changements importants dans les façons de percevoir, d’agir et de penser. Loin d’une génération apathique ou technophile, les propos soulevés en entretiens suggèrent un processus réflexif de construction de sens, dont l’enjeu vise avant tout à donner l’exemple, et à penser ensemble de nouveaux possibles. La recherche permet d’offrir un éclairage qualitatif et approfondi sur ce qui caractérise la façon dont les jeunes perçoivent et définissent l’engagement, en plus d’ouvrir de nouvelles avenues pour mieux comprendre comment ils choisissent d’agir à l’ère du Web.
Resumo:
Cette thèse étudie des modèles de séquences de haute dimension basés sur des réseaux de neurones récurrents (RNN) et leur application à la musique et à la parole. Bien qu'en principe les RNN puissent représenter les dépendances à long terme et la dynamique temporelle complexe propres aux séquences d'intérêt comme la vidéo, l'audio et la langue naturelle, ceux-ci n'ont pas été utilisés à leur plein potentiel depuis leur introduction par Rumelhart et al. (1986a) en raison de la difficulté de les entraîner efficacement par descente de gradient. Récemment, l'application fructueuse de l'optimisation Hessian-free et d'autres techniques d'entraînement avancées ont entraîné la recrudescence de leur utilisation dans plusieurs systèmes de l'état de l'art. Le travail de cette thèse prend part à ce développement. L'idée centrale consiste à exploiter la flexibilité des RNN pour apprendre une description probabiliste de séquences de symboles, c'est-à-dire une information de haut niveau associée aux signaux observés, qui en retour pourra servir d'à priori pour améliorer la précision de la recherche d'information. Par exemple, en modélisant l'évolution de groupes de notes dans la musique polyphonique, d'accords dans une progression harmonique, de phonèmes dans un énoncé oral ou encore de sources individuelles dans un mélange audio, nous pouvons améliorer significativement les méthodes de transcription polyphonique, de reconnaissance d'accords, de reconnaissance de la parole et de séparation de sources audio respectivement. L'application pratique de nos modèles à ces tâches est détaillée dans les quatre derniers articles présentés dans cette thèse. Dans le premier article, nous remplaçons la couche de sortie d'un RNN par des machines de Boltzmann restreintes conditionnelles pour décrire des distributions de sortie multimodales beaucoup plus riches. Dans le deuxième article, nous évaluons et proposons des méthodes avancées pour entraîner les RNN. Dans les quatre derniers articles, nous examinons différentes façons de combiner nos modèles symboliques à des réseaux profonds et à la factorisation matricielle non-négative, notamment par des produits d'experts, des architectures entrée/sortie et des cadres génératifs généralisant les modèles de Markov cachés. Nous proposons et analysons également des méthodes d'inférence efficaces pour ces modèles, telles la recherche vorace chronologique, la recherche en faisceau à haute dimension, la recherche en faisceau élagué et la descente de gradient. Finalement, nous abordons les questions de l'étiquette biaisée, du maître imposant, du lissage temporel, de la régularisation et du pré-entraînement.
Resumo:
Inspired by the epistemological approach of Gilles-Gaston Granger and the sociological approach of Howard Becker, this thesis focuses on Quebec’s téléroman as a mean of social knowledge. Based on the theoretical conception of entry into adult life elaborated by various researchers such as the French sociologist Olivier Galland, this research aims to assess the sociological value of the Quebec’s téléroman as a form of representation of this phenomenon. To achieve this goal, we describe the entry into adult life of four characters from the téléroman Yamaska : Geoffroy Carpentier, Olivier Brabant, Théo Carpentier and Ingrid Harrisson. By applying the theories proposed by the French sociologist Olivier Galland to these characters, our goal is to study and describe the adequacy, or inadequacy, of such a theory when applied to the experiences of young adults today broadcast in the chosen téléroman. Through the characters of Yamaska, the study aims to see how the theory fits, or not, to the television series, and investigates whether it provides additional knowledge about the phenomenon of entry into adult life. This will help us determine the type of knowledge broadcast through this TV fiction, and focus on the influence exerted on the content and the way it is broadcast by the téléroman’s structure.
Resumo:
L’étude de cas qui compose ce mémoire de maîtrise cherche à expliquer sous l’optique sociologique la pérennité des relations conflictuelles qu’entretiennent le festival permanent Uzeste Musical et le village du même nom, peuplé de 450 habitants et dans lequel il se déroule depuis plus de 35 ans. Fondée sur une enquête de terrain mêlant approche ethnographique et entretiens semi-dirigés au sein de ce village du sud ouest de la France, l’analyse combine in vivo une description ethnographique du conflit à différents éléments théoriques susceptibles d’en rendre raison. Principalement, le recours à la théorie des champs et des sens pratiques de Bourdieu et à celle, pragmatique, de Boltanski et Thévenot, permet de saisir dans le discours des différents acteurs du conflit les raisons pour lesquelles un festival de jazz comme celui-ci se révèle être à bien trop d’égards étranger aux structures et à la culture d’un tel village pour s’y faire pleinement accepter. Il permet également de rendre compte de la manière par laquelle ces mêmes acteurs tendent à redéfinir un conflit – dont la longévité pourrait a priori sembler insoutenable – en des termes qui leur sont familiers, posture qui leur permet alors de relativiser une conflictualité qu’ils assimilent à l’histoire ordinaire de leur village et avec laquelle ils sont ainsi en mesure de composer.
Resumo:
La présente étude longitudinale a pour objectif d’évaluer la stabilité de la relation d’activation père-enfant entre 12-18 mois et 3-5 ans. De plus, nous nous intéressons aux facteurs qui pourraient être associés à la stabilité ou l’instabilité. La situation risquée a été conduite auprès des 39 dyades père-enfant aux deux temps de mesures, soit lorsque l’enfant était âgé entre 12 et 18 mois et lorsqu’il était âgé entre 3 et 5 ans. Le questionnaire d’ouverture au monde ainsi que le questionnaire d’évènements de vie ont été passés aux pères. Les résultats démontrent que seulement 46 % des enfants sont demeurés stables. L’instabilité et la stabilité ne se sont pas révélées associées significativement à aucun des facteurs mesurés.
Resumo:
L’objectif de cette thèse par articles est de présenter modestement quelques étapes du parcours qui mènera (on espère) à une solution générale du problème de l’intelligence artificielle. Cette thèse contient quatre articles qui présentent chacun une différente nouvelle méthode d’inférence perceptive en utilisant l’apprentissage machine et, plus particulièrement, les réseaux neuronaux profonds. Chacun de ces documents met en évidence l’utilité de sa méthode proposée dans le cadre d’une tâche de vision par ordinateur. Ces méthodes sont applicables dans un contexte plus général, et dans certains cas elles on tété appliquées ailleurs, mais ceci ne sera pas abordé dans le contexte de cette de thèse. Dans le premier article, nous présentons deux nouveaux algorithmes d’inférence variationelle pour le modèle génératif d’images appelé codage parcimonieux “spike- and-slab” (CPSS). Ces méthodes d’inférence plus rapides nous permettent d’utiliser des modèles CPSS de tailles beaucoup plus grandes qu’auparavant. Nous démontrons qu’elles sont meilleures pour extraire des détecteur de caractéristiques quand très peu d’exemples étiquetés sont disponibles pour l’entraînement. Partant d’un modèle CPSS, nous construisons ensuite une architecture profonde, la machine de Boltzmann profonde partiellement dirigée (MBP-PD). Ce modèle a été conçu de manière à simplifier d’entraînement des machines de Boltzmann profondes qui nécessitent normalement une phase de pré-entraînement glouton pour chaque couche. Ce problème est réglé dans une certaine mesure, mais le coût d’inférence dans le nouveau modèle est relativement trop élevé pour permettre de l’utiliser de manière pratique. Dans le deuxième article, nous revenons au problème d’entraînement joint de machines de Boltzmann profondes. Cette fois, au lieu de changer de famille de modèles, nous introduisons un nouveau critère d’entraînement qui donne naissance aux machines de Boltzmann profondes à multiples prédictions (MBP-MP). Les MBP-MP sont entraînables en une seule étape et ont un meilleur taux de succès en classification que les MBP classiques. Elles s’entraînent aussi avec des méthodes variationelles standard au lieu de nécessiter un classificateur discriminant pour obtenir un bon taux de succès en classification. Par contre, un des inconvénients de tels modèles est leur incapacité de générer deséchantillons, mais ceci n’est pas trop grave puisque la performance de classification des machines de Boltzmann profondes n’est plus une priorité étant donné les dernières avancées en apprentissage supervisé. Malgré cela, les MBP-MP demeurent intéressantes parce qu’elles sont capable d’accomplir certaines tâches que des modèles purement supervisés ne peuvent pas faire, telles que celle de classifier des données incomplètes ou encore celle de combler intelligemment l’information manquante dans ces données incomplètes. Le travail présenté dans cette thèse s’est déroulé au milieu d’une période de transformations importantes du domaine de l’apprentissage à réseaux neuronaux profonds qui a été déclenchée par la découverte de l’algorithme de “dropout” par Geoffrey Hinton. Dropout rend possible un entraînement purement supervisé d’architectures de propagation unidirectionnel sans être exposé au danger de sur- entraînement. Le troisième article présenté dans cette thèse introduit une nouvelle fonction d’activation spécialement con ̧cue pour aller avec l’algorithme de Dropout. Cette fonction d’activation, appelée maxout, permet l’utilisation de aggrégation multi-canal dans un contexte d’apprentissage purement supervisé. Nous démontrons comment plusieurs tâches de reconnaissance d’objets sont mieux accomplies par l’utilisation de maxout. Pour terminer, sont présentons un vrai cas d’utilisation dans l’industrie pour la transcription d’adresses de maisons à plusieurs chiffres. En combinant maxout avec une nouvelle sorte de couche de sortie pour des réseaux neuronaux de convolution, nous démontrons qu’il est possible d’atteindre un taux de succès comparable à celui des humains sur un ensemble de données coriace constitué de photos prises par les voitures de Google. Ce système a été déployé avec succès chez Google pour lire environ cent million d’adresses de maisons.
Resumo:
Fondée sur une étude ethnographique de la pratique du soccer amateur au sein d’une population immigrante associée politiquement à des minorités visibles, discernables par rapport au groupe majoritaire que forment les Québécois francophones, cette thèse cherche à élucider le rapport pratique et fonctionnel entre corps, connaissance et société à la lumière de la théorie de la pratique élaborée par Bourdieu. Dans cette voie, elle cherche à concevoir la pratique sportive comme vecteur d’intégration sociale susceptible de former l’habitus propice à l’intégration, à la sociabilité et à la participation sociale requises pour développer le sentiment d’appartenance à la société d’accueil dans les rangs de ces sportifs. Dans la veine de la théorisation enracinée, et en s’appuyant sur l’observation systématique du style de jeu et des représentations sociales autour de l’intégration élaborés par un groupe d’adeptes du soccer dans une étude combinant observation, vidéo, notes de terrain et interviews, recueillies dans une ligue amateur de Montréal, la thèse a pour objectif de débusquer la logique sociale que sous-tend la pratique sportive en décelant le sens pratique à l’œuvre dans cette dimension de l’espace social. Sur la lancée, l’étude de la pratique du soccer et de la matérialité du corps de l’immigrant en tant que « fait social total » nous amène à concevoir l’intégration du nouveau venu à la société d’accueil comme la combinaison de l’« extériorité » et de l’« intériorité » responsable des dispositions propres à donner corps à l’intégration. On est fondé à penser que la pratique du sport permet à ses adeptes de nouer avec leurs vis-à-vis des relations sociales qui, leur conférant des positions distinctes et distinctives, permettent de comprendre et d’expliquer l’intégration par les enjeux que cela soulève. Sous ce chef, l’ethnicisation en acte dans ce contexte s’opère sous la médiation du corps conçu comme « vecteur de connaissances », « forme de présentation de soi » (Sayad, 1999, p. 301), et « emblème de l’ethnicité » (Defrance, 2009, p. 26). Le corps, aux yeux des joueurs et des supporteurs, devient objet de représentations fondées sur la performance sportive, le jugement de l’habileté physique et l’attitude personnelle comme indicateurs de la compétence du joueur et, plus généralement, les éléments symboliques nés de l’interaction sociale sur le terrain de jeu comme à l’extérieur. En dernière analyse, le soccer, par sa pratique, fait office de médiation, voire de levier, susceptible d’aplanir les entraves à l’intégration à la société d’accueil sous les traits de l’acculturation. La thèse au programme vient donc enrichir l’explication sociologique du processus d’intégration en contexte multiethnique à la lumière du concept d’habitus afin de concevoir théoriquement la dialectique entre acculturation et incorporation sous les traits d’un jeu de relations objectives en vertu duquel le participant s’y engage de son propre chef, sans être tout à fait conscient que par la pratique il est soumis au jugement social, à l’inculcation de dispositions culturellement légitimes, etc. Il s’en dégage l’hypothèse que le joueur de soccer manifeste la « connaissance par corps » que requiert son intégration à la société dans laquelle il a décidé d’évoluer de son plein gré (Bourdieu, 2003). La pratique sportive se révèle donc une « stratégie identitaire synthétique » susceptible de mettre au diapason son identité et les « conditions objectives d’existence » du milieu auquel il est en passe de s’intégrer (Manço, 1999).
Resumo:
Depuis les années cinquante la sociologie a été concernée par le phénomène des mouvements sociaux. Diverses théories ont essayé de les expliquer. Du collective behaviour à la mobilisation des ressources, par l`entremise de processus politiques, et de la perspective de framing jusqu'à la théorie des nouveaux mouvements sociaux, la sociologie a trouvé certains moyens pour expliquer ces phénomènes. Bien que toutes ces perspectives couvrent et saisissent des facettes importantes des angles de l'action collective, ils le font de manière disparate, en regardant un côté et en omettant l'autre. Les différences entre les points de vue proviennent, d'une part, d'un changement dans les contextes sociaux, historiques et scientifiques, et d'autre part du fait que les différentes approches ne posent pas les mêmes questions, même si certaines questions se chevauchent. Poser des questions différentes amène à considérer des aspects différents. En conséquence, ce n'est pas seulement une question de donner une réponse différente à la même question, mais aussi une question de regarder le même objet d'étude, à partir d'un angle différent. Cette situation réside à la base de la première partie de ma thèse principale: le champ de la théorie des mouvements sociaux n'est pas suffisant, ni suffisamment intégré pour expliquer l'action collective et nous avons besoin d'une théorie plus complète afin d'obtenir une meilleure compréhension des mouvements et la façon dont ils remplissent leur rôle de précurseurs de changement dans la société. Par conséquent, je considère que nous avons besoin d'une théorie qui est en mesure d'examiner tous les aspects des mouvements en même temps et, en outre, est capable de regarder au-delà de la forme de l'objet d’étude afin de se concentrer sur l'objet lui-même. Cela m'amène à la deuxième partie de l'argument, qui est l'affirmation selon laquelle la théorie générale des systèmes telle que formulée par Niklas Luhmann peut contribuer à une meilleure compréhension de l'action collective. Il s'agit d'une théorie intégrale qui peut compléter le domaine de la théorie de l`action collective en nous fournissant les outils nécessaires pour rechercher dynamiquement les mouvements sociaux et de les comprendre dans le contexte social en perpétuel changement. Une analyse du mouvement environnementaliste sera utilisé pour montrer comment les outils fournis par cette théorie nous permettent de mieux comprendre non seulement les mouvements sociaux, mais également le contexte dans lequel ils fonctionnent, comment ils remplissent leur rôle, comment ils évoluent et comment ils changent aussi la société.
Resumo:
Après des décennies de développement, l'ablation laser est devenue une technique importante pour un grand nombre d'applications telles que le dépôt de couches minces, la synthèse de nanoparticules, le micro-usinage, l’analyse chimique, etc. Des études expérimentales ainsi que théoriques ont été menées pour comprendre les mécanismes physiques fondamentaux mis en jeu pendant l'ablation et pour déterminer l’effet de la longueur d'onde, de la durée d'impulsion, de la nature de gaz ambiant et du matériau de la cible. La présente thèse décrit et examine l'importance relative des mécanismes physiques qui influencent les caractéristiques des plasmas d’aluminium induits par laser. Le cadre général de cette recherche forme une étude approfondie de l'interaction entre la dynamique de la plume-plasma et l’atmosphère gazeuse dans laquelle elle se développe. Ceci a été réalisé par imagerie résolue temporellement et spatialement de la plume du plasma en termes d'intensité spectrale, de densité électronique et de température d'excitation dans différentes atmosphères de gaz inertes tel que l’Ar et l’He et réactifs tel que le N2 et ce à des pressions s’étendant de 10‾7 Torr (vide) jusqu’à 760 Torr (pression atmosphérique). Nos résultats montrent que l'intensité d'émission de plasma dépend généralement de la nature de gaz et qu’elle est fortement affectée par sa pression. En outre, pour un délai temporel donné par rapport à l'impulsion laser, la densité électronique ainsi que la température augmentent avec la pression de gaz, ce qui peut être attribué au confinement inertiel du plasma. De plus, on observe que la densité électronique est maximale à proximité de la surface de la cible où le laser est focalisé et qu’elle diminue en s’éloignant (axialement et radialement) de cette position. Malgré la variation axiale importante de la température le long du plasma, on trouve que sa variation radiale est négligeable. La densité électronique et la température ont été trouvées maximales lorsque le gaz est de l’argon et minimales pour l’hélium, tandis que les valeurs sont intermédiaires dans le cas de l’azote. Ceci tient surtout aux propriétés physiques et chimiques du gaz telles que la masse des espèces, leur énergie d'excitation et d'ionisation, la conductivité thermique et la réactivité chimique. L'expansion de la plume du plasma a été étudiée par imagerie résolue spatio-temporellement. Les résultats montrent que la nature de gaz n’affecte pas la dynamique de la plume pour des pressions inférieures à 20 Torr et pour un délai temporel inférieur à 200 ns. Cependant, pour des pressions supérieures à 20 Torr, l'effet de la nature du gaz devient important et la plume la plus courte est obtenue lorsque la masse des espèces du gaz est élevée et lorsque sa conductivité thermique est relativement faible. Ces résultats sont confirmés par la mesure de temps de vol de l’ion Al+ émettant à 281,6 nm. D’autre part, on trouve que la vitesse de propagation des ions d’aluminium est bien définie juste après l’ablation et près de la surface de la cible. Toutefois, pour un délai temporel important, les ions, en traversant la plume, se thermalisent grâce aux collisions avec les espèces du plasma et du gaz.
Resumo:
Les algorithmes d'apprentissage profond forment un nouvel ensemble de méthodes puissantes pour l'apprentissage automatique. L'idée est de combiner des couches de facteurs latents en hierarchies. Cela requiert souvent un coût computationel plus elevé et augmente aussi le nombre de paramètres du modèle. Ainsi, l'utilisation de ces méthodes sur des problèmes à plus grande échelle demande de réduire leur coût et aussi d'améliorer leur régularisation et leur optimization. Cette thèse adresse cette question sur ces trois perspectives. Nous étudions tout d'abord le problème de réduire le coût de certains algorithmes profonds. Nous proposons deux méthodes pour entrainer des machines de Boltzmann restreintes et des auto-encodeurs débruitants sur des distributions sparses à haute dimension. Ceci est important pour l'application de ces algorithmes pour le traitement de langues naturelles. Ces deux méthodes (Dauphin et al., 2011; Dauphin and Bengio, 2013) utilisent l'échantillonage par importance pour échantilloner l'objectif de ces modèles. Nous observons que cela réduit significativement le temps d'entrainement. L'accéleration atteint 2 ordres de magnitude sur plusieurs bancs d'essai. Deuxièmement, nous introduisont un puissant régularisateur pour les méthodes profondes. Les résultats expérimentaux démontrent qu'un bon régularisateur est crucial pour obtenir de bonnes performances avec des gros réseaux (Hinton et al., 2012). Dans Rifai et al. (2011), nous proposons un nouveau régularisateur qui combine l'apprentissage non-supervisé et la propagation de tangente (Simard et al., 1992). Cette méthode exploite des principes géometriques et permit au moment de la publication d'atteindre des résultats à l'état de l'art. Finalement, nous considérons le problème d'optimiser des surfaces non-convexes à haute dimensionalité comme celle des réseaux de neurones. Tradionellement, l'abondance de minimum locaux était considéré comme la principale difficulté dans ces problèmes. Dans Dauphin et al. (2014a) nous argumentons à partir de résultats en statistique physique, de la théorie des matrices aléatoires, de la théorie des réseaux de neurones et à partir de résultats expérimentaux qu'une difficulté plus profonde provient de la prolifération de points-selle. Dans ce papier nous proposons aussi une nouvelle méthode pour l'optimisation non-convexe.
Resumo:
In 2007, an H3N2 influenza A virus was isolated from Canadian mink. This virus was found to be phylogenetically related to a triple reassortant influenza virus which emerged in Canadian swine in 2005, but it is antigenically distinct. The transmission of the virus from swine to mink seems to have occurred following the feeding of animals with a ration composed of uncooked meat by-products of swine obtained from slaughterhouse facilities. Serological analyses suggest that the mink influenza virus does not circulate in the swine population. Presently, the prevalence of influenza virus in Canadian farmed and wild mink populations is unknown. The natural occurrence of influenza virus infection in mink with the presence of clinical signs is a rare event that deserves to be reported.