993 resultados para Ide
Resumo:
Les fichiers qui accompagnent mon document ont été réalisés avec le logiciel Latex et les simulations ont été réalisés par Splus(R).
Resumo:
Réalisé au sein de l'IRCAM, en cotutelle avec Philippe Leroux. La version intégrale de cette thèse est disponible uniquement pour consultation individuelle à la Bibliothèque de musique de l’Université de Montréal.
Resumo:
Il existe plusieurs théories du contrôle moteur, chacune présumant qu’une différente variable du mouvement est réglée par le cortex moteur. On trouve parmi elles la théorie du modèle interne qui a émis l’hypothèse que le cortex moteur programme la trajectoire du mouvement et l’activité électromyographique (EMG) d’une action motrice. Une autre, appelée l’hypothèse du point d’équilibre, suggère que le cortex moteur établisse et rétablisse des seuils spatiaux; les positions des segments du corps auxquelles les muscles et les réflexes commencent à s’activer. Selon ce dernier, les paramètres du mouvement sont dérivés sans pré-programmation, en fonction de la différence entre la position actuelle et la position seuil des segments du corps. Pour examiner de plus près ces deux théories, nous avons examiné l’effet d’un changement volontaire de l’angle du coude sur les influences cortico-spinales chez des sujets sains en employant la stimulation magnétique transcrânienne (TMS) par-dessus le site du cortex moteur projetant aux motoneurones des muscles du coude. L’état de cette aire du cerveau a été évalué à un angle de flexion du coude activement établi par les sujets, ainsi qu’à un angle d’extension, représentant un déplacement dans le plan horizontal de 100°. L’EMG de deux fléchisseurs du coude (le biceps et le muscle brachio-radial) et de deux extenseurs (les chefs médial et latéral du triceps) a été enregistrée. L’état d’excitabilité des motoneurones peut influer sur les amplitudes des potentiels évoqués moteurs (MEPs) élicitées par la TMS. Deux techniques ont été entreprises dans le but de réduire l’effet de cette variable. La première était une perturbation mécanique qui raccourcissait les muscles à l'étude, produisant ainsi une période de silence EMG. La TMS a été envoyée avec un retard après la perturbation qui entraînait la production du MEP pendant la période de silence. La deuxième technique avait également le but d’équilibrer l’EMG des muscles aux deux angles du coude. Des forces assistantes ont été appliquées au bras par un moteur externe afin de compenser les forces produites par les muscles lorsqu’ils étaient actifs comme agonistes d’un mouvement. Les résultats des deux séries étaient analogues. Un muscle était facilité quand il prenait le rôle d’agoniste d’un mouvement, de manière à ce que les MEPs observés dans le biceps fussent de plus grandes amplitudes quand le coude était à la position de flexion, et ceux obtenus des deux extenseurs étaient plus grands à l’angle d’extension. Les MEPs examinés dans le muscle brachio-radial n'étaient pas significativement différents aux deux emplacements de l’articulation. Ces résultats démontrent que les influences cortico-spinales et l’activité EMG peuvent être dissociées, ce qui permet de conclure que la voie cortico-spinale ne programme pas l’EMG à être générée par les muscles. Ils suggèrent aussi que le système cortico-spinal établit les seuils spatiaux d’activation des muscles lorsqu’un segment se déplace d’une position à une autre. Cette idée suggère que des déficiences dans le contrôle des seuils spatiaux soient à la base de certains troubles moteurs d’origines neurologiques tels que l’hypotonie et la spasticité.
Resumo:
Malgré de nombreuses études qui soutiennent l'idée que les enfants ayant vécu la rupture de leurs parents rencontrent un plus haut niveau de difficultés affectives et comportementales que les enfants de familles intactes, certaines questions restent à éclaircir. Notamment, les données empiriques existantes ne conduisent pas à des conclusions précises quant au moment exact de l’apparition de ces difficultés. De plus, ce n'est pas clair si ces difficultés sont associées à la séparation en soi, ou à bien d'autres facteurs liés à la séparation. Cette thèse est constituée de deux articles empiriques. Le premier examine l’adaptation de l’enfant avant et après la séparation en fonction du sexe et de l'âge au moment de la séparation. Le second article présente une étude qui a pour objectif de départager l’importance des facteurs parentaux et contextuels et celle de la séparation parentale pour expliquer l’adaptation de l’enfant. Les participants proviennent de l'Étude Longitudinale du Développement des Enfants du Québec (ÉLDEQ, 1998-2006). À chaque enquête de l'ÉLDEQ, une entrevue structurée réalisée auprès de la mère a permis d'évaluer les niveaux d’hyperactivité/impulsivité, d’anxiété et d’agressivité physique de l’enfant. Pendant cette entrevue, les mères ont également répondu à des questions sur la qualité de leurs pratiques parentales et sur le revenu du ménage. Finalement, un questionnaire auto-administré à la mère a permis d'évaluer ses propres symptômes de dépression et d'anxiété. La première étude inclus 143 enfants de familles séparées et 1705 enfants de familles intactes. Deux sous-groupes ont été créés selon que l’enfant ait vécu la séparation entre 2 et 4 ans, ou entre 4 et 6 ans. L’adaptation de l'enfant a été évaluée à un temps de mesure avant la séparation et à deux temps de mesure après la séparation. Les résultats de cette première étude démontrent qu’avant la séparation, les enfants de familles intactes et séparées ne se distinguent pas significativement quant à leurs niveaux d’hyperactivité/impulsivité et d’anxiété. Par contre, ces difficultés deviennent significativement plus élevées chez les enfants de familles séparées après la rupture des parents. D’autres parts, le niveau d’agressivité physique est plus élevé chez les enfants de la séparation indépendamment du temps de mesure. Finalement, les différences entre les deux groupes d’enfants ne dépendent pas du sexe ou de l’âge au moment de la séparation. La deuxième étude inclus 358 enfants de 8 ans qui ont vécu la séparation de leurs parents, et 1065 enfants du même âge provenant de familles intactes. Après avoir contrôlé pour le sexe de l’enfant, les résultats ont démontré que lorsqu’on tient compte de la contribution des symptômes maternels de dépression et d'anxiété, de la qualité des pratiques parentales et du revenu du ménage dans l’adaptation de l’enfant, la séparation parentale ne demeurent plus liée aux niveaux d’anxiété et d'agressivité physique de l’enfant. Par contre, la relation entre la séparation parentale et l’hyperactivité/impulsivité de l’enfant demeure significative. Les résultats présentés dans les articles sont discutés ainsi que leurs implications.
Resumo:
Nous étudions différentes situations de distribution de la matière d’une bulle de masse négative. En effet, pour les bulles statiques et à symétrie sphérique, nous commençons par l’hypothèse qui dit que cette bulle, étant une solution des équations d’Einstein, est une déformation au niveau d’un champ scalaire. Nous montrons que cette idée est à rejeter et à remplacer par celle qui dit que la bulle est formée d’un fluide parfait. Nous réussissons à démontrer que ceci est la bonne distribution de matière dans une géométrie Schwarzschild-de Sitter, qu’elle satisfait toutes les conditions et que nous sommes capables de résoudre numériquement ses paramètres de pression et de densité.
Resumo:
Personnage central du néoconfucianisme contemporain, Mou Zongsan (1909-1995) a écrit un nombre impressionnant de livres philosophiques. Loin d’ignorer les penseurs d’autres courants, il les intègre à ses théories pour en utiliser les forces. Ainsi, il s’intéresse au concept d’enseignement parfait (yuanjiao圓教). Cette notion fut introduite par l’école bouddhique Tiantai (Tiantai天台). Après une classification de tous les enseignements bouddhiques, il fut conclu que l’enseignement parfait consiste en un enseignement complet reflétant parfaitement l’intention ultime du Bouddha. Mou considère quatre critères pour déterminer quelle doctrine est conforme à cette idée : la préservation de tout ce qui existe, la possibilité pour tous d’atteindre l’illumination, englober tout sans distinction et utiliser un langage qu’il qualifie de non analytique. Dans cette étude, nous allons examiner l’utilisation faite par Mou du concept d’enseignement parfait. Il démontre la nécessité pour l’être humain d’avoir un esprit qui saisit à la fois la sphère phénoménale et nouménale. De cette façon, tout ce qui compose la réalité, pur et impur, est conservé. Il emprunte ensuite le concept du summum bonum kantien, c’est-à-dire le ratio proportionnel entre la vertu et le bonheur, et le révise à l’aide de l’enseignement parfait. Le résultat est tout à fait étonnant : l’être humain possède l’intuition intellectuelle, normalement réservé à Dieu chez Kant, et est ainsi responsable de son propre bonheur grâce à l’accomplissement d’actions morales. Cependant, le bouddhisme ne fournirait pas le cadre théorique idéal pour la notion très importante du summum bonum puisque l’aspect moral n’y serait pas assez développé. Mou affirme que, malgré leur origine bouddhique, les critères qui définissent un enseignement parfait peuvent être appliqués à d’autres courants de pensée. Il propose donc le confucianiste Wang Longxi王龍溪 (Wang Ji王畿 1498- 1583), dont les théories correspondent aux caractéristiques de l’enseignement parfait, pour établir un concept du summum bonum novateur.
Resumo:
Cette thèse prend pour objet le concept et les modalités du destin tel qu'il est articulé dans le Cycle de Dune de Frank Herbert. Le destin est une des interrogations les plus anciennes de l'humanité. Initiatrice des grands questionnements de l'être sur sa liberté et sur lui-même, la pensée sur le destin est intimement liée au développement des civilisations. Marque des chan- gements majeurs au cœur de l'être, l'évolution du concept de destin se lie également avec les grandes découvertes scientifiques: les nouveaux savoirs sur la nature et le monde changent la manière qu'a l'humain de se considérer lui-même dans cet environnement; il se redéfinit avec chaque découverte, devient restrictif ou expansif, offre l'idée d'une liberté humaine inexistante ou ne souffrant d'aucune limite autre que la mort. Penser le destin, c'est penser l'humain dans sa plus intime conception. Sur cette toile de fond, la première partie de cette étude porte sur l'évolution du concept de destin dans la pensée occidentale, de la civilisation grecque à l'épo- que moderne, en passant par les réflexions métaphysiques sur le rôle de la transcendance dans la vie de l'humain. Au travers de cette étude diachronique, le destin est analysé afin de mettre en avant l'idée que l'individu cherche toujours plus de liberté dans son existence. La deuxième partie aborde l'évolution de la science et l'impact de cette évolution dans la pensée de l'humain sur le monde et lui-même. Dans le contexte de cette deuxième partie, la thèse explicite le rôle joué par la science, ainsi que par le discours de la science-fiction, dans les efforts humains de prendre en main son destin, de devenir de plus en plus libre. Enfin, dans la dernière partie, l'analyse du Cycle de Dune sous l'angle des trois personnages que sont Paul, Alia et Leto 2 met en avant une vision transhistorique du concept de destin, afin de pouvoir aborder son évolution prochaine, qui ne le limite plus à l'individu, mais qui place l'humain dans l'univers.
Resumo:
Le but de cette thèse est d’expliquer la délinquance prolifique de certains délinquants. Nous avançons la thèse que la délinquance prolifique s’explique par la formation plus fréquente de situations criminogènes. Ces situations réfèrent au moment où un délinquant entre en interaction avec une opportunité criminelle dans un contexte favorable au crime. Plus exactement, il s’agit du moment où le délinquant fait face à cette opportunité, mais où le crime n’a pas encore été commis. La formation de situations criminogènes est facilitée par l’interaction et l’interdépendance de trois éléments : la propension à la délinquance de la personne, son entourage criminalisé et son style de vie. Ainsi, la délinquance prolifique ne pourrait être expliquée adéquatement sans tenir compte de l’interaction entre le risque individuel et le risque contextuel. L’objectif général de la présente thèse est de faire la démonstration de l’importance d’une modélisation interactionnelle entre le risque individuel et le risque contextuel afin d’expliquer la délinquance plus prolifique de certains contrevenants. Pour ce faire, 155 contrevenants placés sous la responsabilité de deux établissements des Services correctionnels du Québec et de quatre centres jeunesse du Québec ont complété un protocole d’évaluation par questionnaires auto-administrés. Dans un premier temps (chapitre trois), nous avons décrit et comparé la nature de la délinquance autorévélée des contrevenants de notre échantillon. Ce premier chapitre de résultats a permis de mettre en valeur le fait que ce bassin de contrevenants est similaire à d’autres échantillons de délinquants en ce qui a trait à la nature de leur délinquance, plus particulièrement, au volume, à la variété et à la gravité de leurs crimes. En effet, la majorité des participants rapportent un volume faible de crimes contre la personne et contre les biens alors qu’un petit groupe se démarque par un lambda très élevé (13,1 % des délinquants de l’échantillon sont responsables de 60,3% de tous les crimes rapportés). Environ quatre délinquants sur cinq rapportent avoir commis au moins un crime contre la personne et un crime contre les biens. De plus, plus de 50% de ces derniers rapportent dans au moins quatre sous-catégories. Finalement, bien que les délinquants de notre échantillon aient un IGC (indice de gravité de la criminalité) moyen relativement faible (médiane = 77), près de 40% des contrevenants rapportent avoir commis au moins un des deux crimes les plus graves recensés dans cette étude (décharger une arme et vol qualifié). Le second objectif spécifique était d’explorer, au chapitre quatre, l’interaction entre les caractéristiques personnelles, l’entourage et le style de vie des délinquants dans la formation de situations criminogènes. Les personnes ayant une propension à la délinquance plus élevée semblent avoir tendance à être davantage entourées de personnes criminalisées et à avoir un style de vie plus oisif. L’entourage criminalisé semble également influencer le style de vie de ces délinquants. Ainsi, l’interdépendance entre ces trois éléments facilite la formation plus fréquente de situations criminogènes et crée une conjoncture propice à l’émergence de la délinquance prolifique. Le dernier objectif spécifique de la thèse, qui a été couvert dans le chapitre cinq, était d’analyser l’impact de la formation de situations criminogènes sur la nature de la délinquance. Les analyses de régression linéaires multiples et les arbres de régression ont permis de souligner la contribution des caractéristiques personnelles, de l’entourage et du style de vie dans l’explication de la nature de la délinquance. D’un côté, les analyses de régression (modèles additifs) suggèrent que l’ensemble des éléments favorisant la formation de situations criminogènes apporte une contribution unique à l’explication de la délinquance. D’un autre côté, les arbres de régression nous ont permis de mieux comprendre l’interaction entre les éléments dans l’explication de la délinquance prolifique. En effet, un positionnement plus faible sur certains éléments peut être compensé par un positionnement plus élevé sur d’autres. De plus, l’accumulation d’éléments favorisant la formation de situations criminogènes ne se fait pas de façon linéaire. Ces conclusions sont appuyées sur des proportions de variance expliquée plus élevées que celles des régressions linéaires multiples. En conclusion, mettre l’accent que sur un seul élément (la personne et sa propension à la délinquance ou le contexte et ses opportunités) ou leur combinaison de façon simplement additive ne permet pas de rendre justice à la complexité de l’émergence de la délinquance prolifique. En mettant à l’épreuve empiriquement cette idée généralement admise, cette thèse permet donc de souligner l’importance de considérer l’interaction entre le risque individuel et le risque contextuel dans l’explication de la délinquance prolifique.
Resumo:
La gazéification est aujourd'hui l'une des stratégies les plus prometteuses pour valoriser les déchets en énergie. Cette technologie thermo-chimique permet une réduction de 95 % de la masse des intrants et génère des cendres inertes ainsi que du gaz de synthèse (syngaz). Le syngaz est un combustible gazeux composé principalement de monoxyde de carbone (CO), d'hydrogène (H2) et de dioxyde de carbone (CO2). Le syngaz peut être utilisé pour produire de la chaleur et de l'électricité. Il est également la pierre angulaire d'un grand nombre de produits à haute valeur ajoutée, allant de l'éthanol à l'ammoniac et l'hydrogène pur. Les applications en aval de la production de syngaz sont dictées par son pouvoir calorifique, lui-même dépendant de la teneur du gaz en H2. L’augmentation du contenu du syngaz en H2 est rendu possible par la conversion catalytique à la vapeur d’eau, largement répandu dans le cadre du reformage du méthane pour la production d'hydrogène. Au cours de cette réaction, le CO est converti en H2 et CO2 selon : CO + H2O → CO2 + H2. Ce processus est possible grâce à des catalyseurs métalliques mis en contact avec le CO et de la vapeur. La conversion catalytique à la vapeur d’eau a jusqu'ici été réservé pour de grandes installations industrielles car elle nécessite un capital et des charges d’exploitations très importantes. Par conséquent, les installations de plus petite échelle et traitant des intrants de faible qualité (biomasse, déchets, boues ...), n'ont pas accès à cette technologie. Ainsi, la seule utilisation de leur syngaz à faible pouvoir calorifique, est limitée à la génération de chaleur ou, tout au plus, d'électricité. Afin de permettre à ces installations une gamme d’application plus vaste de leurs syngaz, une alternative économique à base de catalyseur biologique est proposée par l’utilisation de bactéries hyperthermophiles hydrogénogènes. L'objectif de cette thèse est d'utiliser Carboxydothermus hydrogenoformans, une bactérie thermophile carboxydotrophe hydrogénogène comme catalyseur biologique pour la conversion du monoxyde de carbone en hydrogène. Pour cela, l’impact d'un phénomène de biominéralisation sur la production d’H2 a été étudié. Ensuite, la faisabilité et les limites de l’utilisation de la souche dans un bioréacteur ont été évaluées. Tout d'abord, la caractérisation de la phase inorganique prédominante lorsque C. hydrogenoformans est inoculé dans le milieu DSMZ, a révélé une biominéralisation de phosphate de calcium (CaP) cristallin en deux phases. L’analyse par diffraction des rayons X et spectrométrie infrarouge à transformée de Fourier de ce matériau biphasique indique une signature caractéristique de la Mg-whitlockite, alors que les images obtenues par microscopie électronique à transmission ont montré l'existence de nanotiges cristallines s’apparentant à de l’hydroxyapatite. Dans les deux cas, le mode de biominéralisation semble être biologiquement induit plutôt que contrôlé. L'impact du précipité de CaP endogène sur le transfert de masse du CO et la production d’H2 a ensuite été étudié. Les résultats ont été comparés aux valeurs obtenues dans un milieu où aucune précipitation n'est observée. Dans le milieu DSMZ, le KLa apparent (0.22 ± 0.005 min-1) et le rendement de production d’H2 (89.11 ± 6.69 %) étaient plus élevés que ceux obtenus avec le milieu modifié (0.19 ± 0.015 min-1 et 82.60 ± 3.62% respectivement). La présence du précipité n'a eu aucune incidence sur l'activité microbienne. En somme, le précipité de CaP offre une nouvelle stratégie pour améliorer les performances de transfert de masse du CO en utilisant les propriétés hydrophobes de gaz. En second lieu, la conversion du CO en H2 par la souche Carboxydothermus hydrogenoformans fut étudiée et optimisée dans un réacteur gazosiphon de 35 L. Parmi toutes les conditions opérationnelles, le paramètre majeur fut le ratio du débit de recirculation du gaz sur le débit d'alimentation en CO (QR:Qin). Ce ratio impacte à la fois l'activité biologique et le taux de transfert de masse gaz-liquide. En effet, au dessus d’un ratio de 40, les performances de conversion du CO en H2 sont limitées par l’activité biologique alors qu’en dessous, elles sont limitées par le transfert de masse. Cela se concrétise par une efficacité de conversion maximale de 90.4 ± 0.3 % et une activité spécifique de 2.7 ± 0.4 molCO·g–1VSS·d–1. Malgré des résultats prometteurs, les performances du bioréacteur ont été limitées par une faible densité cellulaire, typique de la croissance planctonique de C. hydrogenoformans. Cette limite est le facteur le plus contraignant pour des taux de charge de CO plus élevés. Ces performances ont été comparées à celles obtenues dans un réacteur à fibres creuses (BRFC) inoculé par la souche. En dépit d’une densité cellulaire et d’une activité volumétrique plus élevées, les performances du BRFC à tout le moins cinétiquement limitées quand elles n’étaient pas impactées par le transfert de masse, l'encrassement et le vieillissement de la membrane. Afin de parer à la dégénérescence de C. hydrogenoformans en cas de pénurie de CO, la croissance de la bactérie sur pyruvate en tant que seule source de carbone a été également caractérisée. Fait intéressant, en présence simultanée de pyruvate et de CO, C. hydrogenoformans n’a amorcé la consommation de pyruvate qu’une fois le CO épuisé. Cela a été attribué à un mécanisme d'inhibition du métabolisme du pyruvate par le CO, faisant ainsi du pyruvate le candidat idéal pour un système in situ de secours.
Resumo:
La création cinématographique de l’étudiant qui accompagne ce mémoire sous la forme d’un DVD est disponible à la Médiathèque de la Bibliothèque des lettres et sciences humaines sous le titre : She is Lars.(http://atrium.umontreal.ca/notice/UM-ALEPH002343877)
Resumo:
Travail créatif / Creative Work
Resumo:
L’auteur s’intéresse à la question de savoir si le droit du travail américain est plus favorable à l’investissement direct étranger (IDE) que le droit du travail québécois dans le contexte de l’ALENA. Pour ce faire, il fait une revue de littérature sur les déterminants de la localisation de l’IDE afin de clarifier l’importance du droit du travail national dans les décisions d’investissement des entreprises multinationales. Celle-ci révèle que la localisation de l’IDE est un processus complexe et multidimensionnel impliquant un grand nombre de facteurs, dont certains sont associés à la demande, d’autres aux coûts, d’autres aux caractéristiques des pays-hôtes, et d’autres, enfin, au risque. Le droit du travail national, bien que revêtant une certaine importance, n’est qu’un facteur parmi d’autres. Elle révèle également que l’importance relative des déterminants de la localisation de l’IDE, incluant le droit du travail national, varie elle-même en fonction d’autres facteurs, comme le secteur d’activité de l’entreprise, sa stratégie, sa taille et la motivation de l’IDE. Ensuite, il fait une étude de droit comparé entre le Québec et le Massachusetts afin d’identifier les principales différences qui existent entre les deux régimes de droit du travail. Cette étude a permis d’identifier des différences importantes entre les deux systèmes étudiés. Ainsi, dans l’ensemble, le droit du travail applicable au Massachusetts se fonde davantage sur les principes de la liberté contractuelle et du laisser-faire que le droit du travail québécois, qui est beaucoup plus interventionniste. Enfin, l’auteur analyse les différences observées dans le cadre de l’étude de droit comparé à la lumière des conclusions de sa revue de littérature sur les déterminants de la localisation de l’IDE. Il en vient à la conclusion que bien qu’à de nombreux égards le droits du travail québécois s’avère plus avantageux que le droit du travail applicable au Massachusetts aux fins de la localisation de l’IDE, c’est plutôt ce dernier qui, de façon générale, s’avère le plus avantageux à ce chapitre. En effet, dans l’ensemble, le droit du travail québécois est susceptible d’imposer des coûts de main-d’œuvre supérieurs et de réduire la flexibilité du marché du travail davantage que le droit du travail applicable au Massachusetts. Or, considérant que le droit du travail national n’est qu’un facteur parmi d’autres dans la décision de localisation de l’IDE, le Québec n’est pas sans moyens. En effet, il possède d’autres avantages comparatifs qu’il peut faire valoir auprès des entreprises qui œuvrent dans des secteurs d’activités où ces avantages concurrentiels sont valorisés et susceptibles d’être exploités. De plus, considérant que le droit du travail national a un importance relative qui varie elle-même en fonction d’autres facteurs, le droit du travail québécois n’a pas nécessairement le même effet sur tous les investisseurs. Enfin, considérant que le droit du travail remplit des fonctions sociales autant que des fonctions économiques, c’est un faux débat que de mettre l’accent uniquement sur les conséquences « négatives » du droit du travail national sur l’IDE. En effet, c’est faire complètement abstraction de la question des coûts sociaux que le droit du travail permet de prévenir au sein d’une société.
Resumo:
La voix est tout sauf un stimulus auditif ordinaire. Pour cause, elle prend son importance de manière très précoce chez l’Homme lorsque, dans l’environnement amniotique, le fœtus entend pour la toute première fois la voix de sa mère. C’est en quelque sorte par l’intermédiaire de cette voix que les premiers contacts avec le monde extérieur, mais également avec l’Autre, s’effectuent. Le statut particulier de la voix humaine perdure au fil du développement, devenant plus tard le principal médium véhiculant le langage oral, si significatif pour l’Homme. En parallèle, et de manière tout aussi adaptative, elle permet la transmission d’informations non langagières renseignant sur l’identité, l’état émotionnel mais également le statut social de chaque individu. C’est ainsi que simplement en entendant la voix d’une personne inconnue, il est généralement possible d’en extrapoler son âge, son genre, mais également d’avoir une idée assez précise de l’état émotionnel dans lequel elle se trouve. Les capacités permettant d’extraire de la voix les divers éléments informationnels qu’elle contient ne seraient toutefois pas stables au fil du temps. Ainsi, le vieillissement normal semble associé à des difficultés de traitement des informations vocales de nature langagière, mais également non langagière. De nombreuses études se sont intéressées au déclin des capacités de traitement du discours avec l’âge. Beaucoup moins de travaux ont cependant considéré les conséquences du vieillissement sur le domaine paralinguistique et, lorsque des travaux s’y sont attardés, c’est essentiellement la sphère affective qui a été investiguée. En raison de ce peu d’études, mais également de leur focus portant spécifiquement sur la sphère émotionnelle, il est extrêmement ardu de généraliser les résultats obtenus au traitement vocal général. La présente thèse s’est donc intéressée aux capacités de traitement de la voix dans le vieillissement normal. La première étude de cette thèse (Article 1) avait pour objectif d’évaluer l’impact du vieillissement normal sur les capacités comportementales de traitement paralinguistique vocal non émotionnel. Pour ce faire, une batterie informatisée composée de quatre tâches a été élaborée : la batterie d’évaluation de la perception vocale (Batterie EPV; tâches de catégorisation de genre, de discrimination de sources sonores, adaptative de discrimination et de mémorisation). Cette batterie permettait de comparer les performances d’adultes jeunes et âgés lors du traitement de stimuli vocaux et non vocaux, mais également lors du traitement de divers stimuli vocaux. Cette première étude met en évidence, pour trois des quatre tâches comportementales, des performances inférieures chez les adultes âgés et ce, malgré le contrôle statistique des contributions du déclin auditif et cognitif. Pour les aînés, le traitement de stimuli vocaux, en comparaison au traitement de stimuli non vocaux, n’était toutefois pas systématiquement inférieur à celui des jeunes adultes. Sans que les performances ne puissent être prédites par la mesure cognitive utilisée comme covariable (performances au MoCA), il appert que les demandes cognitives inhérentes aux tâches participent à ces différences intergroupes. Le second article de ce travail visait quant à lui à explorer à l’aide de l’imagerie par résonnance magnétique fonctionnelle (IRMf), l’influence du vieillissement normal sur les réseaux neuronaux sous-tendant le traitement de l’information vocale, une telle investigation n’ayant jamais été effectuée auparavant. Pour ce faire, une tâche d’écoute passive (permettant le contraste de blocs de sons vocaux et non vocaux) ainsi qu’une tâche adaptative de discrimination ont été utilisées. La tâche adaptative, basée sur une type de protocole psycoacoustique « up-down », assurait l’obtention de niveau de performance équivalent entre les deux groupes, une condition nécessaire pour la comparaison de groupe au niveau neurofonctionnel. La comparaison des adultes jeunes et âgés n’a mis en évidence aucune disparité quant au recrutement des aires répondant préférentiellement à la voix : les aires vocales temporales (AVT). Ce résultat suggère que l’âge n’affecte pas la mobilisation des aires spécialisées dans le traitement de la voix. Néanmoins, à l’extérieur des AVT et chez les aînés, le sous recrutement d’une portion du cortex auditif a été observé, en parallèle au recrutement additionnel de régions pariétale, temporale et frontale (Article 2 – Étude 1). Lors de la réalisation d’une tâche adaptative de discrimination, contrairement à ce qui était attendu, les seuils de discrimination des deux groupes d’âges étaient comparables. Pour effectuer la tâche, les participants âgés ont cependant recruté un réseau neuronal plus étendu que celui des jeunes adultes, et pour les aînés, l’activation additionnelle de régions frontale et temporale sous-tendaient la réalisation de la tâche (Article 2 - Étude 2). Les données comportementales présentées dans cette thèse suggèrent que l’effet délétère que semble avoir le vieillissement normal sur les capacités de traitement paralinguistique vocal affectif est également retrouvé lors du traitement d’informations vocales émotionnellement neutres. En parallèle, la mise en place de phénomènes de plasticité cérébrale est objectivée. Ces derniers ne toucheraient cependant pas les réseaux spécialisés dans le traitement de la voix, qui seraient recrutés de manière comparable par les adultes jeunes et âgés. Néanmoins, la tâche d’écoute passive a mis en évidence la présence, chez les aînés, du recrutement sous-optimal d’une portion du cortex auditif (gyrus temporal transverse). En parallèle, et ce pour les deux tâches, des réseaux neuronaux surnuméraires étaient sollicitées par les adultes âgés, permettant potentiellement d’assurer, chez les ainés, le maintien de performances adéquates.
Resumo:
Thèse réalisée en cotutelle avec l'université de Franche-Comté, école doctorale Langage, espace, temps et société.
Resumo:
Cette thèse étudie des modèles de séquences de haute dimension basés sur des réseaux de neurones récurrents (RNN) et leur application à la musique et à la parole. Bien qu'en principe les RNN puissent représenter les dépendances à long terme et la dynamique temporelle complexe propres aux séquences d'intérêt comme la vidéo, l'audio et la langue naturelle, ceux-ci n'ont pas été utilisés à leur plein potentiel depuis leur introduction par Rumelhart et al. (1986a) en raison de la difficulté de les entraîner efficacement par descente de gradient. Récemment, l'application fructueuse de l'optimisation Hessian-free et d'autres techniques d'entraînement avancées ont entraîné la recrudescence de leur utilisation dans plusieurs systèmes de l'état de l'art. Le travail de cette thèse prend part à ce développement. L'idée centrale consiste à exploiter la flexibilité des RNN pour apprendre une description probabiliste de séquences de symboles, c'est-à-dire une information de haut niveau associée aux signaux observés, qui en retour pourra servir d'à priori pour améliorer la précision de la recherche d'information. Par exemple, en modélisant l'évolution de groupes de notes dans la musique polyphonique, d'accords dans une progression harmonique, de phonèmes dans un énoncé oral ou encore de sources individuelles dans un mélange audio, nous pouvons améliorer significativement les méthodes de transcription polyphonique, de reconnaissance d'accords, de reconnaissance de la parole et de séparation de sources audio respectivement. L'application pratique de nos modèles à ces tâches est détaillée dans les quatre derniers articles présentés dans cette thèse. Dans le premier article, nous remplaçons la couche de sortie d'un RNN par des machines de Boltzmann restreintes conditionnelles pour décrire des distributions de sortie multimodales beaucoup plus riches. Dans le deuxième article, nous évaluons et proposons des méthodes avancées pour entraîner les RNN. Dans les quatre derniers articles, nous examinons différentes façons de combiner nos modèles symboliques à des réseaux profonds et à la factorisation matricielle non-négative, notamment par des produits d'experts, des architectures entrée/sortie et des cadres génératifs généralisant les modèles de Markov cachés. Nous proposons et analysons également des méthodes d'inférence efficaces pour ces modèles, telles la recherche vorace chronologique, la recherche en faisceau à haute dimension, la recherche en faisceau élagué et la descente de gradient. Finalement, nous abordons les questions de l'étiquette biaisée, du maître imposant, du lissage temporel, de la régularisation et du pré-entraînement.