637 resultados para Taux de cisaillement
Resumo:
L’objectif de cette thèse par articles est de présenter modestement quelques étapes du parcours qui mènera (on espère) à une solution générale du problème de l’intelligence artificielle. Cette thèse contient quatre articles qui présentent chacun une différente nouvelle méthode d’inférence perceptive en utilisant l’apprentissage machine et, plus particulièrement, les réseaux neuronaux profonds. Chacun de ces documents met en évidence l’utilité de sa méthode proposée dans le cadre d’une tâche de vision par ordinateur. Ces méthodes sont applicables dans un contexte plus général, et dans certains cas elles on tété appliquées ailleurs, mais ceci ne sera pas abordé dans le contexte de cette de thèse. Dans le premier article, nous présentons deux nouveaux algorithmes d’inférence variationelle pour le modèle génératif d’images appelé codage parcimonieux “spike- and-slab” (CPSS). Ces méthodes d’inférence plus rapides nous permettent d’utiliser des modèles CPSS de tailles beaucoup plus grandes qu’auparavant. Nous démontrons qu’elles sont meilleures pour extraire des détecteur de caractéristiques quand très peu d’exemples étiquetés sont disponibles pour l’entraînement. Partant d’un modèle CPSS, nous construisons ensuite une architecture profonde, la machine de Boltzmann profonde partiellement dirigée (MBP-PD). Ce modèle a été conçu de manière à simplifier d’entraînement des machines de Boltzmann profondes qui nécessitent normalement une phase de pré-entraînement glouton pour chaque couche. Ce problème est réglé dans une certaine mesure, mais le coût d’inférence dans le nouveau modèle est relativement trop élevé pour permettre de l’utiliser de manière pratique. Dans le deuxième article, nous revenons au problème d’entraînement joint de machines de Boltzmann profondes. Cette fois, au lieu de changer de famille de modèles, nous introduisons un nouveau critère d’entraînement qui donne naissance aux machines de Boltzmann profondes à multiples prédictions (MBP-MP). Les MBP-MP sont entraînables en une seule étape et ont un meilleur taux de succès en classification que les MBP classiques. Elles s’entraînent aussi avec des méthodes variationelles standard au lieu de nécessiter un classificateur discriminant pour obtenir un bon taux de succès en classification. Par contre, un des inconvénients de tels modèles est leur incapacité de générer deséchantillons, mais ceci n’est pas trop grave puisque la performance de classification des machines de Boltzmann profondes n’est plus une priorité étant donné les dernières avancées en apprentissage supervisé. Malgré cela, les MBP-MP demeurent intéressantes parce qu’elles sont capable d’accomplir certaines tâches que des modèles purement supervisés ne peuvent pas faire, telles que celle de classifier des données incomplètes ou encore celle de combler intelligemment l’information manquante dans ces données incomplètes. Le travail présenté dans cette thèse s’est déroulé au milieu d’une période de transformations importantes du domaine de l’apprentissage à réseaux neuronaux profonds qui a été déclenchée par la découverte de l’algorithme de “dropout” par Geoffrey Hinton. Dropout rend possible un entraînement purement supervisé d’architectures de propagation unidirectionnel sans être exposé au danger de sur- entraînement. Le troisième article présenté dans cette thèse introduit une nouvelle fonction d’activation spécialement con ̧cue pour aller avec l’algorithme de Dropout. Cette fonction d’activation, appelée maxout, permet l’utilisation de aggrégation multi-canal dans un contexte d’apprentissage purement supervisé. Nous démontrons comment plusieurs tâches de reconnaissance d’objets sont mieux accomplies par l’utilisation de maxout. Pour terminer, sont présentons un vrai cas d’utilisation dans l’industrie pour la transcription d’adresses de maisons à plusieurs chiffres. En combinant maxout avec une nouvelle sorte de couche de sortie pour des réseaux neuronaux de convolution, nous démontrons qu’il est possible d’atteindre un taux de succès comparable à celui des humains sur un ensemble de données coriace constitué de photos prises par les voitures de Google. Ce système a été déployé avec succès chez Google pour lire environ cent million d’adresses de maisons.
Resumo:
La transmission mère-enfant (TME) du virus de l’hépatite C (VHC) est la première cause d’acquisition de l’infection chez les enfants des pays développés. Celle-ci prend place dans <10% des cas. Toutefois, dans le cas d’une coinfection maternelle avec le virus de l’immunodéficience de type 1 (VIH-1), ce taux est accru alors qu’il n’existe aucune intervention préventive de la TME du VHC. Le VHC arbore une diversité importante qui est le résultat d’une réplication exempte de mécanisme de correction. Il est donc retrouvé chez son hôte sous la forme d’un spectre de virions génétiquement apparentés mais différents qu’on appelle quasiespèce. Lorsque le VHC est transmis entre adultes, seulement un nombre limité de variantes sont responsables de l’infection, c’est ce qu’on appelle un goulot d’étranglement génétique. L’existence d’un tel profil de transmission lors de la TME du VHC restait, jusqu’à maintenant, à confirmer. En se basant sur la détection par RT-PCR de la virémie à la naissance, la TME du VHC est réputée prendre place in utero et peripartum, une dynamique de transmission qui reste à démontrer. Ici, nous rapportons une analyse longitudinale de la TME du VHC par séquençage de nouvelle génération chez 5 paires mère-enfant dont 3 mères sont également coinfectées avec le VIH-1. L’analyse de l’identité des variantes virales basée sur la séquence nucléotidique des régions hypervariables 1-2 de la glycoprotéine E2 (positions 1491-1787 de l’isolat H77) révèle qu’un nombre limité de variantes virales sont transmises de la mère à l’enfant lorsque la mère est seulement infectée par le VHC (n = 1-4 variantes transmises). Dans le cas de la coinfection maternelle avec le VIH-1, ce nombre est toutefois drastiquement plus important (n = 111-118). La détection de variantes retrouvées chez la mère au deuxième trimestre et l’enfant mais non détectées subséquemment chez la mère témoigne que la TME du VHC peut prendre place aussi tôt que lors du deuxième trimestre de grossesse. Finalement, nous montrons que la dynamique d’infection chez l’enfant implique une augmentation transitoire de la virémie concomitante avec une perte de diversité de la quasiespèce. Dans l’ensemble ces résultats sont les premiers à démontrer directement l’existence d’un goulot d’étranglement lors de la TME du VHC. Celui-ci serait moins restringent dans le cas de la coinfection maternelle avec le VIH-1. Cette transmission peut prendre place aussi tôt que lors du deuxième trimestre de grossesse et il semblerait qu’un spectre limité de variantes soit responsable pour l’établissement de l’essentiel de la production virale chez le jeune enfant.
Resumo:
La scoliose est la déformation de la colonne vertébrale la plus répandue. Elle atteint 3 à 4% de la population pédiatrique et dans 85% des cas, aucune cause n’a été identifiée. Ces cas sont appelés idiopathiques et les symptômes apparaissent durant la puberté; d’où le terme de ‘scoliose idiopathique de l’adolescent (SIA). Cette pathologie atteint le plus souvent les jeunes filles, en nombre et en sévérité. Ces dernières années, plusieurs hypothèses ont été proposées afin d’élucider l’étiologie de cette pathologie. Celles-ci ont mis de l’avant différents facteurs génétiques, biochimiques, mécaniques, neurologiques, musculaires ou hormonaux. Plusieurs études ont rapporté des formes familiales de scoliose, soutenant la thèse d’une prédisposition génétique. Nous avons démontré que les patients souffrant de SIA présentent un défaut de signalisation cellulaire médiée par les protéines Gi et un taux élevé d’ostéopontine (OPN) circulante. En utilisant une approche de type ‘gène candidat’, nous avons montré que la protéine tyrosine phosphatase μ (PTPμ) régule l’activité du complexe d’intégrines α5/β1 (récepteur de l’OPN) via la protéine kinase PIPKIγ. Dans ce but, nous avons utilisé des cultures primaires d’ostéoblastes issues de biopsies de patients et de cas traumatiques comme sujets contrôles. Les biopsies osseuses de patients ont été obtenues lors de l’intervention chirurgicale à partir des vertèbres T3 à L4, selon les différentes procédures. Les biopsies issues de cas traumatiques proviennent d’autres types d’os (tibia, crête iliaque, fémur). Les profils d’expression du gène PTPRM (codant pour la protéine PTPμ) ont été étudiés par PCR quantitative (qPCR). Les taux de protéines PTPμ ont été analysés par immunoprécipitation suivi d’un western blot. Pour évaluer le rôle de cette protéine, nous avons bénéficié d’un modèle murin. Machida et al. ont démontré qu’il existe un taux plus élevé de scoliose parmi les souris C57Bl/6 bipèdes obtenues suite à l’amputation des membres supérieurs, sous anesthésie, cinq semaines après la naissance. Nous avons utilisé des cultures primaires d’ostéoblastes issues de la colonne ii vertébrale de souris C57Bl/6 bipèdes, délétées du gène PTPRM (souris dites ‘KO’), afin d’évaluer le niveau de signalisation cellulaire spécifique des protéines Gi par un test fonctionnel: la technique de spectroscopie cellulaire di-électrique (SCD). Selon nos données, 85% des souris bipédales ‘KO’ pour le géne PTPRM développent une scoliose (modérée à sévère) contre 55% des souris contrôles C57Bl6 bipèdes. De plus, les niveaux de PTPμ exprimée par les ostéoblastes de 34 patients SIA se trouvent diminués par comparaison à 17 sujets contrôles. Nos études de souris bipèdes ont montré que l’inactivation du gène PTPRM augmente l’incidence et la sévérité de la scoliose, sans pour autant affecter les taux circulant d’OPN ou l’expression de ses récepteurs. Par ailleurs, dans ce même contexte, nous avons remarqué une augmentation de l’interaction entre l’OPN et l’intégrine β1 en l’absence du gène PTPRM. Les cellules issues de ces souris bipèdes KO montrent une réduction dans leurs niveaux de signalisation cellulaire médiée par les protéines Gi après stimulation par l’OPN. Cette diminution est en grande partie récupérée après traitement des cellules par un siRNA spécifique de la protéine PIPK1γ, substrat de PTPμ qui favorise la fixation de ligands aux intégrines. Ces études apportent les premières indications que la perte d’expression de PTPμ est impliquée dans le développement de la SIA, en amplifiant probablement l’effet inhibiteur de l’OPN sur la signalisation cellulaire médiée par les protéines Gi. Ces études permettent une meilleure compréhension de l’étiologie de la SIA. Elles pourraient avoir une contribution importante dans le développement futur de méthodes diagnostique et thérapeuthique dans le but d'arrete l’apparition et l’évolution de la maladie chez les enfants atteints.
Resumo:
L'asymétrie locomotrice chez les personnes hémiparétiques à la suite d'un accident vasculaire cérébral (AVC) est fréquemment observée en clinique. Les causes sous-jacentes à cette asymétrie et sa persistance malgré les interventions sont source de nombreuses interrogations. Ce projet avait donc pour objectif de développer de nouvelles connaissances sur les facteurs pouvant expliquer l'asymétrie locomotrice après un AVC. Les objectifs principaux étaient de 1) quantifier les moments et les niveaux d'effort musculaire des membres inférieurs lors de différentes conditions de marche sur le tapis roulant à double courroie (DC) afin de déterminer si ceux-ci sont explicatifs de l'asymétrie locomotrice, et de 2) quantifier la capacité de perception de l'asymétrie locomotrice des personnes saines et hémiparétiques. L’hypothèse générale était que l’asymétrie locomotrice est une stratégie utilisée par les personnes hémiparétiques pour symétriser ou limiter les niveaux d’effort musculaire, tels qu’évalués par le taux d'utilisation musculaire mécanique (TUM). Les résultats ont été présentés dans quatre articles (#2 à #5). La première étude a quantifié l'effet d'un protocole sur tapis roulant à DC visant à modifier l'asymétrie spatio-temporelle sur les moments musculaires aux membres inférieurs des personnes saines et hémiparétiques. Globalement, les résultats ont démontré que placer le membre inférieur parétique sur la courroie lente augmentait le moment fléchisseur plantaire (FP) parétique en post-adaptation et que cette augmentation était corrélée avec l'augmentation de la longueur de pas controlatérale. La deuxième étude a démontré que les personnes présentant de hauts niveaux d'effort dans les FP parétiques avaient une asymétrie des efforts dans leurs FP et extenseurs de hanche (EH) alors que le groupe avec de bas niveaux d'effort dans les FP avait des efforts symétriques. De plus, les deux groupes présentaient des moments FP asymétriques, mais cette asymétrie était reliée à l'asymétrie de forces résiduelles seulement chez ceux présentant de hauts niveaux d'effort. Cela suggère que la faiblesse musculaire joue un rôle important dans la réduction du moment FP parétique chez ceux avec de hauts niveaux d'effort alors que d'autres facteurs doivent être considérés pour expliquer l'asymétrie des moments à la marche des personnes avec de bas niveaux d'effort. La troisième étude a démontré que la symétrisation du patron de marche (temporelle ou spatiale) amenait des efforts musculaires élevés dans les FP parétiques, atteignant des niveaux moyens supérieurs à 85 %. La quatrième étude a évalué la capacité de perception de l'asymétrie locomotrice des personnes saines avec un protocole sur tapis roulant à DC et a démontré qu'elles percevaient leur patron de marche comme asymétrique lorsque leur ratio d'asymétrie temporelle atteignait le seuil de 1,05, avec une variabilité intra-individu faible, suggérant une bonne capacité de ces personnes à détecter l'asymétrie. Les résultats supplémentaires de cette thèse ont démontré que les personnes hémiparétiques percevaient mieux l'asymétrie temporelle que spatiale. En somme, ces résultats suggèrent que la force musculaire et les efforts musculaires des FP parétiques sont à considérer comme des facteurs explicatifs de l'asymétrie locomotrice des personnes hémiparétiques. D'autres études sont nécessaires pour statuer sur les capacités de perception de l'asymétrie locomotrice des personnes hémiparétiques.
Resumo:
La déficience intellectuelle (DI) définit un groupe de conditions génétiquement hétérogènes caractérisées par l’apparition de troubles cognitifs précoces chez l’enfant. Elle affecte 1-3% de la population dans les pays industrialisés. La prévalence de la DI est beaucoup plus élevée ailleurs dans le monde, en raison de facteurs sociodémographiques comme le manque de ressources dans le système de santé, la pauvreté et la consanguinité. Des facteurs non-génétiques sont mis en cause dans l’étiologie de la DI ; on estime qu’environ 25% des cas de DI sont d’origine génétique. Traditionnellement, les bases moléculaires de la DI ont été investiguées par des analyses cytogénétiques, les approches de cartographie génétique et le séquençage de gènes candidats ; ces techniques de génétiques classiques sont encore mises à rude épreuve dans l’analyse de maladies complexes comme la DI. La DI liée à l’X a été particulièrement étudiée, avec plus d’une centaine de gènes identifiés uniquement sur le chromosome X. Des mutations hétérozygotes composites sont mises en évidence dans la DI autosomique, dans le contexte d’unions non-consanguines. L’occurrence de ce type de mutations est rare, chez des individus non-apparentés, de sorte que les mutations dominantes de novo sont plus courantes. Des mutations homozygotes sont attendues dans les populations consanguines ou marquées par un effet fondateur. En fait, les bases moléculaires de la DI autosomique ont été presqu’exclusivement étudiées dans le contexte de populations avec des forts taux de consanguinité. L’origine de la DI demeure encore inconnue dans environ 60 % des cas diagnostiqués. En l’absence de facteurs environnementaux associés à la DI chez ces individus, il est possible d’envisager que des facteurs génétiques non identifiés entrent en jeu dans ces cas de DI inexpliqués. Dans ce projet de recherche, nous voulions explorer l’origine génétique de la DI, dans vingt familles, où une transmission de la maladie selon un mode autosomique récessif est suspectée. Nous avons mis de l’avant les techniques de séquençage de nouvelle génération, afin de mettre en évidence les déterminants génétiques de la DI, à l’échelle du génome humain. En fait, nous avons priorisé la capture et le séquençage de l’exome; soient la totalité des régions codantes du génome humain et leurs sites d’épissage flanquants. Dans nos analyses, nous avons ciblé les variants qui ne sont pas rapportés trop fréquemment dans différentes bases de données d’individus contrôles, ces mutations rares cadrent mieux avec une condition comme la DI. Nous avons porté une attention particulière aux mutations autosomiques récessives (homozygotes et hétérozygotes composites) ; nous avons confirmé que ces mutations ségréguent avec une transmission récessive dans la famille à l’étude. Nous avons identifié des mutations dans des gènes pouvant être à l’origine de la DI, dans certaines des familles analysées ; nous avons validé biologiquement l'impact fonctionnel des mutations dans ces gènes candidats, afin de confirmer leur implication dans la pathophysiologie de la DI. Nous avons élucidé les bases moléculaires de la DI dans huit des familles analysées. Nous avons identifié le second cas de patients avec syndrome de cassure chromosomique de Varsovie, caractérisé par des dysfonctions de l’ARN hélicase DDX11. Nous avons montré qu’une perte de l’activité de TBC1D7, une des sous-unités régulatrice du complexe TSC1-TSC2, est à l’origine de la pathologie dans une famille avec DI et mégalencéphalie. Nous avons mis en évidence des mutations pathogéniques dans le gène ASNS, codant pour l’Asparagine synthétase, chez des patients présentant une microcéphalie congénitale et une forme progressive d’encéphalopathie. Nous avons montré que des dysfonctions dans la protéine mitochondriale MAGMAS sont mises en cause dans une condition caractérisée par un retard prononcé dans le développement associé à une forme sévère de dysplasie squelettique. Nous avons identifié une mutation tronquant dans SPTBN2, codant pour la protéine spinocerebellar ataxia 5, dans une famille avec DI et ataxie cérébelleuse. Nous avons également mis en évidence une mutation dans PIGN, un gène impliqué dans la voie de biosynthèse des ancres de glycosylphosphatidylinositol , pouvant être à l’origine de la maladie chez des individus avec épilepsie et hypotonie. Par ailleurs, nous avons identifié une mutation - perte de fonction dans CLPB, codant pour une protéine chaperonne mitochondriale, dans une famille avec encéphalopathie néonatale, hyperekplexie et acidurie 3-méthylglutaconique. Le potentiel diagnostic des techniques de séquençage de nouvelle génération est indéniable ; ces technologies vont révolutionner l’univers de la génétique moléculaire, en permettant d’explorer les bases génétiques des maladies complexes comme la DI.
Resumo:
Le lymphome est l'une des tumeurs les plus communes tant chez le chien que l’humain. Chaque année, un nombre important de chiens développe ce cancer agressif. La majorité décédant un an suivant le diagnostic. Le lymphome canin est maintenant identifié comme un excellent modèle de recherche pour la tumeur chez l'homme, particulièrement en ce qui concerne la biologie moléculaire de la maladie. En conséquence, la recherche sur le lymphome canin sera bénéfique non seulement pour les chiens mais aussi pour l’oncologie humaine. Parmi les méthodes diagnostiques de choix pour dépister de façon hâtive le lymphome se trouve la mesure de marqueurs tumoraux. Ceci a l’avantage d’être peu invasive, simple et peu dispendieuse. Ainsi, dans le but d’évaluer la protéine VCP (valosin containing protein) comme biomarqueur tumoral dans les lymphomes canins à cellules B et T, nous avons évalué la protéine VCP par immunobuvardage sur sérums et tissus tumoraux de chiens atteints et par immunohistochimie sur des tumeurs de haut grade, grade intermédiaire et bas grade. Pour mieux définir l’expression de VCP dans les cellules cancéreuses, nous avons également examiné par immunobuvardage les niveaux de VCP dans 3 lignées cellulaires: CLBL-1, CL-1, et 17-71. Il s’avère que les lymphomes à cellules B de haut grade avaient une élévation significative du taux de VCP comparé aux tumeurs de bas grade (P < 0,05). De même, une accumulation importante de VCP a également été détectée dans les lignées tumorales comparées aux cellules mononucléaires du sang périphérique (P < 0,05). D’autre part, le taux sérique de VCP est resté similaire à ceux des chiens normaux. Ces résultats suggèrent une corrélation entre le taux de VCP et le degré de malignité des lymphomes à cellules B. En conclusion, la protéine VCP doit faire l’objet d’une évaluation approfondie pour déterminer son utilité comme marqueur pronostique.
Resumo:
La présente étude porte sur les effets de la familiarité dans l’identification d’individus en situation de parade vocale. La parade vocale est une technique inspirée d’une procédure paralégale d’identification visuelle d’individus. Elle consiste en la présentation de plusieurs voix avec des aspects acoustiques similaires définis selon des critères reconnus dans la littérature. L’objectif principal de la présente étude était de déterminer si la familiarité d’une voix dans une parade vocale peut donner un haut taux d’identification correcte (> 99 %) de locuteurs. Cette étude est la première à quantifier le critère de familiarité entre l’identificateur et une personne associée à « une voix-cible » selon quatre paramètres liés aux contacts (communications) entre les individus, soit la récence du contact (à quand remonte la dernière rencontre avec l’individu), la durée et la fréquence moyenne du contact et la période pendant laquelle avaient lieu les contacts. Trois différentes parades vocales ont été élaborées, chacune contenant 10 voix d’hommes incluant une voix-cible pouvant être très familière; ce degré de familiarité a été établi selon un questionnaire. Les participants (identificateurs, n = 44) ont été sélectionnés selon leur niveau de familiarité avec la voix-cible. Toutes les voix étaient celles de locuteurs natifs du franco-québécois et toutes avaient des fréquences fondamentales moyennes similaires à la voix-cible (à un semi-ton près). Aussi, chaque parade vocale contenait des énoncés variant en longueur selon un nombre donné de syllabes (1, 4, 10, 18 syll.). Les résultats démontrent qu’en contrôlant le degré de familiarité et avec un énoncé de 4 syllabes ou plus, on obtient un taux d’identification avec une probabilité exacte d’erreur de p < 1 x 10-12. Ces taux d’identification dépassent ceux obtenus actuellement avec des systèmes automatisés.
Resumo:
Les questions abordées dans les deux premiers articles de ma thèse cherchent à comprendre les facteurs économiques qui affectent la structure à terme des taux d'intérêt et la prime de risque. Je construis des modèles non linéaires d'équilibre général en y intégrant des obligations de différentes échéances. Spécifiquement, le premier article a pour objectif de comprendre la relation entre les facteurs macroéconomiques et le niveau de prime de risque dans un cadre Néo-keynésien d'équilibre général avec incertitude. L'incertitude dans le modèle provient de trois sources : les chocs de productivité, les chocs monétaires et les chocs de préférences. Le modèle comporte deux types de rigidités réelles à savoir la formation des habitudes dans les préférences et les coûts d'ajustement du stock de capital. Le modèle est résolu par la méthode des perturbations à l'ordre deux et calibré à l'économie américaine. Puisque la prime de risque est par nature une compensation pour le risque, l'approximation d'ordre deux implique que la prime de risque est une combinaison linéaire des volatilités des trois chocs. Les résultats montrent qu'avec les paramètres calibrés, les chocs réels (productivité et préférences) jouent un rôle plus important dans la détermination du niveau de la prime de risque relativement aux chocs monétaires. Je montre que contrairement aux travaux précédents (dans lesquels le capital de production est fixe), l'effet du paramètre de la formation des habitudes sur la prime de risque dépend du degré des coûts d'ajustement du capital. Lorsque les coûts d'ajustement du capital sont élevés au point que le stock de capital est fixe à l'équilibre, une augmentation du paramètre de formation des habitudes entraine une augmentation de la prime de risque. Par contre, lorsque les agents peuvent librement ajuster le stock de capital sans coûts, l'effet du paramètre de la formation des habitudes sur la prime de risque est négligeable. Ce résultat s'explique par le fait que lorsque le stock de capital peut être ajusté sans coûts, cela ouvre un canal additionnel de lissage de consommation pour les agents. Par conséquent, l'effet de la formation des habitudes sur la prime de risque est amoindri. En outre, les résultats montrent que la façon dont la banque centrale conduit sa politique monétaire a un effet sur la prime de risque. Plus la banque centrale est agressive vis-à-vis de l'inflation, plus la prime de risque diminue et vice versa. Cela est due au fait que lorsque la banque centrale combat l'inflation cela entraine une baisse de la variance de l'inflation. Par suite, la prime de risque due au risque d'inflation diminue. Dans le deuxième article, je fais une extension du premier article en utilisant des préférences récursives de type Epstein -- Zin et en permettant aux volatilités conditionnelles des chocs de varier avec le temps. L'emploi de ce cadre est motivé par deux raisons. D'abord des études récentes (Doh, 2010, Rudebusch and Swanson, 2012) ont montré que ces préférences sont appropriées pour l'analyse du prix des actifs dans les modèles d'équilibre général. Ensuite, l'hétéroscedasticité est une caractéristique courante des données économiques et financières. Cela implique que contrairement au premier article, l'incertitude varie dans le temps. Le cadre dans cet article est donc plus général et plus réaliste que celui du premier article. L'objectif principal de cet article est d'examiner l'impact des chocs de volatilités conditionnelles sur le niveau et la dynamique des taux d'intérêt et de la prime de risque. Puisque la prime de risque est constante a l'approximation d'ordre deux, le modèle est résolu par la méthode des perturbations avec une approximation d'ordre trois. Ainsi on obtient une prime de risque qui varie dans le temps. L'avantage d'introduire des chocs de volatilités conditionnelles est que cela induit des variables d'état supplémentaires qui apportent une contribution additionnelle à la dynamique de la prime de risque. Je montre que l'approximation d'ordre trois implique que les primes de risque ont une représentation de type ARCH-M (Autoregressive Conditional Heteroscedasticty in Mean) comme celui introduit par Engle, Lilien et Robins (1987). La différence est que dans ce modèle les paramètres sont structurels et les volatilités sont des volatilités conditionnelles de chocs économiques et non celles des variables elles-mêmes. J'estime les paramètres du modèle par la méthode des moments simulés (SMM) en utilisant des données de l'économie américaine. Les résultats de l'estimation montrent qu'il y a une évidence de volatilité stochastique dans les trois chocs. De plus, la contribution des volatilités conditionnelles des chocs au niveau et à la dynamique de la prime de risque est significative. En particulier, les effets des volatilités conditionnelles des chocs de productivité et de préférences sont significatifs. La volatilité conditionnelle du choc de productivité contribue positivement aux moyennes et aux écart-types des primes de risque. Ces contributions varient avec la maturité des bonds. La volatilité conditionnelle du choc de préférences quant à elle contribue négativement aux moyennes et positivement aux variances des primes de risque. Quant au choc de volatilité de la politique monétaire, son impact sur les primes de risque est négligeable. Le troisième article (coécrit avec Eric Schaling, Alain Kabundi, révisé et resoumis au journal of Economic Modelling) traite de l'hétérogénéité dans la formation des attentes d'inflation de divers groupes économiques et de leur impact sur la politique monétaire en Afrique du sud. La question principale est d'examiner si différents groupes d'agents économiques forment leurs attentes d'inflation de la même façon et s'ils perçoivent de la même façon la politique monétaire de la banque centrale (South African Reserve Bank). Ainsi on spécifie un modèle de prédiction d'inflation qui nous permet de tester l'arrimage des attentes d'inflation à la bande d'inflation cible (3% - 6%) de la banque centrale. Les données utilisées sont des données d'enquête réalisée par la banque centrale auprès de trois groupes d'agents : les analystes financiers, les firmes et les syndicats. On exploite donc la structure de panel des données pour tester l'hétérogénéité dans les attentes d'inflation et déduire leur perception de la politique monétaire. Les résultats montrent qu'il y a évidence d'hétérogénéité dans la manière dont les différents groupes forment leurs attentes. Les attentes des analystes financiers sont arrimées à la bande d'inflation cible alors que celles des firmes et des syndicats ne sont pas arrimées. En effet, les firmes et les syndicats accordent un poids significatif à l'inflation retardée d'une période et leurs prédictions varient avec l'inflation réalisée (retardée). Ce qui dénote un manque de crédibilité parfaite de la banque centrale au vu de ces agents.
Resumo:
La progression de l’espérance de vie au Québec reflète l’amélioration de la santé de la population. Toutefois, des décès continuent à survenir prématurément avant l’âge de 75 ans. Une part de cette mortalité prématurée est potentiellement évitable. L'objectif de ce mémoire est d’estimer la mortalité évitable au Québec de 1981-1985 à 2005-2009. Pour cela, la méthode de Tobias et Jackson (2001) a été appliquée sur des données de décès, fournies par l’Institut national de santé publique du Québec, pour estimer les taux de mortalité évitable totale et pour chacun des sexes. Cette approche nous a, par ailleurs, permis d’estimer des taux de mortalité évitable selon trois paliers de prévention : primaire, secondaire et tertiaire. Nos résultats démontrent une tendance à la baisse de la mortalité évitable à travers le temps. Cette baisse a été enregistrée chez les deux sexes, mais des disparités de mortalité évitable existent entre les hommes et les femmes. En effet, la mortalité évitable des hommes est plus élevée que celle des femmes et cet écart de mortalité est principalement dû à la mortalité évitable associée à la prévention primaire. L’analyse de la mortalité évitable par cause de décès fait ressortir que le cancer du poumon est la principale cause de décès évitable tant chez les hommes que chez les femmes en 2005-2009. Durant cette même période, le cancer du sein et les cardiopathies ischémiques étaient la deuxième cause de décès évitable respectivement chez les femmes et chez les hommes.
Resumo:
La prise de décision est un processus computationnel fondamental dans de nombreux aspects du comportement animal. Le modèle le plus souvent rencontré dans les études portant sur la prise de décision est appelé modèle de diffusion. Depuis longtemps, il explique une grande variété de données comportementales et neurophysiologiques dans ce domaine. Cependant, un autre modèle, le modèle d’urgence, explique tout aussi bien ces mêmes données et ce de façon parcimonieuse et davantage encrée sur la théorie. Dans ce travail, nous aborderons tout d’abord les origines et le développement du modèle de diffusion et nous verrons comment il a été établi en tant que cadre de travail pour l’interprétation de la plupart des données expérimentales liées à la prise de décision. Ce faisant, nous relèveront ses points forts afin de le comparer ensuite de manière objective et rigoureuse à des modèles alternatifs. Nous réexaminerons un nombre d’assomptions implicites et explicites faites par ce modèle et nous mettrons alors l’accent sur certains de ses défauts. Cette analyse servira de cadre à notre introduction et notre discussion du modèle d’urgence. Enfin, nous présenterons une expérience dont la méthodologie permet de dissocier les deux modèles, et dont les résultats illustrent les limites empiriques et théoriques du modèle de diffusion et démontrent en revanche clairement la validité du modèle d'urgence. Nous terminerons en discutant l'apport potentiel du modèle d'urgence pour l'étude de certaines pathologies cérébrales, en mettant l'accent sur de nouvelles perspectives de recherche.
Resumo:
Entailing of phosphorus exchanges in most bio-chemicals as a key factor in disease, increases researcher’s interest to develop the technologies capable of detecting this metabolite. Phosphorus magnetic resonance spectroscopy is able to detect key metabolites in a non-invasive manner. Particularly, it offers the ability to measure the dynamic rate of phosphocreatine(PCr) degeneration through the exercise and recovery. This metric as a valid indication of mitochondrial oxidative metabolism in muscle, differentiate between normal and pathological state. To do magnetic resonance imaging and spectroscopy, clinical research tools provide a wide variety of anatomical and functional contrasts, however they are typically restricted to the tissues containing water or hydrogen atoms and they are still blind to the biochemicals of other atoms of interests. Through this project we intended to obtain the phosphorus spectrum in human body – specificadenerativelly in muscle – using 31P spectroscopy. To do so a double loop RF surface coil, tuned to phosphorus frequency, is designed and fabricated using bench work facilities and then validated through in vitro spectroscopy using 3 Tesla Siemens scanner. We acquired in vitro as well as in vivo phosphorus spectrum in a 100 mM potassium phosphate phantom and human calf muscle in rest-exercise-recovery phase in a 3T MR scanner. The spectrum demonstrates the main constituent in high-energy phosphate metabolism. We also observed the dynamic variation of PCr for five young healthy subjects who performed planter flexions using resistance band during exercise and recovery. The took steps in this project pave the way for future application of spectroscopic quantification of phosphate metabolism in patients affected by carotid artery disease as well as in age-matched control subjects.
Resumo:
Le mélanome malin est l’un des cancers les plus mortels dont l’incidence continue à augmenter chaque année avec peu de traitement efficace à long terme. Il est causé et initié principalement par l’exposition excessive aux rayons ultraviolets engendrant des photoproduits hautement génotoxiques. Il est bien connu que la cascade de signalisation PI3K/Akt joue un rôle crucial dans la régulation des processus qui sont généralement dérégulés durant le développement tumoral comme la prolifération, le contrôle du cycle cellulaire et l’apoptose. Néanmoins, l’implication de cette voie moléculaire dans la réponse aux dommages à l’ADN est peu caractérisée. Chez les mammifères, trois isoformes de la protéine kinase Akt ont été identifiées: Akt1, Akt2 et Akt3. Bien qu’elles soient très homologues en termes de séquence, plusieurs études ont montré que ces isoformes ont des fonctions biologiques distinctes, et nous suggérons qu’elles puissent contribuer différemment à la régulation de la réponse génotoxique. Les objectifs de ce projet étaient de: (i) évaluer l’activation d’Akt dans les cellules de mélanomes (ii) déterminer l’impact de l’inhibition de cette activité sur la régulation de la réponse cellulaire aux UV (iii) vérifier si la perte d’expression de l’un ou de l’autre des isoformes d’Akt peut réguler la réponse aux UV. Nous avons démontré qu’Akt est transitoirement hyperactivée par phosphorylation suite aux irradiations UV dans les lignées cellulaires de mélanomes. Afin de déterminer l'importance de cette activation dans la réponse cellulaire aux UV, notre approche était de diminuer (i) la phosphorylation d’Akt par l’usage d’inhibiteurs pharmacologiques ou (ii) l’expression de chaque isoforme d’Akt par l’approche des ARN interférents. Nous avons montré que l’inhibition de la phosphorylation d’Akt amène à l’augmentation du taux de l’apoptose induit par les UV d’une manière isoforme spécifique, alors qu’elle n’a aucun effet sur la régulation de la voie de réparation par excision de nucléotides (NER), qui est la seule voie humaine pour éliminer les dommages à l’ADN induits par les UV. En somme, notre étude constitue un nouvel aspect qui permet de mieux comprendre les mécanismes moléculaires du développement de mélanomes malins suites aux irradiations ultraviolettes.
Resumo:
Objet : Au Québec, comme dans le reste du Canada, le nombre de professionnels en reprise d’étude est en nette augmentation. Parmi ces professionnels, un certain nombre se trouve en situation de transition professionnelle après plusieurs années de travail. L'objectif de cette recherche est de déterminer quels facteurs influent sur les retours aux études de ces professionnels. Méthode : au total, 625 étudiants adultes de la faculté d’éducation permanente de l’Université de Montréal ont reçu une invitation à répondre à un sondage en ligne après avoir informé de leur intérêt pour notre étude. Le sondage en ligne a rendu possible la collection de 170 réponses (taux de réponses de 27,2%) à notre questionnaire de 64 questions. Les informations collectées ont permis la création de diverses variables ainsi que d’indices de confiance, de volonté, de temps, d’information qui ont par la suite été recoupés avec les informations dispositionnelles, situationnelles, institutionnelles et démographiques de notre échantillon. Découvertes : Il apparaît que la confiance, la motivation et le temps sont les facteurs ayant le plus d’impact sur le retour aux études de notre échantillon. Implication : Maintenir la motivation et la confiance semble être la clé pour minimiser l'impact de facteurs défavorables sur les professionnels qui décident de retourner à l'école après leur début de carrière. Originalité et intérêt : Peu d'études ont été réalisées sur la participation de ces professionnels en transition à des programmes de formation universitaire, cette étude exploratoire est un premier pas dans la collecte d’information sur une population méconnue.
Resumo:
EIF4E, le facteur d’initiation de la traduction chez les eucaryotes est un oncogène puissant et qui se trouve induit dans plusieurs types de cancers, parmi lesquels les sous-types M4 et M5 de la leucémie aiguë myéloblastique (LAM). EIF4E est régulé à plusieurs niveaux cependant, la régulation transcriptionnelle de ce gène est peu connue. Mes résultats montrent que EIF4E est une cible transcriptionnelle directe du facteur nucléaire « kappa-light- chain- enhancer of activated B cells » (NF-κB).Dans les cellules hématopoïétiques primaires et les lignées cellulaires, les niveaux de EIF4E sont induits par des inducteurs de NF-κB. En effet, l’inactivation pharmaceutique ou génétique de NF-κB réprime l’activation de EIF4E. En effet, suite à l’activation de NF-κB chez l’humain, le promoteur endogène de EIF4E recrute p65 (RelA) et c-Rel aux sites évolutionnaires conservés κB in vitro et in vivo en même temps que p300 ainsi que la forme phosphorylée de Pol II. De plus, p65 est sélectivement associé au promoteur de EIF4E dans les sous-types LAM M4/M5 mais non pas dans les autres sous-types LAM ou dans les cellules hématopoïétiques primaires normales. Ceci indique que ce processus représente un facteur essentiel qui détermine l’expression différentielle de EIF4E dans la LAM. Les analyses de données d’expressions par séquençage de l’ARN provenant du « Cancer Genome Atlas » (TCGA) suggèrent que les niveaux d’ARNm de EIF4E et RELA se trouvent augmentés dans les cas LAM à pronostic intermédiaire ou faible mais non pas dans les groupes cytogénétiquement favorables. De plus, des niveaux élevés d’ARNm de EIF4E et RELA sont significativement associés avec un taux de survie relativement bas chez les patients. En effet, les sites uniques κB se trouvant dans le promoteur de EIF4E recrutent le régulateur de transcription NF-κB p65 dans 47 nouvelles cibles prévues. Finalement, 6 nouveaux facteurs de transcription potentiellement impliqués dans la régulation du gène EIF4E ont été prédits par des analyses de données ChIP-Seq provenant de l’encyclopédie des éléments d’ADN (ENCODE). Collectivement, ces résultats fournissent de nouveaux aperçus sur le control transcriptionnel de EIF4E et offrent une nouvelle base moléculaire pour sa dérégulation dans au moins un sous-groupe de spécimens de LAM. L’étude et la compréhension de ce niveau de régulation dans le contexte de spécimens de patients s’avère important pour le développement de nouvelles stratégies thérapeutiques ciblant l’expression du gène EIF4E moyennant des inhibiteurs de NF-κB en combinaison avec la ribavirine.
Resumo:
Ce projet de maitrise implique le développement et l’optimisation de deux méthodes utilisant la chromatographie liquide à haute performance couplée à la spectrométrie de masse en tandem (HPLC-MS/MS). L'objectif du premier projet était de séparer le plus rapidement possible, simultanément, 71 médicaments traitant la dysfonction érectile (ED) et 11 ingrédients naturels parfois retrouvés avec ces médicaments dans les échantillons suspectés d’être adultérés ou contrefaits. L'objectif du deuxième projet était de développer une méthode de dépistage permettant l'analyse rapide simultanée de 24 cannabinoïdes synthétiques et naturels pour une grande variété d'échantillons tels que les mélanges à base de plantes, des bâtons d'encens, de sérums et de cannabis. Dans les deux projets, la séparation a été réalisée en moins de 10 min et cela en utilisant une colonne C18 à noyau solide 100 x 2,1 mm avec des particules de 2,6 µm de diamètre couplée à un système MS avec trappe ionique orbitale fonctionnant en électronébulisation positive. En raison du nombre élevé de composés dans les deux méthodes et de l’émergence de nouveaux analogues sur le marché qui pourraient être présents dans les échantillons futurs, une méthode de dépistage LC-MS/MS ciblée/non-ciblée a été développée. Pour les deux projets, les limites de détection étaient sous les ng/mL et la variation de la précision et de l’exactitude étaient inférieures de 10,5%. Le taux de recouvrement à partir des échantillons réels variait entre 92 à 111%. L’innovation des méthodes LC-MS/MS développées au cours des projets est que le spectre de masse obtenu en mode balayage lors de l'acquisition, fournit une masse exacte pour tous les composés détectés et permet l'identification des composés initialement non-ciblés, comme des nouveaux analogues. Cette innovation amène une dimension supplémentaire aux méthodes traditionnellement utilisées, en permettant une analyse à haute résolution sur la masse de composés non-ciblés.