31 resultados para Birkhoff normalization
Resumo:
Amongst the potential neurotoxins implicated in the pathogenesis of hepatic encephalopathy, manganese emerges as a new candidate. In patients with chronic liver diseases, manganese accumulates in blood and brain leading to pallidal signal hyperintensity on T1-weighted Magnetic Resonance (MR) Imaging. Direct measurements in globus pallidus obtained at autopsy from cirrhotic patients who died in hepatic coma reveal 2 to 7-fold increases of manganese concentration. The intensity of pallidal MR images correlates with blood manganese and with the presence of extrapyramidal symptoms occurring in a majority of cirrhotic patients. Liver transplantation results in normalization of pallidal MR signals and disappearance of extrapyramidal symptoms whereas transjugular intrahepatic portosystemic shunting induces an increase in pallidal hyperintensity with a concomitant deterioration of neurological dysfunction. These findings suggest that the toxic effects of manganese contribute to extrapyramidal symptoms in patients with chronic liver disease. The mechanisms of manganese neurotoxicity are still speculative, but there is evidence to suggest that manganese deposition in the pallidum may lead to dopaminergic dysfunction. Future studies should be aimed at evaluating the effects of manganese chelation and/or of treatment of the dopaminergic deficit on neurological symptomatology in these patients.
Resumo:
Mild hypothermia (32 degrees C-35 degrees C) reduces intracranial pressure in patients with acute liver failure and may offer an effective adjunct therapy in the management of these patients. Studies in experimental animals suggest that this beneficial effect of hypothermia is the result of a decrease in blood-brain ammonia transfer resulting in improvement in brain energy metabolism and normalization of glutamatergic synaptic regulation. Improvement in brain energy metabolism by hypothermia may result from a reduction in ammonia-induced decrease of brain glucose (pyruvate) oxidation. Restoration of normal glutamatergic synaptic regulation by hypothermia may be the consequence of the removal of ammonia-induced decreases in expression of astrocytic glutamate transporters resulting in normal glutamate neurotransmitter inactivation in brain. Randomized controlled clinical trials of hypothermia are required to further evaluate its clinical impact.
Resumo:
La dysfonction diastolique du ventricule gauche (DDVG) réfère à une rigidité ainsi qu’à des troubles de relaxation au niveau de ce ventricule pendant la phase de la diastole. Nos connaissances sur les mécanismes moléculaires sous-jacents de cette pathologie demeurent limités. Les analyses géniques sont indispensables afin de bien identifier les voies par lesquelles cette maladie progresse. Plusieurs techniques de quantification de l’expression génique sont disponibles, par contre la RT-qPCR demeure la méthode la plus populaire vu sa haute sensibilité et de ses coûts modérés. Puisque la normalisation occupe un aspect très important dans les expériences de RT-qPCR, nous avons décidé de sélectionner des gènes montrant une haute stabilité d’expression dans un modèle de DDVG de lapin. Nous avons alors exposé 18 lapins blancs soit à une diète normale (n=7) ou bien à une diète hypercholestérolémiante additionnée de vitamine D2 (n=11). La DDVG a été évaluée par des mesures échocardiographiques. L’expression de l’ARNm de dix gènes communément utilisés dans la littérature comme normalisateur (Gapdh, Hprt1, Ppia, Sdha, Rpl5, Actb, Eef1e1, Ywhaz, Pgk1, et G6pd) a été mesurée par RT-qPCR. L’évaluation de leur stabilité a été vérifiée par les algorithmes de geNorm et Normfinder. Sdha et Gapdh ont obtenu les meilleurs scores de stabilité (M<0.2) et ont été suggérés par le geNorm, comme meilleure combinaison. Par contre, l’utilisation de Normfinder mène à la sélection d’Hprt1 et Rpl5 comme meilleure combinaison de gènes de normalisation (0.042). En normalisant par ces deux combinaisons de gènes, l’expression de l’ARNm des peptides natriurétiques de type A et B (Anp et Bnp), de la protéine chimiotactique des monocytes-1 (Mcp-1) et de la sous unité Nox-2 de la NADPH oxydase ont montré des augmentations similaires chez le groupe hypercholestérolémique comparé au groupe contrôle (p<0.05). Cette augmentation d’expressions a été corrélée avec plusieurs paramètres échocardiographiques de DDVG. À notre connaissance, c’est la première étude par laquelle une sélection de gènes de référence a été réalisée dans un modèle de lapin développant une DDVG.
Resumo:
L’objectif de cette thèse était d’évaluer Espace de Transition (ET), un programme novateur d’intervention par les arts de la scène visant à favoriser la réadaptation psychosociale d’adolescents et de jeunes adultes présentant des troubles mentaux stabilisés et à diminuer la stigmatisation des individus aux prises avec des problèmes de santé mentale. Ce programme a été conçu par une équipe de cliniciens du département de psychiatrie du Centre hospitalier universitaire Ste-Justine, en collaboration avec des artistes professionnels, et est livré depuis le printemps 2009. L’évaluation du programme ET a été conduite de manière indépendante, selon des approches collaborative et naturaliste et en usant de méthodes mixtes. Les données de recherche ont été recueillies avant pendant et après le programme auprès de l’ensemble des participants à deux sessions distinctes (N = 24), de même qu’auprès des deux artistes instructeurs, de la psychoéducatrice responsable du soutien clinique, ainsi que des psychiatres et autres intervenants ayant référé des participants (N=11). Des entrevues semi-structurées individuelles et de groupe, des observations directes et des questionnaires ont servi à recueillir les données nécessaires à l’évaluation. Des analyses quantitatives de variance, ainsi que des analyses qualitatives thématiques ont été réalisées et leurs résultats ont été interprétés de manière intégrée. Le premier chapitre empirique de la thèse relate l’évaluation de la mise en œuvre du programme ET. Cette étude a permis de constater que le programme avait rejoint des participants correspondant de près à la population visée et que ceux-ci présentaient globalement des niveaux élevés d’assiduité, d’engagement et d’appréciation du programme. L’évaluation de la mise en œuvre a en outre permis de conclure que la plupart des composantes du programme identifiées a priori comme ses paramètres essentiels ont été livrées tel que prévu par les concepteurs et que la plupart d’entre elles ont été largement appréciées et jugées pertinentes par les participants et les autres répondants consultés. Le second chapitre empirique consiste en un article portant sur l’évaluation des effets du programme ET relativement à l’atteinte de trois de ses objectifs intermédiaires, soient l’amélioration 1) du fonctionnement global, 2) du confort relationnel et des compétences sociales, ainsi que 3) de la perception de soi des participants présentant des troubles mentaux. Les résultats de cette étude ont révélé des changements significatifs et positifs dans le fonctionnement global des participants suite au programme, tel qu’évalué par les cliniciens référents et partiellement corroboré par les participants eux-mêmes. Des améliorations en ce qui concerne le confort relationnel, les compétences sociales et la perception de soi ont également été objectivées chez une proportion substantielle de participants, bien que celles-ci ne se soient pas traduites en des différences significatives décelées par les analyses quantitatives de groupe. Le troisième et dernier chapitre empirique de la thèse relate une étude exploratoire des mécanismes sous-tendant les effets du programme ET ayant conduit à l’élaboration inductive d’une théorie d’action de ce programme. Cette investigation qualitative a révélé quatre catégories de mécanismes, soient des processus de 1) gain d’expérience et de gratification sociales, 2) de désensibilisation par exposition graduelle, 3) de succès et de valorisation, et 4) de normalisation. Cette étude a également permis de suggérer les caractéristiques et composantes du programme qui favorisent la mise en place ou l’impact de ces mécanismes, tels l’environnement et l’animation non cliniques du programme, la composition hétérogène des groupes de participants, le recours aux arts de la scène, ainsi que la poursuite d’une réalisation collective et son partage avec un public extérieur au programme. Globalement, les études présentées dans la thèse appuient la pertinence et le caractère prometteur du programme ET, tout en suggérant des pistes d’amélioration potentielle pour ses versions ultérieures. Par extension, la thèse soutient l’efficacité potentielle d’interventions réadaptatives mettant en œuvre des composantes apparentées à celles du programme ET pour soutenir le rétablissement des jeunes aux prises avec des troubles mentaux.
Resumo:
Les troubles des tics, comme le syndrome de Gilles de la Tourette et le trouble de tics chroniques, sont des conditions neuropsychiatriques impliquant des tics moteurs et/ou phoniques. En plus de nombreuses comorbidités, les patients qui en sont atteints ont aussi des difficultés neuropsychologiques, notamment au niveau de l’inhibition et des fonctions motrices. La thérapie cognitivo-comportementale permet d’améliorer les tics et la condition générale de ces patients. Nous avons donc enregistré, durant une tâche de compatibilité stimulus-réponse, les potentiels évoqués cognitifs et les potentiels de latéralisation motrice (lateralized readiness potential; LRP) chez 20 patients atteints de trouble des tic avant et après une thérapie cognitivo-comportementale, et chez 20 participants contrôles. Chez les patients atteints de trouble des tics, nos résultats ont révélé une apparition plus tardive de l’amorce du LRP moyenné par rapport au stimulus, une amplitude plus élevée du LRP moyenné par rapport à la réponse, et une suractivation frontale liée aux processus d’inhibition. Suite à la thérapie, le retard au niveau de la latence de l’amorce du LRP moyenné par rapport à la réponse est comblé et l’amplitude du LRP moyenné par rapport à la réponse est normalisée, mais pas la suractivation frontale liée à l’inhibition. Cela suggère donc que la thérapie induit une modification des processus prémoteurs de sélection et de préparation de la réponse, ainsi que des processus d’exécution motrice, mais n’altère pas la suractivation frontale reliée aux fonctions inhibitrices. Étant donnés ces résultats, nous suggérons que la thérapie cognitivo-comportementale induit une modification du fonctionnement des aires motrices du cerveau.
Resumo:
Afin d’être représentatif d’un niveau d’effort musculaire, le signal électromyographique (EMG) est exprimé par rapport à une valeur d’activation maximale. Comme l’épaule est une structure articulaire et musculaire complexe, aucune contraction volontaire isométrique (CVMi) proposée dans la littérature ne permet d’activer maximalement un même muscle de l’épaule pour un groupe d’individus. L’objectif de ce mémoire est de développer une approche statistique permettant de déterminer les CVMi optimales afin de maximiser les niveaux d’activation d’un ensemble de muscles de l’épaule. L’amplitude du signal EMG de 12 muscles de l’épaule a été enregistrée chez 16 sujets alors qu’ils effectuaient 15 CVMi. Une première approche systématique a permis de déterminer les 4 CVMi parmi les 15 qui ensemble maximisent les niveaux d’activation pour les 12 muscles simultanément. Ces 4 contractions ont donné des niveaux d’activation supérieurs aux recommandations antérieures pour 4 muscles de l’épaule. Une seconde approche a permis de déterminer le nombre minimal de CVMi qui sont nécessaires afin de produire un niveau d’activation qui n’est pas significativement différent des valeurs d’activation maximales pour les 16 sujets. Pour 12 muscles de l’épaule, un total de 9 CVMi sont requises afin de produire des valeurs d’activation qui sont représentatives de l’effort maximal de tous les sujets. Ce mémoire a proposé deux approches originales, dont la première a maximisé les niveaux d’activation qui peuvent être produits à partir d’un nombre fixe de CVMi tandis que la deuxième a permis d’identifier le nombre minimal de CVMi nécessaire afin de produire des niveaux d’activation qui ne sont pas significativement différentes des valeurs d’activation maximales. Ces deux approches ont permis d’émettre des recommandations concernant les CVMi nécessaires à la normalisation de l’EMG afin de réduire les risques de sous-estimer l’effort maximal d’un ensemble d’individus.
Resumo:
La réalité des marchés de la drogue, opérés par des adolescents sur les lieux mêmes de leur école secondaire, demeure méconnue. L’actuelle recherche fut entreprise avec l’objectif d’explorer cet univers particulier. Pour y parvenir, cette étude a donné la parole à douze jeunes vendeurs adolescents, ayant transigé sur leur lieu d’enseignement. Les quatre objectifs spécifiques, définis au préalable, ont été atteints. Premièrement, selon les propos recueillis de la part des jeunes vendeurs, un phénomène de normalisation de la consommation de cannabis et certaines autres drogues serait bien présent au sein de cette population. Toutefois, les jeunes expliquent que leur définition de « normal » fluctuerait selon leur étape de vie du moment. Deuxièmement, toujours selon la compréhension des adolescents rencontrés, leur implication au sein du trafic de drogue s’expliquerait par trois facteurs: financier, réseautage, prestige et pouvoir. Troisièmement, les jeunes trafiquants rencontrés ont émis leur opinion sur l’efficacité des moyens de répression et de prévention situationnelle instaurés dans les écoles, ainsi que sur leurs astuces pour les déjouer. Ils ont aussi relaté une réalité de violence qui serait présente au sein de ces réseaux. Finalement, les jeunes interviewés ont explicité leur compréhension de l’impact des interventions tentées par l’école secondaire, pour les détourner de leur trajectoire criminelle. La conclusion essentielle de ce mémoire demeure le besoin, exprimé par ces adolescents, d’être encadrés et limités par leur environnement scolaire, parental et autres adultes de leur entourage. Comme il leur serait difficile de se discipliner; ils demandent qu’on les protège d’eux-mêmes.
Resumo:
La tomographie d’émission par positrons (TEP) est une modalité d’imagerie moléculaire utilisant des radiotraceurs marqués par des isotopes émetteurs de positrons permettant de quantifier et de sonder des processus biologiques et physiologiques. Cette modalité est surtout utilisée actuellement en oncologie, mais elle est aussi utilisée de plus en plus en cardiologie, en neurologie et en pharmacologie. En fait, c’est une modalité qui est intrinsèquement capable d’offrir avec une meilleure sensibilité des informations fonctionnelles sur le métabolisme cellulaire. Les limites de cette modalité sont surtout la faible résolution spatiale et le manque d’exactitude de la quantification. Par ailleurs, afin de dépasser ces limites qui constituent un obstacle pour élargir le champ des applications cliniques de la TEP, les nouveaux systèmes d’acquisition sont équipés d’un grand nombre de petits détecteurs ayant des meilleures performances de détection. La reconstruction de l’image se fait en utilisant les algorithmes stochastiques itératifs mieux adaptés aux acquisitions à faibles statistiques. De ce fait, le temps de reconstruction est devenu trop long pour une utilisation en milieu clinique. Ainsi, pour réduire ce temps, on les données d’acquisition sont compressées et des versions accélérées d’algorithmes stochastiques itératifs qui sont généralement moins exactes sont utilisées. Les performances améliorées par l’augmentation de nombre des détecteurs sont donc limitées par les contraintes de temps de calcul. Afin de sortir de cette boucle et permettre l’utilisation des algorithmes de reconstruction robustes, de nombreux travaux ont été effectués pour accélérer ces algorithmes sur les dispositifs GPU (Graphics Processing Units) de calcul haute performance. Dans ce travail, nous avons rejoint cet effort de la communauté scientifique pour développer et introduire en clinique l’utilisation des algorithmes de reconstruction puissants qui améliorent la résolution spatiale et l’exactitude de la quantification en TEP. Nous avons d’abord travaillé sur le développement des stratégies pour accélérer sur les dispositifs GPU la reconstruction des images TEP à partir des données d’acquisition en mode liste. En fait, le mode liste offre de nombreux avantages par rapport à la reconstruction à partir des sinogrammes, entre autres : il permet d’implanter facilement et avec précision la correction du mouvement et le temps de vol (TOF : Time-Of Flight) pour améliorer l’exactitude de la quantification. Il permet aussi d’utiliser les fonctions de bases spatio-temporelles pour effectuer la reconstruction 4D afin d’estimer les paramètres cinétiques des métabolismes avec exactitude. Cependant, d’une part, l’utilisation de ce mode est très limitée en clinique, et d’autre part, il est surtout utilisé pour estimer la valeur normalisée de captation SUV qui est une grandeur semi-quantitative limitant le caractère fonctionnel de la TEP. Nos contributions sont les suivantes : - Le développement d’une nouvelle stratégie visant à accélérer sur les dispositifs GPU l’algorithme 3D LM-OSEM (List Mode Ordered-Subset Expectation-Maximization), y compris le calcul de la matrice de sensibilité intégrant les facteurs d’atténuation du patient et les coefficients de normalisation des détecteurs. Le temps de calcul obtenu est non seulement compatible avec une utilisation clinique des algorithmes 3D LM-OSEM, mais il permet également d’envisager des reconstructions rapides pour les applications TEP avancées telles que les études dynamiques en temps réel et des reconstructions d’images paramétriques à partir des données d’acquisitions directement. - Le développement et l’implantation sur GPU de l’approche Multigrilles/Multitrames pour accélérer l’algorithme LMEM (List-Mode Expectation-Maximization). L’objectif est de développer une nouvelle stratégie pour accélérer l’algorithme de référence LMEM qui est un algorithme convergent et puissant, mais qui a l’inconvénient de converger très lentement. Les résultats obtenus permettent d’entrevoir des reconstructions en temps quasi-réel que ce soit pour les examens utilisant un grand nombre de données d’acquisition aussi bien que pour les acquisitions dynamiques synchronisées. Par ailleurs, en clinique, la quantification est souvent faite à partir de données d’acquisition en sinogrammes généralement compressés. Mais des travaux antérieurs ont montré que cette approche pour accélérer la reconstruction diminue l’exactitude de la quantification et dégrade la résolution spatiale. Pour cette raison, nous avons parallélisé et implémenté sur GPU l’algorithme AW-LOR-OSEM (Attenuation-Weighted Line-of-Response-OSEM) ; une version de l’algorithme 3D OSEM qui effectue la reconstruction à partir de sinogrammes sans compression de données en intégrant les corrections de l’atténuation et de la normalisation dans les matrices de sensibilité. Nous avons comparé deux approches d’implantation : dans la première, la matrice système (MS) est calculée en temps réel au cours de la reconstruction, tandis que la seconde implantation utilise une MS pré- calculée avec une meilleure exactitude. Les résultats montrent que la première implantation offre une efficacité de calcul environ deux fois meilleure que celle obtenue dans la deuxième implantation. Les temps de reconstruction rapportés sont compatibles avec une utilisation clinique de ces deux stratégies.
Resumo:
Introduction : La croissance maxillo-mandibulaire des enfants avec une séquence de Pierre Robin (SPR) est controversée dans la littérature. Certains auteurs croient que la croissance mandibulaire est accélérée après la naissance, mais peu se sont penchés sur la croissance du maxillaire supérieur. Cette étude rétrospective sur dossier vise à analyser la croissance maxillo-mandibulaire des enfants atteints de la SPR. Dans un deuxième temps, nous aurions aimé évaluer la sévérité et l’évolution de l’apnée du sommeil en lien avec la croissance des maxillaires, mais un manque de données a empêché l’atteinte de cet objectif. Matériel et méthode : Les dossiers médicaux et orthodontiques de 93 patients (82 volet apnée et 40 volet croissance) du CHU Ste-Justine avec une SPR isolée ont été révisés puis comparés au groupe contrôle composé d’enfants normaux de l’Université du Michigan. L’analyse statistique de modèle mixte pour mesures répétées de même que celle de Brunner-Langer furent effectuées. Résultats : L’évaluation orthodontique a montré un changement statistiquement significatif pour la relation molaire droite, la présence de chevauchement et de diastème au maxillaire et le surplomb vertical. L’analyse des données céphalométriques nous montre que le maxillaire supérieur, la branche montante et le corps de la mandibule sont tous réduits par rapport à la normale. Ce dernier montre une diminution significative avec l’âge (p = 0,03). L’angle gonial, le SNA, SNB, ANB, l’angle de convexité faciale et l’inclinaison de l’incisive supérieure par rapport à FH sont tous normaux. Par contre, on remarque une augmentation statistiquement significative de cette dernière avec l’âge (p = 0,04). L’angle Y est augmenté tandis que les hauteurs faciales supérieure (HFS) et inférieure (HFI) sont diminuées bien que cette dernière montre une tendance à s’approcher de la normale avec l’âge (p ≤ 0,001). Discussion : Les dimensions des maxillaires sont similaires à plusieurs études. En ce qui concerne la mandibule, la croissance est soit plus lente, soit diminuée. Cette observation est plus marquée lorsque l’on s’approche du pic de croissance puisque l’écart par rapport à la normale s’agrandit. On voit une tendance à la croissance hyperdivergente qui pourrait expliquer l’augmentation de la HFI avec l’âge. Le fait que SNA et SNB soient dans la normale pourrait s’expliquer par une diminution de la longueur de la base crânienne. Conclusion : Il n’y a pas de rattrapage de croissance maxillaire et mandibulaire. Les maxillaires restent micrognathes quoique proportionnels l’un envers l’autre et le profil est convexe tout au long de la croissance. La comparaison des données céphalométriques et des traitements orthodontiques avec ceux des patients présentant une fente palatine isolée devrait se faire sous peu. Nous n’avons pas été en mesure d’atteindre nos objectifs concernant l’apnée du sommeil. Une étude prospective serait à prévoir pour y arriver.
Resumo:
La violence chronique qui caractérise la Somalie depuis plus de deux décennies a forcé près de deux millions de personnes à fuir. Cette ethnographie étudie l’expérience de l’asile prolongé de jeunes Somaliens qui ont grandi au camp de Kakuma, au Kenya. Leur expérience est hors du commun, bien qu’un nombre croissant de réfugiés passent de longues années dans des camps pourtant conçus comme temporaires, en vertu de la durée des conflits et de la normalisation de pratiques de mise à l’écart de populations « indésirables ». Nous explorons la perception qu’ont ces jeunes de leur environnement et de quelle façon leur exil structure leur perception du passé et de leur pays d’origine, et de leur futur. Ce faisant, nous considérons à la fois les spécificités du contexte et l’environnement global, afin de comprendre comment l’expérience des gens est façonnée par (et façonne) les dynamiques sociales, politiques, économiques et historiques. Nous observons que le camp est, et demeure, un espace de confinement, indépendamment de sa durée d’existence ; bien que conçu comme un lieu de gestion rationnelle des populations, le camp devient un monde social où se développent de nouvelles pratiques ; les jeunes Somaliens font preuve d’agentivité et interprètent leur expérience de manière à rendre leur quotidien acceptable ; ces derniers expriment une frustration croissante lorsque leurs études sont terminées et qu’ils peinent à s’établir en tant qu’adultes, ce qui exacerbe leur désir de quitter le camp. En effet, même s’il existe depuis plus de 20 ans, le camp demeure un lieu de transition. L’expérience de jeunes Somaliens qui ont grandi dans un camp de réfugiés n’a pas été étudiée auparavant. Nous soutenons que cette expérience est caractérisée par des tensions entre contraintes et opportunités, mobilité et immobilité, isolation et connexion ou victimisation et affirmation du sujet – et des temporalités contradictoires. Cette étude souligne que des notions comme la convivialité ou la pluralité des appartenances développées dans la littérature sur la cohabitation interethnique dans les villes ou sur l’identité des migrants aident à appréhender le réalité du camp. Cette ethnographie montre également que, loin d’être des victimes passives, les réfugiés contribuent à trouver des solutions à leur exil.
Resumo:
Dans le sillage de la récession mondiale de 2008-09, plusieurs questions ont été soulevées dans la littérature économique sur les effets à court et à long terme de la politique budgétaire sur l’activité économique par rapport à son signe, sa taille et sa durée. Ceux-ci ont des implications importantes pour mieux comprendre les canaux de transmission et l’efficacité des politiques budgétaires, avec la politique monétaire étant poursuivi, ainsi que pour leurs retombées économiques. Cette thèse fait partie de ce regain d’intérêt de la littérature d’examiner comment les changements dans la politique budgétaire affectent l’activité économique. Elle repose alors sur trois essais: les effets macroéconomiques des chocs de dépenses publiques et des recettes fiscales, les résultats macroéconomiques de l’interaction entre les politiques budgétaire et monétaire et le lien entre la politique budgétaire et la répartition des revenus. Le premier chapitre examine les effets des chocs de politique budgétaire (chocs de dépenses publiques et chocs de recettes fiscales) sur l’économie canadienne au cours de la période 1970-2010, en s’appuyant sur la méthode d’identification des restrictions de signe développée par Mountford et Uhlig [2009]. En réponse à la récession mondiale, les autorités fiscales dans les économies avancées, dont le Canada ont généralement mis en oeuvre une approche en deux phases pour la politique budgétaire. Tout d’abord, ils ont introduit des plans de relance sans précédent pour relancer leurs économies. Par exemple, les mesures de relance au Canada, introduites à travers le Plan d’action économique du Canada, ont été projetées à 3.2 pour cent du PIB dans le budget fédéral de 2009 tandis que l’ "American Recovery and Reinvestment Act"(ARRA) a été estimé à 7 pour cent du PIB. Par la suite, ils ont mis en place des plans d’ajustement en vue de réduire la dette publique et en assurer la soutenabilité à long terme. Dans ce contexte, évaluer les effets multiplicateurs de la politique budgétaire est important en vue d’informer sur l'efficacité de telles mesures dans la relance ou non de l'activité économique. Les résultats montrent que les multiplicateurs d'impôt varient entre 0.2 et 0.5, tandis que les multiplicateurs de dépenses varient entre 0.2 et 1.1. Les multiplicateurs des dépenses ont tendance à être plus grand que les multiplicateurs des recettes fiscales au cours des deux dernières décennies. Comme implications de politique économique, ces résultats tendent à suggérer que les ajustements budgétaires par le biais de grandes réductions de dépenses publiques pourraient être plus dommageable pour l'économie que des ajustements budgétaires par la hausse des impôts. Le deuxième chapitre, co-écrit avec Constant Lonkeng Ngouana, estime les effets multiplicateurs des dépenses publiques aux Etats-Unis en fonction du cycle de la politique monétaire. Les chocs de dépenses publiques sont identifiés comme étant des erreurs de prévision du taux de croissance des dépenses publiques à partir des données d'Enquêtes des prévisionnistes professionnels et des informations contenues dans le "Greenbook". L'état de la politique monétaire est déduite à partir de la déviation du taux des fonds fédéraux du taux cible de la Réserve Fédérale, en faisant recours à une fonction lisse de transition. L'application de la méthode des «projections locales» aux données trimestrielles américaines au cours de la période 1965-2012 suggère que les effets multiplicateurs des dépenses fédérales sont sensiblement plus élevées quand la politique monétaire est accommodante que lorsqu'elle ne l'est pas. Les résultats suggèrent aussi que les dépenses fédérales peuvent stimuler ou non la consommation privée, dépendamment du degré d’accommodation de la politique monétaire. Ce dernier résultat réconcilie ainsi, sur la base d’un cadre unifié des résultats autrement contradictoires à première vue dans la littérature. Ces résultats ont d'importantes implications de politique économique. Ils suggèrent globalement que la politique budgétaire est plus efficace lorsqu'on en a le plus besoin (par exemple, lorsque le taux de chômage est élevé), si elle est soutenue par la politique monétaire. Ils ont également des implications pour la normalisation des conditions monétaires dans les pays avancés: la sortie des politiques monétaires non-conventionnelles conduirait à des multiplicateurs de dépenses fédérales beaucoup plus faibles qu'autrement, même si le niveau de chômage restait élevé. Ceci renforce la nécessité d'une calibration prudente du calendrier de sortie des politiques monétaires non-conventionnelles. Le troisième chapitre examine l'impact des mesures d'expansion et de contraction budgétaire sur la distribution des revenus dans un panel de 18 pays d'Amérique latine au cours de la période 1990-2010, avec un accent sur les deniers 40 pour cent. Il explore alors comment ces mesures fiscales ainsi que leur composition affectent la croissance des revenus des dernier 40 pour cent, la croissance de leur part de revenu ainsi que la croissance économique. Les mesures d'expansion et de contraction budgétaire sont identifiées par des périodes au cours desquels il existe une variation significative du déficit primaire corrigé des variations conjoncturelles en pourcentage du PIB. Les résultats montrent qu'en moyenne l'expansion budgétaire par la hausse des dépenses publiques est plus favorable à la croissance des revenus des moins bien-nantis que celle par la baisse des impôts. Ce résultat est principalement soutenu par la hausse des dépenses gouvernementales de consommation courante, les transferts et subventions. En outre ces mesures d’expansion budgétaire sont favorables à la réduction des inégalités car elles permettent d'améliorer la part des revenus des moins bien-nantis tout en réduisant la part des revenus des mieux-nantis de la distribution des revenus. En outre ces mesures d’expansion budgétaire sont favorables à la réduction des inégalités car elles permettent d'améliorer la part des revenus des moins bien-nantis tout en réduisant la part des revenus des mieux-nantis de la distribution des revenus. Cependant, l'expansion budgétaire pourrait soit n'avoir aucun effet sur la croissance économique ou entraver cette dernière à travers la hausse des dépenses en capital. Les résultats relatifs à la contraction budgétaire sont quelque peu mitigés. Parfois, les mesures de contraction budgétaire sont associées à une baisse de la croissance des revenus des moins bien nantis et à une hausse des inégalités, parfois l'impact de ces mesures est non significatif. Par ailleurs, aucune des mesures n’affecte de manière significative la croissance du PIB. Comme implications de politique économique, les pays avec une certaine marge de manœuvre budgétaire pourraient entamer ou continuer à mettre en œuvre des programmes de "filets de sauvetage"--par exemple les programmes de transfert monétaire conditionnel--permettant aux segments vulnérables de la population de faire face à des chocs négatifs et aussi d'améliorer leur conditions de vie. Avec un potentiel de stimuler l'emploi peu qualifié, une relance budgétaire sage par les dépenses publique courantes pourrait également jouer un rôle important pour la réduction des inégalités. Aussi, pour éviter que les dépenses en capital freinent la croissance économique, les projets d'investissements publics efficients devraient être prioritaires dans le processus d'élaboration des politiques. Ce qui passe par la mise en œuvre des projets d'investissement avec une productivité plus élevée capable de générer la croissance économique nécessaire pour réduire les inégalités.
Resumo:
La question posée dans ce mémoire de recherche concerne l’artiste contemporain japonais Aida Makoto, comme figure provocante et ironique, remettant en question les appareils de répression et d’aliénation de la société capitaliste japonaise. L’objectif de ma réflexion est de montrer l’apport de la schizo-analyse dans l’analyse d’œuvres plastiques comportant des prédispositions à l’utilisation de celle-ci. À travers les œuvres de l’artiste Aida Makoto où une multiplicité de corps emplit l’espace de la toile, et à partir des concepts de multiplicité et de sensation théorisés par Gilles Deleuze et Félix Guattari, la recherche apportera une seconde lecture aux œuvres de cet artiste en mettant en avant les aspects révolutionnaires de sa création artistique. Constitué de deux chapitres, le mémoire porte dans un premier temps sur la picturalité de l’œuvre, d’ordre technique, esthétique et éthique, en mettant en avant les composés de sensation présents sur la toile, ceci afin, dans un second temps, d’appréhender la figuration, de la visagéité à la multiplicité, comme aspect central de l’œuvre. Ainsi, la Figure, au sens deleuzien du terme, permettrait à l’artiste Aida Makoto d’entamer une fuite schizophrénique à l’occasion de laquelle il pourra créer à l’abri de toute répression ou normalisation de ses machines désirantes par la société capitaliste japonaise.
Resumo:
Dans cette thèse, l’impact du polymorphisme rs3846662 sur l’épissage alternatif de la 3-hydroxy-3-méthylglutaryl coenzyme A réductase (HMGCR) a été investigué in vivo, chez des patients atteints d’hypercholestérolémie familiale (HF) ou de maladie d’Alzheimer (MA). Le premier manuscrit adresse la problématique de la normalisation de la quantification relative des ARNm par PCR quantitative. Les découvertes présentées dans ce manuscrit nous ont permis de déterminer avec un haut niveau de confiance les gènes de référence à utiliser pour la quantification relative des niveaux d’ARNm de l’HMGCR dans des échantillons de sang (troisième manuscrit) et de tissus cérébraux post-mortem (quatrième manuscrit). Dans le deuxième manuscrit, nous démontrons grâce à l’emploi de trois cohortes de patients distinctes, soit la population canadienne française du Québec et les deux populations nord américaines « Alzheimer’s Disease Cooperative Study (ADCS) » et « Alzheimer’s Disease Neuroimaging Initiative (ADNI) », que le génotype AA au locus rs3846662 confère à ces porteurs une protection considérable contre la MA. Les femmes porteuses de ce génotype voient leur risque de MA diminuer de près de 50% et l’âge d’apparition de leurs premiers symptômes retarder de 3.6 ans. Les porteurs de l’allèle à risque APOE4 voient pour leur part leurs niveaux de plaques séniles et dégénérescences neurofibrillaires diminuer significativement en présence du génotype AA. Enfin, les individus atteints de déficit cognitif léger et porteurs à la fois de l’allèle APOE4 et du génotype protecteur AA voient leur risque de convertir vers la MA chuter de 76 à 27%. Dans le troisième manuscrit, nous constatons que les individus atteints d’HF et porteurs du génotype AA ont, contrairement au modèle établi chez les gens normaux, des niveaux plus élevés de cholestérol total et de LDL-C avant traitement comparativement aux porteurs de l’allèle G. Le fait que cette association n’est observée que chez les non porteurs de l’APOE4 et que les femmes porteuses du génotype AA présentent à la fois une augmentation des niveaux d’ARNm totaux et une résistance aux traitements par statines, nous indique que ce génotype influencerait non seulement l’épissage alternatif, mais également la transcription de l’HMGCR. Comme une revue exhaustive de la littérature ne révèle aucune étude abondant dans ce sens, nos résultats suggèrent l’existence de joueurs encore inconnus qui viennent influencer la relation entre le génotype AA, l’épissage alternatif et les niveaux d’ARNm de l’HMGCR. Dans le quatrième manuscrit, l’absence d’associations entre le génotype AA et les niveaux d’ARNm Δ13 ou de protéines HMGCR nous suggère fortement que ce polymorphisme est non fonctionnel dans le SNC affecté par la MA. Une étude approfondie de la littérature nous a permis d’étayer cette hypothèse puisque les niveaux de HNRNPA1, la ribonucléoprotéine influencée par l’allèle au locus rs3846662, sont considérablement réduits dans la MA et le vieillissement. Il est donc proposé que les effets protecteurs contre la MA associés au génotype AA soient le résultat d’une action indirecte sur le processus physiopathologique.
Resumo:
En mécanique statistique, un système physique est représenté par un système mécanique avec un très grand nombre de degrés de liberté. Ce qui est expérimentalement accessible, croit-on, se limite à des moyennes temporelles sur de longues périodes. Or, il est bien connu qu’un système physique tend vers un équilibre thermodynamique. Ainsi, les moyennes temporelles censées représenter les résultats de mesure doivent être indépendantes du temps. C’est pourquoi elles sont associées à des temps infinis. Ces moyennes sont par contre difficilement analysables, et c’est pourquoi la moyenne des phases est utilisée. La justification de l’égalité de la moyenne temporelle infinie et de la moyenne des phases est le problème ergodique. Ce problème, sous une forme ou une autre, a fait l’objet d’études de la part de Boltzmann (1868 ; 1872), les Ehrenfest (1912), Birkhoff (1831), Khinchin (1949), et bien d’autres, jusqu’à devenir une théorie à part entière en mathématique (Mackey 1974). Mais l’introduction de temps infinis pose des problèmes physiques et philosophiques d’importance. En effet, si l’infini a su trouver une nouvelle place dans les mathématiques cantoriennes, sa place en physique n’est pas aussi assurée. Je propose donc de présenter les développements conceptuels entourant la théorie ergodique en mécanique statistique avant de me concentrer sur les problèmes épistémologiques que soulève la notion d’infini dans ces mêmes développements.
Resumo:
Le cancer pulmonaire est la principale cause de décès parmi tous les cancers au Canada. Le pronostic est généralement faible, de l'ordre de 15% de taux de survie après 5 ans. Les déplacements internes des structures anatomiques apportent une incertitude sur la précision des traitements en radio-oncologie, ce qui diminue leur efficacité. Dans cette optique, certaines techniques comme la radio-chirurgie et la radiothérapie par modulation de l'intensité (IMRT) visent à améliorer les résultats cliniques en ciblant davantage la tumeur. Ceci permet d'augmenter la dose reçue par les tissus cancéreux et de réduire celle administrée aux tissus sains avoisinants. Ce projet vise à mieux évaluer la dose réelle reçue pendant un traitement considérant une anatomie en mouvement. Pour ce faire, des plans de CyberKnife et d'IMRT sont recalculés en utilisant un algorithme Monte Carlo 4D de transport de particules qui permet d'effectuer de l'accumulation de dose dans une géométrie déformable. Un environnement de simulation a été développé afin de modéliser ces deux modalités pour comparer les distributions de doses standard et 4D. Les déformations dans le patient sont obtenues en utilisant un algorithme de recalage déformable d'image (DIR) entre les différentes phases respiratoire générées par le scan CT 4D. Ceci permet de conserver une correspondance de voxels à voxels entre la géométrie de référence et celles déformées. La DIR est calculée en utilisant la suite ANTs («Advanced Normalization Tools») et est basée sur des difféomorphismes. Une version modifiée de DOSXYZnrc de la suite EGSnrc, defDOSXYZnrc, est utilisée pour le transport de particule en 4D. Les résultats sont comparés à une planification standard afin de valider le modèle actuel qui constitue une approximation par rapport à une vraie accumulation de dose en 4D.