28 resultados para Almost Greedy Bases

em Université de Montréal, Canada


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Département de linguistique et de traduction

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les récentes avancées scientifiques et les nouveaux développements technologiques, notamment l’avènement de la bioinformatique, ont conduit à l’émergence de bases de données génétiques aux caractéristiques et structures différentes, et, parallèlement à la prolifération de textes éthiques et juridiques visant à en réglementer les aspects.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’augmentation de la population âgée dans la société indique que les systèmes de soins de la santé font face à de nouveaux défis. Les hauts niveaux d’incapacité qui en résultent peuvent être réduits par les nouvelles technologies, la promotion de la santé ainsi que des stratégies de prévention. Les écrits scientifiques récents soulignent la supériorité des prothèses dentaires implanto-portées par rapport aux prothèses conventionnelles en termes de satisfaction et de qualité de la vie des patients. Cependant, il n'est toujours pas clair si ces avantages ont des effets positifs à long terme sur la santé orale et générale ainsi que sur la qualité de vie des populations âgées. Objectifs, Hypothèses : Notre but était de mesurer l’impact des prothèses mandibulaires retenues par 2 implants sur la qualité de vie associée à la santé bucco-dentaire et générale ainsi que sur la santé orale et la qualité du sommeil des aînés édentés. Nous avons évalué les hypothèses nulles suivantes : il n'y a aucune différence entre les individus portants des prothèses mandibulaires retenues par 2 implants (IODs) et ceux qui portent des prothèses conventionnelles (CDs), par rapport à la qualité de vie reliée à la santé bucco-dentaire et générale, la santé orale et la qualité du sommeil, un an après avoir reçu leurs nouvelles prothèses. Méthodes : Dans cette étude randomisée contrôlée, 255 aînés ont reçu au hasard IODs ou les CDs, les deux types de prothèses étant opposés à des prothèses maxillaires conventionnelles. La qualité de la vie reliée à la santé bucco-dentaire (OHRQoL) et la santé générale subjective ont été mesurées avec les questionnaires Oral Health Impact Profile (OHIP-20) et Short Form-36 (SF-36) en condition pré-traitement et après un an. La qualité du sommeil et la somnolence diurne ont été mesurées à l’aide du questionnaire Qualité de Sommeil de Pittsburg et de l'Échelle de Somnolence Epworth. La santé orale a été évaluée par un examen clinique. Les variables indépendantes étaient le sens de cohérence et le type de prosthèse, ainsi que des variables socio-démographiques. En utilisant des analyses statistiques bi et multi-factorielles, des comparaisons à l’intérieur d’un même groupe et entre deux groupes ont été effectuées. Résultats : Les différences pré et post traitement pour les cotes OHIP étaient significativement plus grandes pour le groupe IOD que le groupe CD (p<0.05). Le type de traitement et la cote pré-traitement étaient des facteurs significatifs à OHRQoL (p < 0.0001). Dans le groupe CD, il y avait une diminution significative par rapport aux cotes de «Physical Component Scores (PCS)», le fonctionnement physique, le rôle physique et la douleur physique entre les données pré-traitement et un an après le traitement, ce qui indique une diminution au niveau de la santé générale subjective. Dans le groupe IOD, une diminution statistiquement non significative a été remarquée par rapport à toutes les cotes des sous-échelles de SF-36, sauf pour la douleur physique. Le modèle final de régression a démontré qu’après ajustement pour les variables âge, sexe, statut marital et type de traitement, la cote totale finale d’OHIP et les données de bases de PCS prédisaient la cote finale de PCS (p < 0.0001). Aucune corrélation significative entre sens de cohérence et OHRQoL n'a été détectée (r =-0.1; p > 0.05). Les aînés porteurs des prothèses conventionnelles avaient presque 5 fois plus de chance d’avoir une stomatite prothétique que ceux portant des prothèses mandibulaires hybrides retenues par 2 implants (p < 0.0001). Les aînés ayant subjectivement une mauvaise santé générale avaient une qualité de sommeil moins bonne que ceux avec une meilleure santé générale subjective (p < 0.05). Les personnes qui avaient une OHRQoL moins bonne étaient presque 4 fois plus somnolentes pendant le jour que celles avec une meilleure OHRQoL (p=0.003, χ2; OR =3.8 CI 1.5 to 9.8). L'analyse de régression a montré que la santé générale subjective et OHRQoL prévoient la qualité du sommeil (p=0.022 et p=0.001, respectivement) et la somnolence diurne (p=0.017 et p=0.005, respectivement). Conclusions: Les résultats de cette étude suggèrent que, chez les aînés édentés, des prothèses mandibulaires hybrides retenues par deux implants amènent une amélioration significative de la qualité de vie reliée à la santé bucco-dentaire et maintiennent la sensation d’une meilleure santé physique. Des prothèses hybrides implanto-portées peuvent contribuer à la santé orale en réduisant les traumatismes infligés à la muqueuse orale et en contrôlant la stomatite prothétique. Les aînés édentés dont le niveau de qualité de vie reliée à la santé bucco-dentaire est bas, peuvent aussi avoir des troubles de qualité du sommeil.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

« La grande majorité des accidents demeure liée aux comportements dangereux des usagers de la route ». Cet énoncé, lapidaire, fait aujourd’hui figure d’évidence au sein de la communauté des intervenants en sécurité routière. Il repose pourtant sur des prémisses discutables. Le problème le plus fondamental réside dans le fait que la recherche des dernières décennies s’est presque toute entière vouée à l’analyse des seuls aspects défaillants de la conduite (l’accident, les infractions, les erreurs et les fautes de conduite, les conducteurs à risque ou dysfonctionnels, les attitudes et traits de caractère incitant à la conduite dangereuse, etc.). Ce faisant, on a fini par oublier qu’il nous restait encore beaucoup de choses à apprendre sur le fonctionnement usuel de la conduite automobile. Comment, en effet, peut-on escompter élucider tous les rouages de la dynamique accidentelle sans avoir au préalable cerné, et bien compris, les mécanismes de la conduite « ordinaire » ? Comment peut-on parvenir à approfondir notre compréhension des comportements de conduite si l’on fait totalement abstraction de toutes les activités courantes, « normales », auxquelles se livrent les conducteurs lorsqu’ils sont au volant de leur véhicule ? C’est dans la perspective de mieux comprendre les comportements de conduite, dans leur complexité et dans leur diversité, que la présente thèse a été réalisée. Y a plus spécifiquement été examinée la question des habitudes en raison de leur prédominance dans l’activité de la conduite, mais également en raison de leur résistance, des obstacles bien concrets qu’elles sont susceptibles d’opposer à tous ceux qui tentent de modifier les comportements individuels de conduite. Des entrevues en profondeur, menées auprès de trente conducteurs et conductrices âgé(e)s de 17 à 54 ans, devaient permettre de répondre, entre autres, aux questions suivantes : De quoi sont constituées les différentes habitudes en matière de conduite automobile ? Quelle place occupent-elles dans la conduite des individus ? En quoi constituent-elles un frein au changement, à la modification des pratiques adoptées ? Quelles sont les dimensions qui participent à leur installation ? Les résultats de l’analyse ont permis de jeter les bases d’un modèle des comportements de conduite où les sensations corporelles se voient conférer un rôle des plus centraux, et où l’habitude – bien davantage caractérisée par la notion de confort que par celles d’automatisme ou de répétition – concourt non seulement à la pérennité, mais également à la régulation des conduites adoptées sur la route.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Cette thèse porte sur l’évaluation de la cohérence du réseau conceptuel démontré par des étudiants de niveau collégial inscrits en sciences de la nature. L’évaluation de cette cohérence s’est basée sur l’analyse des tableaux de Burt issus des réponses à des questionnaires à choix multiples, sur l’étude détaillée des indices de discrimination spécifique qui seront décrits plus en détail dans le corps de l’ouvrage et sur l’analyse de séquences vidéos d’étudiants effectuant une expérimentation en contexte réel. Au terme de ce projet, quatre grands axes de recherche ont été exploré. 1) Quelle est la cohérence conceptuelle démontrée en physique newtonienne ? 2) Est-ce que la maîtrise du calcul d’incertitude est corrélée au développement de la pensée logique ou à la maîtrise des mathématiques ? 3) Quelle est la cohérence conceptuelle démontrée dans la quantification de l’incertitude expérimentale ? 4) Quelles sont les procédures concrètement mise en place par des étudiants pour quantifier l’incertitude expérimentale dans un contexte de laboratoire semi-dirigé ? Les principales conclusions qui ressortent pour chacun des axes peuvent se formuler ainsi. 1) Les conceptions erronées les plus répandues ne sont pas solidement ancrées dans un réseau conceptuel rigide. Par exemple, un étudiant réussissant une question sur la troisième loi de Newton (sujet le moins bien réussi du Force Concept Inventory) montre une probabilité à peine supérieure de réussir une autre question sur ce même sujet que les autres participants. De nombreux couples de questions révèlent un indice de discrimination spécifique négatif indiquant une faible cohérence conceptuelle en prétest et une cohérence conceptuelle légèrement améliorée en post-test. 2) Si une petite proportion des étudiants ont montré des carences marquées pour les questions reliées au contrôle des variables et à celles traitant de la relation entre la forme graphique de données expérimentales et un modèle mathématique, la majorité des étudiants peuvent être considérés comme maîtrisant adéquatement ces deux sujets. Toutefois, presque tous les étudiants démontrent une absence de maîtrise des principes sous-jacent à la quantification de l’incertitude expérimentale et de la propagation des incertitudes (ci-après appelé métrologie). Aucune corrélation statistiquement significative n’a été observée entre ces trois domaines, laissant entendre qu’il s’agit d’habiletés cognitives largement indépendantes. Le tableau de Burt a pu mettre en lumière une plus grande cohérence conceptuelle entre les questions de contrôle des variables que n’aurait pu le laisser supposer la matrice des coefficients de corrélation de Pearson. En métrologie, des questions équivalentes n’ont pas fait ressortir une cohérence conceptuelle clairement démontrée. 3) L’analyse d’un questionnaire entièrement dédié à la métrologie laisse entrevoir des conceptions erronées issues des apprentissages effectués dans les cours antérieurs (obstacles didactiques), des conceptions erronées basées sur des modèles intuitifs et une absence de compréhension globale des concepts métrologiques bien que certains concepts paraissent en voie d’acquisition. 4) Lorsque les étudiants sont laissés à eux-mêmes, les mêmes difficultés identifiées par l’analyse du questionnaire du point 3) reviennent ce qui corrobore les résultats obtenus. Cependant, nous avons pu observer d’autres comportements reliés à la mesure en laboratoire qui n’auraient pas pu être évalués par le questionnaire à choix multiples. Des entretiens d’explicitations tenus immédiatement après chaque séance ont permis aux participants de détailler certains aspects de leur méthodologie métrologique, notamment, l’emploi de procédures de répétitions de mesures expérimentales, leurs stratégies pour quantifier l’incertitude et les raisons sous-tendant l’estimation numérique des incertitudes de lecture. L’emploi des algorithmes de propagation des incertitudes a été adéquat dans l’ensemble. De nombreuses conceptions erronées en métrologie semblent résister fortement à l’apprentissage. Notons, entre autres, l’assignation de la résolution d’un appareil de mesure à affichage numérique comme valeur de l’incertitude et l’absence de procédures d’empilement pour diminuer l’incertitude. La conception que la précision d’une valeur numérique ne peut être inférieure à la tolérance d’un appareil semble fermement ancrée.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Roughly speaking, Enron has done for reflection on corporate governance what AIDS did for research on the immune system. So far, however, virtually all of this reflection on and subsequent reform of governance has come from those with a stake in the success of modern capitalism. This paper identifies a number of governance challenges for critics of capitalism, and in particular for those who urge corporations to voluntarily adopt missions of broader social responsibility and equal treatment for all stakeholder groups. I argue that by generally neglecting the governance relation between shareholders and senior managers, stakeholder theorists have underestimated the way in which shareholder-focused governance can be in the interests of all stakeholder groups. The enemy, if you will, is not capitalists (shareholders), but greedy, corrupt or incompetent managers. A second set of governance challenges for stakeholder theorists concerns their largely untested proposals for governance reforms that would require managers to act in the interests of all stakeholders and not just shareholders; in other words to treat shareholders as just another stakeholder group. I suggest that in such a governance regime it may be almost impossible to hold managers accountable to anyone – just as it was when state-owned enterprises were given “multi-stakeholder” mandates in the 1960s and 1970s.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’utilisation des services de santé est au centre de l’organisation des soins. La compréhension des processus qui déterminent cette utilisation est essentielle pour agir sur le système de santé et faire en sorte qu’il réponde mieux aux besoins de la population. L’objectif de cette thèse est de comprendre le phénomène complexe qu’est l’utilisation des services de santé en s’intéressant à la pratique des médecins omnipraticiens. En nous appuyant sur le cadre théorique de Donabedian, nous décomposons les déterminants de l’utilisation des services de santé en trois niveaux : le niveau individuel, le niveau organisationnel, et le niveau environnemental. Pour tenir compte de la complexité des phénomènes de cette étude nous proposons de nous appuyer sur l’approche configurationnelle. Notre question de recherche est la suivante : dans quelle mesure le mode d’exercice des omnipraticiens influence-t-il la prestation des services et comment l’environnement géographique et la patientèle modulent-ils cette relation ? Nous avons utilisé des bases de données jumelées du Collège des médecins du Québec, de la Régie d’assurance maladie du Québec et de la banque de données iCLSC. Notre échantillon est constitué des médecins omnipraticiens de l’année 2002, ayant satisfait aux critères d’inclusion, ce qui représente près de 70% de la population totale. Des analyses de correspondances multiples et des classifications ascendantes hiérarchiques ont été utilisées pour réaliser la taxonomie des modes d’exercice et des contextes géographiques. Nous avons construit des indicateurs d’utilisation des services de santé pour apprécier la continuité, la globalité, l’accessibilité et la productivité. Ces indicateurs ont été validés en les comparant à ceux d’une enquête populationnelle. Nous présentons tout d’abord les modes d’exercice des médecins qui sont au nombre de sept. Deux modes d’exercice à lieu unique ont émergé : le mode d’exercice en cabinet privé d'une part, caractérisé par des niveaux de continuité et productivité élevés, le mode d’exercice en CLSC d'autre part présentant un niveau de productivité faible et des niveaux de globalité et d'accessibilité légèrement au-dessus de la moyenne. Dans les cinq autres modes d’exercice, les médecins exercent leur pratique dans une configuration de lieux. Deux modes d’exercice multi-institutionnel réunissent des médecins qui partagent leur temps entre les urgences, les centres hospitaliers et le cabinet privé ou le CLSC. Les médecins de ces deux groupes présentent des niveaux d’accessibilité et de productivité très élevés. Le mode d’exercice le moins actif réunit des médecins travaillant en cabinet privé et en CHLSD. Leur niveau d’activité est inférieur à la moyenne. Ils sont caractérisés par un niveau de continuité très élevé. Le mode d’exercice ambulatoire regroupe des médecins qui partagent leur pratique entre le CLSC, le cabinet privé et le CHLSD. Ces médecins présentent des résultats faibles sur tous les indicateurs. Finalement le mode d’exercice hospitaliste réunit des médecins dont la majorité de la pratique s’exerce en milieu hospitalier avec une petite composante en cabinet privé. Dans ce mode d’exercice tous les indicateurs sont faibles. Les analyses ont mis en évidence quatre groupes de territoires de CSSS : les ruraux, les semi-urbains, les urbains et les métropolitains. La prévalence des modes d’exercice varie selon les contextes. En milieu rural, le multi-institutionnel attire près d’un tiers des médecins. En milieu semi-urbain, les médecins se retrouvent de façon plus prédominante dans les modes d’exercice ayant une composante CLSC. En milieu urbain, les modes d’exercice ayant une composante cabinet privé attirent plus de médecins. En milieu métropolitain, les modes d’exercice moins actif et hospitaliste attirent près de 40% des médecins. Les omnipraticiens se répartissent presque également dans les autres modes d’exercice. Les niveaux des indicateurs varient en fonction de l’environnement géographique. Ainsi l’accessibilité augmente avec le niveau de ruralité. De façon inverse, la productivité augmente avec le niveau d’urbanité. La continuité des soins est plus élevée en régions métropolitaines et rurales. La globalité varie peu d’un contexte à l’autre. Pour pallier à la carence de l’analyse partielle de l’organisation de la pratique des médecins dans la littérature, nous avons créé le concept de mode d’exercice comme la configuration de lieux professionnels de pratique propre à chaque médecin. A notre connaissance, il n’existe pas dans la littérature, d’étude qui ait analysé simultanément quatre indicateurs de l’utilisation des services pour évaluer la prestation des services médicaux, comme nous l’avons fait. Les résultats de nos analyses montrent qu’il existe une différence dans la prestation des services selon le mode d’exercice. Certains des résultats trouvés sont documentés dans la littérature et plus particulièrement quand il s’agit de mode d’exercice à lieu unique. La continuité et la globalité des soins semblent évoluer dans le même sens. De même, la productivité et l’accessibilité sont corrélées positivement. Cependant il existe une tension, entre les premiers indicateurs et les seconds. Seuls les modes d’exercice à lieu unique déjouent l’arbitrage entre les indicateurs, énoncé dans l’état des connaissances. Aucun mode d’exercice ne présente de niveaux élevés pour les quatre indicateurs. Il est donc nécessaire de travailler sur des combinaisons de modes d’exercice, sur des territoires, afin d’offrir à la population les services nécessaires pour l’atteinte concomitante des quatre objectifs de prestation des services. Les modes d’exercice émergents (qui attirent les jeunes médecins) et les modes d’exercice en voie de disparition (où la prévalence des médecins les plus âgés est la plus grande) sont préoccupants. A noter que les modes d’exercice amenés à disparaître répondent mieux aux besoins de santé de la population que les modes d’exercice émergents, au regard de tous nos indicateurs. En conclusion, cette thèse présente trois contributions théoriques et trois contributions méthodologiques. Les implications pour les recherches futures et la décision indiquent que, si aucune mesure n’est mise en place pour renverser la tendance, le Québec risque de vivre des pénuries dans la prestation des services en termes de continuité, globalité et accessibilité.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Je défends actuellement trois capacités éthiques et discursives en faveur de la réalisation des êtres humains: 1) La capacité de se comprendre soi-même ; 2) La capacité de faire reposer ses jugements sur un dialogue avec les personnes concernées ; 3) La capacité de mettre en oeuvre -avec autrui- les projets de justice convenus conjointement. Je les considère ici comme des capacités visant à la «reconnaissance mutuelle». Je soutiens que les types de relation à soi du sujet qui ont été définis par Axel Honneth complètent la capacité de se comprendre soi-même. Honneth propose également une idée de justice que la deuxième capacité mentionnée réexamine. Cependant, à partir de la troisième capacité, je remets en question le concept de «lutte» chez Honneth, en présentant les avantages de la coresponsabilité. Je montre ensuite que ces trois capacités peuvent constituer des indicateurs dans toutes les sphères de la société qui sont aux prises avec des questions éthiques importantes et je donne pour exemple le milieu des entreprises. Enfin, je défends une procédure qui vise à mesurer ces indicateurs au moyen de données concrètes. Cette procédure nous permettra d’estimer la grandeur éthique d’une société grâce à l’évaluation des «capacités éthiques» de ses citoyens.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

I defend three discourse ethical capabilities for human development: 1) Capability for selfunderstanding; 2) Capability to ground judgements in a dialogue with the affected; 3) Capability to carry out, with others, the justice projects agreed by common consent. Here I interpret them as capabilities for “reciprocal recognition.” I claim that the forms of selfrelation of the subject, defined by Axel Honneth, complement the capability for selfunderstanding. Honneth also offers an idea of justice that reviews the second mentioned capability. But I question the concept of “struggle” in Honneth from the perspective of the third capability, showing the advantages of co-responsibility. Then, I show that the three capabilities can be specified in indicators in each one of the spheres of the society where important ethical issues are confronted, and I give the example of what happens within the business sector. Finally, I defend a procedure to measure such indicators with concrete data. This procedure will allow us to evaluate the ethical level of a society evaluating the “ethical capabilities” of their citizens.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La perception est décrite comme l’ensemble des processus permettant au cerveau de recueillir et de traiter l’information sensorielle. Un traitement perceptif atypique se retrouve souvent associé au phénotype autistique habituellement décrit en termes de déficits des habilités sociales et de communication ainsi que par des comportements stéréotypés et intérêts restreints. Les particularités perceptives des autistes se manifestent à différents niveaux de traitement de l’information; les autistes obtiennent des performances supérieures à celles des non autistes pour discriminer des stimuli simples, comme des sons purs, ou encore pour des tâches de plus haut niveau comme la détection de formes enchevêtrées dans une figure complexe. Spécifiquement pour le traitement perceptif de bas niveau, on rapporte une dissociation de performance en vision. En effet, les autistes obtiennent des performances supérieures pour discriminer les stimuli définis par la luminance et inférieures pour les stimuli définis par la texture en comparaison à des non autistes. Ce pattern dichotomique a mené à l’élaboration d’une hypothèse suggérant que l’étendue (ou complexité) du réseau de régions corticales impliquées dans le traitement des stimuli pourrait sous-tendre ces différences comportementales. En effet, les autistes obtiennent des performances supérieures pour traiter les stimuli visuels entièrement décodés au niveau d’une seule région corticale (simples) et inférieures pour les stimuli dont l’analyse requiert l’implication de plusieurs régions corticales (complexes). Un traitement perceptif atypique représente une caractéristique générale associée au phénotype autistique, avec de particularités rapportées tant dans la modalité visuelle qu’auditive. Étant donné les parallèles entre ces deux modalités sensorielles, cette thèse vise à vérifier si l’hypothèse proposée pour expliquer certaines particularités du traitement de l’information visuelle peut possiblement aussi caractériser le traitement de l’information auditive dans l’autisme. Le premier article (Chapitre 2) expose le niveau de performance des autistes, parfois supérieur, parfois inférieur à celui des non autistes lors du traitement de l’information auditive et suggère que la complexité du matériel auditif à traiter pourrait être en lien avec certaines des différences observées. Le deuxième article (Chapitre 3) présente une méta-analyse quantitative investiguant la représentation au niveau cortical de la complexité acoustique chez les non autistes. Ce travail confirme l’organisation fonctionnelle hiérarchique du cortex auditif et permet d’identifier, comme en vision, des stimuli auditifs pouvant être définis comme simples et complexes selon l’étendue du réseau de régions corticales requises pour les traiter. Le troisième article (Chapitre 4) vérifie l’extension des prédictions de l’hypothèse proposée en vision au traitement de l’information auditive. Spécifiquement, ce projet compare les activations cérébrales sous-tendant le traitement des sons simples et complexes chez des autistes et des non autistes. Tel qu’attendu, les autistes montrent un patron d’activité atypique en réponse aux stimuli complexes, c’est-à-dire ceux dont le traitement nécessitent l’implication de plusieurs régions corticales. En bref, l’ensemble des résultats suggèrent que les prédictions de l’hypothèse formulée en vision peuvent aussi s’appliquer en audition et possiblement expliquer certaines particularités du traitement de l’information auditive dans l’autisme. Ce travail met en lumière des différences fondamentales du traitement perceptif contribuant à une meilleure compréhension des mécanismes d’acquisition de l’information dans cette population.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Avec les avancements de la technologie de l'information, les données temporelles économiques et financières sont de plus en plus disponibles. Par contre, si les techniques standard de l'analyse des séries temporelles sont utilisées, une grande quantité d'information est accompagnée du problème de dimensionnalité. Puisque la majorité des séries d'intérêt sont hautement corrélées, leur dimension peut être réduite en utilisant l'analyse factorielle. Cette technique est de plus en plus populaire en sciences économiques depuis les années 90. Étant donnée la disponibilité des données et des avancements computationnels, plusieurs nouvelles questions se posent. Quels sont les effets et la transmission des chocs structurels dans un environnement riche en données? Est-ce que l'information contenue dans un grand ensemble d'indicateurs économiques peut aider à mieux identifier les chocs de politique monétaire, à l'égard des problèmes rencontrés dans les applications utilisant des modèles standards? Peut-on identifier les chocs financiers et mesurer leurs effets sur l'économie réelle? Peut-on améliorer la méthode factorielle existante et y incorporer une autre technique de réduction de dimension comme l'analyse VARMA? Est-ce que cela produit de meilleures prévisions des grands agrégats macroéconomiques et aide au niveau de l'analyse par fonctions de réponse impulsionnelles? Finalement, est-ce qu'on peut appliquer l'analyse factorielle au niveau des paramètres aléatoires? Par exemple, est-ce qu'il existe seulement un petit nombre de sources de l'instabilité temporelle des coefficients dans les modèles macroéconomiques empiriques? Ma thèse, en utilisant l'analyse factorielle structurelle et la modélisation VARMA, répond à ces questions à travers cinq articles. Les deux premiers chapitres étudient les effets des chocs monétaire et financier dans un environnement riche en données. Le troisième article propose une nouvelle méthode en combinant les modèles à facteurs et VARMA. Cette approche est appliquée dans le quatrième article pour mesurer les effets des chocs de crédit au Canada. La contribution du dernier chapitre est d'imposer la structure à facteurs sur les paramètres variant dans le temps et de montrer qu'il existe un petit nombre de sources de cette instabilité. Le premier article analyse la transmission de la politique monétaire au Canada en utilisant le modèle vectoriel autorégressif augmenté par facteurs (FAVAR). Les études antérieures basées sur les modèles VAR ont trouvé plusieurs anomalies empiriques suite à un choc de la politique monétaire. Nous estimons le modèle FAVAR en utilisant un grand nombre de séries macroéconomiques mensuelles et trimestrielles. Nous trouvons que l'information contenue dans les facteurs est importante pour bien identifier la transmission de la politique monétaire et elle aide à corriger les anomalies empiriques standards. Finalement, le cadre d'analyse FAVAR permet d'obtenir les fonctions de réponse impulsionnelles pour tous les indicateurs dans l'ensemble de données, produisant ainsi l'analyse la plus complète à ce jour des effets de la politique monétaire au Canada. Motivée par la dernière crise économique, la recherche sur le rôle du secteur financier a repris de l'importance. Dans le deuxième article nous examinons les effets et la propagation des chocs de crédit sur l'économie réelle en utilisant un grand ensemble d'indicateurs économiques et financiers dans le cadre d'un modèle à facteurs structurel. Nous trouvons qu'un choc de crédit augmente immédiatement les diffusions de crédit (credit spreads), diminue la valeur des bons de Trésor et cause une récession. Ces chocs ont un effet important sur des mesures d'activité réelle, indices de prix, indicateurs avancés et financiers. Contrairement aux autres études, notre procédure d'identification du choc structurel ne requiert pas de restrictions temporelles entre facteurs financiers et macroéconomiques. De plus, elle donne une interprétation des facteurs sans restreindre l'estimation de ceux-ci. Dans le troisième article nous étudions la relation entre les représentations VARMA et factorielle des processus vectoriels stochastiques, et proposons une nouvelle classe de modèles VARMA augmentés par facteurs (FAVARMA). Notre point de départ est de constater qu'en général les séries multivariées et facteurs associés ne peuvent simultanément suivre un processus VAR d'ordre fini. Nous montrons que le processus dynamique des facteurs, extraits comme combinaison linéaire des variables observées, est en général un VARMA et non pas un VAR comme c'est supposé ailleurs dans la littérature. Deuxièmement, nous montrons que même si les facteurs suivent un VAR d'ordre fini, cela implique une représentation VARMA pour les séries observées. Alors, nous proposons le cadre d'analyse FAVARMA combinant ces deux méthodes de réduction du nombre de paramètres. Le modèle est appliqué dans deux exercices de prévision en utilisant des données américaines et canadiennes de Boivin, Giannoni et Stevanovic (2010, 2009) respectivement. Les résultats montrent que la partie VARMA aide à mieux prévoir les importants agrégats macroéconomiques relativement aux modèles standards. Finalement, nous estimons les effets de choc monétaire en utilisant les données et le schéma d'identification de Bernanke, Boivin et Eliasz (2005). Notre modèle FAVARMA(2,1) avec six facteurs donne les résultats cohérents et précis des effets et de la transmission monétaire aux États-Unis. Contrairement au modèle FAVAR employé dans l'étude ultérieure où 510 coefficients VAR devaient être estimés, nous produisons les résultats semblables avec seulement 84 paramètres du processus dynamique des facteurs. L'objectif du quatrième article est d'identifier et mesurer les effets des chocs de crédit au Canada dans un environnement riche en données et en utilisant le modèle FAVARMA structurel. Dans le cadre théorique de l'accélérateur financier développé par Bernanke, Gertler et Gilchrist (1999), nous approximons la prime de financement extérieur par les credit spreads. D'un côté, nous trouvons qu'une augmentation non-anticipée de la prime de financement extérieur aux États-Unis génère une récession significative et persistante au Canada, accompagnée d'une hausse immédiate des credit spreads et taux d'intérêt canadiens. La composante commune semble capturer les dimensions importantes des fluctuations cycliques de l'économie canadienne. L'analyse par décomposition de la variance révèle que ce choc de crédit a un effet important sur différents secteurs d'activité réelle, indices de prix, indicateurs avancés et credit spreads. De l'autre côté, une hausse inattendue de la prime canadienne de financement extérieur ne cause pas d'effet significatif au Canada. Nous montrons que les effets des chocs de crédit au Canada sont essentiellement causés par les conditions globales, approximées ici par le marché américain. Finalement, étant donnée la procédure d'identification des chocs structurels, nous trouvons des facteurs interprétables économiquement. Le comportement des agents et de l'environnement économiques peut varier à travers le temps (ex. changements de stratégies de la politique monétaire, volatilité de chocs) induisant de l'instabilité des paramètres dans les modèles en forme réduite. Les modèles à paramètres variant dans le temps (TVP) standards supposent traditionnellement les processus stochastiques indépendants pour tous les TVPs. Dans cet article nous montrons que le nombre de sources de variabilité temporelle des coefficients est probablement très petit, et nous produisons la première évidence empirique connue dans les modèles macroéconomiques empiriques. L'approche Factor-TVP, proposée dans Stevanovic (2010), est appliquée dans le cadre d'un modèle VAR standard avec coefficients aléatoires (TVP-VAR). Nous trouvons qu'un seul facteur explique la majorité de la variabilité des coefficients VAR, tandis que les paramètres de la volatilité des chocs varient d'une façon indépendante. Le facteur commun est positivement corrélé avec le taux de chômage. La même analyse est faite avec les données incluant la récente crise financière. La procédure suggère maintenant deux facteurs et le comportement des coefficients présente un changement important depuis 2007. Finalement, la méthode est appliquée à un modèle TVP-FAVAR. Nous trouvons que seulement 5 facteurs dynamiques gouvernent l'instabilité temporelle dans presque 700 coefficients.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La sténose valvulaire aortique (SVA) est une valvulopathie résultant en l'ouverture incomplète de la valve aortique. La calcification des feuillets associée au vieillissement est la cause la plus importante de la SVA. Sa pathogénèse implique des dépôts de lipoprotéines, de l'inflammation et de la calcification des feuillets. Notre étude vise à identifier les gènes associés à une prédisposition à la SVA afin de mieux comprendre les mécanismes sous-jacents à cette maladie et potentiellement identifier de nouvelles cibles thérapeutiques. Pour ce faire, nous avons recruté 190 patients avec SVA dégénérative et 192 témoins, appariés pour l'âge et le sexe, puis effectué une étude d’association par gènes candidats en utilisant des marqueurs génétiques polymorphiques (SNP). Les gènes candidats choisis incluent (1) ceux dont les polymorphismes ont été présumés associés à la SVA dans des études antérieures (APOB, APOE, ESR1, PTH et VDR) (2) des gènes dont les polymorphismes ont été significativement associés et validés pour quelques maladies inflammatoires (IL-10, TNFAIP3) ou pour le métabolisme lipidique (PCSK9, LDLR) dans des études d’association pangénomiques, et (3) des gènes impliqués dans la pathogénie de la SVA à partir d’études faites sur des modèles animaux en lien avec la calcification (BMP2, CCR5, CTGF, LRP5, MSX2, WNT3), le remodelage tissulaire (CTSS, MMP9) ou le métabolisme lipidique (SMPD1). Pour les gènes des groupes (1) et (2), nous avons utilisé les SNPs rapportés dans la littérature comme étant significativement associés. Pour le groupe (3), nous avons effectué une approche par «tagSNP» qui consiste à sélectionner un groupe de SNP capturant la variabilité génétique dans la région ciblée. Au total, 81 SNPs dans 18 gènes ont été testés. Nous avons trouvé une association nominale avec les gènes BMP2 (OR = 1.55, IC95%: 1.14-2.10, p = 0.004) et LRP5 (OR = 1.47, IC95%: 1.06-2.03, p = 0.023) après ajustement pour la maladie coronarienne. Les gènes BMP2 et LRP5, impliqués dans la calcification selon certains modèles expérimentaux, sont donc associés à la SVA. Ce travail devrait être validé dans une cohorte indépendante plus large dans un avenir rapproché et il pourrait être étendu à d’autres gènes.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La recherche du premier chapitre de ce mémoire a été menée en collaboration avec les co-chercheurs suivants: Catherine Olivier et Michel Bergeron.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Objectif : Examiner la relation entre une exposition professionnelle aux fumées de soudage au gaz et à l’arc et le risque de développer un cancer du poumon, chez des travailleurs provenant de différents milieux de travail et exposés à de nombreuses substances de différentes concentrations. Méthodes : Nous avons mené deux études cas-témoins basés sur la population montréalaise (1979-86 et 1996-2001), incluant respectivement 857 et 736 cas, ainsi que des témoins appariés selon la fréquence des cas, le sexe et le lieu de résidence. Un historique détaillé des emplois occupés fut obtenu par entrevue et évalué par une équipe d’experts afin d’estimer l’intensité, la durée ainsi que l’exposition cumulative à un grand nombre de substances. Les fumées de soudage au gaz et à l’arc sont parmi les substances évaluées et nous avons pu calculer un rapport de cote (RC) et son intervalle de confiance de 95% (IC 95%) pour le risque de cancer du poumon en utilisant la régression logistique et en ajustant pour l’historique de tabagisme et plusieurs autres covariables pertinentes. Des analyses subséquentes ont permis d’explorer d’autres voies, comme la modification des effets observés par le tabagisme. Résultats : Les résultats obtenus à partir des deux études étant assez similaires, nous avons donc pu les combiner pour former une seule étude. Aucune association statistiquement significative n’a été trouvée entre le cancer du poumon et les fumées de soudage au gaz (RC=1,13; IC 95%=0,90-1,42) et les fumées de soudage à l’arc (RC=1,01; IC 95%=0,80-1,26). Par contre, dans le sous-groupe des non-fumeurs et fumeurs très légers, nous avons trouvé un risque accru de cancer du poumon en relation avec les fumées de soudage au gaz (RC=2,78; IC 95%=1,66-4,65) et à l’arc (RC=2,20; IC 95%=1,32-3,70). En se concentrant sur ce sous-groupe, nous avons trouvé un risque encore plus élevé de développer un cancer du poumon pour ceux exposé à des doses plus substantielles, pour le soudage au gaz (RC=4,63; IC 95%=2,14-10,03) et à l’arc (RC=3,45; IC 95%=1,59-7,48). Discussion : Globalement, aucun excès de risque causé par une exposition aux fumées de soudage n’a été détecté, mais un excès a été trouvé chez les non-fumeurs et fumeurs légers uniquement et ce, pour les deux types de fumées de soudage. L’effet des fumées de soudage peut être voilé chez les fumeurs, ou bien les non-fumeurs pourraient être plus vulnérables.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les lymphocytes B et T sont issus de cellules progénitrices lymphoïdes de la moelle osseuse qui se différencient grâce à l’action de facteurs de transcription, cytokines et voies de signalisation, dont l’interleukine-7 (IL-7)/IL-7 récepteur (IL-7R). Le facteur de transcription c-Myc est exprimé par les cellules lymphoïdes et contrôle leur croissance et leur différenciation. Cette régulation transcriptionnelle peut être coordonnée par le complexe c-Myc/Myc-Interacting Zinc finger protein-1 (Miz-1). Le but de ce projet était de comprendre les mécanismes qui impliquent Miz-1 et le complexe c-Myc/Miz-1 dans le développement des lymphocytes B et T. Pour réaliser ce projet, des souris déficientes pour le domaine de transactivation de Miz-1 (Miz-1POZ) et des souris à allèles mutantes pour c-MycV394D, mutation qui empêche l’interaction avec Miz-1, ont été générées. La caractérisation des souris Miz 1POZ a démontré que l’inactivation de Miz-1 perturbe le développement des lymphocytes B et T aux stades précoces de leur différenciation qui dépend de l’IL-7. L’analyse de la cascade de signalisation IL-7/IL-7R a montré que ces cellules surexpriment la protéine inhibitrice SOCS1 qui empêche la phosphorylation de STAT5 et perturbe la régulation à la hausse de la protéine de survie Bcl-2. De plus, Miz-1 se lie directement au promoteur de SOCS1 et contrôle son activité. En plus de contrôler l’axe IL-7/IL-7R/STAT5/Bcl-2 spécifiquement aux stades précoces du développement afin d’assurer la survie des progéniteurs B et T, Miz-1 régule l’axe EBF/Pax-5/Rag-1/2 dans les cellules B afin de coordonner les signaux nécessaires pour la différenciation des cellules immatures. La caractérisation des souris c-MycV394D a montré, quant à elle, que les fonctions de Miz-1 dans les cellules B et T semblent indépendantes de c-Myc. Les cellules T des souris Miz-1POZ ont un défaut de différenciation additionnel au niveau de la -sélection, étape où les signaux initiés par le TCR remplacent ceux induits par IL-7 pour assurer la prolifération et la différenciation des thymocytes en stades plus matures. À cette étape du développement, une forme fonctionnelle de Miz-1 semble être requise pour contrôler le niveau d’activation de la voie p53, induite lors du processus de réarrangement V(D)J du TCR. L’expression de gènes pro-apoptotiques PUMA, NOXA, Bax et du régulateur de cycle cellulaire p21CIP1 est régulée à la hausse dans les cellules des souris Miz-1POZ. Ceci provoque un débalancement pro-apoptotique qui empêche la progression du cycle cellulaire des cellules TCR-positives. La survie des cellules peut être rétablie à ce stade de différenciation en assurant une coordination adéquate entre les signaux initiés par l’introduction d’un TCR transgénique et d’un transgène codant pour la protéine Bcl-2. En conclusion, ces études ont montré que Miz-1 intervient à deux niveaux du développement lymphoïde: l’un précoce en contrôlant la signalisation induite par l’IL-7 dans les cellules B et T, en plus de l’axe EBF/Pax-5/Rag-1/2 dans les cellules B; et l’autre tardif, en coordonnant les signaux de survie issus par le TCR et p53 dans les cellules T. Étant donné que les thymocytes et lymphocytes B immatures sont sujets à plusieurs rondes de prolifération, ces études serviront à mieux comprendre l’implication des régulateurs du cycle cellulaire comme c-Myc et Miz-1 dans la génération des signaux nécessaires à la différenciation non aberrante et à la survie des ces cellules. Enfin, les modèles expérimentaux, souris déficientes ou à allèles mutantes, utilisés pour ce travail permettront de mieux définir les bases moléculaires de la transformation maligne des lymphocytes B et T et de révéler les mécanismes conduisant au lymphome.