984 resultados para Modèle VARMA
Resumo:
Avec les avancements de la technologie de l'information, les données temporelles économiques et financières sont de plus en plus disponibles. Par contre, si les techniques standard de l'analyse des séries temporelles sont utilisées, une grande quantité d'information est accompagnée du problème de dimensionnalité. Puisque la majorité des séries d'intérêt sont hautement corrélées, leur dimension peut être réduite en utilisant l'analyse factorielle. Cette technique est de plus en plus populaire en sciences économiques depuis les années 90. Étant donnée la disponibilité des données et des avancements computationnels, plusieurs nouvelles questions se posent. Quels sont les effets et la transmission des chocs structurels dans un environnement riche en données? Est-ce que l'information contenue dans un grand ensemble d'indicateurs économiques peut aider à mieux identifier les chocs de politique monétaire, à l'égard des problèmes rencontrés dans les applications utilisant des modèles standards? Peut-on identifier les chocs financiers et mesurer leurs effets sur l'économie réelle? Peut-on améliorer la méthode factorielle existante et y incorporer une autre technique de réduction de dimension comme l'analyse VARMA? Est-ce que cela produit de meilleures prévisions des grands agrégats macroéconomiques et aide au niveau de l'analyse par fonctions de réponse impulsionnelles? Finalement, est-ce qu'on peut appliquer l'analyse factorielle au niveau des paramètres aléatoires? Par exemple, est-ce qu'il existe seulement un petit nombre de sources de l'instabilité temporelle des coefficients dans les modèles macroéconomiques empiriques? Ma thèse, en utilisant l'analyse factorielle structurelle et la modélisation VARMA, répond à ces questions à travers cinq articles. Les deux premiers chapitres étudient les effets des chocs monétaire et financier dans un environnement riche en données. Le troisième article propose une nouvelle méthode en combinant les modèles à facteurs et VARMA. Cette approche est appliquée dans le quatrième article pour mesurer les effets des chocs de crédit au Canada. La contribution du dernier chapitre est d'imposer la structure à facteurs sur les paramètres variant dans le temps et de montrer qu'il existe un petit nombre de sources de cette instabilité. Le premier article analyse la transmission de la politique monétaire au Canada en utilisant le modèle vectoriel autorégressif augmenté par facteurs (FAVAR). Les études antérieures basées sur les modèles VAR ont trouvé plusieurs anomalies empiriques suite à un choc de la politique monétaire. Nous estimons le modèle FAVAR en utilisant un grand nombre de séries macroéconomiques mensuelles et trimestrielles. Nous trouvons que l'information contenue dans les facteurs est importante pour bien identifier la transmission de la politique monétaire et elle aide à corriger les anomalies empiriques standards. Finalement, le cadre d'analyse FAVAR permet d'obtenir les fonctions de réponse impulsionnelles pour tous les indicateurs dans l'ensemble de données, produisant ainsi l'analyse la plus complète à ce jour des effets de la politique monétaire au Canada. Motivée par la dernière crise économique, la recherche sur le rôle du secteur financier a repris de l'importance. Dans le deuxième article nous examinons les effets et la propagation des chocs de crédit sur l'économie réelle en utilisant un grand ensemble d'indicateurs économiques et financiers dans le cadre d'un modèle à facteurs structurel. Nous trouvons qu'un choc de crédit augmente immédiatement les diffusions de crédit (credit spreads), diminue la valeur des bons de Trésor et cause une récession. Ces chocs ont un effet important sur des mesures d'activité réelle, indices de prix, indicateurs avancés et financiers. Contrairement aux autres études, notre procédure d'identification du choc structurel ne requiert pas de restrictions temporelles entre facteurs financiers et macroéconomiques. De plus, elle donne une interprétation des facteurs sans restreindre l'estimation de ceux-ci. Dans le troisième article nous étudions la relation entre les représentations VARMA et factorielle des processus vectoriels stochastiques, et proposons une nouvelle classe de modèles VARMA augmentés par facteurs (FAVARMA). Notre point de départ est de constater qu'en général les séries multivariées et facteurs associés ne peuvent simultanément suivre un processus VAR d'ordre fini. Nous montrons que le processus dynamique des facteurs, extraits comme combinaison linéaire des variables observées, est en général un VARMA et non pas un VAR comme c'est supposé ailleurs dans la littérature. Deuxièmement, nous montrons que même si les facteurs suivent un VAR d'ordre fini, cela implique une représentation VARMA pour les séries observées. Alors, nous proposons le cadre d'analyse FAVARMA combinant ces deux méthodes de réduction du nombre de paramètres. Le modèle est appliqué dans deux exercices de prévision en utilisant des données américaines et canadiennes de Boivin, Giannoni et Stevanovic (2010, 2009) respectivement. Les résultats montrent que la partie VARMA aide à mieux prévoir les importants agrégats macroéconomiques relativement aux modèles standards. Finalement, nous estimons les effets de choc monétaire en utilisant les données et le schéma d'identification de Bernanke, Boivin et Eliasz (2005). Notre modèle FAVARMA(2,1) avec six facteurs donne les résultats cohérents et précis des effets et de la transmission monétaire aux États-Unis. Contrairement au modèle FAVAR employé dans l'étude ultérieure où 510 coefficients VAR devaient être estimés, nous produisons les résultats semblables avec seulement 84 paramètres du processus dynamique des facteurs. L'objectif du quatrième article est d'identifier et mesurer les effets des chocs de crédit au Canada dans un environnement riche en données et en utilisant le modèle FAVARMA structurel. Dans le cadre théorique de l'accélérateur financier développé par Bernanke, Gertler et Gilchrist (1999), nous approximons la prime de financement extérieur par les credit spreads. D'un côté, nous trouvons qu'une augmentation non-anticipée de la prime de financement extérieur aux États-Unis génère une récession significative et persistante au Canada, accompagnée d'une hausse immédiate des credit spreads et taux d'intérêt canadiens. La composante commune semble capturer les dimensions importantes des fluctuations cycliques de l'économie canadienne. L'analyse par décomposition de la variance révèle que ce choc de crédit a un effet important sur différents secteurs d'activité réelle, indices de prix, indicateurs avancés et credit spreads. De l'autre côté, une hausse inattendue de la prime canadienne de financement extérieur ne cause pas d'effet significatif au Canada. Nous montrons que les effets des chocs de crédit au Canada sont essentiellement causés par les conditions globales, approximées ici par le marché américain. Finalement, étant donnée la procédure d'identification des chocs structurels, nous trouvons des facteurs interprétables économiquement. Le comportement des agents et de l'environnement économiques peut varier à travers le temps (ex. changements de stratégies de la politique monétaire, volatilité de chocs) induisant de l'instabilité des paramètres dans les modèles en forme réduite. Les modèles à paramètres variant dans le temps (TVP) standards supposent traditionnellement les processus stochastiques indépendants pour tous les TVPs. Dans cet article nous montrons que le nombre de sources de variabilité temporelle des coefficients est probablement très petit, et nous produisons la première évidence empirique connue dans les modèles macroéconomiques empiriques. L'approche Factor-TVP, proposée dans Stevanovic (2010), est appliquée dans le cadre d'un modèle VAR standard avec coefficients aléatoires (TVP-VAR). Nous trouvons qu'un seul facteur explique la majorité de la variabilité des coefficients VAR, tandis que les paramètres de la volatilité des chocs varient d'une façon indépendante. Le facteur commun est positivement corrélé avec le taux de chômage. La même analyse est faite avec les données incluant la récente crise financière. La procédure suggère maintenant deux facteurs et le comportement des coefficients présente un changement important depuis 2007. Finalement, la méthode est appliquée à un modèle TVP-FAVAR. Nous trouvons que seulement 5 facteurs dynamiques gouvernent l'instabilité temporelle dans presque 700 coefficients.
Resumo:
La plupart des modèles en statistique classique repose sur une hypothèse sur la distribution des données ou sur une distribution sous-jacente aux données. La validité de cette hypothèse permet de faire de l’inférence, de construire des intervalles de confiance ou encore de tester la fiabilité du modèle. La problématique des tests d’ajustement vise à s’assurer de la conformité ou de la cohérence de l’hypothèse avec les données disponibles. Dans la présente thèse, nous proposons des tests d’ajustement à la loi normale dans le cadre des séries chronologiques univariées et vectorielles. Nous nous sommes limités à une classe de séries chronologiques linéaires, à savoir les modèles autorégressifs à moyenne mobile (ARMA ou VARMA dans le cas vectoriel). Dans un premier temps, au cas univarié, nous proposons une généralisation du travail de Ducharme et Lafaye de Micheaux (2004) dans le cas où la moyenne est inconnue et estimée. Nous avons estimé les paramètres par une méthode rarement utilisée dans la littérature et pourtant asymptotiquement efficace. En effet, nous avons rigoureusement montré que l’estimateur proposé par Brockwell et Davis (1991, section 10.8) converge presque sûrement vers la vraie valeur inconnue du paramètre. De plus, nous fournissons une preuve rigoureuse de l’inversibilité de la matrice des variances et des covariances de la statistique de test à partir de certaines propriétés d’algèbre linéaire. Le résultat s’applique aussi au cas où la moyenne est supposée connue et égale à zéro. Enfin, nous proposons une méthode de sélection de la dimension de la famille d’alternatives de type AIC, et nous étudions les propriétés asymptotiques de cette méthode. L’outil proposé ici est basé sur une famille spécifique de polynômes orthogonaux, à savoir les polynômes de Legendre. Dans un second temps, dans le cas vectoriel, nous proposons un test d’ajustement pour les modèles autorégressifs à moyenne mobile avec une paramétrisation structurée. La paramétrisation structurée permet de réduire le nombre élevé de paramètres dans ces modèles ou encore de tenir compte de certaines contraintes particulières. Ce projet inclut le cas standard d’absence de paramétrisation. Le test que nous proposons s’applique à une famille quelconque de fonctions orthogonales. Nous illustrons cela dans le cas particulier des polynômes de Legendre et d’Hermite. Dans le cas particulier des polynômes d’Hermite, nous montrons que le test obtenu est invariant aux transformations affines et qu’il est en fait une généralisation de nombreux tests existants dans la littérature. Ce projet peut être vu comme une généralisation du premier dans trois directions, notamment le passage de l’univarié au multivarié ; le choix d’une famille quelconque de fonctions orthogonales ; et enfin la possibilité de spécifier des relations ou des contraintes dans la formulation VARMA. Nous avons procédé dans chacun des projets à une étude de simulation afin d’évaluer le niveau et la puissance des tests proposés ainsi que de les comparer aux tests existants. De plus des applications aux données réelles sont fournies. Nous avons appliqué les tests à la prévision de la température moyenne annuelle du globe terrestre (univarié), ainsi qu’aux données relatives au marché du travail canadien (bivarié). Ces travaux ont été exposés à plusieurs congrès (voir par exemple Tagne, Duchesne et Lafaye de Micheaux (2013a, 2013b, 2014) pour plus de détails). Un article basé sur le premier projet est également soumis dans une revue avec comité de lecture (Voir Duchesne, Lafaye de Micheaux et Tagne (2016)).
Resumo:
La plupart des modèles en statistique classique repose sur une hypothèse sur la distribution des données ou sur une distribution sous-jacente aux données. La validité de cette hypothèse permet de faire de l’inférence, de construire des intervalles de confiance ou encore de tester la fiabilité du modèle. La problématique des tests d’ajustement vise à s’assurer de la conformité ou de la cohérence de l’hypothèse avec les données disponibles. Dans la présente thèse, nous proposons des tests d’ajustement à la loi normale dans le cadre des séries chronologiques univariées et vectorielles. Nous nous sommes limités à une classe de séries chronologiques linéaires, à savoir les modèles autorégressifs à moyenne mobile (ARMA ou VARMA dans le cas vectoriel). Dans un premier temps, au cas univarié, nous proposons une généralisation du travail de Ducharme et Lafaye de Micheaux (2004) dans le cas où la moyenne est inconnue et estimée. Nous avons estimé les paramètres par une méthode rarement utilisée dans la littérature et pourtant asymptotiquement efficace. En effet, nous avons rigoureusement montré que l’estimateur proposé par Brockwell et Davis (1991, section 10.8) converge presque sûrement vers la vraie valeur inconnue du paramètre. De plus, nous fournissons une preuve rigoureuse de l’inversibilité de la matrice des variances et des covariances de la statistique de test à partir de certaines propriétés d’algèbre linéaire. Le résultat s’applique aussi au cas où la moyenne est supposée connue et égale à zéro. Enfin, nous proposons une méthode de sélection de la dimension de la famille d’alternatives de type AIC, et nous étudions les propriétés asymptotiques de cette méthode. L’outil proposé ici est basé sur une famille spécifique de polynômes orthogonaux, à savoir les polynômes de Legendre. Dans un second temps, dans le cas vectoriel, nous proposons un test d’ajustement pour les modèles autorégressifs à moyenne mobile avec une paramétrisation structurée. La paramétrisation structurée permet de réduire le nombre élevé de paramètres dans ces modèles ou encore de tenir compte de certaines contraintes particulières. Ce projet inclut le cas standard d’absence de paramétrisation. Le test que nous proposons s’applique à une famille quelconque de fonctions orthogonales. Nous illustrons cela dans le cas particulier des polynômes de Legendre et d’Hermite. Dans le cas particulier des polynômes d’Hermite, nous montrons que le test obtenu est invariant aux transformations affines et qu’il est en fait une généralisation de nombreux tests existants dans la littérature. Ce projet peut être vu comme une généralisation du premier dans trois directions, notamment le passage de l’univarié au multivarié ; le choix d’une famille quelconque de fonctions orthogonales ; et enfin la possibilité de spécifier des relations ou des contraintes dans la formulation VARMA. Nous avons procédé dans chacun des projets à une étude de simulation afin d’évaluer le niveau et la puissance des tests proposés ainsi que de les comparer aux tests existants. De plus des applications aux données réelles sont fournies. Nous avons appliqué les tests à la prévision de la température moyenne annuelle du globe terrestre (univarié), ainsi qu’aux données relatives au marché du travail canadien (bivarié). Ces travaux ont été exposés à plusieurs congrès (voir par exemple Tagne, Duchesne et Lafaye de Micheaux (2013a, 2013b, 2014) pour plus de détails). Un article basé sur le premier projet est également soumis dans une revue avec comité de lecture (Voir Duchesne, Lafaye de Micheaux et Tagne (2016)).
Resumo:
The authors have developed the method used by Pianet and Le Hir (Doc.Sci.Cent. ORSTOM Pointe-Noire, 17, 1971) for the study of albacore (Thunnus albacares) in the Pointe-Noire region. The method is based on the fact that the ratio between unit of effort and number of fish for two fishing gears is equal to the ratio of their catchability coefficients.
Resumo:
info:eu-repo/semantics/published
Resumo:
En tant qu'enseignant dans le programme des Techniques du génie électrique (T.G.E, anciennement Électrotechnique) nous avons pu constater qu'en moins de 10 ans, le micro-ordinateur est devenu une réalité qui concerne pratiquement tous les cours des trois années de formation, alors qu'ils n'étaient utilisés dans aucun cours avant. Cet exemple est typique de la révolution informatique que nous vivons actuellement et qui pénètre tous les secteurs d'activités de notre société. Dans ce contexte de changements importants, les enseignants ont malgré eux un rôle de pionniers car ils n'ont que peu de ressources à leur disposition pour maîtriser cette technologie et l'intégrer dans leur enseignement. Ce virage informatique, s'il est à peine commencé dans l'enseignement général, pose de nombreux problèmes aux enseignants du secteur professionnel qui doivent trouver la place et déterminer le rôle que doit jouer cette nouvelle technologie dans l'enseignement. La majorité des recherches sur les didacticiels ont pour objet les logiciels qui cherchent à assurer des tâches d'enseignement, tels que les tests, exerciseurs ou tutoriels, et auxquels s'ajoutent maintenant les applications multimédia. Une étude menée dans les collèges (Mataigne, 1992) montre cependant que ce sont d'abord les logiciels de bureautique et ensuite les logiciels de programmation et de simulation-modélisation, qui sont de loin les plus utilisés dans l'enseignement. S'il n'existe pratiquement pas de logiciels de bureautique ou de programmation conçus pour l'enseignement, les logiciels de simulation et de modélisation constituent plus des deux tiers des développements de didacticiels de ces dix dernières années pour le réseau collégial. Ces logiciels, dont la forme et le contenu se rapprochent plus de logiciels conçus pour les entreprises que de logiciels pédagogiques traditionnels, appartiennent à une catégorie où il se fait très peu de recherche didactique et où il n'existe pas de modèle de développement spécifique. Par ailleurs, nous avons constaté que la grande majorité des auteurs de didacticiels sont des enseignants qui réalisent parfois leur logiciel eux-mêmes. La conception d'un didacticiel étant une tâche particulièrement complexe, il nous a semblé utile d'analyser les différences entre les didacticiels traditionnels et les logiciels de simulation-modélisation afin de dégager la problématique du développement de ces derniers. Après avoir analysé les différents modèles de développement proposés par la recherche ou par le génie informatique, nous nous proposons, dans cette recherche, de dégager et de justifier une méthodologie de développement spécifique aux logiciels de simulation-modélisation fondée sur des éléments empruntés aux modèles du génie logiciel et de la didactique, sur notre expérience de développement et sur celle d'experts dans le domaine.
Resumo:
Les résultats de l'étude viennent réaffirmer la complexité des responsabilités éducatives d'une direction d'établissement. Pour répondre aux particularités du milieu, la direction est appelée à sortir des cadres habituels, à se questionner et à innover avec les membres de l'équipe-école, et ce, selon un savoir-agir situé guidant une gestion différenciée des activités éducatives. Huit balises viennent guider l'ajustement de ces pratiques.Les résultats permettent aussi d'expliciter en quoi le modèle d'accompagnement collectif devient une façon pour la direction d'établissement de prendre du recul, de sortir du sentiment d'isolement et de développer ses compétences. Ces résultats permettent de répondre à la question de recherche : en quoi un modèle d'accompagnement collectif est apte à soutenir l'ajustement de pratiques vers une gestion différenciée de l'activité éducative chez des directions d'établissement? Trois objectifs en découlent : 1) décrire et mettre en oeuvre un modèle d'accompagnement collectif 2) décrire et analyser les pratiques de gestion différenciée de l'activité éducative et 3) expliciter en quoi un modèle d'accompagnement collectif est apte à soutenir l'ajustement de pratiques vers une gestion différenciée de l'activité éducative chez des directions d'établissement. La démarche méthodologique rend compte de la double posture qu'occupe la personne accompagnatrice-chercheure et accompagnatrice-formatrice ayant accompagné et travaillé avec deux cohortes de neuf directions ou directions adjointes d'établissement de l'ordre d'enseignement primaire et secondaire, au sein de deux commissions scolaires de caractéristiques sociogéographiques différentes, sur une période de 15 mois. À partir d'une expérimentation, la démarche méthodologique donne la parole aux membres acteurs-praticiens et cochercheurs, les directions d'établissement. Chaque direction était alors invitée à conduire un projet professionnel d'intervention (PPI) selon la réalité éducative de son milieu. C'est donc à partir de l'analyse des PPI et des dires des membres acteurs-praticiens et cochercheurs que l'étude met en lumière des savoirs théoriques, praxéologiques et expérientiels de cette recherche-action.
Resumo:
Cette thèse s'inscrit dans le cadre d'une thématique d'interrelation recherche-formation-pratique. Elle a pour objectif principal d'étudier le lien entre les perceptions motivationnelles à apprendre d'élèves de troisième d'enseignement agricole et leur perception du modèle d'autorité de l'enseignant. Son caractère novateur repose sur l'interculturalité des approches utilisées: la motivation à apprendre empruntée aux études nord-américaines et le modèle d'autorité de l'enseignant empruntée aux études françaises. L'étape de recension des écrits nous a permis de préparer le terrain à un questionnaire de type quantitatif. Il comprend deux sections sur les modèles d'autorité (autoritaire et d'autorité) et trois sections sur les perceptions motivationnelles (valeur, sentiment de compétence et contrôlabilité) en lien avec deux matières: français et STP (sciences et techniques professionnelles). À la suite de cette investigation, les entrevues menées ont permis de découvrir deux cas de figure non envisagés au départ. Le premier est qu'un enseignant de tendance autoritaire sur l'axe relationnel n'altère pas la perception de la valeur de la matière si celui-ci autonomise et responsabilise les élèves et s'il est impliqué dans leur réussite. Il en est de même si cela rejoint les buts éloignés des élèves (brevet, projet personnel ou professionnel). Enfin, il ressort des résultats un troisième modèle d'autorité de l'enseignant inattendu qu'est l'enseignant manquant d'autorité. Il fait apparaître le besoin des élèves d'avoir un enseignant cadrant sur l'axe relationnel afin de contenir les apprentissages. Même si les apprentissages sont variés et novateurs et que l'enseignant est disponible et explique bien ses cours, ils ne sont pas suffisants pour motiver les élèves rencontrés. Il semble que le cadre donné par l'enseignant les sécurise, donne de la fiabilité à l'enseignant et de la valeur à la matière même s'il est de tendance autoritaire.
Resumo:
L'évaluation des compétences comporte des enjeux éthiques reliés à la validité et l'équité des inférences évaluatives. Ces valeurs édumétriques sont fortement compromises lorsque l'objet et les critères d'évaluation ainsi que les pratiques évaluatives des évaluateurs ne tiennent pas compte des caractéristiques du concept de compétence, notamment son caractère développemental. Un système d'évaluation des compétences fondé sur le modèle cognitif de l'apprentissage, congruent avec le concept de compétence, est plus susceptible d'assurer la validité et l'équité des inférences évaluatives. La compétence "Exercer un jugement clinique infirmier" fut choisie pour élaborer un modèle cognitif de l'apprentissage pour les trois années de formation au baccalauréat en sciences infirmières. De plus, des indicateurs de développement ont été identifiés pour les trois niveaux de développement de cette même compétence. Une approche collaborative a été privilégiée pour atteindre ces objectifs. Le groupe collaboratif, composé de trois tutrices, de trois infirmières-monitrices et de la chercheuse, a analysé six récits d'expérience d'évaluation de cette compétence chez des étudiants de ce programme. L'analyse des données a conduit à une première version du modèle cognitif de l'apprentissage de la compétence "Exercer un jugement clinique infirmier" qui fut validée et améliorée par les partenaires de recherche. La logique de progression des apprentissages critiques et la concrétisation de ceux-ci par les indicateurs de développement ont été confirmées par des experts académiques. Les résultats montrent également des interinfluences entre les paramètres de cette compétence qui appuient la nécessité de réaliser tous les apprentissages critiques d'un même niveau pour l'atteindre. Les retombées de cette étude concernent les programmes de formation en sciences infirmières ainsi que ceux destinés à l'intégration des nouvelles infirmières dans les milieux cliniques. Les résultats de l'étude incitent aussi à poursuivre des recherches ultérieures pour compléter ce modèle cognitif de l'apprentissage et également à en construire pour d'autres compétences professionnelles.
Resumo:
Cet essai présente les résultats d'une recherche expérimentation en vue de valider un modèle de formation en ligne auprès des diététistes. Les besoins accrus de formation suscités par le nouveau cadre normatif amènent l'Ordre professionnel des diététistes du Québec (OPDQ) à développer différents moyens de perfectionnement pour ses membres. Bien que les moyens actuellement disponibles soient assez diversifiés, il importe de pouvoir offrir au plus grand nombre possible une offre de formation de haut niveau afin d'assurer e développement des compétences des diététistes. Comme l'OPDQ n'a pas les effectifs nécessaires pour former rapidement un grand nombre de personnes dispersées géographiquement, il devient intéressant d'explorer des moyens de formation complémentaires et d'envisager exploiter les possibilités offertes par la formation en ligne. C'est ainsi que l'auteure de cette recherche a constaté que l'ajout d'une offre complémentaire de formation en ligne pourrait grandement profiter aux diététistes afin de les aider à mieux répondre à l'obligation de mise à jour de leurs connaissances. Une enquête réalisée à l'été 2006 auprès des membres de l'OPDQ confirmait l'intérêt des répondantes pour ce type de formation ainsi que la présence des habiletés technologiques nécessaires. Les données alors recueillies ont permis de cibler une compétence à développer et d'expérimenter, auprès des diététistes, un modèle de formation en ligne portant sur le choix de la voie d'alimentation appropriée. Les objectifs spécifiques de la recherche expérimentation consistaient à élaborer un modèle de formation en ligne pour ensuite l'expérimenter auprès d'un groupe pilote de diététistes en exercice afin d'en évaluer le potentiel. Ce modèle identifiait les dimensions à considérer en ce qui concerne les apprenantes et les apprenants, leur accompagnement, le choix de la compétence et l'élaboration du système d'apprentissage.
Resumo:
Bien qu’ils soient exposés tous deux aux rayons ultraviolets (UVR) solaires, cette exposition génotoxique n’entraîne pas les mêmes conséquences dans l’oeil et la peau. Le rôle des rayons UV dans l’induction et la progression des cancers cutanés est bien démontré. Ces rayons génotoxiques sont absorbés par l’ADN. Ils y induisent ainsi des changements conformationnels pouvant mener à la formation de différents dommages. On retrouve de façon prédominante la liaison de pyrimidines adjacentes en dimères cyclobutyliques de pyrimidines (CPD). Ceux-ci causent les mutations signatures responsables des cancers de la peau induits par les UVR. Cependant, aucune évidence ne démontre l’existence de cancer induit par les UVR dans la cornée. Nous avons donc tenté de découvrir les mécanismes permettant à la cornée d’éviter la transformation tumorale induite par les UVR. L’irradiation d’yeux de lapins aux rayons UVB a permis de prouver la capacité de ces rayons à induire la formation de CPD, et ce, de la cornée jusqu’au cristallin. Par la suite, l’irradiation d’yeux humains aux trois types de rayons UV (UVA, B et C) a permis d’y établir leur patron d’induction de CPD. Nous avons ainsi démontré que l’épithélium cornéen est particulièrement sensible à l’induction de CPD, tous types de rayons UV confondus. Enfin, la comparaison de la quantité de dommages présents dans des échantillons de peaux et de cornées irradiées à la même dose d’UVB a permis de démontrer que l’épithélium cornéen est 3.4 fois plus sensible à l’induction de CPD que l’épiderme. Nous avons par la suite étudié les mécanismes de réponse à ce stress. L’analyse de la viabilité cellulaire à la suite d’irradiations à différentes doses d’UVB a révélé que les cellules de la cornée et de la peau ont la même sensibilité à la mort cellulaire induite par les UVR. Nous avons alors analysé la vitesse de réparation des dommages induits par les UVR. Nos résultats démontrent que les CPD sont réparés 4 fois plus rapidement dans les cellules de la cornée que de la peau. L’analyse des protéines de reconnaissance des dommages a révélé que les cellules de la cornée possèdent plus de protéines DDB2 que les cellules de la peau, et ce, surtout liées à la chromatine. Nous avons alors tenté d’identifier la cause de cette accumulation. Nos analyses révèlent que la cornée possède une moins grande quantité d’ARNm DDB2, mais que la demi-vie de la protéine y est plus longue. Enfin, nos résultats suggèrent que l’accumulation de DDB2 dans les cellules de la cornée est entre autres due à une demi-vie plus longue de la protéine. Cette forte présence de DDB2 dans les cellules de la cornée permettrait un meilleur balayage de l’ADN, faciliterait de ce fait la détection de CPD ainsi que leur réparation et contribuerait donc à la capacité de la cornée à éviter la transformation tumorale induite par les UVR.
Resumo:
RESUME : L'athérosclérose, pathologie inflammatoire artérielle chronique, est à l'origine de la plupart des maladies cardiovasculaires qui constituent l'une des premières causes de morbidité et mortalité en France. Les études observationnelles et expérimentales montrent que l'exercice physique prévient la mortalité cardiovasculaire. Cependant, les mécanismes précisant les bénéfices cliniques de l'exercice sur l'athérosclérose sont encore largement inconnus. Le but général de ce travail a donc été d'explorer, en utilisant un modèle expérimental d'athérosclérose, la souris hypercholestérolémique génétiquement dépourvue en apolipoprotéine E (apoE-/-), les mécanismes athéroprotecteurs de l'exercice. La dysfonction endothéliale, généralement associée aux facteurs de risque cardiovasculaire, serait l'une des étapes précoces majeures de l'athérogenèse. Elle est caractérisée par une diminution de la biodisponibilité en monoxyde d'azote (NO) avec la perte de ses propriétés vasculo-protectrices, ce qui favorise un climat pro-athérogène (stress oxydatif, adhésion et infiltration des cellules inflammatoires dans la paroi artérielle...) conduisant à la formation de la plaque athéromateuse. L'objectif de notre premier travail a donc été d'explorer les effets de l'exercice d'une part, sur le développement des plaques athéromateuses et d'autre part, sur la fonction endothéliale de la souris apoE-/-. Nos résultats montrent que l'exercice réduit significativement l'extension de l'athérosclérose et prévient la dysfonction endothéliale. L'explication pharmacologique montre que l'exercice stimule la fonction endothéliale via, notamment, une plus grande sensibilité des récepteurs endothéliaux muscariniques, ce qui active les événements signalétiques cellulaires récepteurs-dépendants à l'origine d'une bioactivité accrue de NO. Les complications cliniques graves de l'athérosclérose sont induites par la rupture de la plaque instable provoquant la formation d'un thrombus occlusif et l'ischémie du territoire tissulaire en aval. L'objectif de notre deuxième travail a été d'examiner l'effet de l'exercice sur la qualité/stabilité de la plaque. Nos résultats indiquent que l'exercice de longue durée stabilise la plaque en augmentant le nombre de cellules musculaires lisses et en diminuant le nombre de macrophages intra-plaques. Nos résultats montrent aussi que la phosphorylation de la eNOS (NO Synthase endothéliale) Akt-dépendante n'est pas le mécanisme moléculaire majeur à l'origine de ce bénéfice. Enfin, dans notre troisième travail, nous avons investigué l'effet de l'exercice sur le développement de la plaque vulnérable. Nos résultats montrent, chez un modèle murin de plaque instable (modèle d'hypertension rénovasculaire à rénine et angiotensine II élevés) que l'exercice prévient l'apparition de la plaque vulnérable indépendamment d'un effet hémodynamique. Ce bénéfice serait associé à une diminution de l'expression vasculaire des récepteurs AT1 de l'Angiotensine II. Nos résultats justifient l'importance de l'exercice comme outil préventif des maladies cardiovasculaires. ABSTRACT : Atherosclerosis, a chronic inflammatory disease, is one of the main causes of morbidity and mortality in France. Observational and experimental data indicate that regular physical exercise has a positive impact on cardiovascular mortality. However, the mechanisms by which exercise exerts clinical benefits on atherosclerosis are still unknown. The general aim of this work was to elucidate the anti-atherosclerotic effects of exercise, using a mouse model of atherosclerosis: the apolipoprotein E-deficient mice (apoE-/- mice). Endothelial dysfunction, generally associated with cardiovascular risk factors, has been recognized to be a major and early step in atherogenesis. Endothelial dysfunction is characterized by Nitric Oxide (NO) biodisponibility reduction with loss of NO-mediated vasculoprotective actions. This leads to vascular effects such as increased oxidative stress and increased adhesion of inflammatory cells into arterial wall thus playing a role in atherosclerotic plaque development. Therefore, one of the objective of our study was to explore the effects of exercise on atherosclerotic plaque extension and on endothelial function in apoE-/- mice. Results show that exercise significantly reduces plaque progression and prevents endothelial dysfunction. Pharmacological explanation indicates that exercise stimulates endothelial function by increasing muscarinic receptors sensitivity which in turn activates intracellular signalling receptor-dependent events leading to increased NO bioactivity. The clinical manifestations of atherosclerosis are the consequences of unstable plaque rupture with thrombus formation leading to tissue ischemia. The second aim of our work was to determine the effect of exercise on plaque stability. We demonstrate that long-term exercise stabilizes atherosclerotic plaques as shown by decreased macrophage and increased Smooth Muscle Cells plaque content. Our results also suggest that the Akt-dependent eNOS phosphorylation pathway is not the primary molecular mechanism mediating these beneficial effects. Finally, we assessed a putative beneficial effect of exercise on vulnerable plaque development. In a mouse model of Angiotensine II (Ang II)-mediated vulnerable atherosclerotic plaques, we provide fist evidence that exercise prevents atherosclerosis progression and plaque vulnerability. The beneficial effect of swimming was associated with decreased aortic Ang II AT1 receptor expression independently from any hemodynamic change. These findings suggest clinical benefit of exercise in terms of cardiovascular event protection.
Resumo:
Cet article présente le nouveau modèle de remboursement proposé par l'industrie pharmaceutique pour des traitements très coûteux : le "capping model" ou CAP. Les autorités acceptent le remboursement d'un montant plafond et l'industrie prend en charge un éventuel dépassement de coût du traitement.