418 resultados para Modèles structurels incomplets
Resumo:
Ce mémoire reconstitue l’histoire des théories, modèles et hypothèses qui ont été formulés, principalement en archéologie, afin d’expliquer la naissance de l’agriculture qui correspond, du point de vue chronologique, à la transition (ou révolution) néolithique. Ces schèmes explicatifs sont décrits chronologiquement depuis la naissance de l’archéologie préhistorique, dans la première moitié du XIXe siècle, jusqu’à maintenant. Ils sont classifiés en fonction des principales écoles qui ont joué un rôle prédominant en archéologie préhistorique depuis son origine, soit : l’évolutionnisme multilinéaire, l’école culturelle-historique, le processualisme, le néodarwinisme et le postprocessualisme. Les théories spécifiques (dites de « niveau mitoyen » ou « régionales ») qui ont été avancées par ces écoles sont présentées dans leur ordre chronologique, soit (principalement) : les théories de la dessiccation ou de l’oasis, des flancs de colline, de la périphérie, du stress démographique, du festin compétitif, de la révolution des symboles, etc. Ce mémoire pose enfin les jalons d’une théorie multifactorielle qui intègre ou synthétise les principaux facteurs qui ont pu influer sur la naissance de l’agriculture et sur la transition néolithique.
Resumo:
Les modèles à sur-représentation de zéros discrets et continus ont une large gamme d'applications et leurs propriétés sont bien connues. Bien qu'il existe des travaux portant sur les modèles discrets à sous-représentation de zéro et modifiés à zéro, la formulation usuelle des modèles continus à sur-représentation -- un mélange entre une densité continue et une masse de Dirac -- empêche de les généraliser afin de couvrir le cas de la sous-représentation de zéros. Une formulation alternative des modèles continus à sur-représentation de zéros, pouvant aisément être généralisée au cas de la sous-représentation, est présentée ici. L'estimation est d'abord abordée sous le paradigme classique, et plusieurs méthodes d'obtention des estimateurs du maximum de vraisemblance sont proposées. Le problème de l'estimation ponctuelle est également considéré du point de vue bayésien. Des tests d'hypothèses classiques et bayésiens visant à déterminer si des données sont à sur- ou sous-représentation de zéros sont présentées. Les méthodes d'estimation et de tests sont aussi évaluées au moyen d'études de simulation et appliquées à des données de précipitation agrégées. Les diverses méthodes s'accordent sur la sous-représentation de zéros des données, démontrant la pertinence du modèle proposé. Nous considérons ensuite la classification d'échantillons de données à sous-représentation de zéros. De telles données étant fortement non normales, il est possible de croire que les méthodes courantes de détermination du nombre de grappes s'avèrent peu performantes. Nous affirmons que la classification bayésienne, basée sur la distribution marginale des observations, tiendrait compte des particularités du modèle, ce qui se traduirait par une meilleure performance. Plusieurs méthodes de classification sont comparées au moyen d'une étude de simulation, et la méthode proposée est appliquée à des données de précipitation agrégées provenant de 28 stations de mesure en Colombie-Britannique.
Resumo:
Nous présentons nos grilles de modèles d'atmosphères pour les étoiles sous-naines chaudes de type O (sdO) soit : des modèles classiques hors-ETL H, He, des modèles hors-ETL avec, en plus, du C, N, O et finalement des modèles incluant C, N, O, Fe. En utilisant les raies de Balmer et d'hélium dans le domaine du visible, nous avons fait des comparaisons entre les spectres théoriques de nos différentes grilles afin de caractériser les effets des métaux. On trouve que ces effets dépendent à la fois de la température et de la gravité. De plus, l'abondance d'hélium a une influence importante sur les effets des métaux; une abondance d'hélium faible (log N(He)/N(H) < -1,5) occasionne des effets assez importants alors qu'une abondance plus élevée tend à réduire ces mêmes effets. Nous avons aussi trouvé que l'ajout du fer (en abondance solaire) ne cause que des changements relativement faibles à la structure en température et, par le fait même, aux profils des raies d'hydrogène et d'hélium, par rapport aux changements déjà produits par le C, N, O (en abondance solaire). Nous avons utilisé nos grilles pour faire une analyse spectroscopique du spectre à haut signal sur bruit (180) et basse résolution (9 Å) de SDSS J160043.6+074802.9 obtenu au télescope Bok. Notre meilleure ajustement a été obtenu avec notre grille de spectres synthétiques incluant C, N, O et Fe en quantité solaire, menant aux paramètres suivants : Teff = 68 500 ± 1770 K, log g = 6,09 ± 0,07, and log N(He)/N(H) = -0,64 ± 0,05, où les incertitudes proviennent uniquement de la procédure d'ajustement. Ces paramètres atmosphériques, particulièrement la valeur de l'abondance d'hélium, placent notre étoile dans une région où les effets des métaux ne sont pas très marqués.
Resumo:
Il est connu que les problèmes d'ambiguïté de la langue ont un effet néfaste sur les résultats des systèmes de Recherche d'Information (RI). Toutefois, les efforts de recherche visant à intégrer des techniques de Désambiguisation de Sens (DS) à la RI n'ont pas porté fruit. La plupart des études sur le sujet obtiennent effectivement des résultats négatifs ou peu convaincants. De plus, des investigations basées sur l'ajout d'ambiguïté artificielle concluent qu'il faudrait une très haute précision de désambiguation pour arriver à un effet positif. Ce mémoire vise à développer de nouvelles approches plus performantes et efficaces, se concentrant sur l'utilisation de statistiques de cooccurrence afin de construire des modèles de contexte. Ces modèles pourront ensuite servir à effectuer une discrimination de sens entre une requête et les documents d'une collection. Dans ce mémoire à deux parties, nous ferons tout d'abord une investigation de la force de la relation entre un mot et les mots présents dans son contexte, proposant une méthode d'apprentissage du poids d'un mot de contexte en fonction de sa distance du mot modélisé dans le document. Cette méthode repose sur l'idée que des modèles de contextes faits à partir d'échantillons aléatoires de mots en contexte devraient être similaires. Des expériences en anglais et en japonais montrent que la force de relation en fonction de la distance suit généralement une loi de puissance négative. Les poids résultant des expériences sont ensuite utilisés dans la construction de systèmes de DS Bayes Naïfs. Des évaluations de ces systèmes sur les données de l'atelier Semeval en anglais pour la tâche Semeval-2007 English Lexical Sample, puis en japonais pour la tâche Semeval-2010 Japanese WSD, montrent que les systèmes ont des résultats comparables à l'état de l'art, bien qu'ils soient bien plus légers, et ne dépendent pas d'outils ou de ressources linguistiques. La deuxième partie de ce mémoire vise à adapter les méthodes développées à des applications de Recherche d'Information. Ces applications ont la difficulté additionnelle de ne pas pouvoir dépendre de données créées manuellement. Nous proposons donc des modèles de contextes à variables latentes basés sur l'Allocation Dirichlet Latente (LDA). Ceux-ci seront combinés à la méthodes de vraisemblance de requête par modèles de langue. En évaluant le système résultant sur trois collections de la conférence TREC (Text REtrieval Conference), nous observons une amélioration proportionnelle moyenne de 12% du MAP et 23% du GMAP. Les gains se font surtout sur les requêtes difficiles, augmentant la stabilité des résultats. Ces expériences seraient la première application positive de techniques de DS sur des tâches de RI standard.
Resumo:
Travail réalisé en cotutelle avec l'université Paris-Diderot et le Commissariat à l'Energie Atomique sous la direction de John Harnad et Bertrand Eynard.
Resumo:
Les cardiomyopathies sont une atteinte du myocarde qui se présente sous différentes formes telles que l’hypertrophie ou la dilatation des chambres cardiaques. Ces maladies du muscle cardiaque peuvent affecter la contraction cardiaque et dégénèrer en insuffisance cardiaque. Aussi, l’hypertrophie et l’insuffisance cardiaques sont associées à une augmentation de la morbidité et de la mortalité cardiovasculaires principalement due au remodelage électrique et à la survenue d’arythmies. De plus, le retard de repolarisation, associé à une diminution des courants K+, est un des troubles cardiaques les plus couramment observés lors de ces pathologies cardiaques. L’angiotensine II (Ang II) et la norépinéphrine, principaux effecteurs du système rénine-angiotensine et du système nerveux sympathique, peuvent tous deux agir directement sur le cœur en liant les récepteurs de type 1 de l’Ang II (AT1) et les récepteurs adrénergiques. L’Ang II et la norépinéphrine sont associées au développement des cardiomyopathies, au remodelage cardiaque et à une prolongation de la durée du potentiel d'action cardiaque. Deux modèles de souris trangéniques surexprimant spécifiquement au niveau cardiaque les récepteurs AT1 (la souris AT1R) ou les récepteurs α1B-adrénergiques (la souris α1B-AR) ont été créés afin d’étudier les effets de ces stimuli sur le cœur. Ces deux modèles de souris développent du remodelage cardiaque, soit de l’hypertrophie chez les souris AT1R (cardiomyopathie hypertrophique) ou une dilatation des chambres cardiaques chez les souris α1B-AR (cardiomyopathie dilatée). Au stade avancé de la maladie, les deux modèles de souris transgéniques sont insuffisants cardiaques. Des données préliminaires ont aussi montré que les souris AT1R et les souris α1B-AR ont une incidence accrue d’arythmies ainsi qu’une prolongation de la durée du potentiel d’action. De plus, ces deux modèles de souris meurent subitement et prématurément, ce qui laissait croire qu’en conditions pathologiques, l’activation des récepteurs AT1 ou des récepteurs α1B-adrénergiques pouvait affecter la repolarisation et causer l’apparition d’arythmies graves. Ainsi, l’objectif de ce projet était de caractériser la repolarisation ventriculaire des souris AT1R et α1B-AR afin de déterminer si la suractivation chronique des récepteurs de l’Ang II ou des récepteurs 1B-adrénergiques pouvait affecter directement les paramètres électrophysiologiques et induire des arythmies. Les résultats obtenus ont révélé que les souris AT1R et les souris α1B-AR présentent un retard de repolarisation (prolongation de l’intervalle QTc (dans l’électrocardiogramme) et de la durée du potentiel d’action) causé par une diminution des courants K+ (responsables de la repolarisation). Aussi, l’incidence d’arythmies est plus importante dans les deux groupes de souris transgéniques comparativement à leur contrôle respectif. Finalement, nous avons vu que les troubles de repolarisation se produisent également dans les groupes de souris transgéniques plus jeunes, avant l’apparition de l’hypertrophie ou du remodelage cardiaque. Ces résultats suggèrent qu’en conditions pathologiques, l’activation chronique des récepteurs de l’Ang II ou des récepteurs α1B-adrénergiques peut favoriser le développement d’arythmies en retardant la repolarisation et cela, indépendamment de changements hémodynamiques ou du remodelage cardiaque. Les résultats de ces études pourront servir à comprendre les mécanismes responsables du développement d’arythmies cardiaques lors du remodelage et de l’insuffisance cardiaques et pourraient aider à optimiser le choix des traitements chez ces patients atteints ou à risque de développer de l’hypertrophie ou du remodelage cardiaque.
Resumo:
Thèse en cotutelle avec Université de Nantes - Pays de La Loire - France (2005-2010)
Resumo:
On s’intéresse ici aux erreurs de modélisation liées à l’usage de modèles de flammelette sous-maille en combustion turbulente non prémélangée. Le but de cette thèse est de développer une stratégie d’estimation d’erreur a posteriori pour déterminer le meilleur modèle parmi une hiérarchie, à un coût numérique similaire à l’utilisation de ces mêmes modèles. Dans un premier temps, une stratégie faisant appel à un estimateur basé sur les résidus pondérés est développée et testée sur un système d’équations d’advection-diffusion-réaction. Dans un deuxième temps, on teste la méthodologie d’estimation d’erreur sur un autre système d’équations, où des effets d’extinction et de réallumage sont ajoutés. Lorsqu’il n’y a pas d’advection, une analyse asymptotique rigoureuse montre l’existence de plusieurs régimes de combustion déjà observés dans les simulations numériques. Nous obtenons une approximation des paramètres de réallumage et d’extinction avec la courbe en «S», un graphe de la température maximale de la flamme en fonction du nombre de Damköhler, composée de trois branches et d’une double courbure. En ajoutant des effets advectifs, on obtient également une courbe en «S» correspondant aux régimes de combustion déjà identifiés. Nous comparons les erreurs de modélisation liées aux approximations asymptotiques dans les deux régimes stables et établissons une nouvelle hiérarchie des modèles en fonction du régime de combustion. Ces erreurs sont comparées aux estimations données par la stratégie d’estimation d’erreur. Si un seul régime stable de combustion existe, l’estimateur d’erreur l’identifie correctement ; si plus d’un régime est possible, on obtient une fac˛on systématique de choisir un régime. Pour les régimes où plus d’un modèle est approprié, la hiérarchie prédite par l’estimateur est correcte.
Resumo:
Le cancer épithélial de l’ovaire (EOC) est le plus mortel des cancers gynécologiques. Cette maladie complexe progresse rapidement de façon difficilement décelable aux stades précoces. De plus, malgré une chirurgie cytoréductive et des traitements de chimiothérapie le taux de survie des patientes diagnostiquées aux stades avancées demeurt faible. Dans le but d’étudier l’EOC dans un contexte ex vivo, l’utilisation de modèles cellulaires est indispensable. Les lignées cellulaires d’EOC sont un outil pratique pour la recherche cependant, la façon dont l'expression des gènes est affectée en culture par comparaison à la tumeur d'origine n'est pas encore bien élucidée. Notre objectif était donc de développer et de caractériser de nouveaux modèles de culture in vitro qui réflèteront plus fidèlement la maladie in vivo. Nous avons tout d’abord utiliser des lignées cellulaires disponibles au laboratoire afin de mettre au point un modèle 3D de culture in vitro d’EOC. Des sphéroïdes ont été générés à l’aide de la méthode des gouttelettes inversées, une méthode pionnière pour la culture des cellules tumorales. Nous avons ensuite procédé à une analyse des profils d’expression afin de comparer le modèle sphéroïde au modèle de culture en monocouche et le modèle xénogreffe in vivo. Ainsi, nous avons identifié des gènes stratifiant les modèles tridimensionnels, tant in vivo qu’in vitro, du modèle 2D monocouche. Parmi les meilleurs candidats, nous avons sélectionné S100A6 pour une caractérisation ultérieure. L’expression de ce gène fût modulée afin d’étudier l’impact de son inhibition sur les paramètres de croissance des sphéroïdes. L’inhibition de ce gène a comme effet de réduire la motilité cellulaire mais seulement au niveau du modèle sphéroïde. Finalement, toujours dans l’optique de développer des modèles d’EOC les plus représentatifs de la maladie in vivo, nous avons réussi à développer des lignées cellulaires uniques dérivées de patientes atteintes d’EOC du type séreux, soit le plus commun des EOC. Jusque là, très peu de lignées cellulaires provenant de ce type de cancer et de patientes n’ayant pas reçu de chimiothérapie ont été produites. De plus, nous avons pour la première fois caractérise des lignées d’EOC de type séreux provenant à la fois de l’ascite et de la tumeur solide de la même patiente.
Resumo:
Durant une infection pulmonaire, les porcs sont souvent infectés par plus d’un microorganisme. Actinobacillus pleuropneumoniae et le virus du syndrome reproducteur et respiratoire porcin (VSRRP) sont des pathogènes qui peuvent infecter de manière simultanée les porcs. L’objectif du présent projet est d’étudier l’interaction entre ces pathogènes. Les deux lignées cellulaires permissives au VSRRP utilisées sont les cellules « St-Jude porcine lung » (SJPL) et MARC-145. Les cellules ont été pré-infectées avec le VSRRP, puis infectées avec A. pleuropneumoniae. Un dosage de la lactate déshydrogénase a montré qu’une co-infection VSRRP-A. pleuropneumoniae comparée à une infection simple augmente significativement la cytotoxicité. Dans les mêmes conditions expérimentales, une pré-infection virale ne semble pas affecter l’adhérence d’A. pleuropneumoniae aux cellules. À l’aide de tests ELISA, il a été possible de démontrer la production d’IL-8 et d’INF-γ lorsqu’il y a infection des cellules. Pour ce qui est du TNF-α, d’IL-6 et d’IL-10, ces cytokines ne sont pas détectées en présence des pathogènes étudiés. Des expériences de pré-infection bactérienne suivie d’infection virale ont également été réalisées. Il a été démontré que la pré-infection avec A. pleuropneumoniae diminuait la réplication du VSRRP chez la lignée cellulaire SJPL, mais cela n’est pas observé avec la lignée cellulaire MARC-145. Les résultats préliminaires ont démontré que cette diminution de la réplication serait causée par une molécule de faible poids moléculaire sécrétée dans le surnageant bactérien et celle-ci serait résistante à la chaleur. Les lignées cellulaires SJPL et MARC-145 représentent de bons modèles pour l’étude des infections mixtes des voies respiratoires du porc.
Resumo:
Le but de cette thèse est de raffiner et de mieux comprendre l'utilisation de la méthode spectroscopique, qui compare des spectres visibles de naines blanches à atmosphère riche en hydrogène (DA) à des spectres synthétiques pour en déterminer les paramètres atmosphériques (température effective et gravité de surface). Notre approche repose principalement sur le développement de modèles de spectres améliorés, qui proviennent eux-mêmes de modèles d'atmosphère de naines blanches de type DA. Nous présentons une nouvelle grille de spectres synthétiques de DA avec la première implémentation cohérente de la théorie du gaz non-idéal de Hummer & Mihalas et de la théorie unifiée de l'élargissement Stark de Vidal, Cooper & Smith. Cela permet un traitement adéquat du chevauchement des raies de la série de Balmer, sans la nécessité d'un paramètre libre. Nous montrons que ces spectres améliorés prédisent des gravités de surface qui sont plus stables en fonction de la température effective. Nous étudions ensuite le problème de longue date des gravités élevées pour les DA froides. L'hypothèse de Bergeron et al., selon laquelle les atmosphères sont contaminées par de l'hélium, est confrontée aux observations. À l'aide de spectres haute résolution récoltés au télescope Keck à Hawaii, nous trouvons des limites supérieures sur la quantité d'hélium dans les atmosphères de près de 10 fois moindres que celles requises par le scénario de Bergeron et al. La grille de spectres conçue dans ces travaux est ensuite appliquée à une nouvelle analyse spectroscopique de l'échantillon de DA du SDSS. Notre approche minutieuse permet de définir un échantillon plus propre et d'identifier un nombre important de naines blanches binaires. Nous déterminons qu'une coupure à un rapport signal-sur-bruit S/N > 15 optimise la grandeur et la qualité de l'échantillon pour calculer la masse moyenne, pour laquelle nous trouvons une valeur de 0.613 masse solaire. Finalement, huit nouveaux modèles 3D de naines blanches utilisant un traitement d'hydrodynamique radiative de la convection sont présentés. Nous avons également calculé des modèles avec la même physique, mais avec une traitement standard 1D de la convection avec la théorie de la longueur de mélange. Un analyse différentielle entre ces deux séries de modèles montre que les modèles 3D prédisent des gravités considérablement plus basses. Nous concluons que le problème des gravités élevées dans les naines blanches DA froides est fort probablement causé par une faiblesse dans la théorie de la longueur de mélange.
Resumo:
Dans ce mémoire, nous avons utilisé le logiciel R pour la programmation.
Resumo:
Avec les avancements de la technologie de l'information, les données temporelles économiques et financières sont de plus en plus disponibles. Par contre, si les techniques standard de l'analyse des séries temporelles sont utilisées, une grande quantité d'information est accompagnée du problème de dimensionnalité. Puisque la majorité des séries d'intérêt sont hautement corrélées, leur dimension peut être réduite en utilisant l'analyse factorielle. Cette technique est de plus en plus populaire en sciences économiques depuis les années 90. Étant donnée la disponibilité des données et des avancements computationnels, plusieurs nouvelles questions se posent. Quels sont les effets et la transmission des chocs structurels dans un environnement riche en données? Est-ce que l'information contenue dans un grand ensemble d'indicateurs économiques peut aider à mieux identifier les chocs de politique monétaire, à l'égard des problèmes rencontrés dans les applications utilisant des modèles standards? Peut-on identifier les chocs financiers et mesurer leurs effets sur l'économie réelle? Peut-on améliorer la méthode factorielle existante et y incorporer une autre technique de réduction de dimension comme l'analyse VARMA? Est-ce que cela produit de meilleures prévisions des grands agrégats macroéconomiques et aide au niveau de l'analyse par fonctions de réponse impulsionnelles? Finalement, est-ce qu'on peut appliquer l'analyse factorielle au niveau des paramètres aléatoires? Par exemple, est-ce qu'il existe seulement un petit nombre de sources de l'instabilité temporelle des coefficients dans les modèles macroéconomiques empiriques? Ma thèse, en utilisant l'analyse factorielle structurelle et la modélisation VARMA, répond à ces questions à travers cinq articles. Les deux premiers chapitres étudient les effets des chocs monétaire et financier dans un environnement riche en données. Le troisième article propose une nouvelle méthode en combinant les modèles à facteurs et VARMA. Cette approche est appliquée dans le quatrième article pour mesurer les effets des chocs de crédit au Canada. La contribution du dernier chapitre est d'imposer la structure à facteurs sur les paramètres variant dans le temps et de montrer qu'il existe un petit nombre de sources de cette instabilité. Le premier article analyse la transmission de la politique monétaire au Canada en utilisant le modèle vectoriel autorégressif augmenté par facteurs (FAVAR). Les études antérieures basées sur les modèles VAR ont trouvé plusieurs anomalies empiriques suite à un choc de la politique monétaire. Nous estimons le modèle FAVAR en utilisant un grand nombre de séries macroéconomiques mensuelles et trimestrielles. Nous trouvons que l'information contenue dans les facteurs est importante pour bien identifier la transmission de la politique monétaire et elle aide à corriger les anomalies empiriques standards. Finalement, le cadre d'analyse FAVAR permet d'obtenir les fonctions de réponse impulsionnelles pour tous les indicateurs dans l'ensemble de données, produisant ainsi l'analyse la plus complète à ce jour des effets de la politique monétaire au Canada. Motivée par la dernière crise économique, la recherche sur le rôle du secteur financier a repris de l'importance. Dans le deuxième article nous examinons les effets et la propagation des chocs de crédit sur l'économie réelle en utilisant un grand ensemble d'indicateurs économiques et financiers dans le cadre d'un modèle à facteurs structurel. Nous trouvons qu'un choc de crédit augmente immédiatement les diffusions de crédit (credit spreads), diminue la valeur des bons de Trésor et cause une récession. Ces chocs ont un effet important sur des mesures d'activité réelle, indices de prix, indicateurs avancés et financiers. Contrairement aux autres études, notre procédure d'identification du choc structurel ne requiert pas de restrictions temporelles entre facteurs financiers et macroéconomiques. De plus, elle donne une interprétation des facteurs sans restreindre l'estimation de ceux-ci. Dans le troisième article nous étudions la relation entre les représentations VARMA et factorielle des processus vectoriels stochastiques, et proposons une nouvelle classe de modèles VARMA augmentés par facteurs (FAVARMA). Notre point de départ est de constater qu'en général les séries multivariées et facteurs associés ne peuvent simultanément suivre un processus VAR d'ordre fini. Nous montrons que le processus dynamique des facteurs, extraits comme combinaison linéaire des variables observées, est en général un VARMA et non pas un VAR comme c'est supposé ailleurs dans la littérature. Deuxièmement, nous montrons que même si les facteurs suivent un VAR d'ordre fini, cela implique une représentation VARMA pour les séries observées. Alors, nous proposons le cadre d'analyse FAVARMA combinant ces deux méthodes de réduction du nombre de paramètres. Le modèle est appliqué dans deux exercices de prévision en utilisant des données américaines et canadiennes de Boivin, Giannoni et Stevanovic (2010, 2009) respectivement. Les résultats montrent que la partie VARMA aide à mieux prévoir les importants agrégats macroéconomiques relativement aux modèles standards. Finalement, nous estimons les effets de choc monétaire en utilisant les données et le schéma d'identification de Bernanke, Boivin et Eliasz (2005). Notre modèle FAVARMA(2,1) avec six facteurs donne les résultats cohérents et précis des effets et de la transmission monétaire aux États-Unis. Contrairement au modèle FAVAR employé dans l'étude ultérieure où 510 coefficients VAR devaient être estimés, nous produisons les résultats semblables avec seulement 84 paramètres du processus dynamique des facteurs. L'objectif du quatrième article est d'identifier et mesurer les effets des chocs de crédit au Canada dans un environnement riche en données et en utilisant le modèle FAVARMA structurel. Dans le cadre théorique de l'accélérateur financier développé par Bernanke, Gertler et Gilchrist (1999), nous approximons la prime de financement extérieur par les credit spreads. D'un côté, nous trouvons qu'une augmentation non-anticipée de la prime de financement extérieur aux États-Unis génère une récession significative et persistante au Canada, accompagnée d'une hausse immédiate des credit spreads et taux d'intérêt canadiens. La composante commune semble capturer les dimensions importantes des fluctuations cycliques de l'économie canadienne. L'analyse par décomposition de la variance révèle que ce choc de crédit a un effet important sur différents secteurs d'activité réelle, indices de prix, indicateurs avancés et credit spreads. De l'autre côté, une hausse inattendue de la prime canadienne de financement extérieur ne cause pas d'effet significatif au Canada. Nous montrons que les effets des chocs de crédit au Canada sont essentiellement causés par les conditions globales, approximées ici par le marché américain. Finalement, étant donnée la procédure d'identification des chocs structurels, nous trouvons des facteurs interprétables économiquement. Le comportement des agents et de l'environnement économiques peut varier à travers le temps (ex. changements de stratégies de la politique monétaire, volatilité de chocs) induisant de l'instabilité des paramètres dans les modèles en forme réduite. Les modèles à paramètres variant dans le temps (TVP) standards supposent traditionnellement les processus stochastiques indépendants pour tous les TVPs. Dans cet article nous montrons que le nombre de sources de variabilité temporelle des coefficients est probablement très petit, et nous produisons la première évidence empirique connue dans les modèles macroéconomiques empiriques. L'approche Factor-TVP, proposée dans Stevanovic (2010), est appliquée dans le cadre d'un modèle VAR standard avec coefficients aléatoires (TVP-VAR). Nous trouvons qu'un seul facteur explique la majorité de la variabilité des coefficients VAR, tandis que les paramètres de la volatilité des chocs varient d'une façon indépendante. Le facteur commun est positivement corrélé avec le taux de chômage. La même analyse est faite avec les données incluant la récente crise financière. La procédure suggère maintenant deux facteurs et le comportement des coefficients présente un changement important depuis 2007. Finalement, la méthode est appliquée à un modèle TVP-FAVAR. Nous trouvons que seulement 5 facteurs dynamiques gouvernent l'instabilité temporelle dans presque 700 coefficients.
Resumo:
À partir des années 1980, la théorisation de la promotion de la santé et sa mise en place font partie de l’agenda des organisations internationales de santé et de plusieurs gouvernements. Cependant, une certaine tension est observable dans la compréhension de la promotion de la santé, et ce, dès ses débuts. En effet, elle est conçue en général selon une approche comportementale comme stratégie pour le changement de comportements individuels ou collectifs qui met l’accent sur les facteurs de risque et très peu fréquemment conçue selon une approche structurelle, incluant une action sur les déterminants structurels des sociétés responsables de l’état de santé des populations dans une mesure plus importante que les systèmes de soins. Cette recherche qualitative –étude de cas multiples- menée en Argentine et au Brésil, vise à analyser la place et la compréhension de la promotion de la santé dans les politiques nationales de santé de deux pays à travers l’analyse du processus d’élaboration des politiques publiques. Nous viserons à distinguer la promotion de la santé en tant que comportementale ou structurelle et à expliquer les raisons pour lesquelles elle est comprise de telle ou telle autre façon. Finalement, nous essayerons d’identifier les opportunités pour qu’une approche structurelle de la promotion de la santé soit adoptée dans la politique nationale de santé. Les données analysées proviennent d’entrevues semi-structurées (n=28) et de documents divers : sites gouvernementaux sur Internet, documents remis par les interviewés, documents officiels, soit gouvernementaux, soit des organismes de coopération et de financement. Notre cadre conceptuel s’est inspiré des trois modèles : celui du changement des politiques publiques de Sabatier et Jenkins-Smith (1999 ; 2009), celui des courants politiques de Kingdon (1984) et le cadre conceptuel proposé par Walt (1994) pour l’analyse du rôle des organisations internationales. Nous avons identifié deux niveaux d’analyse : l’organisation de l’État et le sous-système de santé. Nous avons aussi tenu compte de l’influence des événements externes et des organisations internationales de coopération technique et de financement. Notre démarche vise à observer, à analyser et à comprendre la façon dont ces niveaux influencent la place et la compréhension de la promotion de la santé dans la politique nationale de santé. La perspective temporelle de plus de douze années nous a permis de mener une analyse sur plusieurs années et de mieux comprendre le changement de la politique de santé à différents moments de son histoire ainsi que l’identification des acteurs et des coalitions les plus importants depuis l’origine des champs de la santé publique dans les deux pays. Les résultats de notre analyse montrent que la promotion de la santé – conçue selon une approche structurelle – ne fait pas encore partie du courant principal de la politique nationale de santé dans aucun des deux pays. Cependant, les explications diffèrent : En Argentine, on observe un sous-système de santé fragmenté avec prédominance du modèle médical ; les actions menées renforcent ce fonctionnement en ne permettant pas la discussion à propos des valeurs sous-jacentes à l’organisation du système de santé ni sur son changement en fonction des besoins de santé du pays. Au Brésil, la réforme sanitaire questionne le modèle préexistant et arrive à instaurer la santé comme droit au niveau de l’État. L’accent mis sur l’organisation des services réduit la compréhension de la promotion de la santé à une « politique nationale de promotion de la santé » qui vise le changement des comportements. L’analyse du rôle des organisations internationales montre deux situations différentes dans les deux pays : pour l’Argentine, il existe une dépendance majeure autant à l’agenda qu’au financement de ces organisations. Le manque d’un agenda national en matière de promotion de la santé fait que le pays adopte l’agenda international avec très peu des questionnements. Dans le cas du Brésil, la situation est bien différente et on observe une capacité importante à négocier avec la coopération internationale. Cela se fait aussi avec un intérêt du pays pour l’adoption de l’agenda des organisations internationales dans le but d’une reconnaissance et de sa participation à des instances internationales. Alors, pour des raisons différentes, les deux pays adoptent l’agenda international de la promotion de la santé avec une approche comportementale. À partir de notre recherche, nous considérons que cinq réflexions doivent guider l’analyse de la promotion de la santé en Amérique latine : 1) Les processus de réforme de l’État des années 1990 et ses conséquences actuelles (type de réforme, valeurs sociétales, arrangements constitutionnels) ; 2) Les processus de réforme des systèmes de santé avec un regard sur la composante de décentralisation (réforme sanitaire ou administrative ?, quel modèle prédomine dans le champ de la santé publique ?) ; 3) La revalorisation des soins primaires de santé de la fin des années 1990 (quel impact dans le pays ?) ; 4) La tendance à la réduction des propositions élargies autant des politiques que des programmes ; et 5) Les défis actuels des systèmes de santé (travailler avec d’autres secteurs pour produire de la santé, pour incorporer et pour mieux maîtriser les déterminants sociaux et structuraux de santé). Les résultats de notre analyse nous permettent d’identifier l’importance du rôle du gouvernement national par rapport au développement et à la compréhension de la promotion de la santé. De plus, cette recherche montre que même s’il existe une influence du contexte et de l’idéologie du gouvernement sur la compréhension de la promotion et l’inclusion des déterminants sociaux de santé, c’est l’organisation de l’État avec ces valeurs de base qui sera déterminante dans la création des conditions pour le développement d’une promotion de la santé structurelle. Alors que la littérature sur la promotion de la santé accorde encore très peu de place au rôle du niveau national et de l’État dans son développement, il est clair que ces derniers ont un impact fondamental sur la place de la promotion de la santé dans la politique et sur la façon de la comprendre et de la mettre en place. Les théories utilisées pour cette recherche nous ont aidée à modéliser notre cadre conceptuel et à mener une démarche d’analyse des politiques publiques. Cette démarche permet d’améliorer les connaissances sur le changement de la politique nationale de santé par rapport à la promotion de la santé en tenant compte des dynamiques gouvernementales, champ peu exploré encore. Ce cadre conceptuel, à la fois souple et rigoureux, pourrait s’avérer approprié pour mener d’autres recherches similaires portant sur la place et la compréhension de la promotion de la santé dans les politiques nationales de santé dans d’autres pays de l’Amérique latine.
Resumo:
La tâche de maintenance ainsi que la compréhension des programmes orientés objet (OO) deviennent de plus en plus coûteuses. L’analyse des liens de dépendance peut être une solution pour faciliter ces tâches d’ingénierie. Cependant, analyser les liens de dépendance est une tâche à la fois importante et difficile. Nous proposons une approche pour l'étude des liens de dépendance internes pour des programmes OO, dans un cadre probabiliste, où les entrées du programme peuvent être modélisées comme un vecteur aléatoire, ou comme une chaîne de Markov. Dans ce cadre, les métriques de couplage deviennent des variables aléatoires dont les distributions de probabilité peuvent être étudiées en utilisant les techniques de simulation Monte-Carlo. Les distributions obtenues constituent un point d’entrée pour comprendre les liens de dépendance internes entre les éléments du programme, ainsi que leur comportement général. Ce travail est valable dans le cas où les valeurs prises par la métrique dépendent des entrées du programme et que ces entrées ne sont pas fixées à priori. Nous illustrons notre approche par deux études de cas.