8 resultados para Relative-rate Test

em Universit


Relevância:

40.00% 40.00%

Publicador:

Resumo:

L’objectif de la présente étude était d’évaluer un test d’estérase leucocytaire (LE) pour le diagnostic de l’endométrite subclinique chez les vaches Holstein en période postpartum. Les tests effectués à partir d’échantillons provenant soit de l’endomètre (UtLE) ou du col utérin (CxLE) ont été comparés à la cytologie endométriale (CE). Par ailleurs, deux méthodes d’évaluation des lames ont été comparées. Deux cent quatre vingt-cinq vaches Holstein de 5 troupeaux laitiers commerciaux ont été évaluées entre 21 et 47 jours en lait (JEL). Soixante sept vaches ont été diagnostiquées avec une endométrite clinique suite à un examen transrectal et vaginoscopique et ont été exclues de l’étude. Deux cent dix-huit vaches ont eu des prélèvements pour la CE et le test LE. La fonction ovarienne a été déterminée à la palpation transrectale. La banque de données utilisée pour chacune des vaches a été effectuée à partir du logiciel DSA (Dossier de Santé Animale) laitier. Le pourcentage de neutrophiles était significativement corrélé avec les scores de LE utérin et cervical. L’activité de CxLE et UtLE diminuait significativement avec les JEL, mais n’était pas associée au risque de gestation à 90 JEL (n= 186). Le pourcentage de neutrophiles mesuré à la CE entre 32 et 47 JEL était associé significativement au risque de gestation à 90 JEL (n=94, P=0.04). Pour la même période, selon une analyse de survie, les vaches avec >2,6% de neutrophiles à la CE étaient définies comme étant atteintes d’une endométrite subclinique avec une prévalence de 56%. Les résultats indiquent que le test d’estérase utérin ou cervical a une bonne concordance avec le pourcentage de neutrophiles à la CE. Une endométrite subclinique diagnostiquée par cytologie endometriale entre 32 et 47 JEL est associée à une réduction du risque de gestation au premier service.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Avec les avancements de la technologie de l'information, les données temporelles économiques et financières sont de plus en plus disponibles. Par contre, si les techniques standard de l'analyse des séries temporelles sont utilisées, une grande quantité d'information est accompagnée du problème de dimensionnalité. Puisque la majorité des séries d'intérêt sont hautement corrélées, leur dimension peut être réduite en utilisant l'analyse factorielle. Cette technique est de plus en plus populaire en sciences économiques depuis les années 90. Étant donnée la disponibilité des données et des avancements computationnels, plusieurs nouvelles questions se posent. Quels sont les effets et la transmission des chocs structurels dans un environnement riche en données? Est-ce que l'information contenue dans un grand ensemble d'indicateurs économiques peut aider à mieux identifier les chocs de politique monétaire, à l'égard des problèmes rencontrés dans les applications utilisant des modèles standards? Peut-on identifier les chocs financiers et mesurer leurs effets sur l'économie réelle? Peut-on améliorer la méthode factorielle existante et y incorporer une autre technique de réduction de dimension comme l'analyse VARMA? Est-ce que cela produit de meilleures prévisions des grands agrégats macroéconomiques et aide au niveau de l'analyse par fonctions de réponse impulsionnelles? Finalement, est-ce qu'on peut appliquer l'analyse factorielle au niveau des paramètres aléatoires? Par exemple, est-ce qu'il existe seulement un petit nombre de sources de l'instabilité temporelle des coefficients dans les modèles macroéconomiques empiriques? Ma thèse, en utilisant l'analyse factorielle structurelle et la modélisation VARMA, répond à ces questions à travers cinq articles. Les deux premiers chapitres étudient les effets des chocs monétaire et financier dans un environnement riche en données. Le troisième article propose une nouvelle méthode en combinant les modèles à facteurs et VARMA. Cette approche est appliquée dans le quatrième article pour mesurer les effets des chocs de crédit au Canada. La contribution du dernier chapitre est d'imposer la structure à facteurs sur les paramètres variant dans le temps et de montrer qu'il existe un petit nombre de sources de cette instabilité. Le premier article analyse la transmission de la politique monétaire au Canada en utilisant le modèle vectoriel autorégressif augmenté par facteurs (FAVAR). Les études antérieures basées sur les modèles VAR ont trouvé plusieurs anomalies empiriques suite à un choc de la politique monétaire. Nous estimons le modèle FAVAR en utilisant un grand nombre de séries macroéconomiques mensuelles et trimestrielles. Nous trouvons que l'information contenue dans les facteurs est importante pour bien identifier la transmission de la politique monétaire et elle aide à corriger les anomalies empiriques standards. Finalement, le cadre d'analyse FAVAR permet d'obtenir les fonctions de réponse impulsionnelles pour tous les indicateurs dans l'ensemble de données, produisant ainsi l'analyse la plus complète à ce jour des effets de la politique monétaire au Canada. Motivée par la dernière crise économique, la recherche sur le rôle du secteur financier a repris de l'importance. Dans le deuxième article nous examinons les effets et la propagation des chocs de crédit sur l'économie réelle en utilisant un grand ensemble d'indicateurs économiques et financiers dans le cadre d'un modèle à facteurs structurel. Nous trouvons qu'un choc de crédit augmente immédiatement les diffusions de crédit (credit spreads), diminue la valeur des bons de Trésor et cause une récession. Ces chocs ont un effet important sur des mesures d'activité réelle, indices de prix, indicateurs avancés et financiers. Contrairement aux autres études, notre procédure d'identification du choc structurel ne requiert pas de restrictions temporelles entre facteurs financiers et macroéconomiques. De plus, elle donne une interprétation des facteurs sans restreindre l'estimation de ceux-ci. Dans le troisième article nous étudions la relation entre les représentations VARMA et factorielle des processus vectoriels stochastiques, et proposons une nouvelle classe de modèles VARMA augmentés par facteurs (FAVARMA). Notre point de départ est de constater qu'en général les séries multivariées et facteurs associés ne peuvent simultanément suivre un processus VAR d'ordre fini. Nous montrons que le processus dynamique des facteurs, extraits comme combinaison linéaire des variables observées, est en général un VARMA et non pas un VAR comme c'est supposé ailleurs dans la littérature. Deuxièmement, nous montrons que même si les facteurs suivent un VAR d'ordre fini, cela implique une représentation VARMA pour les séries observées. Alors, nous proposons le cadre d'analyse FAVARMA combinant ces deux méthodes de réduction du nombre de paramètres. Le modèle est appliqué dans deux exercices de prévision en utilisant des données américaines et canadiennes de Boivin, Giannoni et Stevanovic (2010, 2009) respectivement. Les résultats montrent que la partie VARMA aide à mieux prévoir les importants agrégats macroéconomiques relativement aux modèles standards. Finalement, nous estimons les effets de choc monétaire en utilisant les données et le schéma d'identification de Bernanke, Boivin et Eliasz (2005). Notre modèle FAVARMA(2,1) avec six facteurs donne les résultats cohérents et précis des effets et de la transmission monétaire aux États-Unis. Contrairement au modèle FAVAR employé dans l'étude ultérieure où 510 coefficients VAR devaient être estimés, nous produisons les résultats semblables avec seulement 84 paramètres du processus dynamique des facteurs. L'objectif du quatrième article est d'identifier et mesurer les effets des chocs de crédit au Canada dans un environnement riche en données et en utilisant le modèle FAVARMA structurel. Dans le cadre théorique de l'accélérateur financier développé par Bernanke, Gertler et Gilchrist (1999), nous approximons la prime de financement extérieur par les credit spreads. D'un côté, nous trouvons qu'une augmentation non-anticipée de la prime de financement extérieur aux États-Unis génère une récession significative et persistante au Canada, accompagnée d'une hausse immédiate des credit spreads et taux d'intérêt canadiens. La composante commune semble capturer les dimensions importantes des fluctuations cycliques de l'économie canadienne. L'analyse par décomposition de la variance révèle que ce choc de crédit a un effet important sur différents secteurs d'activité réelle, indices de prix, indicateurs avancés et credit spreads. De l'autre côté, une hausse inattendue de la prime canadienne de financement extérieur ne cause pas d'effet significatif au Canada. Nous montrons que les effets des chocs de crédit au Canada sont essentiellement causés par les conditions globales, approximées ici par le marché américain. Finalement, étant donnée la procédure d'identification des chocs structurels, nous trouvons des facteurs interprétables économiquement. Le comportement des agents et de l'environnement économiques peut varier à travers le temps (ex. changements de stratégies de la politique monétaire, volatilité de chocs) induisant de l'instabilité des paramètres dans les modèles en forme réduite. Les modèles à paramètres variant dans le temps (TVP) standards supposent traditionnellement les processus stochastiques indépendants pour tous les TVPs. Dans cet article nous montrons que le nombre de sources de variabilité temporelle des coefficients est probablement très petit, et nous produisons la première évidence empirique connue dans les modèles macroéconomiques empiriques. L'approche Factor-TVP, proposée dans Stevanovic (2010), est appliquée dans le cadre d'un modèle VAR standard avec coefficients aléatoires (TVP-VAR). Nous trouvons qu'un seul facteur explique la majorité de la variabilité des coefficients VAR, tandis que les paramètres de la volatilité des chocs varient d'une façon indépendante. Le facteur commun est positivement corrélé avec le taux de chômage. La même analyse est faite avec les données incluant la récente crise financière. La procédure suggère maintenant deux facteurs et le comportement des coefficients présente un changement important depuis 2007. Finalement, la méthode est appliquée à un modèle TVP-FAVAR. Nous trouvons que seulement 5 facteurs dynamiques gouvernent l'instabilité temporelle dans presque 700 coefficients.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Le développement d’un médicament est non seulement complexe mais les retours sur investissment ne sont pas toujours ceux voulus ou anticipés. Plusieurs médicaments échouent encore en Phase III même avec les progrès technologiques réalisés au niveau de plusieurs aspects du développement du médicament. Ceci se traduit en un nombre décroissant de médicaments qui sont commercialisés. Il faut donc améliorer le processus traditionnel de développement des médicaments afin de faciliter la disponibilité de nouveaux produits aux patients qui en ont besoin. Le but de cette recherche était d’explorer et de proposer des changements au processus de développement du médicament en utilisant les principes de la modélisation avancée et des simulations d’essais cliniques. Dans le premier volet de cette recherche, de nouveaux algorithmes disponibles dans le logiciel ADAPT 5® ont été comparés avec d’autres algorithmes déjà disponibles afin de déterminer leurs avantages et leurs faiblesses. Les deux nouveaux algorithmes vérifiés sont l’itératif à deux étapes (ITS) et le maximum de vraisemblance avec maximisation de l’espérance (MLEM). Les résultats de nos recherche ont démontré que MLEM était supérieur à ITS. La méthode MLEM était comparable à l’algorithme d’estimation conditionnelle de premier ordre (FOCE) disponible dans le logiciel NONMEM® avec moins de problèmes de rétrécissement pour les estimés de variances. Donc, ces nouveaux algorithmes ont été utilisés pour la recherche présentée dans cette thèse. Durant le processus de développement d’un médicament, afin que les paramètres pharmacocinétiques calculés de façon noncompartimentale soient adéquats, il faut que la demi-vie terminale soit bien établie. Des études pharmacocinétiques bien conçues et bien analysées sont essentielles durant le développement des médicaments surtout pour les soumissions de produits génériques et supergénériques (une formulation dont l'ingrédient actif est le même que celui du médicament de marque, mais dont le profil de libération du médicament est différent de celui-ci) car elles sont souvent les seules études essentielles nécessaires afin de décider si un produit peut être commercialisé ou non. Donc, le deuxième volet de la recherche visait à évaluer si les paramètres calculer d’une demi-vie obtenue à partir d'une durée d'échantillonnage réputée trop courte pour un individu pouvaient avoir une incidence sur les conclusions d’une étude de bioéquivalence et s’ils devaient être soustraits d’analyses statistiques. Les résultats ont démontré que les paramètres calculer d’une demi-vie obtenue à partir d'une durée d'échantillonnage réputée trop courte influençaient de façon négative les résultats si ceux-ci étaient maintenus dans l’analyse de variance. Donc, le paramètre de surface sous la courbe à l’infini pour ces sujets devrait être enlevé de l’analyse statistique et des directives à cet effet sont nécessaires a priori. Les études finales de pharmacocinétique nécessaires dans le cadre du développement d’un médicament devraient donc suivre cette recommandation afin que les bonnes décisions soient prises sur un produit. Ces informations ont été utilisées dans le cadre des simulations d’essais cliniques qui ont été réalisées durant la recherche présentée dans cette thèse afin de s’assurer d’obtenir les conclusions les plus probables. Dans le dernier volet de cette thèse, des simulations d’essais cliniques ont amélioré le processus du développement clinique d’un médicament. Les résultats d’une étude clinique pilote pour un supergénérique en voie de développement semblaient très encourageants. Cependant, certaines questions ont été soulevées par rapport aux résultats et il fallait déterminer si le produit test et référence seraient équivalents lors des études finales entreprises à jeun et en mangeant, et ce, après une dose unique et des doses répétées. Des simulations d’essais cliniques ont été entreprises pour résoudre certaines questions soulevées par l’étude pilote et ces simulations suggéraient que la nouvelle formulation ne rencontrerait pas les critères d’équivalence lors des études finales. Ces simulations ont aussi aidé à déterminer quelles modifications à la nouvelle formulation étaient nécessaires afin d’améliorer les chances de rencontrer les critères d’équivalence. Cette recherche a apporté des solutions afin d’améliorer différents aspects du processus du développement d’un médicament. Particulièrement, les simulations d’essais cliniques ont réduit le nombre d’études nécessaires pour le développement du supergénérique, le nombre de sujets exposés inutilement au médicament, et les coûts de développement. Enfin, elles nous ont permis d’établir de nouveaux critères d’exclusion pour des analyses statistiques de bioéquivalence. La recherche présentée dans cette thèse est de suggérer des améliorations au processus du développement d’un médicament en évaluant de nouveaux algorithmes pour des analyses compartimentales, en établissant des critères d’exclusion de paramètres pharmacocinétiques (PK) pour certaines analyses et en démontrant comment les simulations d’essais cliniques sont utiles.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Nombreux individus vont expérimenter avec les drogues d’abus, mais peu vont devenir toxicomanes. Plusieurs facteurs sont impliqués dans la transition d’un usage récréatif à l’addiction. Les drogues, les conditionnements et les voies d’administration qui mènent à l’augmentation rapide du taux drogue dans le cerveau favorisent cette évolution. La raison est méconnue. Nous avons émis l’hypothèse que l’injection rapide de drogue promeut des changements dans le cerveau qui mènent à l’augmentation de la consommation et de la motivation à obtenir la drogue. Nous avons comparé la consommation lors de conditions à ratio fixe (FR) et à ratio progressif (PR) chez des rats s’auto-administrant la cocaïne administrée par voie intraveineuse (i.v.) en 5 ou 90 secondes (s). Tous les rats ont été entrainés à peser sur un levier afin de s’auto administrer des injections de cocaïne de 0.25 ou 0.5 mg/kg par voie intraveineuse injectée en 5 s sous FR avant d’être divisés en groupes s’auto administrant la cocaïne injectée en 5 ou 90 s pendant 1 heure (h)/session. Pour étudier les différences potentielles en consommation, l’accès à la cocaïne à été augmenté à 6 h/session. Les différences en motivation ont été détectées par l’auto administration de la cocaïne sous PR en fonction de la dose et de la vitesse d’infusion. L’accès à la drogue pendant 1 h/session n’a pas influencé la consommation. Lorsque l’accès a été prolongé à 6 h, tous les animaux ont augmenté leur consommation, mais l’augmentation était plus prononcée chez les rats s’injectant la cocaïne en 5 s. De plus, la vitesse d’injection a influencé la motivation pour obtenir la drogue. Lors de conditions à PR, la courbe dose-réponse pour le nombre d’infusions prises a été déplacée vers le haut pour les rats s’auto administrant des injections de cocaïne en 5 s versus 90 s. De plus, des différences qualitatives on été observées en PR. La consommation de cocaïne des rats s’injectant des infusions en 5 s était dépendante de la dose, tandis que les rats s’auto administrant la drogue en 90 s ont pris la même quantité de drogue, peu importe la dose. Finalement, les rats s’auto administrant des infusions de cocaïne 0.5 mg/kg en 5 s ont consommé plus de cocaïne que les rats prenant des infusions en 90 s, peu importe si elle était injectée en 5 ou 90 s le jour du test. Ainsi, nos résultats montrent que l’injection rapide de drogue dans le cerveau mène à l’augmentation de la consommation et de la motivation pour obtenir la cocaïne, deux symptômes qui caractérisent la toxicomanie.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’eugénol permet d’induire une anesthésie chirurgicale chez la grenouille africaine à griffes (Xenopus laevis) sans causer de lésions chez des grosses grenouilles (90-140g). Le premier objectif de la présente étude était de déterminer la durée de l’anesthésie et d’évaluer la dépression du système nerveux central ainsi que les changements de saturation en oxygène et de fréquence cardiaque chez des petites (7.5 ± 2.1 g) et moyennes (29.2 ± 7.4 g) grenouilles Xenopus laevis en fonction du temps d’exposition à un bain d’eugénol de 350 µL/L. Suite à une immersion de 5 ou 10 minutes, la réponse au test à l’acide acétique, au réflexe de retrait et au réflexe de retournement était absente pendant 1 heure (petites grenouilles) et 0,5 heure (moyennes) et l’anesthésie chirurgicale durait au maximum 15 et 30 minutes chez les petites et moyennes grenouilles respectivement. La saturation en oxygène n’était pas affectée de façon significative, mais la fréquence cardiaque était diminuée jusqu’à 1 heure post-immersion dans les deux groupes. Le deuxième objectif était de déterminer la toxicité de l’eugénol chez des grenouilles de taille moyenne après une ou trois administrations à une dose anesthésique, avec ou sans période de récupération d’une semaine. Histologiquement, il y avait de l’apoptose tubulaire rénale et des membranes hyalines pulmonaires après une administration, et de la nécrose hépatique et des hémorragies dans les tissus adipeux après trois administrations. Ces résultats suggèrent que le poids corporel est un paramètre important à considérer lors de l’anesthésie de grenouilles Xenopus laevis par immersion dans l’eugénol.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Introduction : L’approche par compétences est maintenant bien ancrée dans l’enseignement au niveau de la formation médicale postdoctorale. Dans ce contexte, un système de sélection également axé sur les compétences pourrait être avantageux. L’objectif principal de ce projet était de concevoir un TJS ciblant le rôle CanMEDS de collaborateur pour la sélection au niveau postdoctoral en médecine interne (MI) et en médecine familiale (MF). Méthodologie : Des entrevues d’incidents critiques ont été réalisées auprès de résidents juniors en MI ou en MF afin de générer les items du TJS. Trois leaders de l’approche par compétences ont révisé le contenu du test. Les items ont été analysés pour identifier la compétence principale du rôle CanMEDS de collaborateur, le contexte ainsi que les membres de l’équipe interprofessionnelle représentés dans les vignettes. La clé de correction a été déterminée par un panel composé de 11 experts. Cinq méthodes de notation ont été comparées. Résultats : Sept entrevues ont été réalisées. Après révision, 33 items ont été conservés dans le TJS. Les compétences clés du rôle CanMEDS de collaborateur, les contextes et les divers membres de l’équipe interprofessionnelle étaient bien distribués au travers des items. La moyenne des scores des experts variait entre 43,4 et 75,6 % en fonction des différentes méthodes de notation. Le coefficient de corrélation de Pearson entre les cinq méthodes de notation variait entre 0,80 et 0,98. Conclusion : Ce projet démontre la possibilité de concevoir un TJS utilisant le cadre CanMEDS comme trame de fond pour l’élaboration de son contenu. Ce test, couplé à une approche globale de sélection basée sur les compétences, pourrait éventuellement améliorer le pouvoir prédictif du processus de sélection au niveau de la formation médicale postdoctorale.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Les questions abordées dans les deux premiers articles de ma thèse cherchent à comprendre les facteurs économiques qui affectent la structure à terme des taux d'intérêt et la prime de risque. Je construis des modèles non linéaires d'équilibre général en y intégrant des obligations de différentes échéances. Spécifiquement, le premier article a pour objectif de comprendre la relation entre les facteurs macroéconomiques et le niveau de prime de risque dans un cadre Néo-keynésien d'équilibre général avec incertitude. L'incertitude dans le modèle provient de trois sources : les chocs de productivité, les chocs monétaires et les chocs de préférences. Le modèle comporte deux types de rigidités réelles à savoir la formation des habitudes dans les préférences et les coûts d'ajustement du stock de capital. Le modèle est résolu par la méthode des perturbations à l'ordre deux et calibré à l'économie américaine. Puisque la prime de risque est par nature une compensation pour le risque, l'approximation d'ordre deux implique que la prime de risque est une combinaison linéaire des volatilités des trois chocs. Les résultats montrent qu'avec les paramètres calibrés, les chocs réels (productivité et préférences) jouent un rôle plus important dans la détermination du niveau de la prime de risque relativement aux chocs monétaires. Je montre que contrairement aux travaux précédents (dans lesquels le capital de production est fixe), l'effet du paramètre de la formation des habitudes sur la prime de risque dépend du degré des coûts d'ajustement du capital. Lorsque les coûts d'ajustement du capital sont élevés au point que le stock de capital est fixe à l'équilibre, une augmentation du paramètre de formation des habitudes entraine une augmentation de la prime de risque. Par contre, lorsque les agents peuvent librement ajuster le stock de capital sans coûts, l'effet du paramètre de la formation des habitudes sur la prime de risque est négligeable. Ce résultat s'explique par le fait que lorsque le stock de capital peut être ajusté sans coûts, cela ouvre un canal additionnel de lissage de consommation pour les agents. Par conséquent, l'effet de la formation des habitudes sur la prime de risque est amoindri. En outre, les résultats montrent que la façon dont la banque centrale conduit sa politique monétaire a un effet sur la prime de risque. Plus la banque centrale est agressive vis-à-vis de l'inflation, plus la prime de risque diminue et vice versa. Cela est due au fait que lorsque la banque centrale combat l'inflation cela entraine une baisse de la variance de l'inflation. Par suite, la prime de risque due au risque d'inflation diminue. Dans le deuxième article, je fais une extension du premier article en utilisant des préférences récursives de type Epstein -- Zin et en permettant aux volatilités conditionnelles des chocs de varier avec le temps. L'emploi de ce cadre est motivé par deux raisons. D'abord des études récentes (Doh, 2010, Rudebusch and Swanson, 2012) ont montré que ces préférences sont appropriées pour l'analyse du prix des actifs dans les modèles d'équilibre général. Ensuite, l'hétéroscedasticité est une caractéristique courante des données économiques et financières. Cela implique que contrairement au premier article, l'incertitude varie dans le temps. Le cadre dans cet article est donc plus général et plus réaliste que celui du premier article. L'objectif principal de cet article est d'examiner l'impact des chocs de volatilités conditionnelles sur le niveau et la dynamique des taux d'intérêt et de la prime de risque. Puisque la prime de risque est constante a l'approximation d'ordre deux, le modèle est résolu par la méthode des perturbations avec une approximation d'ordre trois. Ainsi on obtient une prime de risque qui varie dans le temps. L'avantage d'introduire des chocs de volatilités conditionnelles est que cela induit des variables d'état supplémentaires qui apportent une contribution additionnelle à la dynamique de la prime de risque. Je montre que l'approximation d'ordre trois implique que les primes de risque ont une représentation de type ARCH-M (Autoregressive Conditional Heteroscedasticty in Mean) comme celui introduit par Engle, Lilien et Robins (1987). La différence est que dans ce modèle les paramètres sont structurels et les volatilités sont des volatilités conditionnelles de chocs économiques et non celles des variables elles-mêmes. J'estime les paramètres du modèle par la méthode des moments simulés (SMM) en utilisant des données de l'économie américaine. Les résultats de l'estimation montrent qu'il y a une évidence de volatilité stochastique dans les trois chocs. De plus, la contribution des volatilités conditionnelles des chocs au niveau et à la dynamique de la prime de risque est significative. En particulier, les effets des volatilités conditionnelles des chocs de productivité et de préférences sont significatifs. La volatilité conditionnelle du choc de productivité contribue positivement aux moyennes et aux écart-types des primes de risque. Ces contributions varient avec la maturité des bonds. La volatilité conditionnelle du choc de préférences quant à elle contribue négativement aux moyennes et positivement aux variances des primes de risque. Quant au choc de volatilité de la politique monétaire, son impact sur les primes de risque est négligeable. Le troisième article (coécrit avec Eric Schaling, Alain Kabundi, révisé et resoumis au journal of Economic Modelling) traite de l'hétérogénéité dans la formation des attentes d'inflation de divers groupes économiques et de leur impact sur la politique monétaire en Afrique du sud. La question principale est d'examiner si différents groupes d'agents économiques forment leurs attentes d'inflation de la même façon et s'ils perçoivent de la même façon la politique monétaire de la banque centrale (South African Reserve Bank). Ainsi on spécifie un modèle de prédiction d'inflation qui nous permet de tester l'arrimage des attentes d'inflation à la bande d'inflation cible (3% - 6%) de la banque centrale. Les données utilisées sont des données d'enquête réalisée par la banque centrale auprès de trois groupes d'agents : les analystes financiers, les firmes et les syndicats. On exploite donc la structure de panel des données pour tester l'hétérogénéité dans les attentes d'inflation et déduire leur perception de la politique monétaire. Les résultats montrent qu'il y a évidence d'hétérogénéité dans la manière dont les différents groupes forment leurs attentes. Les attentes des analystes financiers sont arrimées à la bande d'inflation cible alors que celles des firmes et des syndicats ne sont pas arrimées. En effet, les firmes et les syndicats accordent un poids significatif à l'inflation retardée d'une période et leurs prédictions varient avec l'inflation réalisée (retardée). Ce qui dénote un manque de crédibilité parfaite de la banque centrale au vu de ces agents.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il est généralement admis que l’éducation constitue une des stratégies les plus efficaces pour lutter contre le VIH/SIDA et diminuer sa transmission (Gallant et Matika-Tyndale, 2004). À cet effet, plusieurs pays d’Afrique subsaharienne ont inclus des programmes d’éducation au VIH/SIDA dans leur curriculum scolaire afin de contrer l’épidémie (ADEA, 2007). Cependant, l’efficacité de ces programmes éducatifs demeure incertaine. Par exemple, les objectifs des programmes éducatifs, tels que la transmission de connaissances relatives au VIH/SIDA, ou la diminution des comportements sexuels risqués, ne sont pas toujours atteints (Matika-Tyndale, 2009; Oshi, D., Nakalema, S. et Oshi, L, 2005). Le succès d’un programme de lutte et de prévention en milieu scolaire peut être lié aux contenus d’enseignement traités en classe par les enseignants (Ahmed et al., 2009). Les contenus traités dépendent en partie des représentations et des connaissances des enseignants par rapport au(x) sujet(s) qu'ils enseignent et pour des sujets aussi délicats que le VIH/SIDA et la sexualité, cette relation est particulièrement importante. Par exemple, en Afrique du Sud, malgré l’existence d’une politique nationale sur le VIH et l’inclusion des sujets relatifs au VIH/SIDA dans le curriculum scolaire, la mise en oeuvre du programme de lutte et de prévention peut être compromise par la résistance des enseignants à parler de certains sujets controversés (Ahmed et al. 2009; Mathews et al., 2006). Notre étude, menée dans la région de Cape Town en Afrique du Sud, visait à mieux comprendre les relations entre les caractéristiques socioprofessionnelles des enseignants, leurs connaissances, leurs représentations à l’égard de l’éducation relative au VIH/SIDA et les contenus d’enseignement abordés dans le cours life-orientation dédié à l’éducation relative au VIH/SIDA. Au total, 71 enseignants du cours life-orientation provenant de 18 écoles secondaires ont participé à cette étude. Les enseignants ont rempli un questionnaire portant sur leurs caractéristiques socioprofessionnelles (âge, genre, expérience d’enseignement, niveau enseigné et expérience personnelle avec le VIH/SIDA), leurs connaissances, différentes composantes de leurs représentations (attitudes, norme sociale perçue et contrôle comportemental perçu) et les contenus d’enseignement qu’ils abordent en classe. iv Les résultats des analyses des données ainsi recueillies montrent que la norme sociale perçue est la seule composante des représentations reliée aux contenus d’enseignement abordés en classe par l’enseignant. Les attitudes des enseignants envers l’éducation relative au VIH/SIDA sont plutôt favorables, mais plusieurs d’entre eux manifestent des lacunes par rapport à leurs connaissances sur les modes de transmission et de prévention du VIH/SIDA. Par ailleurs, plusieurs croient que le manque de formation et le manque de matériel sont des obstacles à leur enseignement. Les expériences personnelles avec le VIH/SIDA sont associées à des attitudes plus positives chez les enseignants et l’expérience d’enseignement du cours life-orientation est reliée aux connaissances relatives au VIH/SIDA et au contrôle comportemental perçu de l’enseignant. Nos résultats suggèrent également que certains contenus d’enseignement spécifiques de l’éducation relative au VIH/SIDA, tel que l’utilisation des condoms, semblent être particulièrement controversés et source de malaise pour les enseignants. Nos résultats donnent également des pistes de recherches futures s’intéressant à l’amélioration de l’enseignement relatif au VIH/SIDA, notamment au sujet du besoin de formation et de matériel pédagogique supplémentaire, ainsi qu’au sujet de l’influence des membres de la société sur l’enseignement effectué en classe. Notre recherche montre également l’importance de distinguer, en recherche, les différents contenus d’enseignement, plutôt que de considérer de façon globale l’éducation relative au VIH/SIDA.