132 resultados para Productivité
Resumo:
L’érosion éolienne est un problème environnemental parmi les plus sévères dans les régions arides, semi-arides et les régions sèches sub-humides de la planète. L’érosion des sols accélérée par le vent provoque des dommages à la fois localement et régionalement. Sur le plan local, elle cause la baisse des nutriments par la mobilisation des particules les plus fines et de la matière organique. Cette mobilisation est une des causes de perte de fertilité des sols avec comme conséquence, une chute de la productivité agricole et une réduction de la profondeur de la partie arable. Sur le plan régional, les tempêtes de poussières soulevées par le vent ont un impact non négligeable sur la santé des populations, et la déposition des particules affecte les équipements hydrauliques tels que les canaux à ciel ouvert ainsi que les infrastructures notamment de transport. Dans les régions où les sols sont fréquemment soumis à l’érosion éolienne, les besoins pour des études qui visent à caractériser spatialement les sols selon leur degré de vulnérabilité sont grands. On n’a qu’à penser aux autorités administratives qui doivent décider des mesures à prendre pour préserver et conserver les potentialités agropédologiques des sols, souvent avec des ressources financières modestes mises à leur disposition. Or, dans certaines de ces régions, comme notre territoire d’étude, la région de Thiès au Sénégal, ces études font défaut. En effet, les quelques études effectuées dans cette région ou dans des contextes géographiques similaires ont un caractère plutôt local et les approches suivies (modèles de pertes des sols) nécessitent un nombre substantiel de données pour saisir la variabilité spatiale de la dynamique des facteurs qui interviennent dans le processus de l’érosion éolienne. La disponibilité de ces données est particulièrement problématique dans les pays en voie de développement, à cause de la pauvreté en infrastructures et des problèmes de ressources pour le monitoring continu des variables environnementales. L’approche mise de l’avant dans cette recherche vise à combler cette lacune en recourant principalement à l’imagerie satellitale, et plus particulièrement celle provenant des satellites Landsat-5 et Landsat-7. Les images Landsat couvrent la presque totalité de la zone optique du spectre exploitable par télédétection (visible, proche infrarouge, infrarouge moyen et thermique) à des résolutions relativement fines (quelques dizaines de mètres). Elles permettant ainsi d’étudier la distribution spatiale des niveaux de vulnérabilité des sols avec un niveau de détails beaucoup plus fin que celui obtenu avec des images souvent utilisées dans des études environnementales telles que AVHRR de la série de satellites NOAA (résolution kilométrique). De plus, l’archive complet des images Landsat-5 et Landsat-7 couvrant une période de plus de 20 ans est aujourd’hui facilement accessible. Parmi les paramètres utilisés dans les modèles d’érosion éolienne, nous avons identifiés ceux qui sont estimables par l’imagerie satellitale soit directement (exemple, fraction du couvert végétal) soit indirectement (exemple, caractérisation des sols par leur niveau d’érodabilité). En exploitant aussi le peu de données disponibles dans la région (données climatiques, carte morphopédologique) nous avons élaboré une base de données décrivant l’état des lieux dans la période de 1988 à 2002 et ce, selon les deux saisons caractéristiques de la région : la saison des pluies et la saison sèche. Ces données par date d’acquisition des images Landsat utilisées ont été considérées comme des intrants (critères) dans un modèle empirique que nous avons élaboré en modulant l’impact de chacun des critères (poids et scores). À l’aide de ce modèle, nous avons créé des cartes montrant les degrés de vulnérabilité dans la région à l’étude, et ce par date d’acquisition des images Landsat. Suite à une série de tests pour valider la cohérence interne du modèle, nous avons analysé nos cartes afin de conclure sur la dynamique du processus pendant la période d’étude. Nos principales conclusions sont les suivantes : 1) le modèle élaboré montre une bonne cohérence interne et est sensible aux variations spatiotemporelles des facteurs pris en considération 2); tel qu’attendu, parmi les facteurs utilisés pour expliquer la vulnérabilité des sols, la végétation vivante et l’érodabilité sont les plus importants ; 3) ces deux facteurs présentent une variation importante intra et inter-saisonnière de sorte qu’il est difficile de dégager des tendances à long terme bien que certaines parties du territoire (Nord et Est) aient des indices de vulnérabilité forts, peu importe la saison ; 4) l’analyse diachronique des cartes des indices de vulnérabilité confirme le caractère saisonnier des niveaux de vulnérabilité dans la mesure où les superficies occupées par les faibles niveaux de vulnérabilité augmentent en saison des pluies, donc lorsque l’humidité surfacique et la végétation active notamment sont importantes, et décroissent en saison sèche ; 5) la susceptibilité, c’est-à-dire l’impact du vent sur la vulnérabilité est d’autant plus forte que la vitesse du vent est élevée et que la vulnérabilité est forte. Sur les zones où la vulnérabilité est faible, les vitesses de vent élevées ont moins d’impact. Dans notre étude, nous avons aussi inclus une analyse comparative entre les facteurs extraits des images Landsat et celles des images hyperspectrales du satellite expérimental HYPERION. Bien que la résolution spatiale de ces images soit similaire à celle de Landsat, les résultats obtenus à partir des images HYPERION révèlent un niveau de détail supérieur grâce à la résolution spectrale de ce capteur permettant de mieux choisir les bandes spectrales qui réagissent le plus avec le facteur étudié. Cette étude comparative démontre que dans un futur rapproché, l’amélioration de l’accessibilité à ce type d’images permettra de raffiner davantage le calcul de l’indice de vulnérabilité par notre modèle. En attendant cette possibilité, on peut de contenter de l’imagerie Landsat qui offre un support d’informations permettant tout de même d’évaluer le niveau de fragilisation des sols par l’action du vent et par la dynamique des caractéristiques des facteurs telles que la couverture végétale aussi bien vivante que sénescente.
Resumo:
Un objectif principal du génie logiciel est de pouvoir produire des logiciels complexes, de grande taille et fiables en un temps raisonnable. La technologie orientée objet (OO) a fourni de bons concepts et des techniques de modélisation et de programmation qui ont permis de développer des applications complexes tant dans le monde académique que dans le monde industriel. Cette expérience a cependant permis de découvrir les faiblesses du paradigme objet (par exemples, la dispersion de code et le problème de traçabilité). La programmation orientée aspect (OA) apporte une solution simple aux limitations de la programmation OO, telle que le problème des préoccupations transversales. Ces préoccupations transversales se traduisent par la dispersion du même code dans plusieurs modules du système ou l’emmêlement de plusieurs morceaux de code dans un même module. Cette nouvelle méthode de programmer permet d’implémenter chaque problématique indépendamment des autres, puis de les assembler selon des règles bien définies. La programmation OA promet donc une meilleure productivité, une meilleure réutilisation du code et une meilleure adaptation du code aux changements. Très vite, cette nouvelle façon de faire s’est vue s’étendre sur tout le processus de développement de logiciel en ayant pour but de préserver la modularité et la traçabilité, qui sont deux propriétés importantes des logiciels de bonne qualité. Cependant, la technologie OA présente de nombreux défis. Le raisonnement, la spécification, et la vérification des programmes OA présentent des difficultés d’autant plus que ces programmes évoluent dans le temps. Par conséquent, le raisonnement modulaire de ces programmes est requis sinon ils nécessiteraient d’être réexaminés au complet chaque fois qu’un composant est changé ou ajouté. Il est cependant bien connu dans la littérature que le raisonnement modulaire sur les programmes OA est difficile vu que les aspects appliqués changent souvent le comportement de leurs composantes de base [47]. Ces mêmes difficultés sont présentes au niveau des phases de spécification et de vérification du processus de développement des logiciels. Au meilleur de nos connaissances, la spécification modulaire et la vérification modulaire sont faiblement couvertes et constituent un champ de recherche très intéressant. De même, les interactions entre aspects est un sérieux problème dans la communauté des aspects. Pour faire face à ces problèmes, nous avons choisi d’utiliser la théorie des catégories et les techniques des spécifications algébriques. Pour apporter une solution aux problèmes ci-dessus cités, nous avons utilisé les travaux de Wiels [110] et d’autres contributions telles que celles décrites dans le livre [25]. Nous supposons que le système en développement est déjà décomposé en aspects et classes. La première contribution de notre thèse est l’extension des techniques des spécifications algébriques à la notion d’aspect. Deuxièmement, nous avons défini une logique, LA , qui est utilisée dans le corps des spécifications pour décrire le comportement de ces composantes. La troisième contribution consiste en la définition de l’opérateur de tissage qui correspond à la relation d’interconnexion entre les modules d’aspect et les modules de classe. La quatrième contribution concerne le développement d’un mécanisme de prévention qui permet de prévenir les interactions indésirables dans les systèmes orientés aspect.
Resumo:
La porte d’entrée méthodologique de cette recherche repose sur l’observation participante d’une patiente atteinte de «douleur chronique» adressée pour accompagnement thérapeutique par le Qi Gong. L’énoncé fréquent de situations de conflit avec la famille, avec l’employeur ou avec les médecins, m’a amenée à y considérer la similitude entre les symptômes énoncés, les usages du corps et les attitudes mentales en lien avec une représentation mécaniste et duelle du corps. Marcel Mauss a été le premier à désigner ce rapport entre les usages du corps et les paradigmes sociétaux et culturels, à l’œuvre. Dans une ère fortement marquée par la robotisation des entreprises et des services, la dématérialisation des documents et la tyrannie des nouvelles technologies, la «douleur chronique» vient donc questionner les usages du corps contemporain dans un monde du travail axé sur la performance et la productivité. Cette recherche a pour but d’interroger en quoi la «douleur chronique» serait un symptôme des apories contemporaines, dépassant ainsi largement le champ de la médecine et en quoi elle serait comme l’arme du faible, the weapon of the weak, en contexte d’oppression (Scott, 1985). Ultimement, elle questionne l’affirmation de Michel Foucault selon laquelle «nous avons tous du pouvoir dans le corps» (1987: 27). Le recueil de récits de vie auprès de professionnels de la danse, pressentis pour leur habileté à décrire leur ressenti, y déjoue une tendance à reléguer dans le domaine de la psyché ce qui ne fait pas la preuve de son évidence. La forte crédibilité de leur parole permet en outre de mieux documenter un phénomène complexe, entâché de beaucoup d’à priori et de révéler les dynamiques de pouvoir à l’œuvre au sein d’une profession confrontée aux limites corporelles, plus que tout autre, dans l’exercice de son art. Une approche généalogique de ces histoires de douleur et leur mise côte à côte permet d’identifier les «plis» que sont l’endurance et le rejet de toute médication face à la douleur et comment ils infléchissent son évolution. Une analyse plus approfondie des six d’entre elles qui s’en sont sorties y démontre que si le pouvoir s’exerce sur un corps perçu comme docile, il peut aussi s’inverser pour contribuer à la guérison, au prix d’une insurrection de savoirs enfouis, universels, mais «assujettis», et d’un changement de paradigme. Ainsi, une meilleure compréhension de la «douleur chronique» laisse entrevoir une possible réversibilité du phénomène et une réinsertion sociale, avec ou sans réorientation de carrière, à condition de repenser nos modes de représentation, de production, de relation au travail et aux usages du corps, le rapport à l’Autre et à soi.
Resumo:
Ces dernières années, la découverte de fraudes scientifiques majeures a créé des ondes de choc dans la communauté scientifique. Le nombre annuel de rétractations a considérablement augmenté, et la plupart sont dues à des cas de fraude. Bien qu’il soit généralement pris pour acquis que tous les coauteurs sont affectés par ces rétractations, l’objectif de cette étude est de vérifier cette présupposition empiriquement. Nous avons recensé toutes les rétractations du domaine biomédical (443) de 1996 à 2006 dans PubMed et mesuré, à l’aide du Web of Science (WOS), la productivité, l’impact et les pratiques de collaboration des coauteurs (1 818) sur une période de cinq ans avant et après la rétractation. Nos résultats montrent que les rétractations ont des conséquences sur la carrière des coauteurs, surtout au niveau du nombre de publications des années subséquentes. Cet impact est plus grand dans les cas de fraude, et pour les premiers auteurs.
Resumo:
La reproduction est un pilier majeur de la productivité des fermes laitières. Dans ce contexte, il est pertinent d’identifier à l’avance les animaux à risque d’avoir des performances en reproduction sous-optimales, surtout si un traitement efficace est disponible pour améliorer ces performances. Les endométrites clinique et subclinique sont des conditions définies selon leur impact sur les performances en reproduction subséquentes et donc, des outils très intéressants de surveillance de la santé utérine. Le premier objectif de cette étude était de déterminer simultanément des seuils diagnostiques pour les endométrites clinique (diagnostiquée par le Metricheck) et subclinique (diagnostiquée par la cytologie endométriale ou par l’estérase leucocytaire) selon leur impact sur les performances en reproduction à la première saillie. L’écoulement vaginal purulent a été identifié comme seuil pour l’endométrite clinique, alors que les seuils identifiés pour l’endométrite subclinique ont été un pourcentage de polymorphonucléaires de 6% à la cytologie et une « forte quantité de leucocytes » à l’estérase leucocytaire. Le second objectif de l’étude était d’évaluer l’effet d’un traitement intra-utérin de céphapirine sur les performances à la première saillie des animaux sains et atteints d’endométrite. Aucun effet du traitement n’a été observé chez les vaches saines ou atteintes d’endométrite clinique, alors qu’une tendance à l’amélioration des performances a été associée au traitement chez celles atteintes d’endométrite subclinique. L’anovulation post-partum prolongée pourrait altérer l’efficacité du traitement de céphapirine, surtout chez les vaches atteintes d’endométrite clinique.
Resumo:
Le manuscrit constituant l'annexe 1 a été publié en décembre 2013 sous la référence : Vaccine. 2013 Dec 9;31(51):6087-91.
Resumo:
Au Canada, les chercheurs postdoctoraux font face à de nombreux défis qui découlent d’une carence dans leur prise en charge par le système d'éducation supérieure. Puisque leurs données ne sont pas gérées de façon centralisée, leur population et leur contribution au système de recherche demeurent imprécises. Cette étude présente une analyse bibliométrique sur la production scientifique des stagiaires postdoctoraux financés par les organismes subventionnaires fédéraux canadiens et de la province de Québec de 2004 à 2008 (N = 3 454). Les résultats montrent que ces postdoctorants ont en moyenne une productivité égale ou supérieure à celle des doctorants et des membres du corps professoral québécois et que leur impact scientifique est supérieur à celui des deux autres groupes. On observe aussi que les postdoctorants ayant réalisé leur stage aux États-Unis présentent des indicateurs de productivité et d’impact plus élevés.
Resumo:
Le but de cette étude est de comprendre l’effet d’une irrigation par les eaux usées et /ou de la fertilisation par les engrais chimiques sur la productivité aérienne et souterraine d’une plantation de saule Salix miyabeana SX67 en CICR dans un contexte de filtre végétal. Nous avons d’une part évalué l’impact de diverses doses d’eau usées et/ou de la fertilisation minérale sur les rendements en biomasse ligneuse d’une culture de saules au cours d’un cycle de croissance de deux ans. D’autre part et pour la même période nous avons comparé le développement racinaire (biomasse, morphologie et distribution dans le sol) suite aux divers traitements. Les résultats ont montré qu’au terme de deux ans de croissance, les traitements par les eaux usées aussi bien que celle par les engrais a permis l’augmentation des rendements de la biomasse aérienne de notre culture de saules avec un effet plus prononcé suite au traitements des eaux usées qu’à celui du fertilisant chimique. Nous avons mesuré des productivités en biomasse aussi élevées que 39,4 Mg ha-1 et 54,7 Mg ha-1 et ce pour les parcelles qui ont reçu la plus grande quantité d'eaux usées, respectivement pour les saules non fertilisé et fertilisé (D3-NF et D3-F). La majeure partie du système racinaire était en superficie avec 92-96% des racines (racine fine et racine grosse) concentrées dans les premiers 40 cm de sol et nous avons trouvé que la biomasse des racines fines était comprise entre 1,01 et 1,99 Mg ha-1. Généralement la fertilisation chimique n’a pas eu d’effet sur les rendements en biomasse des racines totales et/ou fines. Bien que l’irrigation par les eaux usées ait entraîné une réduction statistiquement significative de la biomasse racinaire, néanmoins cette réduction n'était pas linéaire (avec une réduction de la biomasse de D0 à D1, une augmentation de D1 à D2 pour réduire de nouveau de D2 à D3). Cette tendance porte à penser qu'au-delà d'une certaine quantité d'eau et de nutriments (suite à l’irrigation par les eaux usées), le développement du système racinaire des saules est affecté négativement, et bien que la biomasse aérienne soit restée élevée sous le traitement D3, nous pensons que le développement de la plante a été quelque peu déséquilibré. Aucun changement significatif n'a été constaté dans les traits morphologiques liés à l'irrigation par les eaux usées.
Resumo:
Les systèmes logiciels sont devenus de plus en plus répondus et importants dans notre société. Ainsi, il y a un besoin constant de logiciels de haute qualité. Pour améliorer la qualité de logiciels, l’une des techniques les plus utilisées est le refactoring qui sert à améliorer la structure d'un programme tout en préservant son comportement externe. Le refactoring promet, s'il est appliqué convenablement, à améliorer la compréhensibilité, la maintenabilité et l'extensibilité du logiciel tout en améliorant la productivité des programmeurs. En général, le refactoring pourra s’appliquer au niveau de spécification, conception ou code. Cette thèse porte sur l'automatisation de processus de recommandation de refactoring, au niveau code, s’appliquant en deux étapes principales: 1) la détection des fragments de code qui devraient être améliorés (e.g., les défauts de conception), et 2) l'identification des solutions de refactoring à appliquer. Pour la première étape, nous traduisons des régularités qui peuvent être trouvés dans des exemples de défauts de conception. Nous utilisons un algorithme génétique pour générer automatiquement des règles de détection à partir des exemples de défauts. Pour la deuxième étape, nous introduisons une approche se basant sur une recherche heuristique. Le processus consiste à trouver la séquence optimale d'opérations de refactoring permettant d'améliorer la qualité du logiciel en minimisant le nombre de défauts tout en priorisant les instances les plus critiques. De plus, nous explorons d'autres objectifs à optimiser: le nombre de changements requis pour appliquer la solution de refactoring, la préservation de la sémantique, et la consistance avec l’historique de changements. Ainsi, réduire le nombre de changements permets de garder autant que possible avec la conception initiale. La préservation de la sémantique assure que le programme restructuré est sémantiquement cohérent. De plus, nous utilisons l'historique de changement pour suggérer de nouveaux refactorings dans des contextes similaires. En outre, nous introduisons une approche multi-objective pour améliorer les attributs de qualité du logiciel (la flexibilité, la maintenabilité, etc.), fixer les « mauvaises » pratiques de conception (défauts de conception), tout en introduisant les « bonnes » pratiques de conception (patrons de conception).
Resumo:
Lorsqu’on évoque la place des humanités au sein de l’université contemporaine, c’est le terme de crise qui revient le plus souvent. Manque de financement, locaux vétustes, effectifs en baisse, débouchés professionnels incertains, perte de légitimité en vue des objectifs de productivité de l’université ; les humanités ne semblent plus à leur place au sein de l’institution universitaire contemporaine. Mais si les humanités sont qualifiées comme étant en crise, cela signifie également qu’elles ont connu un âge d’or, un point de référence vers lequel on fait signe lorsqu’on déplore la situation actuelle. Ainsi, notre propos partira de cet âge d’or, soit le moment de la fondation de l’Université de Berlin en 1807, pour ensuite réfléchir sur l’impact des transformations de l’institution universitaire (démocratisation, professionnalisation, etc.) vis-à-vis de cette place initiale des humanités. En ouverture, nous explorerons plusieurs perspectives pratiques nous permettant de penser l’avenir des humanités.
Resumo:
Thèse réalisée en co-tutelle à l'Université de Montréal et de Paris Sud
Resumo:
Dans l'optique d'améliorer la performance des services de santé en première ligne, un projet d'implantation d'une adaptation québécoise d'un modèle de soins centré sur le patient appuyé par un dossier médical personnel (DMP) a été mis sur pied au sein d'un groupe de médecine familiale (GMF) de la région de Montréal. Ainsi, ce mémoire constitue une analyse comparative entre la logique de l'intervention telle qu'elle est décrite dans les données probantes concernant les modèles de soins centrés sur le patient et le dossier médical personnel ainsi que la logique de l'intervention issue de nos résultats obtenus dans le cadre de ce projet au sein d'un GMF. L'analyse organisationnelle se situe durant la phase de pré-déploiement de l'intervention. Les principaux résultats sont que la logique d'intervention appliquée dans le cadre du projet est relativement éloignée de ce qui se fait de mieux dans la littérature sur le sujet. Ceci est en partie explicable par les différentes résistances en provenance des acteurs du projet (ex. médecins, infirmières, fournisseur technologique) dans le projet, mais aussi par l'absence de l'interopérabilité entre le DMP et le dossier médical électronique (DME). Par ailleurs, les principaux effets attendus par les acteurs impliqués sont l'amélioration de la continuité informationnelle, de l’efficacité-service, de la globalité et de la productivité. En outre, l’implantation d’un modèle centré sur le patient appuyé par un DMP impliquerait la mise en œuvre d’importantes transformations structurelles comme une révision du cadre législatif (ex. responsabilité médicale) et des modes de rémunérations des professionnels de la santé, sans quoi, les effets significatifs sur les dimensions de la performance comme l’accessibilité, la qualité, la continuité, la globalité, la productivité, l’efficacité et la réactivité pourraient être limités. Ces aménagements structuraux devraient favoriser la collaboration interprofessionnelle, l'interopérabilité des systèmes, l’amélioration de la communication multidirectionnelle (patient-professionnel de la santé) ainsi qu'une autogestion de la santé supportée (ex. éducation, prévention, transparence) par les professionnels de la santé.
Resumo:
Les questions abordées dans les deux premiers articles de ma thèse cherchent à comprendre les facteurs économiques qui affectent la structure à terme des taux d'intérêt et la prime de risque. Je construis des modèles non linéaires d'équilibre général en y intégrant des obligations de différentes échéances. Spécifiquement, le premier article a pour objectif de comprendre la relation entre les facteurs macroéconomiques et le niveau de prime de risque dans un cadre Néo-keynésien d'équilibre général avec incertitude. L'incertitude dans le modèle provient de trois sources : les chocs de productivité, les chocs monétaires et les chocs de préférences. Le modèle comporte deux types de rigidités réelles à savoir la formation des habitudes dans les préférences et les coûts d'ajustement du stock de capital. Le modèle est résolu par la méthode des perturbations à l'ordre deux et calibré à l'économie américaine. Puisque la prime de risque est par nature une compensation pour le risque, l'approximation d'ordre deux implique que la prime de risque est une combinaison linéaire des volatilités des trois chocs. Les résultats montrent qu'avec les paramètres calibrés, les chocs réels (productivité et préférences) jouent un rôle plus important dans la détermination du niveau de la prime de risque relativement aux chocs monétaires. Je montre que contrairement aux travaux précédents (dans lesquels le capital de production est fixe), l'effet du paramètre de la formation des habitudes sur la prime de risque dépend du degré des coûts d'ajustement du capital. Lorsque les coûts d'ajustement du capital sont élevés au point que le stock de capital est fixe à l'équilibre, une augmentation du paramètre de formation des habitudes entraine une augmentation de la prime de risque. Par contre, lorsque les agents peuvent librement ajuster le stock de capital sans coûts, l'effet du paramètre de la formation des habitudes sur la prime de risque est négligeable. Ce résultat s'explique par le fait que lorsque le stock de capital peut être ajusté sans coûts, cela ouvre un canal additionnel de lissage de consommation pour les agents. Par conséquent, l'effet de la formation des habitudes sur la prime de risque est amoindri. En outre, les résultats montrent que la façon dont la banque centrale conduit sa politique monétaire a un effet sur la prime de risque. Plus la banque centrale est agressive vis-à-vis de l'inflation, plus la prime de risque diminue et vice versa. Cela est due au fait que lorsque la banque centrale combat l'inflation cela entraine une baisse de la variance de l'inflation. Par suite, la prime de risque due au risque d'inflation diminue. Dans le deuxième article, je fais une extension du premier article en utilisant des préférences récursives de type Epstein -- Zin et en permettant aux volatilités conditionnelles des chocs de varier avec le temps. L'emploi de ce cadre est motivé par deux raisons. D'abord des études récentes (Doh, 2010, Rudebusch and Swanson, 2012) ont montré que ces préférences sont appropriées pour l'analyse du prix des actifs dans les modèles d'équilibre général. Ensuite, l'hétéroscedasticité est une caractéristique courante des données économiques et financières. Cela implique que contrairement au premier article, l'incertitude varie dans le temps. Le cadre dans cet article est donc plus général et plus réaliste que celui du premier article. L'objectif principal de cet article est d'examiner l'impact des chocs de volatilités conditionnelles sur le niveau et la dynamique des taux d'intérêt et de la prime de risque. Puisque la prime de risque est constante a l'approximation d'ordre deux, le modèle est résolu par la méthode des perturbations avec une approximation d'ordre trois. Ainsi on obtient une prime de risque qui varie dans le temps. L'avantage d'introduire des chocs de volatilités conditionnelles est que cela induit des variables d'état supplémentaires qui apportent une contribution additionnelle à la dynamique de la prime de risque. Je montre que l'approximation d'ordre trois implique que les primes de risque ont une représentation de type ARCH-M (Autoregressive Conditional Heteroscedasticty in Mean) comme celui introduit par Engle, Lilien et Robins (1987). La différence est que dans ce modèle les paramètres sont structurels et les volatilités sont des volatilités conditionnelles de chocs économiques et non celles des variables elles-mêmes. J'estime les paramètres du modèle par la méthode des moments simulés (SMM) en utilisant des données de l'économie américaine. Les résultats de l'estimation montrent qu'il y a une évidence de volatilité stochastique dans les trois chocs. De plus, la contribution des volatilités conditionnelles des chocs au niveau et à la dynamique de la prime de risque est significative. En particulier, les effets des volatilités conditionnelles des chocs de productivité et de préférences sont significatifs. La volatilité conditionnelle du choc de productivité contribue positivement aux moyennes et aux écart-types des primes de risque. Ces contributions varient avec la maturité des bonds. La volatilité conditionnelle du choc de préférences quant à elle contribue négativement aux moyennes et positivement aux variances des primes de risque. Quant au choc de volatilité de la politique monétaire, son impact sur les primes de risque est négligeable. Le troisième article (coécrit avec Eric Schaling, Alain Kabundi, révisé et resoumis au journal of Economic Modelling) traite de l'hétérogénéité dans la formation des attentes d'inflation de divers groupes économiques et de leur impact sur la politique monétaire en Afrique du sud. La question principale est d'examiner si différents groupes d'agents économiques forment leurs attentes d'inflation de la même façon et s'ils perçoivent de la même façon la politique monétaire de la banque centrale (South African Reserve Bank). Ainsi on spécifie un modèle de prédiction d'inflation qui nous permet de tester l'arrimage des attentes d'inflation à la bande d'inflation cible (3% - 6%) de la banque centrale. Les données utilisées sont des données d'enquête réalisée par la banque centrale auprès de trois groupes d'agents : les analystes financiers, les firmes et les syndicats. On exploite donc la structure de panel des données pour tester l'hétérogénéité dans les attentes d'inflation et déduire leur perception de la politique monétaire. Les résultats montrent qu'il y a évidence d'hétérogénéité dans la manière dont les différents groupes forment leurs attentes. Les attentes des analystes financiers sont arrimées à la bande d'inflation cible alors que celles des firmes et des syndicats ne sont pas arrimées. En effet, les firmes et les syndicats accordent un poids significatif à l'inflation retardée d'une période et leurs prédictions varient avec l'inflation réalisée (retardée). Ce qui dénote un manque de crédibilité parfaite de la banque centrale au vu de ces agents.
Resumo:
Dans le sillage de la récession mondiale de 2008-09, plusieurs questions ont été soulevées dans la littérature économique sur les effets à court et à long terme de la politique budgétaire sur l’activité économique par rapport à son signe, sa taille et sa durée. Ceux-ci ont des implications importantes pour mieux comprendre les canaux de transmission et l’efficacité des politiques budgétaires, avec la politique monétaire étant poursuivi, ainsi que pour leurs retombées économiques. Cette thèse fait partie de ce regain d’intérêt de la littérature d’examiner comment les changements dans la politique budgétaire affectent l’activité économique. Elle repose alors sur trois essais: les effets macroéconomiques des chocs de dépenses publiques et des recettes fiscales, les résultats macroéconomiques de l’interaction entre les politiques budgétaire et monétaire et le lien entre la politique budgétaire et la répartition des revenus. Le premier chapitre examine les effets des chocs de politique budgétaire (chocs de dépenses publiques et chocs de recettes fiscales) sur l’économie canadienne au cours de la période 1970-2010, en s’appuyant sur la méthode d’identification des restrictions de signe développée par Mountford et Uhlig [2009]. En réponse à la récession mondiale, les autorités fiscales dans les économies avancées, dont le Canada ont généralement mis en oeuvre une approche en deux phases pour la politique budgétaire. Tout d’abord, ils ont introduit des plans de relance sans précédent pour relancer leurs économies. Par exemple, les mesures de relance au Canada, introduites à travers le Plan d’action économique du Canada, ont été projetées à 3.2 pour cent du PIB dans le budget fédéral de 2009 tandis que l’ "American Recovery and Reinvestment Act"(ARRA) a été estimé à 7 pour cent du PIB. Par la suite, ils ont mis en place des plans d’ajustement en vue de réduire la dette publique et en assurer la soutenabilité à long terme. Dans ce contexte, évaluer les effets multiplicateurs de la politique budgétaire est important en vue d’informer sur l'efficacité de telles mesures dans la relance ou non de l'activité économique. Les résultats montrent que les multiplicateurs d'impôt varient entre 0.2 et 0.5, tandis que les multiplicateurs de dépenses varient entre 0.2 et 1.1. Les multiplicateurs des dépenses ont tendance à être plus grand que les multiplicateurs des recettes fiscales au cours des deux dernières décennies. Comme implications de politique économique, ces résultats tendent à suggérer que les ajustements budgétaires par le biais de grandes réductions de dépenses publiques pourraient être plus dommageable pour l'économie que des ajustements budgétaires par la hausse des impôts. Le deuxième chapitre, co-écrit avec Constant Lonkeng Ngouana, estime les effets multiplicateurs des dépenses publiques aux Etats-Unis en fonction du cycle de la politique monétaire. Les chocs de dépenses publiques sont identifiés comme étant des erreurs de prévision du taux de croissance des dépenses publiques à partir des données d'Enquêtes des prévisionnistes professionnels et des informations contenues dans le "Greenbook". L'état de la politique monétaire est déduite à partir de la déviation du taux des fonds fédéraux du taux cible de la Réserve Fédérale, en faisant recours à une fonction lisse de transition. L'application de la méthode des «projections locales» aux données trimestrielles américaines au cours de la période 1965-2012 suggère que les effets multiplicateurs des dépenses fédérales sont sensiblement plus élevées quand la politique monétaire est accommodante que lorsqu'elle ne l'est pas. Les résultats suggèrent aussi que les dépenses fédérales peuvent stimuler ou non la consommation privée, dépendamment du degré d’accommodation de la politique monétaire. Ce dernier résultat réconcilie ainsi, sur la base d’un cadre unifié des résultats autrement contradictoires à première vue dans la littérature. Ces résultats ont d'importantes implications de politique économique. Ils suggèrent globalement que la politique budgétaire est plus efficace lorsqu'on en a le plus besoin (par exemple, lorsque le taux de chômage est élevé), si elle est soutenue par la politique monétaire. Ils ont également des implications pour la normalisation des conditions monétaires dans les pays avancés: la sortie des politiques monétaires non-conventionnelles conduirait à des multiplicateurs de dépenses fédérales beaucoup plus faibles qu'autrement, même si le niveau de chômage restait élevé. Ceci renforce la nécessité d'une calibration prudente du calendrier de sortie des politiques monétaires non-conventionnelles. Le troisième chapitre examine l'impact des mesures d'expansion et de contraction budgétaire sur la distribution des revenus dans un panel de 18 pays d'Amérique latine au cours de la période 1990-2010, avec un accent sur les deniers 40 pour cent. Il explore alors comment ces mesures fiscales ainsi que leur composition affectent la croissance des revenus des dernier 40 pour cent, la croissance de leur part de revenu ainsi que la croissance économique. Les mesures d'expansion et de contraction budgétaire sont identifiées par des périodes au cours desquels il existe une variation significative du déficit primaire corrigé des variations conjoncturelles en pourcentage du PIB. Les résultats montrent qu'en moyenne l'expansion budgétaire par la hausse des dépenses publiques est plus favorable à la croissance des revenus des moins bien-nantis que celle par la baisse des impôts. Ce résultat est principalement soutenu par la hausse des dépenses gouvernementales de consommation courante, les transferts et subventions. En outre ces mesures d’expansion budgétaire sont favorables à la réduction des inégalités car elles permettent d'améliorer la part des revenus des moins bien-nantis tout en réduisant la part des revenus des mieux-nantis de la distribution des revenus. En outre ces mesures d’expansion budgétaire sont favorables à la réduction des inégalités car elles permettent d'améliorer la part des revenus des moins bien-nantis tout en réduisant la part des revenus des mieux-nantis de la distribution des revenus. Cependant, l'expansion budgétaire pourrait soit n'avoir aucun effet sur la croissance économique ou entraver cette dernière à travers la hausse des dépenses en capital. Les résultats relatifs à la contraction budgétaire sont quelque peu mitigés. Parfois, les mesures de contraction budgétaire sont associées à une baisse de la croissance des revenus des moins bien nantis et à une hausse des inégalités, parfois l'impact de ces mesures est non significatif. Par ailleurs, aucune des mesures n’affecte de manière significative la croissance du PIB. Comme implications de politique économique, les pays avec une certaine marge de manœuvre budgétaire pourraient entamer ou continuer à mettre en œuvre des programmes de "filets de sauvetage"--par exemple les programmes de transfert monétaire conditionnel--permettant aux segments vulnérables de la population de faire face à des chocs négatifs et aussi d'améliorer leur conditions de vie. Avec un potentiel de stimuler l'emploi peu qualifié, une relance budgétaire sage par les dépenses publique courantes pourrait également jouer un rôle important pour la réduction des inégalités. Aussi, pour éviter que les dépenses en capital freinent la croissance économique, les projets d'investissements publics efficients devraient être prioritaires dans le processus d'élaboration des politiques. Ce qui passe par la mise en œuvre des projets d'investissement avec une productivité plus élevée capable de générer la croissance économique nécessaire pour réduire les inégalités.
Resumo:
Les prairies indigènes présentent une source importante d'alimentation pour le pâturage du bétail dans les prairies Canadiennes semi-arides. L'addition de légumineuses fixatrices d'azote et de phosphore dans les prairies indigènes peut améliorer la productivité et la valeur nutritive de fourrage. Ces pratiques peuvent induire des modifications de la structure et de la diversité des communautés fongiques du sol, ce qui peut en retour avoir un impact sur la production et le contenu nutritionnel du fourrage. L’objectif de cette étude était de développer un système de pâturage à bas niveau d’intrants, productif, autonome et durable. À court terme, nous voulions 1) déterminer l'effet des légumineuses (Medicago sativa, une légumineuse cultivée ou Dalea purpurea, une légumineuse indigène) et la fertilité en phosphore du sol sur la productivité et la valeur nutritive des graminées indigènes, comparées avec celles de la graminée introduite Bromus biebersteinii en mélange avec le M. sativa, 2) identifier l'effet de ces pratiques sur la diversité et la structure des communautés des champignons mycorhiziens à arbuscules (CMA) et des champignons totaux, 3) identifier l'effet des légumineuses et des CMA sur les interactions compétitives entre les graminées de saison fraîche et les graminées de saison chaude. Les expériences menées au champ ont montré que M. sativa améliorait les teneurs en azote et en phosphore des graminées indigènes au début de l'été, ainsi que la teneur en azote de la graminée de saison chaude Bouteloua gracilis à la fin de l'été de l'année sèche 2009. Par contre, la fertilité en phosphore du sol n'ait pas affecté la productivité des plantes. D'autre part, l'inclusion des légumineuses augmentait la diversité des CMA dans le mélange de graminées indigènes. Cette modification présentait des corrélations positives avec la productivité et la quantité totale d'azote chez le M. sativa et avec la teneur en phosphore des graminées indigènes, au début de l'été. La structure des communautés de champignons totaux était influencée par l'interaction entre le mélange des espèces et la fertilité en phosphore du sol seulement en 2008 (année humide). Cet effet pourrait être lié en partie avec la productivité des plantes et l'humidité du sol. Les expériences menées en chambre de culture ont montré que les CMA peuvent favoriser la productivité des graminées de saison chaude au détriment des graminées de saison fraîche. En effet, Glomus cubense augmentait la productivité de la graminée de saison chaude B. gracilis, en présence de M. sativa. Cet effet pourrait être associé à l’effet négatif du G. cubense sur la fixation de l’azote par le M. sativa et à la diminution de l’efficacité d’utilisation de l'azote de certaines graminées de saison fraîche résultant en une augmentation de la disponibilité de l'azote pour B. gracilis. Par contre, le Glomus sp. augmentait la biomasse de Schizachyrium scoparium, autre graminée de saison chaude, en absence de légumineuse. Ce phénomène pourrait être attribuable à une amélioration de l’efficacité d’utilisation du P de cette graminée. En conclusion, mes travaux de recherche ont montré que la légumineuse cultivée M. sativa peut améliorer la valeur nutritive des graminées indigènes au début de l'été ainsi que celle de la graminée de saison chaude B. gracilis, dans des conditions de sécheresse sévère de la fin de l'été. De plus, l'addition de M. sativa dans le mélange de graminées indigènes peut contribuer à augmenter le nombre des espèces bénéfiques des CMA pour la production et la nutrition du fourrage au début de l'été.