935 resultados para asset revaluation
Resumo:
The paper investigates the pricing of derivative securities with calendar-time maturities.
Resumo:
This paper prepared for the Handbook of Statistics (Vol.14: Statistical Methods in Finance), surveys the subject of stochastic volatility. the following subjects are covered: volatility in financial markets (instantaneous volatility of asset returns, implied volatilities in option prices and related stylized facts), statistical modelling in discrete and continuous time and, finally, statistical inference (methods of moments, quasi-maximum likelihood, likelihood-based and bayesian methods and indirect inference).
Resumo:
Dans cet article, pour etendre la theorie du consommateur a ses choix d'epargne et de placements, on utilise a la fois la theorie usuelle, celle des caracteristiques et celle du raisonnement quantitatif. on en deduit un systeme complet de demandes comprenant simultanement les quantites de biens et de services physiques, les quantites d'actifs financiers et les prix des actifs contingents elementaires eventuels.
Resumo:
"Mémoire présenté à la Faculté des études supérieures en vue de l'obtention du grade de Maître en droit (LL.M.)"
Resumo:
La dernière décennie a connu un intérêt croissant pour les problèmes posés par les variables instrumentales faibles dans la littérature économétrique, c’est-à-dire les situations où les variables instrumentales sont faiblement corrélées avec la variable à instrumenter. En effet, il est bien connu que lorsque les instruments sont faibles, les distributions des statistiques de Student, de Wald, du ratio de vraisemblance et du multiplicateur de Lagrange ne sont plus standard et dépendent souvent de paramètres de nuisance. Plusieurs études empiriques portant notamment sur les modèles de rendements à l’éducation [Angrist et Krueger (1991, 1995), Angrist et al. (1999), Bound et al. (1995), Dufour et Taamouti (2007)] et d’évaluation des actifs financiers (C-CAPM) [Hansen et Singleton (1982,1983), Stock et Wright (2000)], où les variables instrumentales sont faiblement corrélées avec la variable à instrumenter, ont montré que l’utilisation de ces statistiques conduit souvent à des résultats peu fiables. Un remède à ce problème est l’utilisation de tests robustes à l’identification [Anderson et Rubin (1949), Moreira (2002), Kleibergen (2003), Dufour et Taamouti (2007)]. Cependant, il n’existe aucune littérature économétrique sur la qualité des procédures robustes à l’identification lorsque les instruments disponibles sont endogènes ou à la fois endogènes et faibles. Cela soulève la question de savoir ce qui arrive aux procédures d’inférence robustes à l’identification lorsque certaines variables instrumentales supposées exogènes ne le sont pas effectivement. Plus précisément, qu’arrive-t-il si une variable instrumentale invalide est ajoutée à un ensemble d’instruments valides? Ces procédures se comportent-elles différemment? Et si l’endogénéité des variables instrumentales pose des difficultés majeures à l’inférence statistique, peut-on proposer des procédures de tests qui sélectionnent les instruments lorsqu’ils sont à la fois forts et valides? Est-il possible de proposer les proédures de sélection d’instruments qui demeurent valides même en présence d’identification faible? Cette thèse se focalise sur les modèles structurels (modèles à équations simultanées) et apporte des réponses à ces questions à travers quatre essais. Le premier essai est publié dans Journal of Statistical Planning and Inference 138 (2008) 2649 – 2661. Dans cet essai, nous analysons les effets de l’endogénéité des instruments sur deux statistiques de test robustes à l’identification: la statistique d’Anderson et Rubin (AR, 1949) et la statistique de Kleibergen (K, 2003), avec ou sans instruments faibles. D’abord, lorsque le paramètre qui contrôle l’endogénéité des instruments est fixe (ne dépend pas de la taille de l’échantillon), nous montrons que toutes ces procédures sont en général convergentes contre la présence d’instruments invalides (c’est-à-dire détectent la présence d’instruments invalides) indépendamment de leur qualité (forts ou faibles). Nous décrivons aussi des cas où cette convergence peut ne pas tenir, mais la distribution asymptotique est modifiée d’une manière qui pourrait conduire à des distorsions de niveau même pour de grands échantillons. Ceci inclut, en particulier, les cas où l’estimateur des double moindres carrés demeure convergent, mais les tests sont asymptotiquement invalides. Ensuite, lorsque les instruments sont localement exogènes (c’est-à-dire le paramètre d’endogénéité converge vers zéro lorsque la taille de l’échantillon augmente), nous montrons que ces tests convergent vers des distributions chi-carré non centrées, que les instruments soient forts ou faibles. Nous caractérisons aussi les situations où le paramètre de non centralité est nul et la distribution asymptotique des statistiques demeure la même que dans le cas des instruments valides (malgré la présence des instruments invalides). Le deuxième essai étudie l’impact des instruments faibles sur les tests de spécification du type Durbin-Wu-Hausman (DWH) ainsi que le test de Revankar et Hartley (1973). Nous proposons une analyse en petit et grand échantillon de la distribution de ces tests sous l’hypothèse nulle (niveau) et l’alternative (puissance), incluant les cas où l’identification est déficiente ou faible (instruments faibles). Notre analyse en petit échantillon founit plusieurs perspectives ainsi que des extensions des précédentes procédures. En effet, la caractérisation de la distribution de ces statistiques en petit échantillon permet la construction des tests de Monte Carlo exacts pour l’exogénéité même avec les erreurs non Gaussiens. Nous montrons que ces tests sont typiquement robustes aux intruments faibles (le niveau est contrôlé). De plus, nous fournissons une caractérisation de la puissance des tests, qui exhibe clairement les facteurs qui déterminent la puissance. Nous montrons que les tests n’ont pas de puissance lorsque tous les instruments sont faibles [similaire à Guggenberger(2008)]. Cependant, la puissance existe tant qu’au moins un seul instruments est fort. La conclusion de Guggenberger (2008) concerne le cas où tous les instruments sont faibles (un cas d’intérêt mineur en pratique). Notre théorie asymptotique sous les hypothèses affaiblies confirme la théorie en échantillon fini. Par ailleurs, nous présentons une analyse de Monte Carlo indiquant que: (1) l’estimateur des moindres carrés ordinaires est plus efficace que celui des doubles moindres carrés lorsque les instruments sont faibles et l’endogenéité modérée [conclusion similaire à celle de Kiviet and Niemczyk (2007)]; (2) les estimateurs pré-test basés sur les tests d’exogenété ont une excellente performance par rapport aux doubles moindres carrés. Ceci suggère que la méthode des variables instrumentales ne devrait être appliquée que si l’on a la certitude d’avoir des instruments forts. Donc, les conclusions de Guggenberger (2008) sont mitigées et pourraient être trompeuses. Nous illustrons nos résultats théoriques à travers des expériences de simulation et deux applications empiriques: la relation entre le taux d’ouverture et la croissance économique et le problème bien connu du rendement à l’éducation. Le troisième essai étend le test d’exogénéité du type Wald proposé par Dufour (1987) aux cas où les erreurs de la régression ont une distribution non-normale. Nous proposons une nouvelle version du précédent test qui est valide même en présence d’erreurs non-Gaussiens. Contrairement aux procédures de test d’exogénéité usuelles (tests de Durbin-Wu-Hausman et de Rvankar- Hartley), le test de Wald permet de résoudre un problème courant dans les travaux empiriques qui consiste à tester l’exogénéité partielle d’un sous ensemble de variables. Nous proposons deux nouveaux estimateurs pré-test basés sur le test de Wald qui performent mieux (en terme d’erreur quadratique moyenne) que l’estimateur IV usuel lorsque les variables instrumentales sont faibles et l’endogénéité modérée. Nous montrons également que ce test peut servir de procédure de sélection de variables instrumentales. Nous illustrons les résultats théoriques par deux applications empiriques: le modèle bien connu d’équation du salaire [Angist et Krueger (1991, 1999)] et les rendements d’échelle [Nerlove (1963)]. Nos résultats suggèrent que l’éducation de la mère expliquerait le décrochage de son fils, que l’output est une variable endogène dans l’estimation du coût de la firme et que le prix du fuel en est un instrument valide pour l’output. Le quatrième essai résout deux problèmes très importants dans la littérature économétrique. D’abord, bien que le test de Wald initial ou étendu permette de construire les régions de confiance et de tester les restrictions linéaires sur les covariances, il suppose que les paramètres du modèle sont identifiés. Lorsque l’identification est faible (instruments faiblement corrélés avec la variable à instrumenter), ce test n’est en général plus valide. Cet essai développe une procédure d’inférence robuste à l’identification (instruments faibles) qui permet de construire des régions de confiance pour la matrices de covariances entre les erreurs de la régression et les variables explicatives (possiblement endogènes). Nous fournissons les expressions analytiques des régions de confiance et caractérisons les conditions nécessaires et suffisantes sous lesquelles ils sont bornés. La procédure proposée demeure valide même pour de petits échantillons et elle est aussi asymptotiquement robuste à l’hétéroscédasticité et l’autocorrélation des erreurs. Ensuite, les résultats sont utilisés pour développer les tests d’exogénéité partielle robustes à l’identification. Les simulations Monte Carlo indiquent que ces tests contrôlent le niveau et ont de la puissance même si les instruments sont faibles. Ceci nous permet de proposer une procédure valide de sélection de variables instrumentales même s’il y a un problème d’identification. La procédure de sélection des instruments est basée sur deux nouveaux estimateurs pré-test qui combinent l’estimateur IV usuel et les estimateurs IV partiels. Nos simulations montrent que: (1) tout comme l’estimateur des moindres carrés ordinaires, les estimateurs IV partiels sont plus efficaces que l’estimateur IV usuel lorsque les instruments sont faibles et l’endogénéité modérée; (2) les estimateurs pré-test ont globalement une excellente performance comparés à l’estimateur IV usuel. Nous illustrons nos résultats théoriques par deux applications empiriques: la relation entre le taux d’ouverture et la croissance économique et le modèle de rendements à l’éducation. Dans la première application, les études antérieures ont conclu que les instruments n’étaient pas trop faibles [Dufour et Taamouti (2007)] alors qu’ils le sont fortement dans la seconde [Bound (1995), Doko et Dufour (2009)]. Conformément à nos résultats théoriques, nous trouvons les régions de confiance non bornées pour la covariance dans le cas où les instruments sont assez faibles.
Investigation of femtosecond laser technology for the fabrication of drug nanocrystals in suspension
Resumo:
La technique du laser femtoseconde (fs) a été précédemment utilisée pour la production de nanoparticules d'or dans un environnement aqueux biologiquement compatible. Au cours de ce travail de maîtrise, cette méthode a été investiguée en vue d'une application pour la fabrication de nanocristaux de médicament en utilisant le paclitaxel comme modèle. Deux procédés distincts de cette technologie à savoir l'ablation et la fragmentation ont été étudiés. L'influence de la puissance du laser, de point de focalisation, et de la durée du traitement sur la distribution de taille des particules obtenues ainsi que leur intégrité chimique a été évaluée. Les paramètres ont ainsi été optimisés pour la fabrication des nanoparticules. L’évaluation morphologique et chimique a été réalisée par microscopie électronique et spectroscopie infrarouge respectivement. L'état cristallin des nanoparticules de paclitaxel a été caractérisé par calorimétrie differentielle et diffraction des rayons X. L'optimisation du procédé de production de nanoparticules par laser fs a permis d'obtenir des nanocristaux de taille moyenne (400 nm, polydispersité ≤ 0,3). Cependant une dégradation non négligeable a été observée. La cristallinité du médicament a été maintenue durant la procédure de réduction de taille, mais le paclitaxel anhydre a été transformé en une forme hydratée. Les résultats de cette étude suggèrent que le laser fs peut générer des nanocristaux de principe actif. Cependant cette technique peut se révéler problématique pour des médicaments sensibles à la dégradation. Grâce à sa facilité d'utilisation et la possibilité de travailler avec des quantités restreintes de produit, le laser fs pourrait représenter une alternative valable pour la production de nanoparticules de médicaments peu solubles lors des phases initiales de développement préclinique. Mots-clés: paclitaxel, nanocristaux, laser femtoseconde, ablation, fragmentation
Resumo:
Les facteurs de risque des maladies cardiovasculaires, telle, que la détérioration du profil lipidique, deviennent plus prononcés après la ménopause, ce qui fait de la maladie coronarienne, l’une des principales causes de décès chez les femmes ménopausées. Une proportion importante de femmes prennent du poids après la ménopause en particulier dans la région abdominale entraînant par conséquent des perturbations métaboliques. Des données récentes suggèrent également que l’absence des œstrogènes observée à la ménopause favorise le développement de la stéatose hépatique. Cette dernière a été incriminée pour incriminée dans le développement de la résistance à l'insuline, et est de ce fait considérée comme une composante hépatique du syndrome métabolique. Il est impératif d'établir des stratégies visant à contrecarrer l'accumulation de graisse dans le foie et l’accroissement du tissu adipeux chez les femmes ménopausées, en tenant compte que l'utilisation de l'hormonothérapie substitutive est de nos jours moins soutenue. Les quatre études de la présente thèse ont été conduites pour tenter de fournir des informations sur le traitement et la prévention de l’augmentation de la masse graisseuse et de la stéatose hépatique qu’entraîne la suppression des œstrogènes, à travers les modifications du mode de vie (diète et exercice physique) chez la rate ovariectomizée (Ovx); un modèle animal de la ménopause. Dans les deux premières études nous nous sommes concentrés sur l’augmentation de la masse graisseuse et sa reprise suite à une perte de poids. Dans la première étude, nous avons montré que les rates Ovx qui ont suivi un programme de restriction alimentaire (FR) ont diminué significativement (P < 0.01) leur poids corporel, leur contenu en graisses intra-abdominales ainsi que leurs triacylglycérols (TAG) hépatiques, comparativement aux rates Ovx nourries à la diète normale. De plus, l’entraînement en résistance (RT) a prévenu la reprise de poids corporel ainsi que l’accroissement du tissu adipeux et l’accumulation de lipides dans le foie des rates Ovx, après l’arrêt du régime amaigrissant. Les résultats de la deuxième étude ont confirmé l'efficacité de la restriction alimentaire associée à l’entraînement en résistance (FR + RT) dans la réduction du poids corporel, des lipides dans le foie et le tissu adipeux chez les rates Ovx. Tenant compte des résultats de notre première étude, l’entraînement en résistance seulement a constitué un atout pour atténuer le poids corporel et la masse grasse reprise par les rates Ovx suite à un programme de perte de poids (FR + RT); bien que l'impact ait été moindre comparé au maintien seul de la restriction alimentaire. De la même manière que la supplémentation en œstrogènes, les résultats de la troisième étude indiquent que l'entraînement en endurance mené concurremment avec l’ovariectomie a significativement atténué l'accumulation de lipides dans le foie ainsi que dans le tissu adipeux. Toutefois, l’entraînement en endurance effectué avant l'ovariectomie n'a pas protégé contre l'accumulation des graisses qu’entraîne l'ovariectomie, si celui-ci est interrompu après l'ovariectomie. Enfin, pour compléter les résultats antérieurs, nous avons montré dans la quatrième étude que l’expression des gènes impliqués dans la synthèse de lipide; SREBP-1c, SCD-1, ChREBP, et ACC dans le foie a augmenté après le retrait des œstrogènes, tandis qu’une diminution (P < 0.01) des niveaux d'ARNm de PPAR-α a été observée. De plus, l'expression hépatique des gènes des cytokines pro-inflammatoires incluant IKKβ, IL-6 ainsi que le contenu protéinique de NF-кB étaient augmentés (P < 0.01) chez les rates Ovx par rapport aux rates ayant subi une Ovx simulée (Sham). Toutes ces perturbations ont été améliorées avec la supplémentation en œstrogènes seulement, ainsi qu'avec l'entraînement en endurance seulement. Dans l'ensemble, nos résultats indiquent que l'exercice physique (en résistance ou en endurance) a un impact significatif sur la réduction de l'accumulation des lipides dans le foie et dans le tissu adipeux des rates Ovx. De plus, chez les rates Ovx, l’entraînement en endurance mimerait les effets des œstrogènes sur l'expression des gènes impliqués dans l'accumulation de lipides et l’inflammation préclinique dans le foie.
Resumo:
L'analyse statistique des données a été effectuée avec le logiciel R.
Resumo:
La Convention des Nations Unies contre la corruption, adoptée en 2003, est le premier outil international criminalisant la corruption de façon aussi détaillée. Ce mémoire tente d'évaluer sa portée en analysant les dispositions concernant la prévention, la criminalisation, la coopération internationale et le recouvrement d'avoirs. Il tente d’évaluer la pertinence et l'efficacité de la Convention en illustrant ses défis en matière de conformité, pour ensuite étudier d'autres outils internationaux existants qui lui font compétition. Malgré sa portée élargie, il est débattu que la Convention souffre de lacunes non négligeables qui pourraient restreindre son impact à l'égard de la conduite d'États Membres.
Resumo:
À partir des années 1980, la théorisation de la promotion de la santé et sa mise en place font partie de l’agenda des organisations internationales de santé et de plusieurs gouvernements. Cependant, une certaine tension est observable dans la compréhension de la promotion de la santé, et ce, dès ses débuts. En effet, elle est conçue en général selon une approche comportementale comme stratégie pour le changement de comportements individuels ou collectifs qui met l’accent sur les facteurs de risque et très peu fréquemment conçue selon une approche structurelle, incluant une action sur les déterminants structurels des sociétés responsables de l’état de santé des populations dans une mesure plus importante que les systèmes de soins. Cette recherche qualitative –étude de cas multiples- menée en Argentine et au Brésil, vise à analyser la place et la compréhension de la promotion de la santé dans les politiques nationales de santé de deux pays à travers l’analyse du processus d’élaboration des politiques publiques. Nous viserons à distinguer la promotion de la santé en tant que comportementale ou structurelle et à expliquer les raisons pour lesquelles elle est comprise de telle ou telle autre façon. Finalement, nous essayerons d’identifier les opportunités pour qu’une approche structurelle de la promotion de la santé soit adoptée dans la politique nationale de santé. Les données analysées proviennent d’entrevues semi-structurées (n=28) et de documents divers : sites gouvernementaux sur Internet, documents remis par les interviewés, documents officiels, soit gouvernementaux, soit des organismes de coopération et de financement. Notre cadre conceptuel s’est inspiré des trois modèles : celui du changement des politiques publiques de Sabatier et Jenkins-Smith (1999 ; 2009), celui des courants politiques de Kingdon (1984) et le cadre conceptuel proposé par Walt (1994) pour l’analyse du rôle des organisations internationales. Nous avons identifié deux niveaux d’analyse : l’organisation de l’État et le sous-système de santé. Nous avons aussi tenu compte de l’influence des événements externes et des organisations internationales de coopération technique et de financement. Notre démarche vise à observer, à analyser et à comprendre la façon dont ces niveaux influencent la place et la compréhension de la promotion de la santé dans la politique nationale de santé. La perspective temporelle de plus de douze années nous a permis de mener une analyse sur plusieurs années et de mieux comprendre le changement de la politique de santé à différents moments de son histoire ainsi que l’identification des acteurs et des coalitions les plus importants depuis l’origine des champs de la santé publique dans les deux pays. Les résultats de notre analyse montrent que la promotion de la santé – conçue selon une approche structurelle – ne fait pas encore partie du courant principal de la politique nationale de santé dans aucun des deux pays. Cependant, les explications diffèrent : En Argentine, on observe un sous-système de santé fragmenté avec prédominance du modèle médical ; les actions menées renforcent ce fonctionnement en ne permettant pas la discussion à propos des valeurs sous-jacentes à l’organisation du système de santé ni sur son changement en fonction des besoins de santé du pays. Au Brésil, la réforme sanitaire questionne le modèle préexistant et arrive à instaurer la santé comme droit au niveau de l’État. L’accent mis sur l’organisation des services réduit la compréhension de la promotion de la santé à une « politique nationale de promotion de la santé » qui vise le changement des comportements. L’analyse du rôle des organisations internationales montre deux situations différentes dans les deux pays : pour l’Argentine, il existe une dépendance majeure autant à l’agenda qu’au financement de ces organisations. Le manque d’un agenda national en matière de promotion de la santé fait que le pays adopte l’agenda international avec très peu des questionnements. Dans le cas du Brésil, la situation est bien différente et on observe une capacité importante à négocier avec la coopération internationale. Cela se fait aussi avec un intérêt du pays pour l’adoption de l’agenda des organisations internationales dans le but d’une reconnaissance et de sa participation à des instances internationales. Alors, pour des raisons différentes, les deux pays adoptent l’agenda international de la promotion de la santé avec une approche comportementale. À partir de notre recherche, nous considérons que cinq réflexions doivent guider l’analyse de la promotion de la santé en Amérique latine : 1) Les processus de réforme de l’État des années 1990 et ses conséquences actuelles (type de réforme, valeurs sociétales, arrangements constitutionnels) ; 2) Les processus de réforme des systèmes de santé avec un regard sur la composante de décentralisation (réforme sanitaire ou administrative ?, quel modèle prédomine dans le champ de la santé publique ?) ; 3) La revalorisation des soins primaires de santé de la fin des années 1990 (quel impact dans le pays ?) ; 4) La tendance à la réduction des propositions élargies autant des politiques que des programmes ; et 5) Les défis actuels des systèmes de santé (travailler avec d’autres secteurs pour produire de la santé, pour incorporer et pour mieux maîtriser les déterminants sociaux et structuraux de santé). Les résultats de notre analyse nous permettent d’identifier l’importance du rôle du gouvernement national par rapport au développement et à la compréhension de la promotion de la santé. De plus, cette recherche montre que même s’il existe une influence du contexte et de l’idéologie du gouvernement sur la compréhension de la promotion et l’inclusion des déterminants sociaux de santé, c’est l’organisation de l’État avec ces valeurs de base qui sera déterminante dans la création des conditions pour le développement d’une promotion de la santé structurelle. Alors que la littérature sur la promotion de la santé accorde encore très peu de place au rôle du niveau national et de l’État dans son développement, il est clair que ces derniers ont un impact fondamental sur la place de la promotion de la santé dans la politique et sur la façon de la comprendre et de la mettre en place. Les théories utilisées pour cette recherche nous ont aidée à modéliser notre cadre conceptuel et à mener une démarche d’analyse des politiques publiques. Cette démarche permet d’améliorer les connaissances sur le changement de la politique nationale de santé par rapport à la promotion de la santé en tenant compte des dynamiques gouvernementales, champ peu exploré encore. Ce cadre conceptuel, à la fois souple et rigoureux, pourrait s’avérer approprié pour mener d’autres recherches similaires portant sur la place et la compréhension de la promotion de la santé dans les politiques nationales de santé dans d’autres pays de l’Amérique latine.
Resumo:
This paper provides a comparative analysis of corporate law and CSR and asks whether there are lessons for Australia from corporate law and CSR developments in France. This presentation presents a summary of the provisions of the new French Act Number 2010-788 passed on 12 July 2010 – called “Grenelle 2” –. Firstly, article 225 of Law’s Grenelle 2 changes the Commercial Code to extend the reach of non-financial reporting and to ensure its pertinence. Secondly, article 227 Law’s Grenelle 2 amends certain provisions of the Commercial and Environmental Codes and incorporates into substantive law the liability of parent companies for their subsidiaries. In fine, article 224 of Law’s Grenelle 2 reinforces the pressure on the market to act in a responsible manner. It modifies article 214-12 of the Monetary and Financial Code in order to compel institutional investors (mutual funds and fund management companies) to take social, environmental and governance criteria into account in their investment policy.
Resumo:
Cette thèse comporte trois essais en macroéconomie en économie ouverte et commerce international. Je considère tour à tour les questions suivantes: sous quelles conditions est-il optimal pour un pays de former une union économique? (essai 1); l'augmentation de la dispersion transversale des avoirs extérieurs nets des pays est-elle compatible avec une dispersion relativement stable des taux d'investissement? (essai 2); le risque de perte de marché à l'exportation du fait de l'existence des zones de commerce préférentiel joue t-il un rôle dans la décision des pays exclus de négocier des accords commerciaux à leur tour? (essai 3). Le premier essai examine les conditions d'optimalité d'une union économique. Il s'intéresse à une motivation particulière: le partage du risque lié aux fluctuations du revenu. Dans la situation initiale, les pays ont très peu d'opportunités pour partager le risque à cause des frictions: les marchés financiers internationaux sont incomplets et il n'y pas de mécanisme pour faire respecter les contrats de crédit entre pays. Dans ce contexte, une union économique apparait comme un arrangement qui pallie à ces frictions entre les pays membres seulement. Cependant, l'union dans son ensemble continue de faire face à ces frictions lorsqu'elle échange avec le reste du monde. L'arbitrage clé dans le modèle est le suivant. D'un coté, l'intégration économique permet un meilleur partage du risque entre pays membres et la possibilité pour le partenaire pauvre d'utiliser la ligne de crédit du partenaire riche en cas de besoin. De l'autre coté, l'union peut faire face à une limite de crédit plus restrictive parce que résilier la dette extérieure est moins coûteux pour les membres l'union. De plus, le fait que le partenaire pauvre peut utiliser la limite de crédit du partenaire riche génère une externalité négative pour ce dernier qui se retrouve plus fréquemment contraint au niveau des marchés internationaux des capitaux. En conformité avec les faits observés sur l'intégration économique, le modèle prédit que les unions économiques sont relativement peu fréquentes, sont plus susceptibles d'être créées parmi des pays homogènes, et généralement riches. Le deuxième essai porte sur la dispersion des avoirs extérieurs nets et la relation avec la dispersion des taux d'investissement. Au cours des récentes décennies, la dispersion croissante des déséquilibres extérieurs et les niveaux record atteints par certaines grandes économies ont reçu une attention considérable. On pourrait attribuer ce phénomène à une réduction des barrières aux mouvements internationaux des capitaux. Mais dans ce cas, il est légitime de s'attendre à une augmentation de la dispersion au niveau des taux d'investissement; ceci, parce que le financement des besoins en investissements constitue une raison fondamentale pour laquelle les pays échangent les capitaux. Les données indiquent cependant que la dispersion des taux d'investissement est restée relativement stable au cours des récentes décennies. Pour réconcilier ces faits, je construis un modèle d'équilibre général dynamique et stochastique où les pays sont hétérogènes en raison des chocs idiosyncratiques à leurs niveaux de productivité totale des facteurs. Au niveau des marchés internationaux des capitaux, le menu des actifs disponibles est restreint à une obligation sans risque et il n'y a pas de mécanisme pour faire respecter les contrats de crédit entre pays. A tout moment, un pays peut choisir de résilier sa dette extérieure sous peine d'exclusion financière et d'un coût direct. Ce coût direct reflète les canaux autres que l'exclusion financière à travers lesquels les pays en défaut sont pénalisés. Lorsque le modèle est calibré pour reproduire l'évolution de la dispersion transversale des avoirs extérieurs nets, il produit une dispersion relativement stable des taux d'investissement. La raison principale est que les incitations que les pays ont à investir sont liées à la productivité. Avec l'intégration financière, même si les opportunités d'emprunt se sont multipliées, les incitations à investir n'ont pas beaucoup changé. Ce qui permet de générer une dispersion accrue de la position des avoirs extérieurs nets des pays avec une dispersion relativement stable des taux d'investissement. Le troisième essai analyse un aspect de l'interdépendance dans la formation des accords commerciaux préférentiels: j'examine empiriquement si le risque de diversion des exportations en faveur des pays membres des zones de commerce préférentiel est un facteur déterminant dans la décision des pays exclus de ces accords de négocier un accord à leur tour. Je construis un indicateur qui mesure le potentiel de diversion des exportations auquel font face les pays et estime un modèle probit de formation des zones de commerce préférentiel créées entre 1961 et 2005. Les résultats confirment que les pays confrontés à un plus grand potentiel de détournement des échanges sont plus susceptibles de former une zone de commerce préférentiel à leur tour.
Resumo:
Deux décennies après la chute de l'URSS (1991), ce mémoire propose une réévaluation de la thèse de Francis Fukuyama sur la Fin de l'Histoire, élaborée en 1989, qui postule qu'avec la chute de l'URSS aucune idéologie ne peut rivaliser avec la démocratie libérale capitaliste; et de la thèse de Samuel P. Huntington sur le Choc des civilisations, élaborée en 1993, qui pose l'existence d'un nombre fini de civilisations homogènes et antagonistes. Pourtant, lorsque confrontées à une étude approfondie des séquences historiques, ces deux théories apparaissent pour le moins relatives. Deux questions ont été traitées: l'interaction entre Idéologie et Conditions historiques, et la thèse de l'homogénéité intracivilisationnelle et de l'hétérogénéité antagoniste intercivilisationnelle. Sans les invalider complètement, cette recherche conclut toutefois que ces deux théories doivent être nuancées; elles se situent aux deux extrémités du spectre des relations internationales. La recherche effectuée a montré que les idéologies et leur poids relatif sont tributaires d'un contexte, contrairement à Fukuyama qui les pose dans l'absolu. De plus, l'étude de la Chine maoïste et particulièrement de la pensée de Mao Zedong montre que les traditions politiques locales sont plus hétérogènes qu'il n'y paraît au premier abord, ce qui relativise la thèse de Huntington. En conclusion, les rapports entre États sont plus dynamiques que ne le laissent penser les thèses de Fukuyama et de Huntington.
Resumo:
Avec une mondialisation omniprésente, les études sur l’aspect interculturel des organisations deviennent de plus en plus d’actualité et fascinent les chercheurs comme les praticiens. Notre étude suit donc cette voie et porte sur la construction du sens de l’expérience interculturelle au sein d’une entreprise multinationale. Nous avons cherché à comprendre, d’un point de vue interprétatif, comment les acteurs construisent le sens des caractères multinationaux et interculturels de l’entreprise, à travers leurs expériences au sein d’une multinationale québécoise. La recherche existante discute les aspects culturels et communicatifs tels que le contexte, la langue et le flux de message, identifiés par E.T. Hall (Hall, 1976, 1990) comme centraux dans la problématique générale de la communication interculturelle. Nous avons cependant abordé ces mêmes aspects depuis la perspective de la théorie du sensemaking (Weick, 1995) en nous centrant sur les points de vue des acteurs et de leurs expériences. Sur la base d’entrevues en profondeur, la recherche montre que, bien qu’il soit fortement valorisé par tous les interviewés, l’aspect interculturel n’a pas été profondément intégré dans les pratiques communicatives de tous les jours, comme nous aurions pu le croire. Néanmoins, cet aspect exerce une influence réelle et considérable pour certains employés, comme les gestionnaires des ressources humaines et des relations publiques, due essentiellement à la nature même de leurs fonctions. Les résultats suggèrent également que l’aspect interculturel est vécu de manière fort différente selon l’identité qui est attachée à l’organisation. Cette dernière est en effet parfois considérée comme (1) une organisation « locale », c’est-à-dire en référence à son origine québécoise, comme (2) une organisation multinationale, en référence aux interactions entre les parties de l’organisation dispersées dans le monde entier, et enfin (3) comme une firme étrangère du point de vue des acteurs des pays hôtes. Dans les trois cas les enjeux interculturels pour les acteurs varient considérablement tout comme, en conséquence, le sens qui est accordé à cet aspect de l’organisation. Mots-clés : Expérience interculturelle, organisation multinationale, théorie du sensemaking, communication interculturelle.
Resumo:
L’érosion éolienne est un problème environnemental parmi les plus sévères dans les régions arides, semi-arides et les régions sèches sub-humides de la planète. L’érosion des sols accélérée par le vent provoque des dommages à la fois localement et régionalement. Sur le plan local, elle cause la baisse des nutriments par la mobilisation des particules les plus fines et de la matière organique. Cette mobilisation est une des causes de perte de fertilité des sols avec comme conséquence, une chute de la productivité agricole et une réduction de la profondeur de la partie arable. Sur le plan régional, les tempêtes de poussières soulevées par le vent ont un impact non négligeable sur la santé des populations, et la déposition des particules affecte les équipements hydrauliques tels que les canaux à ciel ouvert ainsi que les infrastructures notamment de transport. Dans les régions où les sols sont fréquemment soumis à l’érosion éolienne, les besoins pour des études qui visent à caractériser spatialement les sols selon leur degré de vulnérabilité sont grands. On n’a qu’à penser aux autorités administratives qui doivent décider des mesures à prendre pour préserver et conserver les potentialités agropédologiques des sols, souvent avec des ressources financières modestes mises à leur disposition. Or, dans certaines de ces régions, comme notre territoire d’étude, la région de Thiès au Sénégal, ces études font défaut. En effet, les quelques études effectuées dans cette région ou dans des contextes géographiques similaires ont un caractère plutôt local et les approches suivies (modèles de pertes des sols) nécessitent un nombre substantiel de données pour saisir la variabilité spatiale de la dynamique des facteurs qui interviennent dans le processus de l’érosion éolienne. La disponibilité de ces données est particulièrement problématique dans les pays en voie de développement, à cause de la pauvreté en infrastructures et des problèmes de ressources pour le monitoring continu des variables environnementales. L’approche mise de l’avant dans cette recherche vise à combler cette lacune en recourant principalement à l’imagerie satellitale, et plus particulièrement celle provenant des satellites Landsat-5 et Landsat-7. Les images Landsat couvrent la presque totalité de la zone optique du spectre exploitable par télédétection (visible, proche infrarouge, infrarouge moyen et thermique) à des résolutions relativement fines (quelques dizaines de mètres). Elles permettant ainsi d’étudier la distribution spatiale des niveaux de vulnérabilité des sols avec un niveau de détails beaucoup plus fin que celui obtenu avec des images souvent utilisées dans des études environnementales telles que AVHRR de la série de satellites NOAA (résolution kilométrique). De plus, l’archive complet des images Landsat-5 et Landsat-7 couvrant une période de plus de 20 ans est aujourd’hui facilement accessible. Parmi les paramètres utilisés dans les modèles d’érosion éolienne, nous avons identifiés ceux qui sont estimables par l’imagerie satellitale soit directement (exemple, fraction du couvert végétal) soit indirectement (exemple, caractérisation des sols par leur niveau d’érodabilité). En exploitant aussi le peu de données disponibles dans la région (données climatiques, carte morphopédologique) nous avons élaboré une base de données décrivant l’état des lieux dans la période de 1988 à 2002 et ce, selon les deux saisons caractéristiques de la région : la saison des pluies et la saison sèche. Ces données par date d’acquisition des images Landsat utilisées ont été considérées comme des intrants (critères) dans un modèle empirique que nous avons élaboré en modulant l’impact de chacun des critères (poids et scores). À l’aide de ce modèle, nous avons créé des cartes montrant les degrés de vulnérabilité dans la région à l’étude, et ce par date d’acquisition des images Landsat. Suite à une série de tests pour valider la cohérence interne du modèle, nous avons analysé nos cartes afin de conclure sur la dynamique du processus pendant la période d’étude. Nos principales conclusions sont les suivantes : 1) le modèle élaboré montre une bonne cohérence interne et est sensible aux variations spatiotemporelles des facteurs pris en considération 2); tel qu’attendu, parmi les facteurs utilisés pour expliquer la vulnérabilité des sols, la végétation vivante et l’érodabilité sont les plus importants ; 3) ces deux facteurs présentent une variation importante intra et inter-saisonnière de sorte qu’il est difficile de dégager des tendances à long terme bien que certaines parties du territoire (Nord et Est) aient des indices de vulnérabilité forts, peu importe la saison ; 4) l’analyse diachronique des cartes des indices de vulnérabilité confirme le caractère saisonnier des niveaux de vulnérabilité dans la mesure où les superficies occupées par les faibles niveaux de vulnérabilité augmentent en saison des pluies, donc lorsque l’humidité surfacique et la végétation active notamment sont importantes, et décroissent en saison sèche ; 5) la susceptibilité, c’est-à-dire l’impact du vent sur la vulnérabilité est d’autant plus forte que la vitesse du vent est élevée et que la vulnérabilité est forte. Sur les zones où la vulnérabilité est faible, les vitesses de vent élevées ont moins d’impact. Dans notre étude, nous avons aussi inclus une analyse comparative entre les facteurs extraits des images Landsat et celles des images hyperspectrales du satellite expérimental HYPERION. Bien que la résolution spatiale de ces images soit similaire à celle de Landsat, les résultats obtenus à partir des images HYPERION révèlent un niveau de détail supérieur grâce à la résolution spectrale de ce capteur permettant de mieux choisir les bandes spectrales qui réagissent le plus avec le facteur étudié. Cette étude comparative démontre que dans un futur rapproché, l’amélioration de l’accessibilité à ce type d’images permettra de raffiner davantage le calcul de l’indice de vulnérabilité par notre modèle. En attendant cette possibilité, on peut de contenter de l’imagerie Landsat qui offre un support d’informations permettant tout de même d’évaluer le niveau de fragilisation des sols par l’action du vent et par la dynamique des caractéristiques des facteurs telles que la couverture végétale aussi bien vivante que sénescente.