468 resultados para Dynamiques économiques et dynamiques démographiques régionales
Resumo:
À l'ère de la mondialisation, où la matrice capitaliste continue de dominer, la classification dans les groupes se définit encore en termes de classes, de genres et d'ethnicité. Les transformations causées par la mondialisation actuelle entraînent de nouveaux modes de production, qui à leur tour transforment les modes de définition et de régulation des populations. Le projet d'exploitation du Nord du Québec est un phénomène relativement récent; or, le processus de construction d'une classe sociale n'est pas un phénomène nouveau. La formation des classes sociales étant toujours en évolution, il semble aujourd'hui pertinent de réexaminer les facteurs économiques, sociologiques et historiques des caractéristiques théoriques nécessaires à la construction et à la représentation d'une classe sociale dont l'existence est liée à l'exploitation accrue des richesses naturelles, la classe ouvrière du Nord du Québec. À Fermont, dans le Nord du Québec, les compagnies minières emploient depuis 2011 une grande quantité de travailleurs québécois provenant de l'extérieur de la région, des travailleurs permanents non- résidents. Ainsi, la structure sociale construite sur la force de travailleurs locaux est aux prises avec de nouvelles dynamiques de mobilité sociale géographique. Au travail, les femmes et les autochtones sont aussi affectés par les relations des systèmes de pouvoir de la vie quotidienne, car les emplois de l'industrie minière et du domaine de la construction sont socialement et historiquement fondés sur des capitaux sociaux et culturels (blanc et homme). La classe ouvrière du Nord du Québec est redéfinit par son rapport à la migration géographique des travailleurs permanents non- résidents, par ses relations avec les minorités de genre et les minorités autochtones, relations qui engendrent une organisation sociale complexe et hétérogène.
Resumo:
Les événements fondateurs et les expansions territoriales peuvent promouvoir une cascade de changements génétiques et ont ainsi pu jouer un rôle important au cours de l’histoire évolutive de l’Homme moderne. Or, chez les populations humaines, les conséquences évolutives et la dynamique démographique des processus de colonisation demeurent largement méconnues et difficiles à étudier. Dans cette thèse, nous avons utilisé les généalogies de la population fondatrice canadienne-française ainsi que des données génomiques pour étudier ces questions. Les analyses génomiques et généalogiques, remarquablement concordantes, ont dévoilé un nouveau portrait détaillé de la structure de la population du Québec, incluant un continuum de diversité génétique dans l’axe ouest/est et des sous-populations significativement différenciées. L’analyse de l’immigration fondatrice a montré que virtuellement tous les Canadiens français sont métissés. Allant à l’encontre d’une prétendue homogénéité génétique de la population, nos résultats démontrent que le peuplement des régions a engendré une rapide différentiation génétique et expliquent certaines signatures régionales de l’effet fondateur. De plus, en suivant les changements évolutifs dans les généalogies, nous avons montré que les caractéristiques des peuplements fondateurs peuvent affecter les traits liés à la fécondité et au succès reproducteur. Cette thèse offre une meilleure compréhension du patrimoine génétique du Québec et apporte des éléments de réponse sur les conséquences évolutives des événements fondateurs.
Resumo:
L’objectif de cette thèse est d’analyser et de comprendre la dynamique de la controverse autour de l’adoption en 2009 du code des personnes et de la famille au Mali. Elle s’intéresse particulièrement aux principaux enjeux, c'est-à-dire aux questions à l’origine de cette controverse ainsi qu’aux stratégies mises en place par les différents acteurs sociaux (les organisations islamiques et leurs alliés, d’une part, et d’autre part, les organisations féminines et les leurs) afin d’infléchir le processus. En plus du pourquoi et du comment de cette controverse, notre recherche visait à comprendre le bilan du processus tiré par les acteurs eux-mêmes, le sentiment qui les anime à l’issu de ce long processus, leur appréciation de leur expérience, et leur vision de l’avenir. Pour étudier cette problématique, nous avons choisi l’approche de l’action collective protestataire, laquelle s’inspire à la fois des théories de l’action collective, et de celles des mouvements sociaux et des dynamiques contestataires. Afin d’analyser les enjeux au cœur de cette controverse, les stratégies utilisées par les acteurs ainsi que leur bilan du processus, nous avons opté pour une démarche qualitative. En plus de la littérature grise, des articles de presse, documents audio et audiovisuels sur le sujet, notre travail de terrain de quatre mois dans la capitale malienne nous a permis de réaliser plusieurs entrevues auprès des acteurs impliqués dans ce processus. S’étendant de 1996 à 2011, soit seize ans, l’élaboration du code des personnes et de la famille au Mali fut un processus long, complexe, inhabituel et controversé. Les résultats de notre recherche révèlent que plusieurs enjeux, notamment sociaux, étaient au cœur de cette controverse : le «devoir d’obéissance » de la femme à son mari, la légalisation du mariage religieux, l’« égalité » entre fille et garçon en matière d’héritage et de succession et la reconnaissance de l’enfant naturel ont été les questions qui ont suscité le plus de débats. Si durant tout le processus, les questions relatives à l’égalité de genre, au respect des droits de la femme et de l’enfant, étaient les arguments défendus par les organisations féminines et leurs alliés, celles relatives au respect des valeurs religieuses (islamiques), sociétales ou socioculturelles maliennes étaient, par contre, mises de l’avant par les organisations islamiques et leurs alliés. Ainsi, si le discours des OSC féminines portait essentiellement sur le « respect de l’égalité des sexes » conformément aux engagements internationaux signés par le Mali, celui des OSC islamiques s’est, en revanche, centré sur le « respect des valeurs islamiques et socioculturelles » du Mali. Quant aux canaux de communication, les OSC féminines se sont focalisées sur les canaux classiques comme la presse, les radios, les conférences, entre autres. Les OSC islamiques ont également utilisé ces canaux, mais elles se sont distinguées des OSC féminines en utilisant aussi les prêches. Organisés généralement dans les mosquées et autres espaces désignés à cet effet, ces prêches ont consacré la victoire des OSC islamiques. Les radios islamiques ont joué elles aussi un rôle important dans la transmission de leurs messages. Pour ce qui est des stratégies d’actions, l’action collective qui a changé la donne en faveur des OSC islamiques (renvoi du code en seconde lecture, prise en compte de leurs idées), a été le meeting du 22 août 2009 à Bamako, précédé de marches de protestation dans la capitale nationale et toutes les capitales régionales du pays. Quant aux OSC féminines, elles n’ont mené que quelques actions classiques (ou habituelle) comme les pétitions, le plaidoyer-lobbying, les conférences-débats, au point que certains observateurs ont parlé de « stratégie d’inaction » chez elles. L’analyse a également révélé l’utilisation de stratégies inusitées de menaces et d’intimidation par certains acteurs du camp des OSC islamiques à l’endroit des partisans du code. Si chaque groupe d’acteurs a noué des alliances avec des acteurs locaux, les OSC féminines sont les seules à reconnaitre des alliances avec les acteurs extérieurs. Aujourd’hui, si la plupart des membres des OSC islamiques ne cachent pas leur satisfaction face à leur « victoire » et se présentent en « sauveur de la nation malienne », la plupart des membres des OSC féminines se disent, quant à elles, très « déçues » et « indignées » face à l’adoption du code actuel. Elles ne comprennent pas pourquoi d’un « code progressiste », le Mali s’est retrouvé avec un « code rétrograde et discriminatoire » envers les femmes. La thèse confirme non seulement la difficile conciliation entre droit coutumier, loi islamique et droit « moderne », mais également l’idée que le droit demeure l’expression des rapports de pouvoir et de domination. Enfin, notre recherche confirme la désormais incontournable influence des acteurs religieux sur le processus d’élaboration des politiques publiques au Mali.
Resumo:
La cybersécurité représente un enjeu important pour les services en charge de la sécurité canadienne à l’ère de l’expansion des Menaces Persistantes Avancées (MSP ou cybercrimes de type 1). Ces crimes se déroulent essentiellement dans le cyberespace, ce qui implique l’adoption de mesures spécifiques adéquates à l’environnement numérique, notamment à l’épreuve de son ubiquité. Le gouvernement canadien a pour sa part publié certaines mesures de défense passive et active dont la plus connue est la stratégie canadienne de cybersécurité. Puisque le cyberespace n’est pas limité territorialement, l’autorité canadienne a conclu plusieurs partenariats internationaux d’où ressortent des mesures bilatérales et multilatérales de protection et de renforcement de la cybersécurité. Toutefois, ces diverses mesures nationales et internationales ne tracent pas de cadre légal précisant la nature et le régime juridique des MSP; précisions sans lesquelles l’adoption de règles au plan national serait improductive. Considérant que l’espace numérique est international, il appelle la mise en place de mesures applicables à l’échelle universelle. Or, au plan international, il n’existe aucun texte à valeur légale spécifique à l’espèce. Ainsi, à la question de savoir, quels textes légaux pourraient s’appliquer, il s’est avéré que le jus ad bellum et la Convention européenne contre le cybercrime (Convention de Budapest) apportaient d’incontournables éléments de réponse. D’une part, le jus ad bellum permet de définir la catégorie d’acte dans laquelle peuvent être rangées les MSP, et d’autre part, la Convention de Budapest permet de définir les infractions informatiques commises par les différents acteurs en cause, les procédures d’investigation appropriées et les mécanismes utiles à la coopération internationale. Bien que les éléments ressortis de ces ententes internationales soient utiles à l’adoption d’un corps de règles internationales uniformes, les intérêts étatiques divergents constituent des obstacles de taille.
Resumo:
Rapport de recherche
Resumo:
Latent variable models in finance originate both from asset pricing theory and time series analysis. These two strands of literature appeal to two different concepts of latent structures, which are both useful to reduce the dimension of a statistical model specified for a multivariate time series of asset prices. In the CAPM or APT beta pricing models, the dimension reduction is cross-sectional in nature, while in time-series state-space models, dimension is reduced longitudinally by assuming conditional independence between consecutive returns, given a small number of state variables. In this paper, we use the concept of Stochastic Discount Factor (SDF) or pricing kernel as a unifying principle to integrate these two concepts of latent variables. Beta pricing relations amount to characterize the factors as a basis of a vectorial space for the SDF. The coefficients of the SDF with respect to the factors are specified as deterministic functions of some state variables which summarize their dynamics. In beta pricing models, it is often said that only the factorial risk is compensated since the remaining idiosyncratic risk is diversifiable. Implicitly, this argument can be interpreted as a conditional cross-sectional factor structure, that is, a conditional independence between contemporaneous returns of a large number of assets, given a small number of factors, like in standard Factor Analysis. We provide this unifying analysis in the context of conditional equilibrium beta pricing as well as asset pricing with stochastic volatility, stochastic interest rates and other state variables. We address the general issue of econometric specifications of dynamic asset pricing models, which cover the modern literature on conditionally heteroskedastic factor models as well as equilibrium-based asset pricing models with an intertemporal specification of preferences and market fundamentals. We interpret various instantaneous causality relationships between state variables and market fundamentals as leverage effects and discuss their central role relative to the validity of standard CAPM-like stock pricing and preference-free option pricing.
Resumo:
In this paper, we introduce a new approach for volatility modeling in discrete and continuous time. We follow the stochastic volatility literature by assuming that the variance is a function of a state variable. However, instead of assuming that the loading function is ad hoc (e.g., exponential or affine), we assume that it is a linear combination of the eigenfunctions of the conditional expectation (resp. infinitesimal generator) operator associated to the state variable in discrete (resp. continuous) time. Special examples are the popular log-normal and square-root models where the eigenfunctions are the Hermite and Laguerre polynomials respectively. The eigenfunction approach has at least six advantages: i) it is general since any square integrable function may be written as a linear combination of the eigenfunctions; ii) the orthogonality of the eigenfunctions leads to the traditional interpretations of the linear principal components analysis; iii) the implied dynamics of the variance and squared return processes are ARMA and, hence, simple for forecasting and inference purposes; (iv) more importantly, this generates fat tails for the variance and returns processes; v) in contrast to popular models, the variance of the variance is a flexible function of the variance; vi) these models are closed under temporal aggregation.
Resumo:
À l’aide d’un modèle de cycles réels, la présente étude vise à expliquer, de façon endogène, les fluctuations des termes de l’échange en Côte-d’Ivoire. Pour ce faire, nous cherchons principalement à répondre aux deux questions suivantes : les chocs d’offre et de demande sur le marché d’exportation suffisent-ils à expliquer les variations des termes de l’échange? Et quelle est leur importance relative dans la dynamique des termes de l’échange? Les résultats montrent que les deux chocs considérés expliquent bien la volatilité des termes de l’échange. Nous avons noté que ces deux sources d’impulsions ont un impact significatif sur les fluctuations économiques en Côte-d’Ivoire.
Resumo:
The GARCH and Stochastic Volatility paradigms are often brought into conflict as two competitive views of the appropriate conditional variance concept : conditional variance given past values of the same series or conditional variance given a larger past information (including possibly unobservable state variables). The main thesis of this paper is that, since in general the econometrician has no idea about something like a structural level of disaggregation, a well-written volatility model should be specified in such a way that one is always allowed to reduce the information set without invalidating the model. To this respect, the debate between observable past information (in the GARCH spirit) versus unobservable conditioning information (in the state-space spirit) is irrelevant. In this paper, we stress a square-root autoregressive stochastic volatility (SR-SARV) model which remains true to the GARCH paradigm of ARMA dynamics for squared innovations but weakens the GARCH structure in order to obtain required robustness properties with respect to various kinds of aggregation. It is shown that the lack of robustness of the usual GARCH setting is due to two very restrictive assumptions : perfect linear correlation between squared innovations and conditional variance on the one hand and linear relationship between the conditional variance of the future conditional variance and the squared conditional variance on the other hand. By relaxing these assumptions, thanks to a state-space setting, we obtain aggregation results without renouncing to the conditional variance concept (and related leverage effects), as it is the case for the recently suggested weak GARCH model which gets aggregation results by replacing conditional expectations by linear projections on symmetric past innovations. Moreover, unlike the weak GARCH literature, we are able to define multivariate models, including higher order dynamics and risk premiums (in the spirit of GARCH (p,p) and GARCH in mean) and to derive conditional moment restrictions well suited for statistical inference. Finally, we are able to characterize the exact relationships between our SR-SARV models (including higher order dynamics, leverage effect and in-mean effect), usual GARCH models and continuous time stochastic volatility models, so that previous results about aggregation of weak GARCH and continuous time GARCH modeling can be recovered in our framework.
Resumo:
Conditional heteroskedasticity is an important feature of many macroeconomic and financial time series. Standard residual-based bootstrap procedures for dynamic regression models treat the regression error as i.i.d. These procedures are invalid in the presence of conditional heteroskedasticity. We establish the asymptotic validity of three easy-to-implement alternative bootstrap proposals for stationary autoregressive processes with m.d.s. errors subject to possible conditional heteroskedasticity of unknown form. These proposals are the fixed-design wild bootstrap, the recursive-design wild bootstrap and the pairwise bootstrap. In a simulation study all three procedures tend to be more accurate in small samples than the conventional large-sample approximation based on robust standard errors. In contrast, standard residual-based bootstrap methods for models with i.i.d. errors may be very inaccurate if the i.i.d. assumption is violated. We conclude that in many empirical applications the proposed robust bootstrap procedures should routinely replace conventional bootstrap procedures for autoregressions based on the i.i.d. error assumption.
Resumo:
This paper studies testing for a unit root for large n and T panels in which the cross-sectional units are correlated. To model this cross-sectional correlation, we assume that the data is generated by an unknown number of unobservable common factors. We propose unit root tests in this environment and derive their (Gaussian) asymptotic distribution under the null hypothesis of a unit root and local alternatives. We show that these tests have significant asymptotic power when the model has no incidental trends. However, when there are incidental trends in the model and it is necessary to remove heterogeneous deterministic components, we show that these tests have no power against the same local alternatives. Through Monte Carlo simulations, we provide evidence on the finite sample properties of these new tests.
Resumo:
We discuss statistical inference problems associated with identification and testability in econometrics, and we emphasize the common nature of the two issues. After reviewing the relevant statistical notions, we consider in turn inference in nonparametric models and recent developments on weakly identified models (or weak instruments). We point out that many hypotheses, for which test procedures are commonly proposed, are not testable at all, while some frequently used econometric methods are fundamentally inappropriate for the models considered. Such situations lead to ill-defined statistical problems and are often associated with a misguided use of asymptotic distributional results. Concerning nonparametric hypotheses, we discuss three basic problems for which such difficulties occur: (1) testing a mean (or a moment) under (too) weak distributional assumptions; (2) inference under heteroskedasticity of unknown form; (3) inference in dynamic models with an unlimited number of parameters. Concerning weakly identified models, we stress that valid inference should be based on proper pivotal functions —a condition not satisfied by standard Wald-type methods based on standard errors — and we discuss recent developments in this field, mainly from the viewpoint of building valid tests and confidence sets. The techniques discussed include alternative proposed statistics, bounds, projection, split-sampling, conditioning, Monte Carlo tests. The possibility of deriving a finite-sample distributional theory, robustness to the presence of weak instruments, and robustness to the specification of a model for endogenous explanatory variables are stressed as important criteria assessing alternative procedures.
Resumo:
This paper studies the transition between exchange rate regimes using a Markov chain model with time-varying transition probabilities. The probabilities are parameterized as nonlinear functions of variables suggested by the currency crisis and optimal currency area literature. Results using annual data indicate that inflation, and to a lesser extent, output growth and trade openness help explain the exchange rate regime transition dynamics.