505 resultados para Modélisation transactionnelle
Resumo:
Apprendre à lire exige de développer un ensemble de stratégies et, dans un contexte d’enseignement-apprentissage, il s’avère nécessaire que les stratégies de lecture soient enseignées (Fisher, Frey et Lapp, 2008). Toutefois, il semble que les enseignants se sentent peu à l’aise avec l’enseignement des stratégies de lecture par la modélisation (Martel et Lévesque, 2010; Pressley et Afflerbach, 1995). Au Saguenay-Lac-Saint-Jean, des enseignants des 2e et 3e cycles du primaire ont exprimé le besoin de réfléchir sur leurs pratiques d’enseignement des stratégies de lecture afin d’apporter les ajustements nécessaires à un apprentissage de la lecture plus accompli chez leurs élèves. Pour y parvenir, douze enseignantes, un enseignant, deux conseillères pédagogiques et une chercheure se sont engagés dans une recherche-action (Dolbec et Clément, 2004) visant l’amélioration des pratiques relatives à l’enseignement de la lecture. Comme le suggère Couture (2011), le portrait des pratiques déjà mises en place par les enseignants a été dressé dans un premier temps afin d’ancrer le processus de changement à même le travail et les besoins des enseignants. Les résultats indiquent que ce sont les stratégies utiles avant la lecture qui seraient les plus enseignées, que cet enseignement s’effectuerait principalement à l’aide du matériel didactique, et ce, avec l’ensemble du groupe classe.
Resumo:
La mise en registre 3D (opération parfois appelée alignement) est un processus de transformation d’ensembles de données 3D dans un même système de coordonnées afin d’en aligner les éléments communs. Deux ensembles de données alignés ensemble peuvent être les scans partiels des deux vues différentes d’un même objet. Ils peuvent aussi être deux modèles complets, générés à des moments différents, d’un même objet ou de deux objets distincts. En fonction des ensembles de données à traiter, les méthodes d’alignement sont classées en mise en registre rigide ou non-rigide. Dans le cas de la mise en registre rigide, les données sont généralement acquises à partir d’objets rigides. Le processus de mise en registre peut être accompli en trouvant une seule transformation rigide globale (rotation, translation) pour aligner l’ensemble de données source avec l’ensemble de données cible. Toutefois, dans le cas non-rigide, où les données sont acquises à partir d’objets déformables, le processus de mise en registre est plus difficile parce qu’il est important de trouver à la fois une transformation globale et des déformations locales. Dans cette thèse, trois méthodes sont proposées pour résoudre le problème de mise en registre non-rigide entre deux ensembles de données (représentées par des maillages triangulaires) acquises à partir d’objets déformables. La première méthode permet de mettre en registre deux surfaces se chevauchant partiellement. La méthode surmonte les limitations des méthodes antérieures pour trouver une grande déformation globale entre deux surfaces. Cependant, cette méthode est limitée aux petites déformations locales sur la surface afin de valider le descripteur utilisé. La seconde méthode est s’appuie sur le cadre de la première et est appliquée à des données pour lesquelles la déformation entre les deux surfaces est composée à la fois d’une grande déformation globale et de petites déformations locales. La troisième méthode, qui se base sur les deux autres méthodes, est proposée pour la mise en registre d’ensembles de données qui sont plus complexes. Bien que la qualité que elle fournit n’est pas aussi bonne que la seconde méthode, son temps de calcul est accéléré d’environ quatre fois parce que le nombre de paramètres optimisés est réduit de moitié. L’efficacité des trois méthodes repose sur des stratégies via lesquelles les correspondances sont déterminées correctement et le modèle de déformation est exploité judicieusement. Ces méthodes sont mises en oeuvre et comparées avec d’autres méthodes sur diverses données afin d’évaluer leur robustesse pour résoudre le problème de mise en registre non-rigide. Les méthodes proposées sont des solutions prometteuses qui peuvent être appliquées dans des applications telles que la mise en registre non-rigide de vues multiples, la reconstruction 3D dynamique, l’animation 3D ou la recherche de modèles 3D dans des banques de données.
Resumo:
La question du pluralisme religieux est au Québec, l’objet de désaccords et de variations dans son mode de régulation et ses instruments d’action publique. La consultation publique sur le projet loi n° 94, Loi établissant les balises encadrant les demandes d’accommodement dans l’Administration gouvernementale et dans certains établissements, est au cœur de ceux-ci. En se basant sur l’analyse des séances d’auditions publiques en commission parlementaire qui ont eu lieu au Québec entre mai 2010 et janvier 2011 sur le projet de loi n° 94, cette thèse vise à interroger les enjeux liés à la publicisation des prises de positions et de l’échange d’arguments entre différents acteurs. À partir d’une méthodologie par théorisation enracinée et d’un cadre conceptuel qui se rattache à la communication publique, cette thèse cherche à mettre en évidence quelques-unes des propriétés des interactions verbales et non verbales qui composent et incarnent cette activité délibérative. Elle approche ces interactions du point de vue de leur publicisation en s’appuyant sur deux principes : la participation publique en tant qu’un instant de la construction du problème public et l’audition publique en commission parlementaire comme maillon d’un réseau dialogique qui participe à la publicisation du désaccord sur les accommodements raisonnables. Mettant l’accent sur l’usage du langage (verbal, non verbal et para verbal), l’objectif de cette thèse est de mieux comprendre comment des groupes minoritaires et majoritaires, engagés dans une arène publique où les points de vue par rapport aux accommodements raisonnables sont confrontés et mis en visibilité, gèrent leur situation de parole publique. La démarche de recherche a combiné deux stratégies d’analyse : la première stratégie d’inspiration conversationnelle, qui observe chaque séquence comme objet indépendant, a permis de saisir le déroulement des séances d’audition en respectant le caractère séquentiel des tours de parole La deuxième stratégie reviens sur les principaux résultats de l’analyse des séances d’auditions pour valider les résultats et parvenir à la saturation théorique pour élaborer une modélisation. L’exploitation des données selon cette approche qualitative a abouti au repérage de trois dynamiques. La première fait état des contraintes discursives. La seconde met en évidence le rôle des dimensions motivationnelles et socioculturelles dans la construction des positionnements et dans l’adoption d’un registre polémique. La troisième souligne la portée de la parole publique en termes d’actualisation des rapports de pouvoir et de confirmation de son caractère polémique. La modélisation proposée par cette thèse représente le registre polémique comme un élément constitutif de l’engagement argumentatif des acteurs sociaux mais qui est considérablement enchâssé dans d’autres éléments contextuels et motivationnels qui vont orienter sa portée. En tant qu’elle est exprimée dans un site dialogique, la parole publique en situation d’audition publique en commission parlementaire est en mesure de créer de nouvelles intrigues et d’une possibilité de coexister dans le dissensus. Le principal apport de cette thèse est qu’elle propose une articulation, concrète et originale entre une approche de la parole publique en tant que révélatrice d’autre chose que d’elle-même (nécessaire à tout éclaircissement des points de vue dans cette controverse) et une approche de la parole publique en tant que performance conduisant à la transformation du monde social. D’où, le titre de la thèse : la parole en action. Mots clefs : parole publique, discours, arène publique, pluralisme religieux, accommodements raisonnables, controverses, dissensus, théorisation enracinée
Resumo:
Après avoir situé la question de la dangerosité dans les perspectives psychiatriques actuelles, l'auteur propose de penser cette notion complexe dans un renversement du paradigme couramment admis : ainsi la référence à la dangerosité témoignerait-elle, au premier plan, de la part non symbolisée de la rencontre de la violence. Cette proposition prend appui dans un premier temps sur les propositions esquissées par M. Foucault dans sa compréhension du rapport à la violence et à la dangerosité. Puis, le recours au concept psychanalytique d'identification projective permet de proposer une modélisation clinique de la dangerosité, qui sera discutée à partir de deux observatoires dans le champ des violences sexuelles : celui d'une recherche menée auprès d'adolescents engagés dans des agirs sexuels violents et celui d'une pratique d'expertise judiciaire. First the author proposes to situate dangerousness's question in actual psychiatric field. Then, he proposes to think this complex notion into a reversal of dangerousness's paradigm: the reference to dangerousness will be thought as the expression of non-symbolized part through violence's meeting. This proposition relies in a first time on M. Foucault's propositions about a comprehension of the relation with violence and dangerousness. In a second time, the psychoanalytic concept of projective identification allows to propose clinical comprehension of dangerousness's notion. Two clinical situations about sexual violences will be asked in this plan: a research with Young sexual offenders and practice of judiciary evaluation.
Resumo:
Abstract : Textural division of a mineral in pyramids, with their apices located at the centre of the mineral and their bases corresponding to the mineral faces is called textural sector zoning. Textural sector zoning is observed in many metamorphic minerals like andalousite and garnet. Garnets found in the graphite rich black shales of the Mesozoic cover of the Gotthard Massif display textural sector zoning. The morphology of this sector zoning is not the same in different types of black shales observed in the Nufenen pass area. Garnets in foliated black shales display a well developed sector zoning while garnets found in cm-scale layered black shales display well developed sectors in the direction of the schistosity plane. This sector zoning is always associated with up to 30μm sized birefringent lamellae emanating radial from the sector boundaries. They alternate with isotrope lamellae. The garnet forming reaction was determined using singular value decomposition approach and results compared to thermodynamic calculations. It is of the form chl + mu + cc + cld = bt + fds + ank + gt + czo and is similar in both layered and foliated black shales. The calculated X(O) is close to 0.36 and does not significantly vary during the metamorphic history of the rock. This corresponds to X CO2, X CH4, and X H2O BSE imaging of garnets on oriented-cuts revealed that the orientation of the lamellae found within the sectors is controlled by crystallography. BSE imaging and electron microprobe analysis revealed that these lamellae are calcium rich compared to the isotropic lamellae. The addition of Ca to an almandine rich garnet causes a small distortion of the X site and potentially, ordering. Ordered and disordered garnet might have very similar free energies for this composition. Hence, two garnets with different composition can be precipitated with minor overstepping of the reaction. It is enough that continued nucleation of a new garnet layer slightly prefers the same structure to assure a fiber-like growth of both garnet compositions side by side. This hypothesis is in agreement with the thermodynamic properties of the garnet solid solution described in the literature and could explain the textures observed in garnets with these compositions. To understand the differences in sector zoning morphology, and crystal growth kinetics, crystal size distribution were determined in several samples using 2D spatial analysis of slab surfaces. The same nucleation rate law was chosen for all cases. Different growth rate law for non-layered black shales and layered black shales were used. Garnet in layered black shales grew according to a growth rate law of the form R=kt ½. The transport of nutrient is the limiting factor. Transport will occur preferentially on the schistosity planes. The shapes of the garnets in such rocks are therefore ovoid with the longest axis parallel to the schistosity planes. Sector zoning is less developed with sectors present only parallel to the schistosity planes. Garnet in non-layered blackshales grew according to a growth rate law of the form R=kt. The limiting factor is the attachment at the surface of the garnet. Garnets in these rocks will display a well developed sector zoning in all directions. The growth rate law is thus influenced by the texture of the rock. It favours or hinders the transport of nutrient to the mineral surface. Résumé : La zonation sectorielle texturale consiste en la division d'un cristal en pyramides dont les sommets sont localisés au centre du minéral. La base de ces pyramides correspond aux faces du minéral. Ce type de zonation est fréquemment observé dans les minéraux métamorphiques tels que l'andalousite ou le grenat. Les grenats présents dans les marnes riches en graphites de la couverture Mésozoïque du Massif du Gotthard présent une zonation sectorielle texturale. La morphologie de cette zonation n'est pas la même dans les marnes litées et dans les marnes foliées. Les grenats des marnes foliées montrent des secteurs bien développés dans 3 directions. Les grenats des marnes litées montrent des secteurs développés uniquement dans la direction des plans de schistosité. Cette zonation sectorielle est toujours associée à des lamelles biréfringentes de quelques microns de large qui partent de la limite des secteurs et qui sont perpendiculaires aux faces du grenat. Ces lamelles alternent avec des lamelles isotropes. La réaction de formation du grenat a été déterminée par calcul matriciel et thermodynamique. La réaction est de la forme chl + mu + cc + cld= bt + fds + ank + gt + czo. Elle est similaire dans les roches litées et dans les roches foliées. L'évaluation des conditions fluides montrent que le X(O) est proche de 0.36 et ne change pas de façon significative durant l'histoire métamorphique de la roche. Des images BSE sur des coupes orientées ont révélé que l'orientation de lamelles biréfringentes est contrôlée parla crystallographie. La comparaison des analyses à la microsonde électronique et des images BSE révèle également que les lamelles biréfringentes sont plus riches en calcium que les lamelles isotropes. L'addition de calcium va déformer légèrement le site X et ainsi créer un ordre sur ce site. L'énergie interne d'un grenat ordré et d'un grenat désordonné sont suffisamment proches pour qu'un léger dépassement de l'énergie de la réaction de formation permette la coexistence des 2 types de grenat dans le même minéral. La formation de lamelles est expliquée par le fait qu'un grenat préférera la même structure. Ces observations sont en accord avec la thermodynamique des solutions solides du grenat et permet d'expliquer les structures similaires observées dans des grenats provenant de lithologies différentes. Une étude de la distribution des tailles des grenats et une modélisation de la croissance a permis de mettre en évidence 2 mécanismes de croissance différents suivant la texture de la roche. Dans les 2 cas, la loi de nucléation est la même. Dans les roches litées, la loi de croissance est de forme R=kt½. Le transport des nutriments est le facteur limitant. Ce transport a lieu préférentiellement dans la direction des niveaux de schistosité. Les grenats ont une forme légèrement allongée car la croissance des secteurs est facilitée sur les niveaux de schistosité. La croissance des grenats dans les roches foliées suit une loi de croissance de la forme R=kt. Les seuls facteurs limitant la croissance sont les processus d'attachement à la surface du grenat. La loi de croissance de ces grenats est donc contrainte par la texture de la roche. Cela se marque par des différences dans la morphologie de la zonation sectorielle.
Resumo:
Dans ce texte, nous revoyons certains développements récents de l’économétrie qui peuvent être intéressants pour des chercheurs dans des domaines autres que l’économie et nous soulignons l’éclairage particulier que l’économétrie peut jeter sur certains thèmes généraux de méthodologie et de philosophie des sciences, tels la falsifiabilité comme critère du caractère scientifique d’une théorie (Popper), la sous-détermination des théories par les données (Quine) et l’instrumentalisme. En particulier, nous soulignons le contraste entre deux styles de modélisation - l’approche parcimonieuse et l’approche statistico-descriptive - et nous discutons les liens entre la théorie des tests statistiques et la philosophie des sciences.
Resumo:
In this paper, we study several tests for the equality of two unknown distributions. Two are based on empirical distribution functions, three others on nonparametric probability density estimates, and the last ones on differences between sample moments. We suggest controlling the size of such tests (under nonparametric assumptions) by using permutational versions of the tests jointly with the method of Monte Carlo tests properly adjusted to deal with discrete distributions. We also propose a combined test procedure, whose level is again perfectly controlled through the Monte Carlo test technique and has better power properties than the individual tests that are combined. Finally, in a simulation experiment, we show that the technique suggested provides perfect control of test size and that the new tests proposed can yield sizeable power improvements.
Resumo:
In this paper, we provide both qualitative and quantitative measures of the cost of measuring the integrated volatility by the realized volatility when the frequency of observation is fixed. We start by characterizing for a general diffusion the difference between the realized and the integrated volatilities for a given frequency of observations. Then, we compute the mean and variance of this noise and the correlation between the noise and the integrated volatility in the Eigenfunction Stochastic Volatility model of Meddahi (2001a). This model has, as special examples, log-normal, affine, and GARCH diffusion models. Using some previous empirical works, we show that the standard deviation of the noise is not negligible with respect to the mean and the standard deviation of the integrated volatility, even if one considers returns at five minutes. We also propose a simple approach to capture the information about the integrated volatility contained in the returns through the leverage effect.
Resumo:
In this paper, we introduce a new approach for volatility modeling in discrete and continuous time. We follow the stochastic volatility literature by assuming that the variance is a function of a state variable. However, instead of assuming that the loading function is ad hoc (e.g., exponential or affine), we assume that it is a linear combination of the eigenfunctions of the conditional expectation (resp. infinitesimal generator) operator associated to the state variable in discrete (resp. continuous) time. Special examples are the popular log-normal and square-root models where the eigenfunctions are the Hermite and Laguerre polynomials respectively. The eigenfunction approach has at least six advantages: i) it is general since any square integrable function may be written as a linear combination of the eigenfunctions; ii) the orthogonality of the eigenfunctions leads to the traditional interpretations of the linear principal components analysis; iii) the implied dynamics of the variance and squared return processes are ARMA and, hence, simple for forecasting and inference purposes; (iv) more importantly, this generates fat tails for the variance and returns processes; v) in contrast to popular models, the variance of the variance is a flexible function of the variance; vi) these models are closed under temporal aggregation.
Resumo:
This paper develops a model of money demand where the opportunity cost of holding money is subject to regime changes. The regimes are fully characterized by the mean and variance of inflation and are assumed to be the result of alternative government policies. Agents are unable to directly observe whether government actions are indeed consistent with the inflation rate targeted as part of a stabilization program but can construct probability inferences on the basis of available observations of inflation and money growth. Government announcements are assumed to provide agents with additional, possibly truthful information regarding the regime. This specification is estimated and tested using data from the Israeli and Argentine high inflation periods. Results indicate the successful stabilization program implemented in Israel in July 1985 was more credible than either the earlier Israeli attempt in November 1984 or the Argentine programs. Government’s signaling might substantially simplify the inference problem and increase the speed of learning on the part of the agents. However, under certain conditions, it might increase the volatility of inflation. After the introduction of an inflation stabilization plan, the welfare gains from a temporary increase in real balances might be high enough to induce agents to raise their real balances in the short-term, even if they are uncertain about the nature of government policy and the eventual outcome of the stabilization attempt. Statistically, the model restrictions cannot be rejected at the 1% significance level.
Resumo:
We study the problem of measuring the uncertainty of CGE (or RBC)-type model simulations associated with parameter uncertainty. We describe two approaches for building confidence sets on model endogenous variables. The first one uses a standard Wald-type statistic. The second approach assumes that a confidence set (sampling or Bayesian) is available for the free parameters, from which confidence sets are derived by a projection technique. The latter has two advantages: first, confidence set validity is not affected by model nonlinearities; second, we can easily build simultaneous confidence intervals for an unlimited number of variables. We study conditions under which these confidence sets take the form of intervals and show they can be implemented using standard methods for solving CGE models. We present an application to a CGE model of the Moroccan economy to study the effects of policy-induced increases of transfers from Moroccan expatriates.
Resumo:
This paper develops a general stochastic framework and an equilibrium asset pricing model that make clear how attitudes towards intertemporal substitution and risk matter for option pricing. In particular, we show under which statistical conditions option pricing formulas are not preference-free, in other words, when preferences are not hidden in the stock and bond prices as they are in the standard Black and Scholes (BS) or Hull and White (HW) pricing formulas. The dependence of option prices on preference parameters comes from several instantaneous causality effects such as the so-called leverage effect. We also emphasize that the most standard asset pricing models (CAPM for the stock and BS or HW preference-free option pricing) are valid under the same stochastic setting (typically the absence of leverage effect), regardless of preference parameter values. Even though we propose a general non-preference-free option pricing formula, we always keep in mind that the BS formula is dominant both as a theoretical reference model and as a tool for practitioners. Another contribution of the paper is to characterize why the BS formula is such a benchmark. We show that, as soon as we are ready to accept a basic property of option prices, namely their homogeneity of degree one with respect to the pair formed by the underlying stock price and the strike price, the necessary statistical hypotheses for homogeneity provide BS-shaped option prices in equilibrium. This BS-shaped option-pricing formula allows us to derive interesting characterizations of the volatility smile, that is, the pattern of BS implicit volatilities as a function of the option moneyness. First, the asymmetry of the smile is shown to be equivalent to a particular form of asymmetry of the equivalent martingale measure. Second, this asymmetry appears precisely when there is either a premium on an instantaneous interest rate risk or on a generalized leverage effect or both, in other words, whenever the option pricing formula is not preference-free. Therefore, the main conclusion of our analysis for practitioners should be that an asymmetric smile is indicative of the relevance of preference parameters to price options.
Resumo:
A full understanding of public affairs requires the ability to distinguish between the policies that voters would like the government to adopt, and the influence that different voters or group of voters actually exert in the democratic process. We consider the properties of a computable equilibrium model of a competitive political economy in which the economic interests of groups of voters and their effective influence on equilibrium policy outcomes can be explicitly distinguished and computed. The model incorporates an amended version of the GEMTAP tax model, and is calibrated to data for the United States for 1973 and 1983. Emphasis is placed on how the aggregation of GEMTAP households into groups within which economic and political behaviour is assumed homogeneous affects the numerical representation of interests and influence for representative members of each group. Experiments with the model suggest that the changes in both interests and influence are important parts of the story behind the evolution of U.S. tax policy in the decade after 1973.
Resumo:
In the literature on tests of normality, much concern has been expressed over the problems associated with residual-based procedures. Indeed, the specialized tables of critical points which are needed to perform the tests have been derived for the location-scale model; hence reliance on available significance points in the context of regression models may cause size distortions. We propose a general solution to the problem of controlling the size normality tests for the disturbances of standard linear regression, which is based on using the technique of Monte Carlo tests.
Resumo:
We propose finite sample tests and confidence sets for models with unobserved and generated regressors as well as various models estimated by instrumental variables methods. The validity of the procedures is unaffected by the presence of identification problems or \"weak instruments\", so no detection of such problems is required. We study two distinct approaches for various models considered by Pagan (1984). The first one is an instrument substitution method which generalizes an approach proposed by Anderson and Rubin (1949) and Fuller (1987) for different (although related) problems, while the second one is based on splitting the sample. The instrument substitution method uses the instruments directly, instead of generated regressors, in order to test hypotheses about the \"structural parameters\" of interest and build confidence sets. The second approach relies on \"generated regressors\", which allows a gain in degrees of freedom, and a sample split technique. For inference about general possibly nonlinear transformations of model parameters, projection techniques are proposed. A distributional theory is obtained under the assumptions of Gaussian errors and strictly exogenous regressors. We show that the various tests and confidence sets proposed are (locally) \"asymptotically valid\" under much weaker assumptions. The properties of the tests proposed are examined in simulation experiments. In general, they outperform the usual asymptotic inference methods in terms of both reliability and power. Finally, the techniques suggested are applied to a model of Tobin’s q and to a model of academic performance.