350 resultados para Problème de comportement
Resumo:
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
Resumo:
Selon la théorie de l’auto-détermination, l’autonomie est un besoin universel de base qui, lorsque soutenu, permet aux individus de mieux fonctionner et de vivre plus de bien-être psychologique (p. ex., Deci & Ryan, 2008). Le style parental des parents qui soutiennent l’autonomie de leur enfant est caractérisé par le soutien du fonctionnement autodéterminé de ce dernier. Sa définition traditionnelle inclut des pratiques telles qu’offrir des explications et des choix lors des requêtes, communiquer de l’empathie, et encourager les prises d’initiatives tout en minimisant l’utilisation d’un langage contrôlant (p. ex., Soenens et al., 2007). Les bénéfices d’un style parental qui soutient l’autonomie d’un enfant ont été bien documentés (p. ex., Grolnick, Deci, & Ryan, 1997), toutefois, peu d’études ont été effectuées auprès des bambins. Or, cette thèse visait à enrichir la littérature sur le « parentage » en explorant les pratiques soutenantes qui sont utilisées par des parents de bambins dans un contexte de socialisation (étude 1), ainsi qu’en examinant les facteurs qui peuvent brimer leur mise en pratique (étude 2). La première étude a examiné un grand nombre de pratiques de socialisation que les parents qui favorisent davantage le soutien à l’autonomie (SA) pourraient utiliser plus fréquemment lorsqu’ils font des demandes à leurs bambins. Cette étude nous a permis d’explorer comment les parents manifestent leur SA et si le SA dans ce type de contexte est associé à un plus grand niveau d’internalisation des règles. Des parents (N = 182) de bambins (M âge = 27.08 mois) ont donc été invités à rapporter la fréquence avec laquelle ils utilisent 26 pratiques potentiellement soutenantes lorsqu’ils demandent à leurs bambins de compléter des tâches importantes mais non intéressantes et de rapporter à quel point ils valorisent le SA. Huit pratiques ont été identifiées comme étant soutenantes: quatre façons de communiquer de l’empathie, donner des explications courtes, expliquer pourquoi la tâche est importante, décrire le problème de façon informative et neutre, et mettre en pratique le comportement désiré soi-même. De plus, l’ensemble des huit pratiques corrélait positivement avec le niveau d’internalisation des bambins, suggérant aussi que celles-ci représentent bien le concept du SA. Des études futures pourraient tenter de répliquer ces résultats dans des contextes potentiellement plus chargés ou ébranlants (p. ex., réagir face à des méfaits, avec des enfants souffrant de retard de développement). La deuxième étude a poursuivi l’exploration du concept du SA parental en examinant les facteurs qui influencent la fréquence d’utilisation des stratégies soutenantes dans des contextes de socialisation. Puisque la littérature suggère que le stress parental et le tempérament difficile des bambins (c.-à-d., plus haut niveau d’affectivité négative, plus faible niveau de contrôle volontaire/autorégulation, plus faible niveau de surgency) comme étant des facteurs de risque potentiels, nous avons exploré de quelle façon ces variables étaient associées à la fréquence d’utilisation des stratégies soutenantes. Les buts de l’étude étaient: (1) d’examiner comment le tempérament des bambins et le stress parental influençaient le SA parental, et (2) de vérifier si le stress parental médiait la relation possible entre le tempérament des bambins et le SA parental. Le même échantillon de parents a été utilisé. Les parents ont été invités à répondre à des questions portant sur le tempérament de leur enfant ainsi que sur leur niveau de stress. Les résultats ont démontré qu’un plus grand niveau d’affectivité négative était associé à un plus grand niveau de stress parental, qui à son tour prédisait moins de SA parental. De plus, le stress parental médiait la relation positive entre l’autorégulation du bambin et le SA parental. Des recherches futures pourraient évaluer des interventions ayant pour but d’aider les parents à préserver leur attitude soutenante durant des contextes de socialisation plus difficiles malgré certaines caractéristiques tempéramentales exigeantes des bambins, en plus du stress qu’ils pourraient vivre au quotidien.
Resumo:
Dans ce mémoire, nous étudions un problème de tournées de véhicules dans lequel une flotte privée de véhicules n’a pas la capacité suffisante pour desservir les demandes des clients. Dans un tel cas, on fait appel à un transporteur externe. Ce dernier n’a aucune contrainte de capacité, mais un coût est encouru lorsqu’un client lui est affecté. Il n’est pas nécessaire de mettre tous les véhicules de la flotte privée en service si cette approche se révèle plus économique. L’objectif consiste à minimiser le coût fixe des véhicules, puis le coût variable de transport et le coût chargé par le transporteur externe. Notre travail consiste à appliquer la métaheuristique de recherche adaptative à grand voisinage sur ce problème. Nous comparons nos résultats avec ceux obtenus précédemment avec différentes techniques connues sur les instances de Christofides et celles de Golden.
Resumo:
Nous adaptons une heuristique de recherche à voisinage variable pour traiter le problème du voyageur de commerce avec fenêtres de temps (TSPTW) lorsque l'objectif est la minimisation du temps d'arrivée au dépôt de destination. Nous utilisons des méthodes efficientes pour la vérification de la réalisabilité et de la rentabilité d'un mouvement. Nous explorons les voisinages dans des ordres permettant de réduire l'espace de recherche. La méthode résultante est compétitive avec l'état de l'art. Nous améliorons les meilleures solutions connues pour deux classes d'instances et nous fournissons les résultats de plusieurs instances du TSPTW pour la première fois.
Resumo:
This paper proposes and investigates a metaheuristic tabu search algorithm (TSA) that generates optimal or near optimal solutions sequences for the feedback length minimization problem (FLMP) associated to a design structure matrix (DSM). The FLMP is a non-linear combinatorial optimization problem, belonging to the NP-hard class, and therefore finding an exact optimal solution is very hard and time consuming, especially on medium and large problem instances. First, we introduce the subject and provide a review of the related literature and problem definitions. Using the tabu search method (TSM) paradigm, this paper presents a new tabu search algorithm that generates optimal or sub-optimal solutions for the feedback length minimization problem, using two different neighborhoods based on swaps of two activities and shifting an activity to a different position. Furthermore, this paper includes numerical results for analyzing the performance of the proposed TSA and for fixing the proper values of its parameters. Then we compare our results on benchmarked problems with those already published in the literature. We conclude that the proposed tabu search algorithm is very promising because it outperforms the existing methods, and because no other tabu search method for the FLMP is reported in the literature. The proposed tabu search algorithm applied to the process layer of the multidimensional design structure matrices proves to be a key optimization method for an optimal product development.
Resumo:
Louis-André Dorion, dans un article publié en 2006 « Platon, Proclus et l’autarcie du monde », affirme que le concept d’autarcie dérivée de Proclus est un non-sens. Nous montrerons dans cet article que, loin d’être aporétique, le concept d’autarcie dérivée est tout à fait cohérent avec le système philosophique de Proclus. Pour défendre notre thèse, nous nous intéresserons spécifiquement à l’autarcie de l’âme, à travers le phénomène d’illumination suivant le processus de purification de l’âme séparable chez Proclus, rendant compte du caractère autoconstitutif de l’âme. Ainsi, nous comprendrons en quoi l’ontologie proclusienne permet de saisir les hypostases (Un, intellect et âme), non pas dans un rapport de causalité unilatérale hiérarchique, mais plutôt selon une dialectique de procession centrifuge et de conversion centripète. Finalement, il nous sera possible d’exposer que l’idée de dérivation ne contredit pas l’essence de l’autarcie, mais en est plutôt sa propre condition de possibilité.
Resumo:
A group of agents located along a river have quasi-linear preferences over water and money. We ask how the water should be allocated and what money transfers should be performed. We are interested in efficiency, stability (in the sense of the core), and fairness (in a sense to be defined). We first show that the cooperative game associated with our problem is convex : its core is therefore large and easily described. Next, we propose the following fairness requirement : no group of agents should enjoy a welfare higher than what it could achieve in the absence of the remaining agents. We prove that only one welfare vector in the core satisfies this condition : it is the marginal contribution vector corresponding to the ordering of the agents along the river. We discuss how it could be decentralized or implemented.
Resumo:
This paper proposes finite-sample procedures for testing the SURE specification in multi-equation regression models, i.e. whether the disturbances in different equations are contemporaneously uncorrelated or not. We apply the technique of Monte Carlo (MC) tests [Dwass (1957), Barnard (1963)] to obtain exact tests based on standard LR and LM zero correlation tests. We also suggest a MC quasi-LR (QLR) test based on feasible generalized least squares (FGLS). We show that the latter statistics are pivotal under the null, which provides the justification for applying MC tests. Furthermore, we extend the exact independence test proposed by Harvey and Phillips (1982) to the multi-equation framework. Specifically, we introduce several induced tests based on a set of simultaneous Harvey/Phillips-type tests and suggest a simulation-based solution to the associated combination problem. The properties of the proposed tests are studied in a Monte Carlo experiment which shows that standard asymptotic tests exhibit important size distortions, while MC tests achieve complete size control and display good power. Moreover, MC-QLR tests performed best in terms of power, a result of interest from the point of view of simulation-based tests. The power of the MC induced tests improves appreciably in comparison to standard Bonferroni tests and, in certain cases, outperforms the likelihood-based MC tests. The tests are applied to data used by Fischer (1993) to analyze the macroeconomic determinants of growth.
Resumo:
This paper studies monetary policy in an economy where the central banker's preferences are asymmetric around optimal inflation. In particular, positive deviations from the optimum can be weighted more, or less, severely than negative deviations in the policy maker's loss function. It is shown that under asymmetric preferences, uncertainty can induce a prudent behavior on the part of the central banker. Since the prudence motive can be large enough to override the inflation bias, optimal monetary policy could be implemented even in the absence of rules, reputation, or contractual mechanisms. For certain parameter values, a deflationary bias can arise in equilibrium.
Resumo:
A wide range of tests for heteroskedasticity have been proposed in the econometric and statistics literature. Although a few exact homoskedasticity tests are available, the commonly employed procedures are quite generally based on asymptotic approximations which may not provide good size control in finite samples. There has been a number of recent studies that seek to improve the reliability of common heteroskedasticity tests using Edgeworth, Bartlett, jackknife and bootstrap methods. Yet the latter remain approximate. In this paper, we describe a solution to the problem of controlling the size of homoskedasticity tests in linear regression contexts. We study procedures based on the standard test statistics [e.g., the Goldfeld-Quandt, Glejser, Bartlett, Cochran, Hartley, Breusch-Pagan-Godfrey, White and Szroeter criteria] as well as tests for autoregressive conditional heteroskedasticity (ARCH-type models). We also suggest several extensions of the existing procedures (sup-type of combined test statistics) to allow for unknown breakpoints in the error variance. We exploit the technique of Monte Carlo tests to obtain provably exact p-values, for both the standard and the new tests suggested. We show that the MC test procedure conveniently solves the intractable null distribution problem, in particular those raised by the sup-type and combined test statistics as well as (when relevant) unidentified nuisance parameter problems under the null hypothesis. The method proposed works in exactly the same way with both Gaussian and non-Gaussian disturbance distributions [such as heavy-tailed or stable distributions]. The performance of the procedures is examined by simulation. The Monte Carlo experiments conducted focus on : (1) ARCH, GARCH, and ARCH-in-mean alternatives; (2) the case where the variance increases monotonically with : (i) one exogenous variable, and (ii) the mean of the dependent variable; (3) grouped heteroskedasticity; (4) breaks in variance at unknown points. We find that the proposed tests achieve perfect size control and have good power.
Resumo:
The rationalizability of a choice function by means of a transitive relation has been analyzed thoroughly in the literature. However, not much seems to be known when transitivity is weakened to quasi-transitivity or acyclicity. We describe the logical relationships between the different notions of rationalizability involving, for example, the transitivity, quasi-transitivity, or acyclicity of the rationalizing relation. Furthermore, we discuss sufficient conditions and necessary conditions for rational choice on arbitrary domains. Transitive, quasi-transitive, and acyclical rationalizability are fully characterized for domains that contain all singletons and all two-element subsets of the universal set.
Resumo:
Dans ce texte, nous analysons les développements récents de l’économétrie à la lumière de la théorie des tests statistiques. Nous revoyons d’abord quelques principes fondamentaux de philosophie des sciences et de théorie statistique, en mettant l’accent sur la parcimonie et la falsifiabilité comme critères d’évaluation des modèles, sur le rôle de la théorie des tests comme formalisation du principe de falsification de modèles probabilistes, ainsi que sur la justification logique des notions de base de la théorie des tests (tel le niveau d’un test). Nous montrons ensuite que certaines des méthodes statistiques et économétriques les plus utilisées sont fondamentalement inappropriées pour les problèmes et modèles considérés, tandis que de nombreuses hypothèses, pour lesquelles des procédures de test sont communément proposées, ne sont en fait pas du tout testables. De telles situations conduisent à des problèmes statistiques mal posés. Nous analysons quelques cas particuliers de tels problèmes : (1) la construction d’intervalles de confiance dans le cadre de modèles structurels qui posent des problèmes d’identification; (2) la construction de tests pour des hypothèses non paramétriques, incluant la construction de procédures robustes à l’hétéroscédasticité, à la non-normalité ou à la spécification dynamique. Nous indiquons que ces difficultés proviennent souvent de l’ambition d’affaiblir les conditions de régularité nécessaires à toute analyse statistique ainsi que d’une utilisation inappropriée de résultats de théorie distributionnelle asymptotique. Enfin, nous soulignons l’importance de formuler des hypothèses et modèles testables, et de proposer des techniques économétriques dont les propriétés sont démontrables dans les échantillons finis.
Resumo:
This paper proposes an explanation for why efficient reforms are not carried out when losers have the power to block their implementation, even though compensating them is feasible. We construct a signaling model with two-sided incomplete information in which a government faces the task of sequentially implementing two reforms by bargaining with interest groups. The organization of interest groups is endogenous. Compensations are distortionary and government types differ in the concern about distortions. We show that, when compensations are allowed to be informative about the government’s type, there is a bias against the payment of compensations and the implementation of reforms. This is because paying high compensations today provides incentives for some interest groups to organize and oppose subsequent reforms with the only purpose of receiving a transfer. By paying lower compensations, governments attempt to prevent such interest groups from organizing. However, this comes at the cost of reforms being blocked by interest groups with relatively high losses.
Resumo:
In this paper, we study several tests for the equality of two unknown distributions. Two are based on empirical distribution functions, three others on nonparametric probability density estimates, and the last ones on differences between sample moments. We suggest controlling the size of such tests (under nonparametric assumptions) by using permutational versions of the tests jointly with the method of Monte Carlo tests properly adjusted to deal with discrete distributions. We also propose a combined test procedure, whose level is again perfectly controlled through the Monte Carlo test technique and has better power properties than the individual tests that are combined. Finally, in a simulation experiment, we show that the technique suggested provides perfect control of test size and that the new tests proposed can yield sizeable power improvements.
Resumo:
We study the problem of locating two public goods for a group of agents with single-peaked preferences over an interval. An alternative specifies a location for each public good. In Miyagawa (1998), each agent consumes only his most preferred public good without rivalry. We extend preferences lexicographically and characterize the class of single-peaked preference rules by Pareto-optimality and replacement-domination. This result is considerably different from the corresponding characterization by Miyagawa (2001a).